Skip Navigation

InitialsDiceBearhttps://github.com/dicebear/dicebearhttps://creativecommons.org/publicdomain/zero/1.0/„Initials” (https://github.com/dicebear/dicebear) by „DiceBear”, licensed under „CC0 1.0” (https://creativecommons.org/publicdomain/zero/1.0/)S
Posts
114
Comments
360
Joined
11 mo. ago

  • Dennoch. Wünsche mir auch, dass es mehr schräge Schlagzeilen zu echten Ereignissen gibt als schräge Schlagzeilen von falschen Redaktionen.

  • I had read "earthworm", which FYI happen to be non-existiant in North American soil, natively.

  • Es ist einer der meistgeklickten Artikel geworden. Vermutlich wünschten sich alle, eine blutige Platzwunde zu entdecken.

  • Wie kommst du darauf, dass ich es für notwendig halte?Ich halte es nur für erstaunlich und alle sollten es wissen, wie divers die Autoren waren, die diese 30 Spielregeln aufstellten.

    Wo sonst hat 1948 eine Frau politische Regeln aufgestellt? Und darauf, China in unsere Sicherheitspolitik einzubeziehen, ist man mKn auch erst dieses Jahr gekommen.

  • Ähm. Ich glaub, deine Dissonanz kannst du anders auflösen.

  • Daniel Kahneman: Thinking, Fast and Slow teilt das Denken in zwei Systeme auf: Logik und Intuition. Ich denke, den intuitiven Teil hat man nun mit KI gut implementiert.

    Perplexity.ai erkennt inzwischen ungefähr, wann es angebracht ist, logisch zu denken und entwirft zunächst ein Python Skript, das es ausführt und dessen Resultate es schließlich für die Antwort verwendet. Vielleicht gibt es inzwischen schon Unterstützung für Prolog und SAT-Solver..?

  • Weltmodell: Ich halte es eben für fließend. Modelle sind nie ganz vollständig. Aber wer Lückentexte in Kontaxten ausfüllen kann, weiß mehr als nur die Grammatik.

    Strawberry: Langsames und Schnelles Denken. Außerdem gibt es eine einfache Erklärung: Worte werden schon zu Lautschrift umgewandelt bevor sie das Modell zu "sehen" bekommt.

  • Im Titel habe ich Spiegel der Gesellschaft gelesen und gleich an die Diskussion darüber gedacht, welche Großmacht im KI-Wettrennen gewinnen wird, und ihr Mindset unter die Leute bringt.

    Das wird gefährlich, wenn die Mindsets inkompatibel sind und so die Gesellschaft spalten. Mindset, Framing, Hegemon, Weltanschauung, Deutungshoheit und Propaganda bedeuten alle ungefähr das gleiche in unterschiedlichen Kontexten.

    Die Grenze zwischen Sprach- und Weltmodell ist fließend. Beide können mit Systemprompts vor Nutzerprompts voreingestellt werden. Das lässt sich nachahmen, indem man als Nutzer die Modelle selbst betreibt.

    LLMs kann man leicht (auch ohne Grafikkarte) selbst betreiben. (Trainieren ist aufwendiger.) Mit ollama und der Modelldatei kann man ohne Internetverbindung Prompts direkt ohne Zensur abgeben. Auf dem eigenen Rechner würfelt ollama daraufhin eine Antwort mit den Wahrscheinlichkeiten des Modells und der Eingabe. Anleitungen gibt es im Netz.

    Hast du eine konkretere Frage?

  • Ja. Krasser Aufwand.

  • Schön dass KI zur breiteren Wahrnehmung von Framing (d.h. Variationen von Wahr und Falsch) führt. Ein anderes Wort dafür ist der Hegemon: Wer ihm widerspricht muss gute Gründe liefern, anders als jene, die weder Tabus brechen, Unwahrheiten behaupten noch sonst irgendwas Verwerfliches äußern.

    Jeder muss klar sein, dass Betreiber Vorauseilende Prefix-Prompts³ verwenden, die vor die Nutzerprompts gesetzt werden und einerseits Missbrauch abwenden oder inzwischen auch zur Mehrnutzung anregen sollen. Politischer Wille findet dort unter Umständen auch einen Ansatz.

    Deepseek konnte anfangs noch Anti-Chinesische Texte generieren und übertragen bis ein Stichwort die Löschung der gesamten Antwort auslöste (habe seitdem nicht nochmal Deepseek benutzt). Inzwischen dürfte das wohl auch durch Prefix-Prompts umgangen werden.²

    Zur Einschätzung der Technologie° (Technologiefolgenabschätzung) empfehle ich, die LLM-Modelle lokal zu betreiben und zu befragen, ohne Prefix-Prompts. Ich weiß allerdings nicht, ob inzwischen schon mit (politischen) Prefixen trainiert wird, wodurch (intensiver) vorgeprägte Modelle entstehen.


    Ergänzungen²) Prefix-Prompts können mit bestimmten Angriffen umgangen oder abgefragt werden.³) Auch "SuperPrompt", "KI-Beschränkung", "System Prompt"°) Zur Einschätzung empfehle ich eine Rede vom Kybernetiker Fritz von Foerster. Kurz: Rechnersysteme antworten nur auf die Eingabe und das möglichst immer gleich. Diese Vorhersehbarkeit ist langfristig wichtig, niemand will einen unzuverlässigen Taschenrechner. LLMs haben ein so breites Anwendungsgebiet, dass sich diese Feststellung erst spät auskristallisieren wird. Andererseits scheint die Anwendung unvorhersehbarer Systeme seit der Grundlagenkrise der mathematik eine Art Regress zu sein, der zumindest schon jetzt zur effizienteren Muster-Erkennung/-Erzeugung (unter dem Vorbehalt einer Fehlertoleranz) führte. Regress in dem Sinne, dass falls man Modelle in analoge bspw. optische Komponenten gießt, hat man es mit nichtdeterministischen Elementen zu tun, die in die bisher deterministische "Rechner"-Arithmetik einfließen. Je nachdem wie Fehlertolerant wir sein wollen.


    Sicher, die prominentesten Modelle (auch DeepSeek) wurden überwiegend mit US-Amerikanischen Verbrauchermeinungen aus Internetforen und Kommentarspalten gefüttert und sind entsprechend gefärbt. Bei wissenschaftlichen Veröffentlichungen (die immer noch als mehrspaltige PDF vorliegen), ist wiederum das Training 1. seltener und 2. methodisch falsch abgelaufen.

  • ok sorry. das wth gehörte eher zur nummerierung der personen

  • Muss ich was daran auszusetzen haben, um das zu fragen?

  • wth. was fürn foto ist das

  • Ich nehme an, weil annonyme Kommunikation und deren Mittel dazu kein Verbrechen sind.

    Ist dieser Mann ein kompromissloser Verfechter radikaler Freiheit oder ein Komplize von Verbrechern aller Art?

    Wer die Doku gesehen hat, kann sie so verstehen, dass damit allerdings gemeint sein kann, dass die AGB von Telegram bzgl. Datenoffenlegung gegenüber Behörden (erst für Terror, später sämtliche Strafverfolgung) immer mehr nachgegeben hat. Außerdem erfährt man, dass das Verschlüsselungsverfahren seit es von Durov's Bruder erdacht wurde inzwischen "leicht verändert" wurde. Von Whatsapp wissen wir, dass Null-Keys bzw. mengenmäßig beschränkte Schlüssel verwendet werden, die die Entschlüsselung durch Dritte (Geheimdienste) erleichtern.

    Als Forum im Sinne von Andreas Eschbach's NSA ist Telegram mit Sicherheit extrem wichtig für Geheimdienste. Telegram-Server sind closed-source und die Voreinstellungen des Clients nachlässig.

    Fragwürdig, ob das den Durovs anzulasten ist, wobei der Alexander Durov sich mit Verhaltenspsychologie (Nudging, etc.) auskennt. Die Recherche kann nur vermuten, insofern bleibt die anfängliche Fragestellung unbeantwortet und dient sowohl nur dem Klickbait als auch einer hegemoniellen Einordnung.

  • Hochdeutsch (Hannover). Eventuell ein Hauch Hamburg.

    Vielleicht liegt es an seiner Stimmlage?

  • O'rly!?