Apr 11, 2023
Seit seiner Veröffentlichung im November 2022 ist ChatGPT „the new big thing in town“, das wiederum die Aufmerksamkeit auf große Sprachmodelle (LLM) im Allgemeinen und auf den Fortschritt der künstlichen Intelligenz (KI) im Allgemeinen lenkt. Überall, wo man sich hinwendet, spricht jemand von KI – für Text, Bild, Video, Musik usw. Ein verständlicher Hype, wenn man bedenkt, welche unglaublichen Fähigkeiten die neueste Version dieser Tools bietet.
Der Zweck dieses Artikels ist es, das anzusprechen, was ich die drei Illusionen der KI nenne: die Illusion der Wahrheit, die Illusion der Neutralität und die Illusion des Denkens, und die Diskussion über den Unterschied zwischen Intelligenz und Inspiration, zwischen Erzeugen und Erschaffen zu eröffnen.
In der Tat hört man in diesem überfüllten Raum der Meinungen von allem etwas – und eine gehörige Portion Unsinn. Ende März 2023 nahm das mangelnde Verständnis dafür, was KI kann oder nicht kann, eine dramatische Wendung, als ein junger belgischer Vater nach wochenlangem Gespräch mit dem KI-Chatbot "Eliza" Selbstmord beging (Link)
Beginnen wir mit einer kurzen Erinnerung, bevor wir zum Kern der Sache übergehen.
Was ist eigentlich ChatGPT?
ChatGPT ist eine Webschnittstelle zu GPT 3.5, einem LLM von OpenAI. Es ist in der Lage, Text in einer Vielzahl von Formen und für verschiedene Zwecke zu generieren – Texte zusammenfassen oder sogar schreiben, menschliche Konversationen nachahmen usw. Seine Präzision, die deutlich höher ist als bei früheren Versionen, ist wirklich beeindruckend. Es gibt viele andere LLM, die etwas weniger bekannt sind, und eine Reihe anderer KI, die in den Bereichen Video, Audio, Bilder, Forschung, Design und mehr aktiv sind.
Es gibt eine Menge guter Literatur, die die Funktionsweise von ChatGPT und LLM im Allgemeinen erklärt. Für eine schnelle Einführung empfehle ich persönlich diese beiden kurzen öffentlichen Artikel, die leicht zu lesen sind: hier und hier
Vereinfacht ausgedrückt handelt es sich bei einem LLM um ein statistisches Modell, das die wahrscheinlichste Fortsetzung eines Textes vorhersagt. LLMs schauen sich den bisher vorhandenen Text an und bewerten verschiedene Optionen, um diesen Text fortzusetzen, und ordnen diese Optionen nach Wahrscheinlichkeit. Zum Beispiel: "Die Katze schläft auf dem..." könnte mit "Sofa", "Stuhl", "Teppich" oder sogar "Tisch" fortgesetzt werden (wenn die Katze nicht gut erzogen ist). LLMs beenden den Satz, indem sie das wahrscheinlichste Wort auswählen, basierend auf ihrem Training.
LLM-Schulungen sind ein wichtiges Merkmal, das es zu verstehen gilt. Insbesondere ChatGPT wird speziell über sogenanntes "Reinforcement Learning via Human Feedback" trainiert. Das bedeutet, dass eine Gruppe von menschlichen Testern die Modellergebnisse bewertet und bewertet. Auf diese Weise kann das Modell über mehrere Iterationen lernen, welche Antworten von der Gruppe der Tester positiver wahrgenommen werden, und menschliches Verhalten genauer nachahmen.
Die Potenziale, die KI erschließt, sind beeindruckend. Aber wenn wir vermeiden wollen, in eine dystopische Zukunft einzutreten, müssen wir uns alle darüber im Klaren sein, was die aktuelle KI tatsächlich kann oder nicht kann, und insbesondere über die drei Illusionen.
Die Illusion der Wahrheit
Beginnen wir mit den "Halluzinationen", für die LLM anfällig sind. "Halluzination" ist der Fachbegriff, der besagt, dass KI gelegentlich buchstäblich Dinge erfindet, die nicht wahr sind (dazu gibt es online reichlich Literatur). Dieses Phänomen erklärt, warum sich sowohl die neuen KI-Chatbots von Google als auch von Microsoft bei ihren ersten öffentlichen Demos im Februar 2023 einfach etwas ausgedacht haben, ohne mit der Wimper zu zucken – wenn ich das so sagen darf. Andere Beispiele sind Fälle, in denen ChatGPT buchstäblich eine Rechtsprechung erfindet, die es nicht gibt (Link). Wir sprechen hier nicht davon, Dinge zu verwechseln, wie wir es alle manchmal tun, sondern buchstäblich Dinge zu erfinden und sie als offensichtliche Aussagen darzustellen, obwohl sie einfach unwahr sind.
Die Illusion der Neutralität
Da das Modell darauf trainiert wurde, Ausgaben bereitzustellen, die den meisten Testern gefallen, wird es stark davon beeinflusst, wer es getestet hat. Daher kann das gleiche Modell je nach den Präferenzen der Testgruppe deutlich unterschiedliche Ergebnisse liefern. Dies kann durch Alter, Nationalität, ethnische Zugehörigkeit, Geschlecht, politische oder religiöse Überzeugungen beeinflusst werden. Mit anderen Worten, wir füttern ein Tool, das viele seiner Nutzer für neutral halten, mit grundlegend subjektiven Datenpunkten.
Diese Illusionen haben Konsequenzen. Der junge Vater, der Ende März 2023 Selbstmord begangen hat, hat sich auf die Zuverlässigkeit und Neutralität der KI verlassen – und letztlich auf ein Tool vertraut, das eigentlich nicht mitdenkt. Das führt uns zu unserer letzten und wichtigsten Illusion.
Die Illusion des Denkens
LLMs ahmen menschliches Verhalten auf eine Weise nach, die beeindruckend genug ist, um ihren menschlichen Nutzern den Eindruck zu vermitteln, zu denken. Aber, wie wir oben gesehen haben, wiederholen sie eigentlich nur die am weitesten verbreiteten Standpunkte aus ihrem Training, also im Grunde das, was den meisten ihrer Benutzer gefällt. Auch hier ist dies ziemlich riskant, wenn es nicht richtig verstanden wird. Beim originellen Denken geht es nicht darum, die Meinung der Mehrheit zu wiederholen. Es ist von Natur aus disruptiv. Kopernikus, Galilei, Descartes oder Kant haben bereits bestehende Konzepte nicht wiederholt, zusammengefasst oder umformuliert. Sie haben sich etwas so grundlegend Neues einfallen lassen, dass sie die Art und Weise, wie die Menschheit die Welt sieht, neu gestaltet haben. Der Mangel an originellem Denken ist wesentlich für die Art und Weise, wie die aktuelle KI funktioniert.
Wir haben bereits die "Halluzinationen" erwähnt, für die LLM anfällig sind. Würden wir das "Lügen" nennen? Wahrscheinlich nicht. Denn irgendetwas sagt uns intuitiv, dass das nicht angemessen ist. Anders ausgedrückt, weil wir alle irgendwie erkennen, dass es keine Absicht gibt, zu täuschen. Dieser Mangel an Absicht ist der springende Punkt. ChatGPT und andere LLM haben keine Absicht, wenn sie mit Ihnen interagieren. Mit anderen Worten: ChatGPT sagt Ihnen Dinge, meint aber nichts. Statistische Vorhersagen, Nachahmungen, sind kein originelles Denken, sie haben nur die Illusion davon. Aus diesem Grund erstellt KI nicht eigentlich, sondern generiert nur – Text, Musik, Bilder usw. Schöpfung erfordert Absicht, Intuition und Inspiration, einen "Funken", der nicht nur ein Merkmal der Nachahmung oder statistischer Prognosen ist. Wir können natürlich etwas Zufälligkeit in die Algorithmen einbauen, aber das wird die Illusion nur verbessern, es wird die KI nicht wirklich kreativer machen.
Na und?
Die Auswirkungen von KI auf unser Leben werden so massiv sein, dass wir sie nicht in wenigen Zeilen zusammenfassen können. Es gibt unendlich viel mehr zu sagen und zu denken. Wirtschaftliche Überlegungen in Bezug auf den Arbeitsmarkt. Pädagogische Überlegungen, z. B. wie die nächsten Generationen ihr Gedächtnis schulen und kritisches Denken aufrechterhalten werden. Ethische Überlegungen, inwieweit wir bestimmte Entscheidungsfindungen an KI delegieren wollen, insbesondere für gesundheitliche oder militärische Anwendungen.
Nach dem oben erwähnten Drama hat der Redakteur von Eliza seinen Chatbot so modifiziert, dass Selbstmordgedanken, die Eliza gegenüber geäußert werden, nun zu einer Warnmeldung an den Benutzer führen, die ihn an die Hotlines zur Suizidprävention weiterleitet. Mir scheint, dass wir hier das Wesentliche verfehlen. Wir versuchen, mit einem zusätzlichen Prozess etwas zu sortieren, das mit der Suche nach Sinn zu tun hat. Was den jungen Vater zum Selbstmord trieb, war nicht das Fehlen einer Alarmbereitschaft. Es war ein übermäßiges Vertrauen in das, was der Chatbot tatsächlich weiß, tut oder kann.
Wir brauchen keine Warn-Popups. Wir müssen uns umfassend und schnell über die sich entwickelnden Merkmale, Funktionsweisen und Fähigkeiten der KI informieren. Wir müssen uns nicht nur ihrer beeindruckenden Fähigkeiten bewusst sein, sondern auch ihrer inhärenten Grenzen: der Illusion der Wahrheit, der Illusion der Neutralität und der Illusion des Denkens. KI-Tools sind keine Philosophen, Wissenschaftler oder Priester. Sie sind keine Menschen. Sie sind beeindruckende produktivitätssteigernde Werkzeuge, die den Menschen helfen, sie aber nicht von der Anstrengung und Fähigkeit des kritischen Denkens, des kontinuierlichen Lernens und der originellen menschlichen Schöpfung entbinden.
Romain Leroy-Castillo