ChatGPT Alternativen
14/04/2023ChatGPT ist jetzt auch Mediziner
15/04/2023Sprachmodelle als “Bullshit-Generatoren” und Menschen, die KI regulieren wollen, als “moderne Ludditen” zu bezeichnen, ist schlecht für alle.
Wenn wir versuchen, das Neue aus dem Alten und das Unbekannte aus dem Bekannten zu verstehen, laufen wir Gefahr, entweder zu viel Wahrheit wegzulassen oder zu viel Falsches hinzuzufügen, so dass unsere Suche unweigerlich ins Leere läuft.
Metaphern und historische Vergleiche sind stets unvollkommen. Sie sind oft ein Kompromiss zwischen Treue und Einfachheit mit einem Hauch von Motivation, um ein Argument voranzubringen. Wenn wir sie zu oft verwenden, schaden wir unbeabsichtigt der Qualität des Gesprächs und beeinträchtigen unser Verständnis und das der anderen.
Das ist die entmutigende Krankheit, an der die KI heute leidet.
Erfolgreiche Metaphern als Signale der Voreingenommenheit
KI-Metaphern fallen einem besonderen Phänomen zum Opfer: dem Tod durch Erfolg.
Als ich zum ersten Mal hörte, dass GPT-3 als “stochastischer Papagei” bezeichnet wird, ein Begriff, den die Linguistin Emily M. Bender geprägt hat, machte es bei mir klick. Er brachte eine der problematischsten – und eigenartigsten – Eigenschaften von Sprachmodellen auf den Punkt (nämlich, dass sie im Gegensatz zu Menschen absichtslose, pseudozufällige Äußerungen von sich geben). Die Idee verbreitete sich wie ein Lauffeuer: Jeder konnte mit wenigen Worten die Grenzen von Sprachmodellen aufzeigen. Ein prägnantes und schlagkräftiges Argument in KI-Debatten.
Doch seit zwei Jahren sieht man es überall. Der Begriff wurde bis zur Bedeutungslosigkeit manipuliert: Die Metapher hat die Substanz aufgefressen. Wenn ich ihn jetzt lese, wird mir klar, dass er nicht mehr die Rolle spielt, für die er gedacht war, weil er ideologisch aufgeladen ist; er ist nicht mehr ein Hinweis auf eine tiefe Wahrheit über die Unzuverlässigkeit von Sprachmodellen, sondern ein aufgeladener Ausdruck, der die Parteinahme des Autors signalisiert. Seinen Standpunkt. Es ist ein Symbol – wie eine Fahne – kein Argument.
Das Gleiche geschieht auf der “anderen Seite” der KI-Debatte (nicht jeder ist gleichermaßen anfällig für anstrengende Metaphern, aber ich habe es auf beiden Seiten erlebt). Zum Beispiel wird die Idee, dass ChatGPT sich nicht vom menschlichen Gehirn unterscheidet, weil auch sie nur “Vorhersagemaschinen” oder “glorifizierte Überraschungsminimierer” sind, wie es der Neurowissenschaftler Erik Hoel ausdrückt, überstrapaziert. Wie die Behauptung, Sprachmodelle seien “stochastische Papageien”, mag sie einen gewissen Wahrheitsgehalt haben, geht aber im Krieg der Narrative unter.
Es geht mir nicht darum, die Rosinen herauszupicken. An Beispielen mangelt es nicht: von “ChatGPT ist ein verschwommenes JPEG des Webs” bis zu “Stable Diffusion ist ein automatisches Plagiat”. Und von “ChatGPT ist wie ein E-Bike für den Geist” oder “wie ein Übermensch” bis zu “AGI”… Ich könnte noch viel mehr aufzählen. Der springende Punkt ist nicht, wie weit diese Analogien von der Wahrheit entfernt sind (was in der Tat ein Problem sein kann), sondern die Tatsache, dass sie eher als dialektische Waffe benutzt werden, um die Ideen der Gegenseite abzulehnen – oder die Aufmerksamkeit der Ingroups zu erregen – als um ihre (begrenzte) Gültigkeit als Argumente hervorzuheben.
Ich habe erlebt, wie sich Menschen in Debatten in sozialen Medien mit Metaphern beworfen haben, als wären sie der ultimative Angriff (nicht, dass Twitter der Gipfel des Intellektualismus wäre, aber immerhin). Das mag nicht problematisch sein, da Online-Diskussionen in der Regel von geringer Qualität sind, aber es ist sehr schädlich, wenn eine hochkarätige Persönlichkeit der KI-Öffentlichkeit wie Sam Altman, CEO von OpenAI (1,4 Millionen Twitter-Follower), die Analogie des “stochastischen Papageis” spöttisch – und unwissenschaftlich – in eine Behauptung verwandelt, die die Debatte beendet:
Altmans unbeweisbare Behauptung erweckt den Eindruck, als gäbe es der Diskussion nichts mehr hinzuzufügen – und ahnungslose Zeugen würden ihm sicherlich glauben, dass er eine Autorität auf diesem Gebiet ist. Es überrascht nicht, dass Emily M. Bender ihm nicht zustimmt: “Du bist kein Papagei und ein Chatbot ist kein Mensch”.
Tweets wie die von Altman helfen niemandem. Sie verwirren nur die Diskussion, indem sie die Emotionen der Menschen auf einer rhetorischen Ebene anzapfen. Statt auf die Argumente hinter der Metapher einzugehen, tut er sie mit einem halben Witz ab. Dies ist eine unvermeidliche Folge seines Erfolges und unserer verwerflichen Neigung, den Diskurs über KI durch den Missbrauch dieser oft gut gemeinten, aber nur teilweise korrekten Analogien auf einen dogmatischen Streit zu reduzieren.
Historische Ereignisse als unscharfe Spiegel der Gegenwart
Wie sich herausstellt, lieben KI-Leute Geschichten ebenso sehr wie Metaphern.
In einem Exklusivinterview für Forbes fragten Alex Konrad und Kenrick Cai Altman: “Sehen Sie Parallelen zwischen dem heutigen Stand des KI-Marktes und, sagen wir, dem Aufkommen von Cloud Computing, Suchmaschinen oder anderen Technologien?” Er antwortete:
Genau so ist es. Ich stimme nicht mit seiner Bemerkung über das “Papageienverhalten” der Menschen überein, aber in diesem Punkt stimme ich ihm zu. Wenn man Parallelen zwischen KI und anderen disruptiven Technologien zieht, um Behauptungen für oder gegen sie zu untermauern, dient das selten dazu, sie in ein objektives Licht zu rücken, sondern eher dazu, eine bestimmte Geschichte zu erzählen. Beispielsweise haben disruptive Technologien (über historische Zeiträume betrachtet) letztlich mehr Arbeitsplätze geschaffen als vernichtet, so dass wir davon ausgehen können, dass KI den gleichen Effekt haben wird (dies war das Hauptargument von Roon und Noah Smith für generative KI in einem Aufsatz mit dem vielsagenden Titel “Autocomplete for everything“).
Und es geht nicht nur um andere Technologien. Historische Ereignisse, die Ähnlichkeiten mit der heutigen Situation aufweisen, lassen sich mit einem rhetorischen Kunstgriff leicht ausweiten, um ein bestimmtes Argument zu untermauern – und das funktioniert unabhängig davon, ob man glaubt, dass KI für die Gesellschaft positiv oder negativ ist.
Ich habe schon einige Vergleiche gesehen, auf die ich immer wieder anspiele: Ludditen mit Menschen, die glauben, dass Text-Bild-Modelle wie Stable Diffusion ihren Lebensunterhalt bedrohen; KI mit Feuer oder Elektrizität wegen ihres enormen Potenzials, die Gesellschaft von Grund auf neu zu definieren; den Hype um generative KI mit dem Hype um Web3/Krypto; oder die Auswirkungen von KI-Kunst auf traditionelle Künstler mit dem Aufkommen der Fotografie im 19. Jahrhundert. Und auch ich bin nicht frei von Schuldgefühlen: Erst letzte Woche habe ich den Wert des Erlernens der Souffleurtechnik heute mit dem des Erlernens der englischen Sprache als Nicht-Muttersprachler verglichen, als ich jünger war.
Der jüngste Beitrag, den ich gefunden habe, stammt von einer Autorin, die die Bedeutung der vorübergehenden Schließung von Clarkesworld (aufgrund einer noch nie dagewesenen Menge an KI-generierten Beiträgen) herunterspielt, indem sie eine Analogie zum Aufkommen von Online-Magazinen vor 30 Jahren zieht: “Ist das wirklich eine Krise der Kreativität? Oder eine Chance?”, fragte sie.
Heather Cox Richardson, Geschichtsprofessorin und die erfolgreichste Substack-Autorin aller Zeiten, sagte: “Geschichte wiederholt sich nicht, aber sie reimt sich”. Ich stimme ihr zu: Wir können viel aus der Vergangenheit lernen. Ich halte es für wichtig, die Geschichte zu studieren, um die Gegenwart besser zu verstehen (tatsächlich glaube ich, dass es keine Möglichkeit gibt, die Welt zu verstehen, wie sie ist, ohne zu wissen, wie sie war), aber es ist wichtig, ehrlich zu sein: Keiner dieser Vergleiche ist perfekt (einige, wie der von Char, sind besonders schlecht), also sollten wir sie auch so darstellen.
Ist das Aufkommen von KI-Schreibwerkzeugen wie ChatGPT wirklich vergleichbar mit dem Aufkommen digitaler Zeitungen? Verhalten sich diejenigen, die eine bessere Regulierung von generativen KI-Unternehmen fordern, wie Ludditen? Eine detailliertere Analyse ohne wortgewaltige Metaphern wäre sicherlich hilfreich.
Wie Altman sagt, besteht die Gefahr, dass wir uns zu sehr auf die Ähnlichkeiten konzentrieren und historische Ereignisse in eine Gegenwart projizieren, in der ganz andere Umstände herrschen.
Nicht auf das einfache Argument hereinfallen
Ich habe dieses Thema mit Analogien, Metaphern und historischen Vergleichen von beiden Seiten der KI-Debatte illustriert (d.h. von denen, die glauben, dass moderne KI nichts weiter als ein mächtiges statistisches Werkzeug ist, und von denen, die glauben, dass KI noch fünf Jahre entfernt ist).
Auch wenn ich einige Metaphern für problematischer halte als andere (z.B. ist der Vergleich von ChatGPT mit dem menschlichen Gehirn ziemlich weit hergeholt), möchte ich betonen, dass ich hier keine bestimmte Position vertrete (nicht einmal meine eigene, die eher zur Gruppe der “Stochastik-Papageien” gehört), sondern auf ein allgemeines Problem hinweise, das uns alle betrifft.
Dieser neue Trend – den es schon immer gab, der aber durch ChatGPT um ein Vielfaches verstärkt wurde – könnte den gesamten Diskurs über KI nutzlos und bedeutungslos machen: Je mehr wir über KI sprechen, indem wir bedeutungsverwässerte Begriffe und zweifelhaft vergleichbare Ereignisse verwenden, desto mehr entfremden wir diejenigen, die mit der ursprünglichen Absicht nicht vertraut sind – also die meisten Menschen.
Fast alle Menschen beteiligen sich an dieser Praxis. Sie geht Hand in Hand mit der Popularisierung der KI und der Notwendigkeit, mit der breiten Öffentlichkeit in einer Sprache zu kommunizieren, die leichter zu verstehen ist, aber wir können es besser machen. Wir sollten nicht in Begriffen sprechen, mit denen wir uns gegenseitig “beschimpfen”.
Meine Lösung – von der ich nicht so naiv bin zu glauben, dass sie diese allgegenwärtige Tendenz ersetzen wird, die aber bis zu einem gewissen Grad helfen könnte – ist, Metaphern und Vergleiche nicht als eigenständige Argumente zu missbrauchen. Es ist wichtig, sie in einen Kontext zu stellen, damit sie nützlich sind. Wir sollten die Grenzen der Anwendbarkeit akzeptieren, bevor wir beschließen, den Gegenstand der Debatte vollständig durch einen unvollkommenen Ersatz zu ersetzen.
Es ist nicht sinnvoll, dies immer zu tun, aber zumindest von Zeit zu Zeit, um die Bedeutung wieder aufleben zu lassen, die diese ansprechenden Analogien erfolgreich eingefangen haben, die nun aber durch Zeit und Gebrauch verblasst sind.
Die Algorithmische Brücke abonnieren. Die Brücke zwischen Algorithmen und Menschen. Ein Newsletter über KI, die das Leben verändert.