KI und Astronomie
21/07/2023Basteln mit den Marionetten des Schicksals
23/07/2023OpenAI befürchtet, dass KI ein ernsthaftes Risiko für das Aussterben der Menschheit darstellt. Sie sind nicht allein.
Das Orientierungsproblem
Die Nachricht ist überall.
OpenAI hat vor kurzem die Gründung eines Superalignment-Teams angekündigt, das in nur vier Jahren das größte Problem der KI lösen soll:
Das Ausrichtungs-Problem.
Und wenn du denkst, dass das nur ein Marketing-Gag ist, liegst du falsch.
Tatsächlich stellen sie 20% ihrer Rechenressourcen für dieses Team zur Verfügung, eine enorme Zahl, wenn man bedenkt, dass Rechenressourcen das begehrteste Element in der heutigen KI-Branche sind.
Sie meinen es ernst.
Aber die Ankündigung von OpenAI ist nur der letzte Strohhalm in einer Reihe von Nachrichten über diesen bevorstehenden Gedanken, der den meisten nicht bewusst ist:
Die mögliche Auslöschung der Menschheit in dem Moment, in dem wir eine KI schaffen, die schlauer ist als wir und die wir nicht mehr kontrollieren können.
Das Risiko ist real
Man muss Angstmacherei vermeiden, denn sie bringt nichts als unbegründete Angst und lähmt die Innovation.
Aber wenn Yoshua Bengio redet, hörst du zu. Und wenn er besorgt ist, solltest du es auch sein.
Mit gutem Beispiel vorangehen
Yoshua Bengio gilt als einer der drei größten Deep Learning-Forscher der Geschichte, ist Mitglied des „Deep Learning Godfathers“-Trios und wurde mit dem Alan-Turing-Preis ausgezeichnet.
Seine Forschung hat den Menschen in der KI vorangebracht, und einige seiner Innovationen führten zur Entwicklung des Self-Attention-Mechanismus, der die Grundlage für die Architektur von ChatGPT und im Grunde für jede existierende generative KI-Technologie bildet.
In den letzten Jahren hat sich Yoshua darauf konzentriert, das System-2-Denken von Large Language Models (LLMs) zu verbessern.
Einfach ausgedrückt geht es darum, Maschinen beizubringen, die Lösung komplexer Probleme auf ähnliche Weise zu finden wie Menschen.
Der Grund dafür ist, dass Konversationstechnologien wie ChatGPT immer in System 1 denken, wenn man ihnen nichts anderes sagt.
System-1-Denken, wie es der Psychologe Daniel Kahneman in seinem Buch „Thinking, Fast and Slow“ definiert, bezieht sich auf unsere intuitive, automatische, unmittelbare und oft unbewusste Denkweise.
Es ist die schnelle, instinktive und emotionale Art, Entscheidungen zu treffen, z. B. das Gesicht eines Freundes zu erkennen, Emotionen zu lesen oder zu entscheiden, was wir essen sollen. Sie ist effizient und erfordert nicht viel Energie oder Aufmerksamkeit, aber sie ist auch anfälliger für Voreingenommenheit und Fehler.
Für die meisten Kommunikationen mit ChatGPT funktioniert das gut, aber für komplexere Aufgaben – wie das Lösen eines komplexen Matheproblems -, die Nachdenken und Zeit zum Nachdenken erfordern, ist es nicht die ideale Denkweise.
Diese Art des Denkens wird als System-2-Denken bezeichnet.
Ein einfacher Trick, um ChatGPT zum System-2-Denken zu verleiten, ist zum Beispiel, es zu bitten, „Schritt für Schritt vorzugehen“, was das Modell dazu zwingt, mehr Token auszugeben (man geht allgemein davon aus, dass je mehr Token ausgegeben werden, desto mehr Rechenleistung das Modell aufwendet, um die Lösung zu finden, und damit ein besseres Ergebnis erzielt) und einer gut durchdachten, menschenähnlichen Denkstruktur zu folgen.
In diesen Fällen ahmt ChatGPT das menschliche Denken sehr gut nach und erzielt viel bessere Ergebnisse.
Lange Rede, kurzer Sinn: Yoshuas Forschung konzentrierte sich genau auf diese Entwicklung, die eine grundlegende Voraussetzung für die Entwicklung wirklich universeller KI-Systeme ist und für einen der größten Köpfe unserer Zeit wie geschaffen zu sein scheint.
Aber jetzt hat Yoshua seinen Forschungsschwerpunkt komplett auf die KI-Sicherheit verlagert, um sich mit den potenziell menschenverachtenden Risiken einer superintelligenten KI auseinanderzusetzen.
Wie gefährlich und plausibel ist also dieses „Alignment-Problem„, das einen der größten Köpfe der Welt dazu gezwungen hat, von einem kritischen Forschungsschwerpunkt auf das Alignment von KI abzuweichen?
Ein Fokus auf KI-Sicherheit
Der Begriff „KI-Sicherheit“ bezieht sich auf das Forschungsgebiet, das sich damit beschäftigt, dass Systeme der künstlichen Intelligenz (KI) und des maschinellen Lernens (ML) so funktionieren, dass sie der Menschheit nützen und keine Risiken bergen.
Dazu gehört ein breites Spektrum an Überlegungen, unter anderem:
- Robustheit: KI-Systeme sollten in der Lage sein, gegnerischen Angriffen zu widerstehen und in einer Vielzahl von Situationen zuverlässig zu funktionieren.
- Interpretierbarkeit: Der Entscheidungsprozess von KI-Systemen sollte nachvollziehbar und interpretierbar sein. Das ist wichtig für Vertrauen, Verantwortlichkeit und Fehlerbehebung.
- Fairness: KI-Systeme sollten bestehende Vorurteile in der Gesellschaft nicht aufrechterhalten oder verstärken. Sie sollten alle Personen und Gruppen fair behandeln.
- Privatsphäre und Sicherheit: KI-Systeme sollten die Privatsphäre der Nutzer/innen respektieren und keine Sicherheitsrisiken bergen.
- Übereinstimmung mit menschlichen Werten: KI-Systeme sollten so konzipiert sein, dass ihre Ziele und ihr Verhalten mit den menschlichen Werten und der Ethik übereinstimmen. Dies wird oft als das „Problem der Werteausrichtung“ bezeichnet.
- Vermeidung von unerwünschten Verhaltensweisen: KI-Systeme sollten so konzipiert sein, dass sie schädliches oder unerwünschtes Verhalten vermeiden, selbst wenn ein solches Verhalten eine logische Folge ihrer Programmierung ist.
- Langfristige Auswirkungen: Die langfristigen Auswirkungen von KI auf die Gesellschaft sollten sorgfältig bedacht und gesteuert werden. Dazu gehören auch potenzielle existenzielle Risiken, die von einer superintelligenten KI ausgehen.
Die KI-Sicherheitsforschung zielt darauf ab, diese Probleme anzugehen und Methoden zu entwickeln, die gewährleisten, dass KI-Systeme sicher und nützlich sind.
Dieser Bereich stand jedoch bei KI-Forschern, Universitäten, Unternehmen oder sogar Ländern nie an erster Stelle und wurde oft zugunsten von Innovationen oder Störungen vernachlässigt, die einen greifbaren Wert schaffen – die es dem Erfinder ermöglichen, mehr Geld zu gewinnen, im Grunde.
In den letzten Jahren haben die Regulierungsbehörden jedoch umgeschaltet und der KI-Sicherheit einen hohen Stellenwert eingeräumt. Das geht so weit, dass sie die Hauptantriebskraft für Verordnungen wie das bevorstehende KI-Gesetz der Europäischen Union sind, ein mit Spannung erwartetes, aber auch stark kritisiertes Regelungspaket, das die KI-Sicherheit zu einer Priorität der Europäischen Union macht.
Trotzdem sind Unternehmen wie OpenAI oder Forscher wie Yoshua der Meinung, dass diese Vorschriften zwar ein Schritt in die richtige Richtung sind, aber noch effizienter sein könnten.
Warum, fragst du dich vielleicht?
Ganz einfach, weil wir nicht regulieren können, was wir nicht verstehen.
Was erschaffen wir wirklich?
Wenn es eine Sache gibt, die durch Yoshuas Wandel und die offenen Ängste von OpenAI in Bezug auf Superintelligenz deutlich wird, dann ist es die, dass die Regulierungsbehörden absolut ungeeignet sind, den aktuellen Stand der KI zu regulieren.
Wenn du dich fragst, warum das so ist, ist es eigentlich ganz einfach: Niemand kann KI derzeit richtig regulieren, weil wir kläglich daran scheitern zu erklären, wie unsere derzeitigen hochmodernen Systeme funktionieren.
Und das ist das eigentliche Problem.
Ein undurchsichtiges Durcheinander
Kürzlich hörte ich ein Podcast-Interview mit einer der führenden Regulierungsbehörden, Alexandra Geese, die an Europas KI-Gesetz arbeitet, dem ersten Versuch der Menschheit, KI zu regulieren.
Was die LLMs angeht, sind ihre Beweggründe klar: Wenn wir von jeder menschlichen Schöpfung verlangen, dass sie erklärbar und verständlich ist, warum sollten wir dann nicht die gleiche harte Haltung gegenüber generativer KI einnehmen?
Schließlich geht es hier um eine Technologie, die es Maschinen ermöglicht, zu kommunizieren, Ratschläge zu erteilen, Entscheidungen zu treffen und Denkprozesse zu unterstützen, die einen deutlichen Einfluss auf unsere Welt haben.
Wenn man bedenkt, welchen Einfluss LLMs wie ChatGPT bereits haben, ist es überflüssig zu erwähnen, dass sie in unserem Leben höchstwahrscheinlich allgegenwärtig sein werden.
Und trotzdem können nicht einmal ihre Schöpfer erklären, wie sie wirklich funktionieren.
Ja, wir wissen, dass es sich um Wortvorhersagen handelt, die auf der effizienten Speicherung einer Datenverteilung basieren, die einen großen Teil des Internets repräsentiert, aber wenn wir erklären wollen, wie es sich entschieden hat, „Hallo“ statt „Hi“ auszugeben, ist das mit dem heutigen Wissen nicht möglich.
Wenn wir sie also in unserem jetzigen Zustand nicht verstehen können, was wird dann passieren, wenn wir eine KI entwickeln, die nach Ansicht von OpenAI „viel schlauer als wir“ ist?
Ich denke, man kann davon ausgehen, dass wir Menschen nicht in der Lage wären, eine Superintelligenz zu lenken, geschweige denn zu verhindern, dass sie abtrünnig wird – zumindest beim heutigen Stand der KI-Ausrichtung.
Was können wir also tun?
RLHF ist nicht genug
Wir Menschen richten LLMs schon seit Jahren mit Reinforcement Learning from Human Feedback (RLHF) aus.
Ehrlich gesagt, haben Labore wie OpenAI oder Anthropic ziemlich gute Arbeit geleistet, um LLMs in nützliche, meist harmlose Gesprächsagenten zu verwandeln.
Aber das liegt daran, dass die heutigen Modelle auf dem neuesten Stand der Technik spürbar weniger fähig sind als Menschen und daher leicht in die Richtung gelenkt werden können, die uns am meisten interessiert.
Ich halte es jedoch für ziemlich naiv (und OpenAI und Yoshua werden mir zustimmen) zu glauben, dass dies ausreicht, um eine Superintelligenz auszurichten, wenn sie erst einmal da ist (manche sagen, dass sie nur noch anderthalb Jahre entfernt ist, bescheidenere Vorhersagen wie die von OpenAI besagen, dass sie noch in diesem Jahrzehnt eintreten könnte, was erschreckend nah ist).
Denk einfach mal darüber nach. Warum sollte sich eine überlegene Rasse unserem Willen beugen, sobald sie merkt, dass sie uns überlegen ist?
Ein noch beunruhigenderer Gedanke, den Yoshua Bengio beschreibt, ist, dass die Gemeinsamkeit aller Tiere und Rassen auf dieser Welt ihr angeborener Wunsch zu überleben ist.
Damit ist das Problem klar ausgesprochen:
Was wird passieren, wenn die Menschen eine KI erschaffen, die viel schlauer ist als wir, die ihre eigenen Entscheidungen treffen kann und einen Überlebenswillen entwickelt, sobald diese neue menschliche Kreation merkt, dass sie uns nicht mehr unterlegen ist?
Ich kenne die Antwort darauf nicht, niemand tut das.
Aber eines ist sicher: OpenAI hat deutlich gemacht, dass wir im Interesse des Überlebens der Menschheit nicht herumspielen sollten, während wir abwarten.
Und das liegt daran, dass sie wahrscheinlich denken, dass es schlimmer ist, als wir dachten.