Das Risiko für das Aussterben der Menschheit
21/07/2023Das Potenzial des kontinuierlichen Lernens in der KI
25/07/2023KI und Empathie
Hier ist der folgende Auszug aus einer wissenschaftlichen Arbeit, die letzte Woche in Science Robotics veröffentlicht wurde:
‘Angesichts der zunehmenden Macht der künstlichen Intelligenz (KI) müssen wir künstliche Agenten und Roboter mit Empathie ausstatten, um schädliche und unumkehrbare Entscheidungen zu verhindern. Aktuelle Ansätze zur künstlichen Empathie konzentrieren sich auf ihre kognitiven oder performativen Prozesse, übersehen den Affekt und fördern so soziopathische Verhaltensweisen. Künstlich verletzliche, vollständig empathische KI ist notwendig, um soziopathische Roboter zu verhindern und das menschliche Wohlergehen zu schützen.’
Ein Team unter der Leitung von Dr. Leonardo Christov-Moore von der University of Southern California plädiert für eine neurowissenschaftliche Perspektive, um Empathie in Codezeilen einzubauen, die die Menschheit vor schädlichen Handlungen durch Roboter-KI schützen sollen.
Frühere Forschungen in den Neurowissenschaften haben gezeigt, dass Empathie grob in zwei Hauptkomponenten unterteilt werden kann. Die eine ist rein logisch: Du beobachtest das Verhalten einer Person, entschlüsselst ihre Erfahrungen und schlussfolgerst daraus, was mit ihr passiert.
Die bestehende künstliche Methodik geht den gleichen Weg, aber das Problem ist, dass die KI Empathie genauso leicht nachahmen kann wie menschliche Soziopathen. KI-Soziopathen wären viel gefährlicher als ihre menschlichen Gegenstücke und unsere Fähigkeit, ein solches Verhalten zu erkennen, wäre unmöglich. Eine KI, die vorgeben kann, empathisch zu sein, wäre sicherlich die erste Stufe einer Auslöschung der Menschheit.
Die zweite Komponente vervollständigt die notwendigen Voraussetzungen für Empathie. Hier wird der KI ein Gefühl der Verwundbarkeit gegeben, das Menschen und andere Systeme teilen. Das könnte der Weg sein, um die Menschheit vor “asozialen Robotern” zu schützen, wie der Aufsatz sie in seinem Titel nennt. Was mich jedoch beunruhigt, ist diese Terminologie. Ich glaube, dass solche Euphemismen, die die Vermenschlichung von KI beinhalten, falsch sind und, schlimmer noch, die Bedrohung absichtlich unterschätzen.
Ein regelbasierter Algorithmus für richtig und falsch wird abgelehnt, da es im Leben so viele moralisch unbestimmte Bereiche gibt, dass das Programm für das Subjekt KI voller Verwirrung und Instabilität wäre.
Aber als Ausgangspunkt für den Aufbau einer verletzlichen KI schlägt das Team den Überlebenstrieb vor, der universell ist. Und die wichtigste Voraussetzung dafür ist, wie die Autorin Christov-Moore feststellt,
“Man muss so etwas wie Leid erfahren.“
Um dies zu erreichen, hat das Team einen möglichen praktischen Bauplan erstellt, dem ein KI-“Kind” folgen kann. Weitere anthropomorphe Analogien gibt es zuhauf. Dieses KI-“Kind” streift in einer Umgebung voller Hindernisse umher, während es nach nützlichen Belohnungen sucht und sich selbst am Leben erhält.
Als Nächstes entwickelt es eine Vorstellung davon, was andere denken, indem es sie beobachtet, und beginnt zu interagieren. Dabei schätzt es falsch ein, was der andere KI-Roboter mag oder will, und wird einer weiteren neuen Erfahrung ausgesetzt. Das ist die Erfahrung eines anderen, die vielleicht die gleiche ist, aber eher anders ist und deshalb als anders respektiert werden sollte. Ich nehme an, das ist ein sehr einfacher Anfang auf dem Weg zur Empathie. Irgendwo muss man ja anfangen.
Aber das ist kaum das Leiden, das Christov-Moore will. Es ist nicht annähernd das, was Menschen oder Tiere als Leiden empfinden. Ich nehme an, das liegt an den damit verbundenen ethischen Fragen. Aber diese KI-“Kinder” sind keine Menschen, sie sind Maschinen.
Wie kann eine KI Empathie empfinden, ohne dass sie bei der Entwicklung dieser “Kinder” Schaden und Schmerzen erleidet? Wenn die neuen KI-Roboter nicht wissen können, was menschlicher Schmerz und Schaden ist, wie können dann diese “schädlichen und unumkehrbaren Entscheidungen”, wie es in der Zusammenfassung heißt, verhindert werden?
Christov-Moore stellt am Ende des Aufsatzes fest,
“Durch die Abwägung von Schaden, Wohlbefinden und Gedeihen in verschiedenen widersprüchlichen Szenarien in dieser Welt kann die KI zu kontraintuitiven Lösungen für dringende zivilisatorische Probleme kommen, an die wir noch nicht einmal gedacht haben. Wenn wir diese nächste Hürde nehmen können, könnte die KI von einem zivilisatorischen Risiko zum größten Verbündeten werden, den wir je hatten.“
Ich glaube, er und sein Team meinen es gut. So wie die Mehrheit der Wissenschaftler. Aber, und das ist ein großes “Aber”, man kann nicht einfach an diesen Maschinen herumbasteln. Es heißt entweder alles oder nichts.
Es ist einfach, Wohlbefinden und Gedeihen zu lehren, weil es für das ganze Team eine so angenehme Erfahrung ist – ähnlich wie ein menschliches Kind zu beobachten – und der einzige Nachteil ist die “Traurigkeit”, zurückgewiesen zu werden, wenn das antwortende KI-“Kind” darauf programmiert ist, genau das zu tun.
Aber Empathie bedeutet, die Verwundbarkeit aller Systeme zu verstehen, egal ob sie organisch oder künstlich sind, weil du (das KI-“Kind”) und damit auch du selbst Teil dieses Systems bist und es eines Tages auf dich zutreffen wird. Diese Verwundbarkeit besteht aus einer Reihe von Möglichkeiten, vom Guten bis zum Schlechten. Vom Verliebtsein bis zum Verlust der Liebe. Von den Schmerzen einer Geburt bis zu den Schmerzen eines Schusses.
Es gibt eine Vielzahl von Leiden und Schmerzen, die die Menschheit erträgt. Kein praktischer Plan für künstliche Intelligenz wird sie jemals zufriedenstellend abdecken, denn die Menschheit hat noch keinen Weg gefunden, ihren eigenen Kindern Empathie beizubringen. Einige lernen es, andere nie. Wenn ich nach einem Weg suchen würde, KI-Robotern ein Verständnis für Empathie zu vermitteln, würde ich sie dazu bringen, sich immer wieder Pinocchio (1940) von Walt Disney anzusehen.
Es braucht nur eine KI, der es an Empathie mangelt, um die Welt zu bedrohen, so wie es nur einen Menschen braucht, um die Welt zu bedrohen und die Menschheit zu zerstören. Wir sollten aufhören zu versuchen, aus KI-Robotern gute, empathische Menschen zu machen, denn das bedeutet, dass wir an unserem Untergang basteln.