Was bedeutet es, KI zu regulieren?
10/05/2023Googles KI-Chatbot Bard: Erweiterung der Zugänglichkeit und Sprachunterstützung
10/05/2023In diesem Artikel analysiert Enrique Dans die Ansichten von Geoffrey Hinton über Deep Learning und wie es den Bereich der künstlichen Intelligenz revolutioniert hat. Hinton ist der Ansicht, dass Deep Learning uns in die Lage versetzt hat, viele Probleme zu lösen, von denen man früher dachte, dass sie von Computern nicht gelöst werden könnten, und dass es einen immensen Einfluss auf die Bereiche maschinelles Sehen, Verarbeitung natürlicher Sprache und Robotik hat. Er betont auch die Bedeutung von Open-Source-Tools und -Datensätzen in der Deep-Learning-Forschung und die Notwendigkeit, sicherzustellen, dass Deep Learning für gesellschaftlich nützliche Zwecke eingesetzt wird.
Was Geoffrey Hinton über Deep Learning sagt
Geoffrey Hinton, der aufgrund seiner Arbeit auf dem Gebiet des Deep Learning von einigen als Pate der KI angesehen wird, verlässt Google nach zehn Jahren, um vor den Gefahren der Technologie zu warnen. Sein Weggang hat die Kampagne gestärkt, ebenso wie der offene Brief einer Gruppe von Forscher/innen vor etwa einem Monat, die alles verteufeln, was auf Algorithmen des maschinellen Lernens basiert, weil sie glauben, dass diese eine Bedrohung für die Menschheit darstellen.
Ich wiederhole, was ich vor einem Monat gesagt habe: Technologien können nicht unerfunden bleiben, denn wenn sie einen Nutzen haben, werden sie auch genutzt. Es ist sinnlos, dies verhindern zu wollen. Wir können versuchen, eine bestimmte Technologie zu regulieren, aber dazu müssen wir sie zuerst als Ganzes verstehen, mit all ihren Chancen und Risiken.
Hinton selbst hat, nachdem die New York Times über seine Entscheidung berichtet hatte, via Twitter klargestellt, dass er Google nicht verlassen habe, um das Unternehmen zu kritisieren, sondern dass das Unternehmen sehr verantwortungsvoll mit dieser Technologie umgegangen sei. Ich habe es damals schon gesagt: Google hat sich geweigert, Produkte auf Basis von LaMDA auf den Markt zu bringen, weil sie der Meinung waren, dass eine Technologie mit diesem Potenzial besser kontrolliert werden muss und noch viel mehr Arbeit erfordert. Aber dann kam OpenAI und brachte ChatGPT in bester Silicon-Valley-Manier auf den Markt: erst starten, dann die Probleme beheben. Und jetzt sind wir da, wo wir sind, wie man so schön sagt.
Für Hinton ist nicht die Technologie das Problem, sondern die Art und Weise, wie sie eingesetzt wird. Maschinelles Lernen kann sehr anspruchsvolle Automatisierungen durchführen, die weit über repetitive Aufgaben hinausgehen, was leider dazu geführt hat, dass es von einigen mit menschlichem Denken verwechselt wird.
Das menschliche Denken entwickelt sich induktiv durch das Sammeln von Daten. Gib mir einen Prozess und mein Gehirn wird nicht nur versuchen, ihn zu verstehen, sondern ihn auch als Modell für das nächste Mal verwenden, wenn dieser Prozess auftritt. Gib mir viele ähnliche Prozesse, und ich lerne besser, was ich von ihnen erwarten kann, wie ich mit ihnen umgehen oder sie sogar, wenn möglich, beeinflussen kann. Genau das macht eine Maschine: Aus einem Haufen von Daten modelliert sie mit Hilfe hoch entwickelter statistischer Algorithmen die Prozesse darin.
Viele Menschen führen noch rein mechanische Arbeiten aus, die nach und nach von der Technik ersetzt werden, von Maschinen, die sie besser machen, weil sie nicht nur billiger sind, sondern auch nicht müde werden oder Fehler machen. Wenn wir die nächste Stufe der Automatisierung erreichen, werden viele weitere Arbeitsplätze überflüssig und können von Maschinen statt von Menschen ausgeführt werden. Das ist unvermeidlich.
Viele Jahre lang sind wir bei der Entwicklung dieser anspruchsvolleren Modelle an die Grenzen der Technik gestoßen. Die von uns verwendeten Modelle waren für die Komplexität der Aufgabe nicht leistungsfähig genug, was zu erheblichen Einschränkungen bei der Anzahl der Varialbes führte. In der Realität hängen die meisten Prozesse von sehr vielen Variablen ab, von denen wir einige messen können und viele nicht, die zudem miteinander korrelieren.
Was hat sich geändert? OpenAI hat die im Silicon Valley übliche Methode der Hebelwirkung auf diesen Bereich angewandt: Es hat eine sehr hohe Anfangsinvestition erhalten, die früher nur Google zur Verfügung gestanden hätte, und es hat Microsoft dazu gebracht, ihm seine Cloud im Tausch gegen Aktien zur Verfügung zu stellen. Gleichzeitig war es in der Lage, ein Modell mit Milliarden von Parametern zu entwickeln, das in der Lage ist, mit menschlicher Sprache umzugehen und darüber hinaus ihre Struktur zu verstehen, um Elemente aus seiner riesigen Datenbank auszuwählen und zu kombinieren, um Fragen zu beantworten.
Das ist sehr wichtig: Eine Frage zu beantworten bedeutet nicht, dass sie richtig beantwortet wird. Das Modell kombiniert einfach alles, was es im Zusammenhang mit der ihm gestellten Aufgabe erkennt, und antwortet mit einer Reihe von Techniken, bei denen es in vielen Fällen “halluziniert”, d. h. Zusammenhänge vorhersagt, die in Wirklichkeit nicht existieren. Bizarr? Sehr. Interessant? Zweifellos. Unfehlbar? Bei weitem nicht. Aber vor allem: Denkt es wie ein Mensch? Ganz und gar nicht. Menschen haben Absichten, ein Gewissen, ein Interesse an dem, was sie tun. Generative Modelle tun dies nicht und können es auch nicht. Sie sind nicht lebendig und werden es nie sein. Sie sind lediglich sehr ausgeklügelte statistische Korrelationen, aber mit nicht mehr Absicht als der, die wir ihnen geben.
Das Problem entsteht, wenn wir den Begriff “künstliche Intelligenz” für etwas verwenden, das nicht intelligent ist, sondern nur eine statistische Neukombination von Daten, und das ist auch nicht künstlich, denn es gibt nichts Natürlicheres als die Daten, die wir selbst erzeugt haben. Mit anderen Worten: Wir mythologisieren die Technik, wie wir es seit den alten Griechen tun. Wenn eine Technologie auftaucht, deren Möglichkeiten uns überwältigen, neigen wir dazu, sie als “magisch” zu betrachten, ganz im Sinne des dritten Gesetzes, das der Science-Fiction-Autor Arthur C. Clarke formuliert hat: “Jede hinreichend fortgeschrittene Technologie ist von Magie nicht zu unterscheiden”.
Das Problem liegt also nicht in der Technologie, sondern in dem, was wir mit ihr tun wollen. Was Hinton beunruhigt, ist nicht die Entwicklung von Algorithmen und Modellen, sondern die Möglichkeit, dass sie, getrieben vom kommerziellen Wettbewerb, missbraucht werden. Und es liegt auf der Hand, dass dies passieren könnte, vor allem wenn die Technologie in den Händen einiger weniger Unternehmen bleibt, wie es bei der Entwicklung des Internets der Fall war. Mit anderen Worten: Es ist nicht die technologische Entwicklung, die uns Sorgen machen sollte, sondern ihre Anwendung. Müssen wir die Technologie regulieren? Natürlich, wir regulieren ja alles. Aber die Regulierung sollte sich darauf konzentrieren, was diese Technologie leisten kann, und verhindern, dass sie sich in den Händen einiger weniger Unternehmen konzentriert und von Organisationen missbraucht wird.
Der Einsatz von Algorithmen, die aus kontinuierlichen Messwerten – die dank der Macht der Statistik nicht mehr genau oder präzise, sondern nur noch fehlerfrei sein müssen – ein Bild vom Gesundheitszustand eines Menschen erstellen, hat ein enormes Potenzial. Es wäre ein großer Fehler, einem Algorithmus die Kontrolle über ein Präzisionsgewehr an einer umkämpften Grenze zu geben oder den Atomwaffenknopf zu drücken. Der Einsatz von Algorithmen für sich wiederholende Aufgaben ist sinnvoll, aber der Einsatz von Algorithmen für sensationslüsterne, personalisierte Werbung sollte gegen das Gesetz verstoßen. Diese Grenzen sind eigentlich nicht so schwer zu verstehen. Es geht nur darum, ihre möglichen Auswirkungen in der Zukunft mit einer gewissen Weitsicht vorherzusehen.
Die Geschichte wiederholt sich in vielerlei Hinsicht. Die Entwicklung des Internets war wunderbar, seine Nutzung durch einige wenige Unternehmen, um uns auszuspionieren, unsere Daten zu sammeln und uns mit Werbung zu bombardieren, weniger. Wenn wir aus der Vergangenheit lernen, können wir die Privatsphäre besser schützen, diskriminierungsfreie Algorithmen entwickeln, monopolistisches Verhalten vermeiden, das den Wettbewerb und das Angebot einschränkt, Betrug und Desinformation verhindern und Innovationen fördern.
Das heißt nicht, dass diese Technologie schlecht ist, und schon gar nicht, dass sie sich, wie manche meinen, verselbstständigt und gegen uns wendet. Das ist der Stoff, aus dem Hollywood gemacht ist. Wir wollen also nicht sagen, dass Hinton die Technologie verteufelt, denn das tut er nicht. Er ist nur jemand, der davor warnt, dass wir kontrollieren müssen, was manche Leute mit der Technologie vorhaben. Und damit hat er Recht.