Wird Adobes KI-Strategie funktionieren?
22/05/2023Die Auswirkungen der KI auf Filme und Grafiken: Die Revolutionierung der Kreativbranche
24/05/2023Eine pragmatische Analyse von OpenAIs Aussage vor dem Senat
In der Hauptrolle kein Geringerer als der CEO von OpenAI, Sam Altman. Sieben wichtige Erkenntnisse.
Photo by Aditya Joshi on Unsplash
Künstliche Intelligenz. Obwohl sie mindestens so alt ist wie viele unserer altersschwachen, schläfrigen und sabbernden Politiker, ist sie erst jetzt in den Mittelpunkt der weltweiten Aufmerksamkeit gerückt. Für einen Großteil der Welt ist das überraschend, daher der Hype auf der einen Seite und die Untergangsstimmung auf der anderen Seite. Kein Wunder also, dass wir alle fast drei Stunden lang miterleben durften, wie der CEO von OpenAI mit Fragen über die Zukunft der Menschheit in einer KI-gestützten Welt gelöchert wurde.
Obwohl ich aus meiner Skepsis gegenüber ChatGPT und maschinell erzeugten Informationen nicht geschwiegen habe, war ich immer ein Befürworter einer moderaten Automatisierung. Deshalb gehöre ich zu der sehr kleinen Gruppe von Menschen, die sich für einen ausgewogenen Einsatz von Technologie, einschließlich KI, einsetzen und die gesamte Diskussion aus mehreren Blickwinkeln betrachten können. Da ich ein Mensch bin, kann es natürlich sein, dass ich voreingenommen bin, aber im Folgenden werde ich versuchen, so viel wie möglich davon zurückzuhalten – zum Wohle meiner Leser, meines Kommentarbereichs und meines eigenen emotionalen Wohlbefindens. Für diejenigen unter euch, die sich das Referenzvideo ansehen möchten, habe ich es unten bereitgestellt. Es ist fast 3 Stunden lang, aber es lohnt sich, es anzusehen.
Es war ein Gespräch
Im Vergleich zu ähnlichen Ereignissen in der Vergangenheit, an denen z. B. der CEO von TikTok oder Meta beteiligt war, fühlte sich der Tonfall ganz anders an, und das vielleicht aus guten Gründen, auf die ich später noch eingehen werde. Man kann mit Sicherheit sagen, dass sich kaum etwas davon wie ein Verhör anfühlte. Ja, es gab viele schwierige Fragen und einige der Antworten waren nicht immer zufriedenstellend, aber der allgemeine Ton war positiv und vermittelte den Eindruck eines proaktiven Gesprächsraums, um eine KI-Katastrophe zu verhindern. Beide Seiten gaben zu, in der Vergangenheit Fehler gemacht zu haben und diese nicht wiederholen zu wollen.
Eine weitere spürbare Energie im Raum war die einer offenen Gruppe von Menschen, die den Wert der künstlichen Intelligenz nicht abtun, die nicht darauf aus sind, den Stecker zu ziehen, sie mit Feuer zu töten und alle, die jemals etwas über KI wussten, zu Men in Black zu machen. Es handelte sich eher um eine Gruppe, die sehr besorgt darüber ist, dass bestimmte transformative Technologien wie KI und AGI nicht im gleichen Maße reguliert werden wie z. B. der Bau von Atomkraftwerken – obwohl jeder, der mit dem Unfall in Tree Mile Island vertraut ist, argumentieren würde, dass es auch hier noch viel zu tun gibt.
Und was ist mit den Arbeitsplätzen?
Eines der Hauptthemen war unweigerlich das Thema Arbeitsplätze. Bedrohen LLMs wie GPT die Arbeitsplätze und damit den Lebensunterhalt von Millionen von Menschen auf der ganzen Welt? Viele werden behaupten, dass genau das der Fall ist, und es wurden auch Studien zu diesem Thema veröffentlicht. Andere, darunter der CEO von OpenAI, sind weniger besorgt. Sam scheint sich sogar überhaupt keine Sorgen zu machen. Er glaubt, dass die KI-Revolution, genau wie die industrielle Revolution, mehr und bessere Arbeitsplätze schaffen wird, als die Menschen heute haben. Nur übersieht er dabei einen entscheidenden Aspekt: die Geschwindigkeit des Wandels.
Die industrielle Revolution oder auch die Internetrevolution haben sich nicht innerhalb weniger Monate vollzogen. Es hat gut 30 Jahre gedauert, bis das Internet halbwegs allgegenwärtig war. Ob du es glaubst oder nicht, es gibt immer noch viele Orte auf der Welt, an denen es kein Internet oder überhaupt keinen Anschluss gibt. Deshalb verkauft sich StarLink, und deshalb hat Apple seine Telefone mit Satellitenkommunikation ausgestattet. OpenAI hingegen hat APIs für die Allgemeinheit freigegeben und ist bereits wenige Monate nach ihrer Veröffentlichung auf dem Weg zu Plugins. Das ist eine ganz andere Realität, denn trotz der besten Absichten und Systeme können sich Menschen einfach nicht so schnell an einen KI-gesteuerten Arbeitsmarkt anpassen.
Langfristig bin ich mir ziemlich sicher, dass die KI nicht dafür sorgen wird, dass das Essen vom Tisch verschwindet, aber kurz- und mittelfristig kann sie ein wirtschaftliches und soziales Chaos verursachen, und das in einer Welt, die schon jetzt mit großer ökologischer und politischer Instabilität zu kämpfen hat. Der Justizausschuss des Senats war zwar besorgt, hatte aber fast das Gefühl, nicht besorgt genug zu sein, während Sam sich einfach von der Realität abgekoppelt fühlte.
Gibt es das Urheberrecht noch?
Ja, das ist es, und zu Recht kam das Thema zur Sprache. Ich hatte erwartet, dass sich die Gemüter an diesem Punkt erhitzen würden, denn wie ein Mitglied des Senatsausschusses betonte, wurde urheberrechtlich geschütztes Material von OpenAI verwendet, und die Urheberrechtsinhaber haben dadurch bereits Einnahmen verloren. Ein bisschen wie bei Napster, nur in einer anderen Zeit, in der Urheberrecht und DRM viel etablierter sind als noch vor zwei Jahrzehnten.
Sam schien es nicht wirklich zu interessieren. Seine Worte waren zwar ein vages Eingeständnis: “Klar, wir haben einen Fehler gemacht, wir sind im Gespräch mit den relevanten Interessengruppen”, aber er schien auch anzudeuten, dass Urheberrechtsgesetze und -regeln für einen KI-Nutzungsfall nicht wirklich existieren, während er im gleichen Atemzug erklärte, dass Urheber von Inhalten und Künstler für ihre Arbeit entlohnt werden sollten.
In Wirklichkeit gibt es zwar kein spezielles Gesetz, das regelt, ob KI-Modelle Zugang zu urheberrechtlich geschützten Inhalten haben sollten oder nicht, aber die bestehenden Urheberrechtsgesetze sind zwar komplex, aber jeder, der über einen gesunden Menschenverstand verfügt, weiß, dass es verboten ist, urheberrechtlich geschützte Werke zu nehmen und sie ohne Lizenz für ein anderes Produkt zu verwenden, und dass ein Rechtsstreit vorprogrammiert ist. Wenn Sam nicht will, dass sein Arsch in den nächsten zehn Jahren jeden Tag vor Gericht landet, weil er Urheberrechtsfälle verliert, muss er eine grundlegende Tatsache verstehen: Die Urheberrechtsinhaber haben hier die Oberhand. Es sei denn, wir landen alle in einer kommunistischen Diktatur, in der niemand ein Recht auf irgendetwas hat.
Eine “kleine” Angelegenheit von Sicherheit und Privatsphäre
Technisch gesehen sind das zwei sehr unterschiedliche Themen, die es aber wert sind, unter derselben Überschrift diskutiert zu werden. Die nationale Sicherheit ist vielleicht das wichtigste Thema in jedem Land. Künstliche Intelligenz, die eingesetzt werden könnte, um sich in Wahlen einzumischen und das tägliche Leben der Menschen so zu beeinflussen, dass sie zu politischer und sozialer Instabilität führt, will niemand. Nicht einmal Sam Altman. In diesem Punkt war er klar und schien der Meinung der Diskussionsteilnehmer zu sein. Er hofft jedoch, dass die Regierung diesen Aspekt in Angriff nehmen wird, was sich für mich wie ein Hiroshima-Nagasaki-Moment anfühlt. Wir haben also ein Werkzeug gebaut, das den Planeten in ein politisches und soziales Chaos stürzen kann, also bitte, liebe Politiker, sorgt dafür, dass das nicht passiert. Glaubt mir, es wird passieren, denn alles, was schiefgehen kann, wird irgendwann schiefgehen. Es geht nicht um das Ob, sondern um das Wann.
Sam schien zwar wirklich um den Aspekt der nationalen Sicherheit besorgt zu sein, aber wenn es um die allgemeine Privatsphäre der Menschen ging, war er weit weniger überzeugend, ich wage sogar zu behaupten, dass er wissentlich bestimmte Fakten verschwieg. Seine Behauptung, dass OpenAI Methoden anbietet, mit denen die Menschen der Verwendung ihrer Daten für Trainingszwecke widersprechen oder ihre Daten löschen können, ist zwar wahr, aber das ist erst eine neue Entwicklung, da Italien – schön zu sehen, dass es mehr kann als Pizza, Spaghetti und Vespas fahren – wegen Nichteinhaltung der Datenschutzgrundverordnung (DSGVO) gesperrt wurde. In Anbetracht dessen glaube ich nicht, dass sich Sam Altman oder OpenAI wirklich um den Datenschutz kümmern und nur das Nötigste tun, um in den Augen des Gesetzes sauber zu erscheinen.
US vs. globaler Rahmen für die Regulierung
Mehrmals wurde die Notwendigkeit einer Regulierung angesprochen. Beide Seiten des Gesprächs schienen sich darin einig zu sein, aber nicht unbedingt auf dieselbe Weise. Während der Justizausschuss eine nationalistische, patriotische Sichtweise zu vertreten schien, nach der die Vereinigten Staaten von Amerika die Führung übernehmen und die globalen Regeln und Standards für die KI-Entwicklung festlegen sollten, vertrat Sam eine etwas andere Meinung dazu.
Bei diesem Thema neige ich eher zu Sams Ansicht. Es muss ein globaler Standard sein und nicht ein regionaler oder politischer. Sicher, die USA können und sollten vielleicht sogar aktiv werden, da OpenAI ein amerikanisches Unternehmen ist, aber in der EU wird bereits ein solides Rahmenwerk entwickelt, und ein globaler Standard, wie wir ihn in anderen Branchen haben, ist ein weitaus produktiverer und die Apokalypse verhindernder Ansatz. Die Vertreter der Welt sollten sich dazu treffen und den Standard so mitentwickeln, dass er der Menschheit zugute kommt.
Ein viel zu entspannter Blick auf AGI
AGI, die Abkürzung für Artificial General Intelligence, kam ein paar Mal zur Sprache und ist wahrscheinlich der beunruhigendste Teil des gesamten Dialogs. Einige im Raum schienen den Begriff ernst zu nehmen, andere nutzten ihn, um die Auswirkungen der generativen KI herunterzuspielen, während der Rest einfach zu akzeptieren schien, dass sie eines Tages da sein wird und wir nichts dagegen tun können.
Das ist der Punkt, an dem ich mir wünschte, ich wäre im Raum gewesen, um zu rufen: “Habt ihr alle den Verstand verloren?!” Die überwältigende Einstellung “Na ja, das wird schon noch in 20 Jahren so sein” ist unglaublich beängstigend. Auf diesem Treffen diskutieren führende Vertreter der freien Welt und Technologen über die Auswirkungen der generativen KI, die zwischen enorm und umwälzend liegen, und irgendwie scheinen alle mit den Schultern zu zucken, wenn von AGI die Rede ist, als sei es etwas, worüber wir uns Sorgen machen sollten, wenn es soweit ist. Wie wäre es, wenn wir sie 20 Jahre vorher verbieten?!? Hat das schon mal jemand in Betracht gezogen?
Technokratie und Oligarchie Hand in Hand mit Regulierungsbehörden
Der vielleicht lustigste Teil der gesamten Aussage ist, dass die Diskussionsteilnehmer zugaben, dass Regulierungen und Regulierungsbehörden nichts bringen, wenn sie sich dem Willen der großen Technologiekonzerne beugen. Der Ton im Saal war der eines erschöpften Systems, das wiederholt an einer sisyphusartigen Aufgabe gescheitert ist. Der Wille und die Notwendigkeit sind spürbar, aber die Fähigkeit zur Umsetzung ist nicht vorhanden.
Das liegt zum Teil daran, dass in der Vergangenheit schon viele andere Regulierungen gescheitert sind, die mit guten Absichten begannen und dann unterfinanziert, unterbesetzt und mit zu wenig Ressourcen ausgestattet waren, und zum Teil an einer marktgesteuerten Wirtschaft, die in den Händen einer kleinen Gruppe von Tech-Giganten liegt. So. Du hast dich zwangsläufig in ein korruptes System verstrickt, das mehr schadet als nützt.
Worauf will Sam wirklich hinaus?
Aus meiner Sicht kann die proaktive Haltung von OpenAI eines von zwei Dingen bedeuten. Entweder ist Sam wirklich besorgt und glaubt, dass die Regierungen frühzeitig eingreifen müssen, um die Dinge nicht aus dem Ruder laufen zu lassen, oder er hat erkannt, dass es besser ist, die Regierung regulieren zu lassen, so dass, wenn etwas schief geht – und das wird es – die unvermeidliche Unfähigkeit der Regierung den größten Teil der Schuld auf sich nehmen wird.
Wenn wir die erste Möglichkeit in Betracht ziehen, bei der die Führung von OpenAI erkannt hat, dass sie die Büchse der Pandora geöffnet hat, und verzweifelt nach Unterstützung von außen sucht, um sie wieder zu schließen, dann sollten wir uns alle wirklich Sorgen machen. In diesem Szenario ist sich Sam sehr bewusst, wie zerstörerisch generative KI bereits ist, und er weiß, dass die Welt mit etwas spielt, das unendlich viel gefährlicher ist als Feuer, und dass sie es dringend eindämmen muss.
Die zweite Möglichkeit mag zwar weniger beunruhigend erscheinen, aber sie klingt unaufrichtig bis bösartig. Sicher, wir haben schon früher globale Standards entwickelt, aber dies ist eine neue Art von Software, und die meiste Software wurde noch nie reguliert. Beim Bau eines Atomkraftwerks müssen Regeln und Vorschriften eingehalten werden, aber der Bau eines Atomkraftwerks geht nicht innerhalb von ein paar Wochen oder Monaten vonstatten, während die Entwicklung von KI-Modellen dies tut.
Jetzt, wo der Geist aus der Flasche ist und die großen Technologiekonzerne alle wirtschaftlichen Anreize haben, die KI als die beste Erfindung seit dem Feuer zu propagieren, wird niemand, auch nicht die kleinen, aufstrebenden Unternehmen, einfach darauf warten, dass Vorschriften vorschreiben, wie KI zu trainieren oder zu nutzen ist. Wenn mit KI Geld zu verdienen ist, dann wird es auch gemacht, ohne Rücksicht auf Regeln und Vorschriften. Das Internet ist der Beweis dafür. In diesem Szenario sieht es so aus, als würde OpenAI die tickende Zeitbombe an die Regierung übergeben und sagen, dass es jetzt ihr Problem ist, und wenn Gesetzgeber und Regulierungsbehörden etwas vermasseln – was sie unweigerlich tun werden – können KI-Unternehmen getrost sagen: “Hey, wir haben euch alles gegeben, um uns zu regulieren, es ist nicht unsere Schuld, dass ihr einen schlechten Job gemacht habt“.
Die Moral der KI-Geschichte ist, dass wir KI-Skeptiker am Tisch brauchen. Wir können sie nicht nur lieben oder hassen, wir brauchen informierte, pragmatische Köpfe in der Mitte, und von denen haben wir nur wenige.