Was ist der Worldcoin?
26/07/2023Warum Sie – besonders nach der KI-Revolution – keine Bilder Ihrer Kinder posten sollten
29/07/2023Da es in den USA keine landesweiten Gesetze zur Regulierung von KI gibt, haben sich die großen US-Tech-Unternehmen verpflichtet, die freiwilligen Richtlinien einzuhalten – die meisten davon befolgen sie bereits.
Amazon, Anthropic, Google, Inflection, Meta, Microsoft und OpenAI haben sich auf eine Liste mit Verpflichtungen zu verantwortungsvoller KI geeinigt, wie das Weiße Haus mitteilte.
Präsident Biden, Vizepräsident Harris und andere Regierungsbeamte haben die Bedingungen der Vereinbarung in Absprache mit führenden Vertretern der Technologiebranche formuliert. Die Bestimmungen fallen in drei Kategorien:
- Sicherheit: Die Unternehmen verpflichten sich, ihre KI-Systeme vor der Veröffentlichung von unabhängigen Experten testen zu lassen und Informationen über Sicherheitsprobleme und mögliche Schwachstellen mit Regierungen, Hochschulen und der Zivilgesellschaft zu teilen.
- Schutz: Die Unternehmen versprachen, in die Cybersicherheit zu investieren, insbesondere zum Schutz geschützter Modellgewichte, und den Nutzern die Möglichkeit zu geben, Schwachstellen zu melden.
- Vertrauen: Die Unternehmen versprachen, die Fähigkeiten, Grenzen und Risiken ihrer Modelle öffentlich zu machen, der Erforschung möglicher gesellschaftlicher Schäden Vorrang einzuräumen und Systeme zu entwickeln, die den „größten Herausforderungen der Gesellschaft“ wie dem Klimawandel gerecht werden. Außerdem versprachen sie, Methoden wie Wasserzeichen zu entwickeln, die die erzeugten Ergebnisse identifizieren.
Der Aufschwung der generativen KI hat den Ruf nach einer Regulierung dieser Technologie laut werden lassen. Die wachsende Zahl der Stimmen hat den Unternehmen einen großen Anreiz gegeben, freiwillige Grenzwerte zu akzeptieren und gleichzeitig zu versuchen, die kommenden Vorschriften zu gestalten.
- Der Generalsekretär der Vereinten Nationen, António Guterres, hat den Vorschlag unterstützt, eine internationale Organisation zu gründen, die ähnlich wie die Internationale Atomenergie-Organisation (IAEO) die Grundsätze für die KI festlegt.
- Im Juni verabschiedete das Europäische Parlament den Entwurf des KI-Gesetzes und brachte damit die Gesetzgebung der Europäischen Union einen Schritt näher an das Gesetz heran. Der Entwurf, der noch überarbeitet wird, sieht vor, generative KI-Anwendungen als „risikoreich“ einzustufen und sie regelmäßigen Prüfungen und staatlicher Aufsicht zu unterwerfen.
- Im Januar hat die chinesische Regierung Vorschriften erlassen, die eine Kennzeichnung generativer Medien vorschreiben und die Ausgabe von Daten verbieten, die falsche Informationen erzeugen oder die nationale Sicherheit gefährden.
Die Verpflichtungen – mit Ausnahme der Kennzeichnung der erzeugten Medien mit Wasserzeichen – sind relativ leicht zu erfüllen, und einige Unternehmen können behaupten, dass sie sie bereits erfüllen. Viele etablierte Unternehmen beauftragen zum Beispiel unabhängige Stellen mit der Durchführung von Sicherheitstests, und einige veröffentlichen Publikationen, in denen sie die Risiken ihrer KI-Forschung beschreiben. Führende Köpfe in diesem Bereich diskutieren bereits über Grenzen, arbeiten an der Verringerung von Risiken und starten Initiativen, die wichtige gesellschaftliche Probleme angehen. Außerdem fehlt es dem Abkommen an Möglichkeiten, um festzustellen, ob die Unternehmen ihre Versprechen eingehalten haben, und um Drückeberger zur Rechenschaft zu ziehen.
Obwohl einige US-Städte und -Bundesstaaten KI stückweise regulieren, fehlt es dem Land an einer übergreifenden nationalen Gesetzgebung. Freiwillige Richtlinien könnten, wenn die Unternehmen sie in gutem Glauben einhalten und versteckte Fallstricke vermeiden, den Druck verringern, die Entwicklung und den Einsatz der Technologie von oben zu kontrollieren.
Diese Selbstverpflichtungen sind ein Schritt, um die KI so zu steuern, dass der Nutzen maximiert und der Schaden minimiert wird – auch wenn einige Unternehmen sie bereits erfüllen. Nichtsdestotrotz sind Gesetze notwendig, um sicherzustellen, dass die Vorteile der KI in der ganzen Welt verbreitet werden. Es bleibt noch viel zu tun, um solche Gesetze auszuarbeiten, und sie werden effektiver sein, wenn die KI-Gemeinschaft an ihrer Ausarbeitung mitwirkt.
Die Verpflichtung, Mechanismen zu entwickeln, die sicherstellen, dass die Nutzerinnen und Nutzer wissen, dass es sich um KI-Inhalte handelt, wie z. B. Wasserzeichen, erscheint konkret und ist umsetzbar. Während die meisten Selbstverpflichtungen nicht messbar sind, ist diese Verpflichtung durchaus messbar. Sie bietet die Möglichkeit, in naher Zukunft zu testen, ob der derzeitige weiche Ansatz des Weißen Hauses zur Regulierung effektiv ist.
KI-Wasserzeichen sind durchaus machbar, und ehrlich gesagt wäre es nicht schlecht, wenn wir leicht zwischen KI-generierten und von Menschen erstellten Inhalten unterscheiden könnten. Aber nicht jedes Unternehmen wird sich damit anfreunden können. Nehmen wir zum Beispiel ein Unternehmen, das sich auf ein ausgeklügeltes Sprachmodell verlässt, um seine Marketingmaterialien zu erstellen. Sie würden wahrscheinlich nicht wollen, dass ihre Texte mit einem Wasserzeichen versehen werden, weil dann jeder wüsste, dass sie von einer KI erstellt wurden. Außerdem würden Suchmaschinen sie vielleicht nicht so gut finden wie die guten alten, von Menschen geschriebenen Texte. Deshalb ist es ein kluger Schachzug, wenn die Regierung eingreift und die großen KI-Unternehmen dazu drängt, ihre Produkte mit einem Wasserzeichen zu versehen. Das gleicht das Wettbewerbsumfeld aus und nimmt den Druck, sich dem Wasserzeichen zu widersetzen.
Und um ehrlich zu sein, erscheint die Durchsetzung von ai-Wasserzeichen in Open-Source-Systemen eine schwierige und evtl. nicht mögliche Aufgabe zu sein. Die Nutzer können die Software einfach so verändern, dass sie deaktiviert wird.