Open Source gewinnt das KI Rennen
07/05/2023Geoffrey Hinton über die KI
10/05/2023Ein Blick auf regulatorische Ansätze von ChatGPT und andere KI Modelle.
Wenn ich einen Dollar für jedes Mal bekäme, wenn ich höre, dass KI reguliert werden muss, könnte ich Twitter von Elon zurückkaufen.
Aber im Ernst: In jedem Gespräch über den Fortschritt der KI wird zweifellos die Notwendigkeit einer Regulierung erwähnt.
Aber was bedeutet das eigentlich?
KI-Regulierung bezieht sich auf den Prozess der Schaffung und Durchsetzung von Gesetzen, Politiken und Richtlinien, die die Entwicklung und Nutzung von KI regeln.
Aber wenn man bedenkt, wie generative KI funktioniert, ist das nicht so einfach, wie es vielleicht klingt.
Die KI-Technologie besteht aus vielen Ebenen.
Stell dir ein nutzergeneriertes Skript vor, das auf Plug-ins läuft, die sich mit fein abgestimmten Modellen verbinden, die sich mit Basismodellen verbinden, die sich mit Datensätzen verbinden. Wo wird in diesem Szenario eine Regulierungspolitik für Fehlinformationen in einem Chatbot angewandt?
Regulierst du die Verwendung von großen Sprachmodellen? Die Datensätze, auf denen sie trainiert werden? Die Cloud-Hosting-Anbieter? Die GPU-Anbieter? Die Produkthersteller? Was ist mit dem Kind, das ein AutoGPT in seinem Keller betreibt?
Auch wenn wir vielleicht noch nicht ganz verstehen, was genau reguliert werden muss, ist es doch sinnvoll, diese Diskussionen zu führen.
Es ist wichtig zu wissen, dass es zwei Arten von Regulierung gibt:
- Staatliche Regulierung
- Selbstregulierung
Schauen wir uns den aktuellen Stand der KI-Regulierung in Bezug auf diese beiden Arten an.
Staatliche Regulierung
Während die EU mit dem Gesetz über künstliche Intelligenz einen vorsichtigen Ansatz zu verfolgen scheint, hat das Vereinigte Königreich seine Absichten zur Regulierung von KI bekannt gegeben.
In den USA hat die Bundesregierung über das Handelsministerium erste Schritte unternommen, um Sicherheitsvorschriften für KI zu erlassen.
Das National Institute for Standards and Technology hat ein KI-Risikomanagement-Rahmenwerk herausgegeben, und das White House Office of Science and Technology Policy hat einen Entwurf für eine KI-Bill of Rights veröffentlicht.
Es gibt auch Überlegungen, eine neue Regierungsbehörde mit KI-Spezialisten einzurichten, die den Einsatz von KI-Technologie überwachen und genehmigen soll. Dies ist vergleichbar mit der Food and Drug Administration (FDA), die für den Schutz der öffentlichen Gesundheit zuständig ist.
In Anbetracht der Komplexität der KI-Technologie bleibt abzuwarten, wie eine Behörde KI für den öffentlichen Gebrauch kontrollieren und bewerten könnte.
Wie wir bei der Einführung von Chatbots gesehen haben, kommen die Rückmeldungen und auftauchenden Eigenschaften oft zum Vorschein, wenn sie öffentlich genutzt werden.
Stell dir außerdem vor, was staatliche Genehmigungen für KI-Innovationen bedeuten würden. Müsste dann jeder Tech-Unternehmer oder GitHub-Entwickler sein AutoGPT-Skript einreichen, bevor es im offenen Web implementiert wird? Das wäre extrem ineffizient.
Ein selbstregulierender Rahmen
Eine andere Methode zur Regulierung ist die Selbstregulierung.
In der Finanzbranche gibt es zum Beispiel eine Reihe von Selbstregulierungsgremien, wie die Financial Industry Regulatory Authority (FINRA) in den USA, die Regeln und Standards für Wertpapierfirmen und Makler festlegt.
Viele Berufe im Gesundheitswesen, wie Ärzte und Krankenschwestern, haben Selbstregulierungsgremien, die die Zulassung, das ethische Verhalten und die Weiterbildungsanforderungen überwachen. Der General Medical Council in Großbritannien legt die Standards für die medizinische Ausbildung und Praxis fest und setzt das ethische Verhalten der Ärzte durch.
Auf der kreativen Seite gibt es auch in der Werbebranche mehrere Selbstregulierungsgremien, wie z. B. die Advertising Standards Authority, die den Inhalt der Werbung reguliert, um sicherzustellen, dass sie legal ist.
Auch in der Technologiebranche gibt es mehrere Selbstregulierungsgremien, die Standards für den Schutz der Privatsphäre, den Datenschutz und die Cybersicherheit festlegen. Die International Association of Privacy Professionals (IAPP) zum Beispiel legt Datenschutzstandards fest und bietet Zertifizierungen für Datenschutzbeauftragte an.
Obwohl die Selbstregulierung die bessere Option zu sein scheint, ist mir keine Meta-Organisation bekannt, die die KI-Führungskräfte von Unternehmen auf breiter Ebene umfasst.
Ähnlich wie es ein Forum für Metaverse-Standards gibt, brauchen wir eines für Generative KI, das sowohl die führenden KI-Führungskräfte als auch die breitere KI-Gemeinschaft umfasst, die KI-Technologie und -Produkte entwickelt.
Beamte des Weißen Hauses trafen sich mit Tech-CEOs zum Thema KI-Risiken.
Kürzlich trafen sich hochrangige Regierungsbeamte des Weißen Hauses mit den CEOs von vier amerikanischen Unternehmen (Google, Microsoft, OpenAI und Anthropic), um ihre Bedenken über die mit KI verbundenen Risiken zu äußern.
Unser Ziel ist eine offene Diskussion über die Risiken, die wir in der aktuellen und in naher Zukunft anstehenden KI-Entwicklung sehen, über Maßnahmen zur Risikominderung und über andere Möglichkeiten, wie wir zusammenarbeiten können, um sicherzustellen, dass das amerikanische Volk von den Fortschritten der KI profitiert und gleichzeitig vor ihren Schäden geschützt wird.
– Arati Prabhakar, Direktor des Büros für Wissenschafts- und Technologiepolitik des Weißen Hauses
Wie ist es gelaufen?
Die CEOs und die Vertreter der Regierung waren sich einig, dass es größerer Anstrengungen bedarf, um die notwendigen Sicherheitsvorkehrungen zu treffen und den Schutz zu gewährleisten.
Die CEOs verpflichteten sich, mit der Regierung im Gespräch zu bleiben, um sicherzustellen, dass die Fortschritte in der KI der amerikanischen Bevölkerung zugute kommen.
Meiner Meinung nach ist dies ein guter erster Schritt zur Selbstregulierung, aber wie soll das funktionieren, wenn Unternehmensinteressen und Rendite im Spiel sind? Alles scheint darauf hinzudeuten, dass sich die Unternehmen in einem KI-Wettrüsten befinden.
Wenn es um die Regulierung geht, müssen wir meiner Meinung nach mit einem Selbstregulierungsrahmen der Branche beginnen und nicht mit einem, der von staatlichen Stellen auferlegt wird.
Wir brauchen die KI-Technologieunternehmen wie OpenAI, Microsoft, Google, Meta, Stability AI und andere, um einen robusten und transparenten Selbstregulierungsrahmen zu schaffen, der die potenziellen Risiken und Herausforderungen der KI bewältigen kann.
Wird dies geschehen?
Wenn die Gesellschaft von den schädlichen und unvorhersehbaren Auswirkungen der KI betroffen ist und keine Maßnahmen ergriffen werden, um sie zu verhindern, ist es wahrscheinlich, dass die Regierung eingreifen wird.