Die meisten Methoden, mit ChatGPT Geld zu verdienen, sind dumm
16/04/2023Dein Körper formt deinen Geist – warum ChatGPT nicht weiß worüber es schreibt
17/04/2023ChatGPT versieht seine Inhalte mit einem Wasserzeichen. Hier erfährst du, wie du es umgehen kannst.
Was ist das OpenAI ChatGPT Wasserzeichen und wie kann man es entfernen?
Vom Werbetexter bis zum Studenten – alle nutzen Chat GPT, um Werbetexte, Hausarbeiten und vieles mehr zu schreiben. Chat GPT plant jedoch, die Inhalte mit Wasserzeichen zu versehen. Aber mit einem einfachen Trick kannst du es trotzdem benutzen.
Wer hat die Nachricht vom ChatGPT Wasserzeichen verbreitet?
Scott Aranson, ein Informatiker, der bei OpenAI im Bereich KI-Sicherheit und -Verifizierung arbeitet, berichtete in einem seiner Vorträge an der University of Texas, dass das Team an einem kryptographischen Wasserzeichen für die KI-generierten Inhalte von Chat GPT arbeitet, um eine Unterscheidung zwischen von Menschen und KI generierten Inhalten zu entwickeln.
Aber warum brauchen wir das?
Obwohl Chat GPT für Werbetexter und Studierende auf der ganzen Welt eine himmlische Lösung ist, schrecken viele Einzelpersonen und Institutionen immer noch davor zurück. Talentierte und erfahrene Werbetexter/innen, die ihre kostbare Zeit in die Erstellung qualitativ hochwertiger Inhalte investieren, sehen sich mit großen Herausforderungen konfrontiert.
Obwohl Chat GPT nicht in der Lage ist, qualitativ hochwertige Inhalte zu erstellen, wie es viele erfahrene Texter/innen in der Branche tun, ermöglicht KI es Einzelpersonen und Agenturen, eine große Bandbreite an Inhalten zu entwickeln und das Internet in kürzester Zeit mit ähnlichen Keywords zu überfluten. Dies würde die Bemühungen qualifizierter und talentierter Texter/innen untergraben.
Bildungseinrichtungen sehen sich mit dem Problem der akademischen Integrität konfrontiert. Schüler/innen können Inhalte für ihre Hausarbeiten, Abschlussarbeiten und viele andere Aufgaben erstellen, die ausschließlich von ihnen geschrieben werden müssen. Da Plagiatsdetektoren nicht erkennen können, ob es sich dabei um KI-Inhalte handelt, stellt dies Bildungseinrichtungen vor das große Problem, die Authentizität und das Eigentum der Inhalte zu überprüfen.
Aronson wies jedoch auch auf andere ethische Dilemmas hin, die mit der Fähigkeit von Chat GPT verbunden sind, massenhaft einzigartige Inhalte zu erstellen. Er betonte Folgendes:
“Das könnte natürlich hilfreich sein, um akademisches Plagiat zu verhindern, aber auch, um zum Beispiel massenhaft Propaganda zu erzeugen…”
Ja, Propaganda ist ein weiteres wichtiges Thema. Bisher mussten Institutionen oder Einzelpersonen selbst Inhalte produzieren, um politische und soziale Propaganda zu verbreiten. Mit Chat GPT ist es jedoch möglich, Tausende von Wörtern mit falschen und irreführenden Informationen zu schreiben, die viele andere Menschen auf der ganzen Welt mit einfachen einzeiligen Aufforderungen beeinflussen.
Deshalb können Institutionen und Plattformen wie Medium und Quora KI-generierte Inhalte mit Hilfe von Wasserzeichen identifizieren, blockieren und die notwendigen Maßnahmen dagegen ergreifen.
Wie wird das funktionieren?
Es könnte kompliziert werden, aber ich werde es einfach und präzise machen. Eine detaillierte Beschreibung des Prozesses findet sich im Blog von Araonson.
KI erzeugt Inhalte in Form von Tokens, das können Wörter, Satzzeichen oder sogar Teile von Wörtern sein. Die Manipulation dieser Token kann eine Lösung für Wasserzeichen sein. Derzeit gibt es 100.000 Token und Chat GPT entwickelt ständig eine Wahrscheinlichkeitsverteilung, welches Token als nächstes generiert wird. Das System überprüft die Zufälligkeit jedes Tokens und wenn es zufällig ist, wird es als Ausgabe angezeigt. Deshalb kann eine ähnliche Anfrage zu unterschiedlichen Ergebnissen führen.
Für das Wasserzeichen haben Aaronson und sein Team eine kryptographische Funktion entwickelt, mit der das nächste Token nicht wirklich zufällig, sondern pseudozufällig ausgewählt wird. Der Pseudozufallsprozess erzeugt eine Punktzahl, und die Summe dieser Punktzahl über eine bestimmte Anzahl von Token in einer Reihe ergibt ein Ergebnis. Wer die Punktzahl und den Schlüssel kennt, kann die Wahrscheinlichkeit bestimmen, dass der Inhalt von einer KI generiert wurde. Entscheidend ist, dass das Ergebnis für den Endnutzer anders aussieht.
Aranson formuliert es so:
“Für GPT ist jede Ein- und Ausgabe eine Kette von Tokens, die Wörter, aber auch Satzzeichen, Wortteile oder mehr sein können – insgesamt gibt es etwa 100.000 Token.
Im Kern erzeugt das GPT ständig eine Wahrscheinlichkeitsverteilung für das nächste zu erzeugende Token, die von der Kette der vorherigen Token abhängt.
Nachdem das neuronale Netz die Verteilung erzeugt hat, sampelt der OpenAI-Server ein Token entsprechend dieser Verteilung – oder einer modifizierten Version der Verteilung, abhängig von einem Parameter namens “Temperatur”.
Solange die Temperatur ungleich Null ist, ist die Auswahl des nächsten Tokens in der Regel zufällig: Man könnte die gleiche Eingabeaufforderung immer und immer wieder ausführen und jedes Mal ein anderes Ergebnis (d.h. eine andere Folge von Ausgabe-Tokens) erhalten.
Um ein Wasserzeichen zu erhalten, wird das nächste Token nicht zufällig ausgewählt, sondern pseudozufällig mit Hilfe einer kryptographischen Pseudozufallsfunktion, deren Schlüssel nur OpenAI bekannt ist”.
OpenAI-Ingenieur Hendrik Kirchner hat dafür auch einen funktionierenden Prototyp entwickelt.
Ist das also das Ende? Oder haben wir eine Lösung?
Interessant ist, dass Scott Aaronson selbst darauf hingewiesen hat, dass es einen Weg gibt, das Wasserzeichen zu umgehen. Aaronson sagte
“Man kann das alles mit genügend Aufwand umgehen.
Wenn man zum Beispiel eine andere KI benutzt, um die Ausgabe von GPT zu paraphrasieren – nun, wir werden nicht in der Lage sein, das zu erkennen”.
Wenn also OpenAI den Plan für das Wasserzeichen nicht geändert hat, wie Aranson erklärte, haben alle, die von KI generierte Inhalte verwenden, Glück, müssen sich aber ein wenig anstrengen.