
Amazon meldet Hunderttausende von Bildern sexuellen Kindesmissbrauchs in KI-Trainingsdaten
01/02/2026
Schüler in Rancho Cordova präsentieren KI-Bots
02/02/2026Eine britische Forschungsgruppe möchte, dass Technologieunternehmen klare Kennzeichnungen zu KI-generierten Nachrichtenartikeln hinzufügen. Diese Kennzeichnungen würden den Lesern zeigen, woher die Informationen stammen und wie sie erstellt wurden. Der Vorschlag kommt zu einem Zeitpunkt, da sich mehr Menschen für ihre täglichen Nachrichten-Updates an KI-Chatbots wenden. Dieselbe Organisation glaubt, dass Technologieunternehmen auch Nachrichtenverlage fair für die Nutzung ihrer Inhalte bezahlen sollten. Aber hier wird es interessant—nicht jeder ist sich einig darüber, was als faire Nutzung oder angemessene Entschädigung gilt.
Wie KI-Chatbots auswählen, welche Nachrichtenquellen Sie sehen

Wenn jemand einen KI-Chatbot nach Nachrichtenempfehlungen fragt, läuft in Sekundenschnelle eine komplizierte Reihe von Berechnungen ab, um zu entscheiden, welche Geschichten zuerst erscheinen. Diese Systeme analysieren Ihre vergangenen Klicks, Lesezeit und Engagement-Muster, um vorherzusagen, was Sie wertvoll finden werden. Der Content-Kuration-Prozess wandelt Artikeltext in numerische Codes um und gleicht sie dann mit Millionen anderen Stücken ab, um Ähnlichkeiten zu finden.
Jedoch kann algorithmische Verzerrung einschleichen. Systeme bevorzugen oft Quellen, die hohes Engagement generieren, was möglicherweise Informationsblasen schafft. Sie berechnen Wahrscheinlichkeiten für Likes, Shares und Kommentare und ordnen dann die Ergebnisse entsprechend. Während diese Personalisierung darauf abzielt, relevante Inhalte zu liefern, kann sie unbeabsichtigt die Exposition gegenüber vielfältigen Perspektiven begrenzen. Fortgeschrittene Plattformen bewerten Artikel auf politischen Einfluss, emotionale Verzerrung und Informationsvollständigkeit, um ausgewogeneren Konsum zu fördern. Das Verständnis dieser Hintergrundmechanismen hilft Lesern dabei, informierte Entscheidungen über ihren Nachrichtenkonsum zu treffen.
Warum zeigt ChatGPT 58% der Zeit The Guardian, aber selten die BBC ?
Hinter den Algorithmen, die Nachrichtenquellen auswählen, liegt ein auffälliges Muster : ChatGPT zeigt Inhalte von The Guardian in 58% seiner Nachrichtenantworten an, während die BBC praktisch nirgends erscheint.
Diese Sichtbarkeitslücke bei Quellen offenbart Zitierungsverzerrung, die von Geschäftsentscheidungen geprägt ist. The Guardian sicherte sich eine Lizenzvereinbarung mit OpenAI und erhält eine Vergütung für ChatGPTs Nutzung seines Materials. Währenddessen blockiert die BBC AI-Crawler vollständig durch robots.txt-Protokolle.
Wichtige Muster in der KI-Nachrichtenbeschaffung :
- The Guardian dominiert mit 58%, viermal prominenter als das nächste Medium
- Reuters und The Independent folgen als entfernte zweite und dritte Wahl
- BBC erscheint in 0% der ChatGPT-Antworten trotz starker Präsenz anderswo
- Daily Mail, The Sun und GB News erhalten minimale oder keine Zitierungen
Diese Ungleichheiten spiegeln unklare Regeln wider, die bestimmen, welche Verlage eingeschlossen oder ausgeschlossen werden. Google Gemini schließt die BBC ebenfalls aus, während Google AI Overview sie in 52,5% der Antworten zitiert, was zeigt, wie verschiedene KI-Plattformen inkonsistente Quellenstandards anwenden.
Google gegen OpenAI : Wo verschiedene Tools ihre Nachrichten beziehen
Jedes KI-Suchwerkzeug zieht Nachrichten aus überraschend unterschiedlichen Quellen und schafft ein Flickwerk von Quellen, das sich je nach verwendeter Plattform verschiebt. ChatGPT stützt sich stark auf The Guardian, während es die BBC oft ganz überspringt, doch Googles Tools drehen dieses Muster um. Währenddessen schafft es Perplexity, BBC-Inhalte zu zitieren, obwohl der Verlag seine Crawler ausdrücklich blockiert hat, was Fragen darüber aufwirft, wie diese Grenzen tatsächlich funktionieren. Google-Suchergebnisse beinhalten lokale Sender neben großen nationalen Medien, während ChatGPTs Ergebnisse Artikel von OpenAI-Partnern gegenüber lokalen und unabhängigen Quellen bevorzugen.
ChatGPTs Guardian-Dominanz-Problem
Während ChatGPT täglich tausende von Nachrichtenquellen zitiert, erscheint ein Verlag weitaus häufiger als alle anderen.
The Guardian macht 27% aller Verlagszitierungen in ChatGPT aus. Das ist viermal mehr als das nächsthöchste Medium. Diese starke Gewichtung wirft echte Fragen über ChatGPT-Voreingenommenheit und Nachrichtenvielfalt auf.
Hauptbedenken bezüglich dieser Konzentration :
- Begrenzte Perspektive : Eine dominante Quelle bedeutet, dass weniger Standpunkte die Nutzer erreichen
- Kommerzielle Vereinbarungen : OpenAIs Partnerschaft mit The Guardian könnte die Zitierungsmuster beeinflussen
- Fehlende Stimmen : Große Medien wie die BBC erscheinen überhaupt nicht in ChatGPTs Referenzen
- Vertrauensprobleme : Nutzer verdienen ausgewogene Informationen von mehreren zuverlässigen Verlagen
Wenn eine Publikation so stark dominiert, erhalten Einzelpersonen nicht das vollständige Bild, das sie brauchen, um sich ihre eigenen Meinungen zu bilden.
Forschung zeigt, dass The Guardian in 58% der ChatGPT-Antworten erscheint und damit bei weitem die meist genutzte Nachrichtenquelle der KI ist.
BBCs ungleichmäßige plattformübergreifende Präsenz
Perplexity fügt eine weitere Komplikation hinzu und zitiert die BBC in über einem Drittel der Antworten, obwohl der Sender Crawler-Sperren einsetzt—eine Praxis, die zuvor zu Klagandrohungen führte. Währenddessen verwies Googles AI Overviews in 52,5% der Antworten auf die BBC, was darauf hindeutet, dass die umfassenderen Lizenzvereinbarungen des Technologieriesen den starken Kontrast zu ChatGPTs und Geminis vollständigem Ausschluss von Großbritanniens meistgenutzter Nachrichtenquelle erklären könnten.
Perplexity umgeht Verleger-Beschränkungen
Trotz Blockaden, die Crawler fernhalten sollen, zeigt die Suchplattform BBC-Inhalte in mehr als einem Drittel ihrer Antworten an—ein Muster, das angesichts der technischen Barrieren des Senders Augenbrauen hochzieht.
Die Scraping-Praktiken von Perplexity haben scharfe Kritik von großen Verlagen hervorgerufen, die sagen, dass ihre Rechte verletzt werden. Die BBC drohte im Juni mit rechtlichen Schritten wegen angeblichen Content-Scrapings zum Trainieren von KI-Modellen. Die New York Times schickte eine Unterlassungsaufforderung mit der Forderung, die Plattform solle die Nutzung ihres Materials einstellen.
Hauptbedenken bezüglich dieser Praktiken umfassen :
- Forbes und Wired erhoben ebenfalls ähnliche Vorwürfe wegen unbefugter Inhaltsnutzung
- Die Plattform zitiert 3–5 unabhängige Quellen pro Anfrage zur Kreuzverifikation
- Verlage behaupten, Scraping ermögliche dialogische Antworten, die ihre Seiten umgehen
- Große Publikationen erleiden verlorenen Traffic und Umsatz durch ursprüngliche Berichterstattung
Verlagsrechte bleiben im Zentrum dieser wachsenden Auseinandersetzung.
Was 20% der jungen Nachrichtenleser nicht über KI-Kuration wissen
Junge Erwachsene wenden sich häufiger als jede andere Altersgruppe an künstliche Intelligenz, um Hilfe bei Nachrichten zu erhalten. Dennoch lassen KI-Bewusstseinslücken viele im Unklaren darüber, was hinter den Kulissen passiert. Etwa 20% der jungen Leser bemerken nicht, wenn Algorithmen ihre Geschichten auswählen. Die meisten können nicht zwischen KI-erstellten Bildern, Videos oder Texten und von Menschen erstellten Inhalten unterscheiden.
Diese Unsicherheit schafft echte Probleme. Fehlinformationen verbreiten sich leichter, wenn Personen nicht erkennen können, was authentisch ist. Kurationstransparenz bleibt knapp—60% begegnen selten klaren KI-Kennzeichnungen auf Nachrichtenplattformen. Wenn Leser KI-Beteiligung vermuten, selbst bei von Menschen geschriebenen Artikeln, sinkt ihr Vertrauen erheblich. KI-Kompetenz ist jetzt genauso wichtig wie Lese- oder Internetfähigkeiten. Die Lösung ? Die meisten jungen Menschen—über 80%—möchten, dass Redaktionen ihnen beibringen, wie KI tatsächlich im Journalismus funktioniert, und ihnen Werkzeuge geben, um selbstständig durch diese neue Umgebung zu navigieren.
Der Lizenzierungsplan, der Technologieunternehmen dazu bringen würde, Verlage zu bezahlen
Wenn Tech-Giganten Nachrichtenartikel scrapen, um ihre KI-Systeme zu trainieren, verlieren Verleger doppelt—erst ihre Inhalte, dann ihre Website-Besucher. Britanniens Wettbewerbsbehörde möchte das durch neue Lizenzierungsherausforderungen ändern, die faire Verhandlungen mit Verlegern vor dem KI-Einsatz erfordern.
Das vorgeschlagene Rahmenwerk adressiert dieses Ungleichgewicht :
- Verleger werden bezahlt, wenn KI-Systeme ihren Journalismus nutzen, nicht nur leere Quellenangaben
- Kleine Redaktionen erhalten Schutz neben großen Medienunternehmen wie The Guardian
- Tech-Firmen müssen Einverständnis einholen, bevor sie KI mit kreativen Werken trainieren
- Klare Opt-out-Kontrollen lassen Verleger wählen, ob KI auf ihr Material zugreifen kann
Google lizenziert derzeit Inhalte für erweiterte Anzeigerechte, widerstrebt aber der Bezahlung für Trainingsdaten. Das Eingreifen der Behörde umgeht langwierige Gerichtsprozesse durch die Anordnung direkter Gespräche zwischen Plattformen und Inhaltserstellern, um sicherzustellen, dass alle von KI-Innovation profitieren. Der regulatorische Ansatz zieht Lehren aus Australiens verpflichtenden Nachrichten-Verhandlungskodizes, die erfolgreiche Rahmenwerke für Zahlungsverhandlungen zwischen Tech-Plattformen und Verlegern etablierten.
Warum Verlage Zahlungen unterstützen, während OpenAI sein Modell verteidigt

Nachrichtenorganisationen wollen Geld für ihre Geschichten, weil KI-Unternehmen diese Inhalte nutzen, um ihre Systeme zu trainieren. OpenAI sagt, es baue starke Beziehungen zu Verlagen durch Deals und Partnerschaften auf. Das Technologieunternehmen verweist auf seine 20 Milliarden Dollar Jahresumsatz und das wachsende Geschäft als Beweis dafür, dass sein Ansatz für alle Beteiligten funktioniert. Verleger argumentieren, dass traditionelle traffic-getriebene Einnahmequellen zusammenbrechen, da das Publikum zunehmend Nachrichten über KI-Tools abruft, anstatt Nachrichtenseiten direkt zu besuchen.
Verleger fordern Lizenzierungseinnahmen
Verlage finden sich in einer schwierigen Lage mit OpenAI wieder. Sie beobachten, wie ihr Website-Traffic sinkt, während KI-Tools Fragen direkt beantworten. Gleichzeitig benötigen sie eine faire Vergütung für Inhalte, die diese Systeme trainieren. Deshalb sind Lizenzvereinbarungen so wichtig geworden—sie bieten einen Weg nach vorn.
Folgendes fordern die Verlage :
- Umsatzbeteiligung-Deals, die laufende Zahlungen schaffen, nicht einmalige Schecks
- Entschädigung für Traffic-Verluste, da KI-Plattformen Leser von den ursprünglichen Quellen fernhalten
- Transparenz darüber, wie viel Geld diese Lizenzvereinbarungen tatsächlich generieren
- Zugang zu Unternehmens-Tools und größeren Zielgruppen durch Partnerschaften
OpenAI hat Verträge mit 18 Verlagen weltweit unterzeichnet. Dennoch beschreiben viele die Wirtschaftlichkeit als unklar. Verlage wollen Klarheit über Verlängerungen und bessere Fahrpläne bis 2026. Sie suchen nachhaltige Einkommensströme in einer KI-getriebenen Welt.
Microsofts nutzungsbasiertes Zahlungsmodell hat sich als ein Ansatz herausgestellt, der Verlagen potenzielle wiederkehrende Einnahmequellen bietet. OpenAI, das 18 Lizenzverträge hält, punktet hoch bei der Zahlungsbereitschaft, obwohl Bedenken über die Verlängerung von Lizenzverträgen in zukünftigen Jahren bestehen bleiben.
OpenAI behauptet Partnerschaftsverpflichtungen
Da OpenAI weitere Verträge mit großen Medienunternehmen abschließt, stellt das Unternehmen diese Partnerschaften als gegenseitig vorteilhafte Vereinbarungen dar, die den Journalismus unterstützen und gleichzeitig KI vorantreiben. Jüngste Abkommen mit Guardian, Schibsted und Washington Post betonen Partnerschaftstransparenz durch klare Quellenangaben und faire Einnahmenverteilung. OpenAI argumentiert, dass diese Verträge Redaktionen finanzieren—wie Axios’ vier lokale Niederlassungen—während sie Verlagen Technologiezugang bieten. Das Unternehmen behauptet, Partnerschaften beeinflussen, welche Quellen ChatGPT zitiert und schaffen damit Traffic-Möglichkeiten für Medienpartner. Google hat ähnlich Kooperationen mit unabhängigen Verlagen neben seiner Partnerschaft mit Associated Press verfolgt.
| Verlagsvorteil | OpenAI-Vorteil |
|---|---|
| Lizenzeinnahmen | Zugang zu Trainingsdaten |
| Quellenangaben/Traffic | Quellenpriorisierung |
| Technologieentwicklungstools | Unternehmensglaubwürdigkeit |
Kritiker hinterfragen, ob kommerzielle Beziehungen KI-Ausgaben beeinflussen. OpenAI verteidigt sein Modell und erklärt, Partnerschaften gewährleisten qualitativ hochwertige Informationen, während sie unabhängigen Journalismus durch Einnahmenteilungsvereinbarungen wie den 50%-Vorschlag der News Alliance unterstützen.
Quellenangabe
- https://www.resultsense.com/news/2026–01-30-ai-news-nutrition-labels-ippr
- https://www.aicerts.ai/news/thinktank-pushes-ai-labels-to-protect-information-integrity/
- https://www.pulse.bot/ai/news/ai-generated-news-should-carry-nutrition-labels-thinktank-says-287c2c1e-12b0-47f1-b86d-dd6641d7b9c9/
- https://pressgazette.co.uk/platforms/ai-chatbots-answers-cite-narrow-range-of-top-newsbrands-led-by-bbc-and-guardian/
- https://www.dualmedia.com/ai-news-nutrition-labels/
- https://www.cityam.com/chatgpt-sidelines-bbc-as-ai-news-skews-sources/
- https://affdragons.com/ai-as-the-new-front-in-the-tech-regulation-war/
- https://www.japantimes.co.jp/business/2026/01/29/tech/uk-websites-google-ai-search/
- https://www.ie.edu/school-science-technology/student-projects/mindset-ai-driven-news-recommendation-system/
- https://cloud.google.com/blog/products/ai-machine-learning/recommending-articles-using-vertex-ai-matching-engine



