
WhatsApp blockiert externe KI-Bots und gestaltet globalen Zugang neu
28/11/2025
UNESCO konfrontiert Infrastrukturlücken in ihrer KI-Bereitschaftsarbeit
28/11/2025Deloitte, eine der vertrauenswürdigsten Beratungsfirmen der Welt, ist gerade in ein peinliches Problem gestolpert. Ein wichtiger Bericht, den sie für die kanadische Regierung von Neufundland und Labrador erstellt haben, enthielt gefälschte Zitate und erfundene Quellenangaben—alles dank künstlicher Intelligenz, die schiefgelaufen ist. Die Firma gab zu, dass ihr KI-Tool Informationen “halluziniert” hat, die nie existiert haben. Das war auch kein einmaliger Ausrutscher. Ein weiterer fehlerhafter Bericht aus Australien tauchte nur Monate zuvor auf. Jetzt fragen sich alle : Wenn Élite-Berater KI-Fehler nicht erkennen können, wer dann ?
Der 1,6‑Millionen-Dollar-Neufundland-Bericht und seine erfundenen Quellenangaben

Ein kostspieliger Fehler kann manchmal die wertvollsten Lektionen lehren.
Deloitte Consulting lieferte einen 1,6 Millionen Dollar teuren Bericht an die Regierung von Neufundland und Labrador. Das Projekt zielte darauf ab, Entscheidungen über Technologie- und Infrastrukturausgaben zu leiten. Beamte wollten frische Ideen zur Ankurbelung der regionalen Wirtschaft.
Aber etwas ging während der Forschung schief. Der Bericht enthielt erfundene Zitate, die tatsächlich nicht existierten. Zeitschriften und Artikel, die zitiert wurden, konnten nirgendwo gefunden werden. Einige Autoren waren vollständig erfunden. Andere hatten falsche Veröffentlichungsinformationen.
Als Experten die Quellen überprüften, entdeckten sie die Fehler. Diese Glaubwürdigkeitsauswirkung erschütterte das Vertrauen in das gesamte Projekt. Regierungsvertreter stellten in Frage, ob sie sich auf die Ergebnisse verlassen könnten. Die Öffentlichkeit fragte sich, wie so teure Arbeit gefälschte Referenzen enthalten konnte.
Die Situation erforderte Antworten und Verantwortlichkeit.
Wie KI-Tools zur Generierung von Zitaten verwendet wurden
Ermittler führten das Problem schließlich auf Software für künstliche Intelligenz zurück, die während der Forschungsphase verwendet wurde. Das Team hatte sich auf automatisierte Programme verlassen, um Quellen zusammenzustellen und ihre Literaturliste zu erstellen. Diese Programme durchsuchen Dokumente und Webseiten und erstellen dann schnell formatierte Zitate. Das klingt hilfreich, oder ? Aber hier ist der Haken : Die Software machte Fehler. Einige Verweise zeigten auf Arbeiten, die nicht existierten. Andere hatten falsche Details. Dies wirft ernsthafte Fragen zur Zitiergenauigkeit auf, wenn Maschinen die Arbeit erledigen. Die ethischen Auswirkungen sind ebenfalls bedeutsam. Wenn Fachleute diesen Programmen vertrauen, ohne deren Ausgabe zu überprüfen, schlüpfen Fehler durch. Leser erwarten solide Forschung. Sie verdienen echte Quellen, die sie selbst überprüfen können. Metadaten-Ungenauigkeiten von automatisierten Tools können die Integrität professioneller Berichte gefährden. Diese Situation zeigt, warum menschliche Überprüfung weiterhin unerlässlich bleibt.
Deloittes Eingeständnis und Schadensbegrenzungsmaßnahmen
Als die Fehler ans Licht kamen, stand Deloitte vor einer schwierigen Entscheidung : schweigen oder reinen Tisch machen. Das Unternehmen wählte Transparenz. Sie gaben zu, dass die KI einige Zitate “halluziniert” hatte – Referenzen erfunden hatte, die tatsächlich nicht existierten. Das war peinlich, besonders für ein vertrauensvolles Beratungsunternehmen.
Deloitte veröffentlichte schnell Korrekturen und erklärte, wie die KI verwendet wurde. Sie betonten, dass die Kernbefunde der Berichte trotz fehlerhafter Fußnoten solide blieben. Das Unternehmen bot auch teilweise Rückerstattungen an betroffene Regierungen an und erkannte die Fehler öffentlich an. Ein überarbeiteter Bericht wurde veröffentlicht, während das Original von der Regierungswebsite entfernt wurde.
Hinter den Kulissen begann Deloitte, seine KI-Governance-Praktiken zu überprüfen. Das Ziel ? Ähnliche Probleme in Zukunft zu verhindern. Sie erkannten, dass Zitationsintegrität von großer Bedeutung ist, wenn man Regierungen berät. Ohne starke Aufsicht kann selbst hilfreiche Technologie Vertrauen und Glaubwürdigkeit beschädigen.
Der Bericht der australischen Regierung : Ein ähnlicher Fall nur Monate zuvor
Die australische Regierung räumte später ein, dass ihr 440.000-Dollar-Bericht Inhalte enthielt, die von Azure OpenAI generiert wurden, einem leistungsstarken Sprachsystem von Microsoft. Dieses Eingeständnis erfolgte erst, nachdem ein Rechtsprofessor erfundene Zitate und ausgedachte Forschungszitate entdeckt hatte, die über das 237-seitige Dokument verstreut waren. Deloitte stimmte schließlich zu, einen Teil der Zahlung zurückzugeben, um die Sache mit ihrem Kunden in Ordnung zu bringen. Der Bericht enthielt mindestens 20 Ungenauigkeiten, die mit KI-Halluzinationen verbunden waren.
Azure OpenAI Nutzung Zugelassen
Die Offenlegung enthüllte drei zentrale Probleme :
- Die ursprüngliche Juli-Publikation enthielt keine Erwähnung der Azure OpenAI GPT-4o Nutzung
- Der Methodikteil in der überarbeiteten Version versteckte die KI-Offenlegungssprache tief in technischen Details
- Deloitte erkannte die Beteiligung des Tools erst an, nachdem Forscher gefälschte Zitate entdeckt hatten
Dieses Muster beunruhigte Rechenschaftsbefürworter, die Offenheit bei staatlichen Aufträgen schätzen. Wenn Steuerzahler Forschung finanzieren, verdienen sie zu wissen, wie diese Arbeit durchgeführt wird. Der A$440.000 Vertrag verlangte bessere Ehrlichkeit im Vorfeld über automatisierte Inhaltserstellungsmethoden.
Der Vorfall hob breitere Bedenken über KIs Zuverlässigkeit in professionellen Umgebungen hervor, insbesondere wenn KI-Systeme plausible, aber falsche Informationen ohne angemessene menschliche Aufsicht generieren. Der Mangel an Transparenz warf Fragen auf, ob angemessene Qualitätskontrollprozesse vorhanden waren, um die Genauigkeit von KI-generierten Zitaten vor der Veröffentlichung zu überprüfen.
Erfundene Zitate und Forschung
Nur wenige Monate bevor diese Kontroverse ausbrach, war ein auffallend ähnliches Problem in einem anderen wichtigen australischen Regierungsbericht aufgetaucht. Das Ministerium für Beschäftigung und Arbeitsplatzbeziehungen beauftragte eine 440.000-Dollar-Studie zur Untersuchung von Compliance-Rahmenwerken. Als der Forscher Chris Rudge das 237-seitige Dokument überprüfte, entdeckte er etwa zwanzig KI-Halluzinationen im gesamten Text verstreut. Der Bericht enthielt erfundene Integritätsverletzungen, die Beobachter schockierten—gefälschte Zitate, die Richtern des Bundesgerichts zugeschrieben wurden, und erfundene wissenschaftliche Arbeiten, die mit echten Forschern verknüpft waren. Das waren keine einfachen Fehler. Zitationen verwiesen auf Arbeiten, die völlig außerhalb der Fachgebiete von Experten lagen, was schwerwiegende akademische Konsequenzen zur Folge hatte. Die Regierung gab stillschweigend eine korrigierte Version heraus, nachdem die Australian Financial Review die Fehler aufgedeckt hatte. Später gaben Beamte zu, dass Azure OpenAI bei der Erstellung des fehlerhaften Dokuments geholfen hatte. Die australische Regierung erhielt eine teilweise Rückerstattung von 290.000 Dollar von Deloitte nach der Aufdeckung dieser Ungenauigkeiten.
Teilerstattung und Lösung
Nach öffentlicher Empörung und medialer Kontrolle stimmte Deloitte zu, einen Teil der 440.000 Dollar Gebühr zu erstatten, die die australische Regierung für den fehlerhaften Bericht bezahlt hatte. Der genaue Betrag wurde nicht öffentlich bekannt gegeben. Senatorin Barbara Pocock forderte eine vollständige Rückerstattung und kritisierte die schlechten KI-Praktiken des Unternehmens. Das Problem wurde durch direkte Kundenkommunikation gelöst.
Die Lösung umfasste diese wichtigsten Ergebnisse :
- Eine teilweise Rückerstattung zur Behandlung vertraglicher Verpflichtungen im Zusammenhang mit der fehlerhaften Arbeit
- Strengere KI-Nutzungsklauseln in zukünftigen Regierungsverträgen zur Verhinderung ähnlicher Probleme
- Keine weiteren rechtlichen Schritte, laut Deloittes öffentlicher Erklärung
Das Unternehmen löste die Angelegenheiten “direkt mit dem Kunden” und hielt die Details privat. Dieser Ansatz entfachte eine Debatte über Transparenz, wenn öffentliche Gelder Forschung finanzieren. Viele fragten sich, ob stärkere Rechenschaftsmaßnahmen für Beratungsarbeit nötig seien. Deloitte hat sich verpflichtet, bis 2030 3 Milliarden Dollar in generative KI zu investieren, was den anhaltenden Fokus des Unternehmens auf KI-gestützte Beratungsdienste signalisiert.
Forscher und Experten reagieren auf falsche Zitierung
Ungefähr zwanzig erfundene Referenzen verstreut über Deloittes Bericht erregten die Aufmerksamkeit von Rechtsprofessor Chris Rudge, der mit der Untersuchung begann, nachdem er etwas Seltsames entdeckt hatte. Ein Zitat, das sich auf seine Kollegin Lisa Burton Crawford bezog, schien verdächtig. Er bezeichnete den angeblichen Buchtitel als “absurd”, da er wusste, dass er nicht existierte.
Diese Verletzung der Zitierintegrität setzte sofort rote Flaggen bezüglich akademischer Rechenschaftspflicht. Hatte irgendjemand bei der Beratungsfirma tatsächlich diese Quellen überprüft, bevor das Dokument an Regierungsbeamte gesendet wurde ? Die erfundenen Referenzen untergruben nicht nur die Ergebnisse des Berichts—sie beschädigten das Vertrauen zwischen Akademikern und Beratungsunternehmen.
Falsche Zitate schaffen echte Probleme für Wissenschaftler, deren Namen mit Arbeiten verknüpft werden, die sie nie produziert haben. Diese Fehler erschüttern das Fundament professioneller Beziehungen, die auf Genauigkeit und Ehrlichkeit basieren. Rudge entdeckte auch, dass der Bericht einen Gerichtsfall falsch zitierte und erfundene Zitate enthielt, die einem Richter zugeschrieben wurden.
Was diese Vorfälle für die Beratungsbranche bedeuten

Diese Zitationsfehler haben nicht nur eine Firma blamiert—sie haben Schockwellen durch die gesamte Beratungsbranche gesendet. Vertrauenserosion ist zu einem echten Problem geworden, da Kunden sich fragen, wer sonst noch Abkürzungen nehmen könnte. Die Beratungsintegrität steht nun vor ernsten Fragen.
Die Auswirkungen umfassen drei große Veränderungen :
- Strengere Verträge—Kunden fordern jetzt Strafen für KI-Fehler und Nachweise menschlicher Überprüfung
- Höhere Kosten—Firmen müssen mehr für Qualitätskontrollen ausgeben, was möglicherweise die Gewinnmargen schmälert
- Regulierungsdruck—Regierungen schaffen neue Aufsichtsregeln für KI-generierte Arbeit
Firmen, die Geschwindigkeit über Genauigkeit gestellt haben, kämpfen darum, ihre Glaubwürdigkeit wiederherzustellen. Gleichzeitig erwarten Kunden vollständige Transparenz bezüglich KI-Beteiligung. Die Botschaft ist klar : Automatisierung kann Verantwortlichkeit nicht ersetzen. Forschungen zeigen, dass das Gleichgewicht zwischen KI und menschlicher Expertise jetzt an fünfter Stelle der Auswahlkriterien steht, wenn Unternehmen Beratungsfirmen auswählen. Diejenigen, die sich schnell anpassen, werden überleben ; diejenigen, die es nicht tun, riskieren alles zu verlieren.
Das wachsende Risiko von KI-Halluzinationen in der politischen Arbeit
Wenn künstliche Intelligenz beginnt, Dinge zu erfinden, steht die Politikarbeit vor einem ernsten Problem. Studien zeigen, dass KI-Tools bei 58% bis 82% der rechtlichen Anfragen falsche Informationen produzieren. Diese Fehler sind nicht offensichtlich—sie sehen echt und überzeugend aus.
KI-Zuverlässigkeit wird kritisch, wenn Regierungsberichte gefälschte Zitate enthalten. Der Deloitte-Vorfall beweist, dass dieses Risiko real und nicht theoretisch ist. Erfundene Referenzen können Vertragsstreitigkeiten und finanzielle Verluste auslösen.
Politische Integrität hängt von genauen Informationen ab. Wenn KI Daten erfindet, die korrekt erscheinen, haben selbst Experten Schwierigkeiten, Fehler zu erkennen. Dies bedroht die Grundlage vertrauensvoller Regierungsführung. KI-Modelle sind darauf trainiert, überzeugend zu klingen, anstatt korrekt zu sein, was Halluzinationen besonders schwer identifizierbar macht.
Organisationen benötigen Überprüfungssysteme vor der Veröffentlichung von KI-generierten Inhalten. Menschliche Prüfer müssen jedes Zitat und jeden Fakt überprüfen. Ohne diese Schutzmaßnahmen erodiert das öffentliche Vertrauen und Institutionen sehen sich ernsten Konsequenzen gegenüber.
Quellenangabe
- https://fortune.com/2025/11/25/deloitte-caught-fabricated-ai-generated-research-million-dollar-report-canada-government/
- https://www.semafor.com/article/11/26/2025/deloitte-faces-new-scrutiny-over-ai-generated-mistakes
- https://theindependent.ca/news/lji/major-n-l-healthcare-report-contains-errors-likely-generated-by-a‑i/
- https://san.com/cc/another-government-paid-deloitte-for-work-with-ai-generated-hallucinations/
- https://www.thesify.ai/blog/top-10-free-reliable-citation-generator-tools-for-students-researchers-in-2025
- https://libguides.usc.edu/generative-AI/citing-generative-ai
- https://quillbot.com/citation-generator
- https://www.citationmachine.net/artificial-intelligence
- https://www.scribbr.com/citation/generator/
- https://libguides.wku.edu/stylewrite/ai



