
Google und MIT beweisen, dass „Multi-Agent”-Teams oft scheitern
19/12/2025
WAN 2.6 generiert Videoszenen mit konsistentem Audio und Ablauf
19/12/2025Das Rennen um den Bau künstlicher allgemeiner Intelligenz hat eine sich vergrößernde Kluft zwischen zwei Technologiegiganten offengelegt. DeepMinds Demis Hassabis sieht AGI als monumentales wissenschaftliches Unterfangen—eines, das sorgfältige Untersuchung und ethische Aufsicht erfordert. Microsoft hingegen scheint die Gangart gewechselt zu haben. Ihre Partnerschaft mit OpenAI, einst auf sorgfältige Schutzmaßnahmen aufgebaut, scheint nun von Marktdruck und Gewinnzielen angetrieben zu werden. Diese grundlegende Meinungsverschiedenheit wirft eine drängende Frage auf : sollte AGI der menschlichen Suche nach Wissen dienen, oder kann sie primär als kommerzielles Produkt existieren ?
Die ursprüngliche OpenAI-Microsoft-Partnerschaft und AGI-Schutzmaßnahmen

Als Microsoft und OpenAI 2019 erstmals eine Partnerschaft eingingen, bauten sie etwas Ungewöhnliches in ihren Deal ein. Die Partnerschaftsprinzipien enthielten ein Sicherheitsventil : Microsoft würde nur so lange an den Gewinnen teilhaben, bis AGI erreicht wäre. Was macht das interessant ? Sie verlangten, dass unabhängige Experten verifizieren, wann echte AGI existiert.
Das war nicht nur vorsichtige Anwälte. Beide Seiten wollten künstliche Intelligenz verantwortungsvoll vorantreiben und gleichzeitig die Dinge fair halten. Microsoft investierte Milliarden und wurde OpenAIs exklusiver Cloud-Anbieter über Azure. Im Gegenzug würden sie 20% der Einnahmen erhalten—aber nur bis zur AGI-Verifizierung.
Die Vereinbarung zeigte, dass beide Unternehmen verstanden, dass sie etwas Beispielloses verfolgten. Sie brauchten Regeln für eine Ziellinie, die noch niemand überschritten hatte. Sie balancierte Microsofts Investition mit OpenAIs ehrgeizigem Ziel, Technologie zu schaffen, die allen zugutekommen könnte. Die Partnerschaft baute auf früheren Investitionen auf, die 2019 und 2021 getätigt wurden, und vertiefte ihre Zusammenarbeit mit jeder Phase.
Wie die 100-Milliarden-Dollar-Gewinn-Benchmark alles veränderte
Bis 2023 hatte sich das Gespräch von der Philosophie zu Gewinnzielen verschoben. OpenAIs Partnerschaft mit Microsoft führte einen konkreten Meilenstein ein : AGI würde erklärt werden, wenn Systeme 100 Milliarden Dollar Gewinn generieren könnten. Das war nicht nur eine Zahl auf dem Papier. Es veränderte alles daran, wie Teams die Entwicklung angingen.
Die 100-Milliarden-Dollar-Auswirkungen waren massiv. Unternehmen begannen, AGI als Produkteinführung statt als Forschungserrungenschaft zu behandeln. Investoren pumpten Geld in Firmen mit klaren Wegen zum Umsatz. Rechenzentren, Chips und Infrastrukturausgaben stiegen in die Hunderte von Milliarden. Googles Q3 2025 Umsatz erreichte 102,4 Milliarden Dollar und markierte das erste Mal, dass ein Technologieunternehmen die 100-Milliarden-Dollar-Quartalsgrenze überschritt.
Gewinnmotivationen trieben nun tägliche Entscheidungen an. Forschungsprioritäten neigten sich zu Funktionen, die schnell verkauft werden konnten. Unternehmensdeals, Abonnements und Partnerschaften erhielten Vorrang. Das Rennen um die Monetarisierung künstlicher Intelligenz hatte offiziell begonnen und ließ wissenschaftliche Ideale im Staub zurück.
Steigende Spannungen über Zugang und Kontrolle
Als die Einsätze immer höher stiegen, begann die Freundschaft zwischen Microsoft und OpenAI zu bröckeln. Rechenkapazitäten wurden zu einem Schlachtfeld. OpenAI wollte schnellere Chips und mehr Cloud-Speicher, aber Microsoft sorgte sich, die Kontrolle zu verlieren. Beide Seiten stritten darüber, wer welche Ideen besaß – Lizenzstreitigkeiten wurden hitzig, während Milliarden hineinflossen.
Währenddessen wurde Talentakquise zu einem stillen Krieg. Top-Forscher sprangen zwischen Teams hin und her und nahmen Geheimnisse und Fähigkeiten mit sich. Auch die Infrastruktur-Konkurrenz intensivierte sich. Microsoft baute seine eigenen Rechenzentren, während OpenAI Deals mit Google Cloud untersuchte. Microsofts neues Superintelligenz-Team bringt es nun in direkten Wettbewerb mit seinem ehemaligen Partner.
Jeder Partner fürchtete, zurückgelassen zu werden. Vertrauen erodierte, während Anwälte strengere Verträge entwarfen. Was als Zusammenarbeit begann, fühlte sich nun wie eine Schachpartie an, bei der jeder Zug kalkuliert wurde, um zukünftige Vorteile zu schützen.
Microsofts Weg zur unabhängigen AGI-Entwicklung
Microsoft entschied sich, nicht länger zu warten. Nach Jahren der Abhängigkeit von OpenAI startete der Technologiekonzern sein eigenes AGI-Projekt. Das Unternehmen baute ein neues Team namens Microsoft AI Superintelligence auf, um unabhängige Fähigkeiten von Grund auf zu entwickeln. Dieser Schritt gibt Microsoft die Freiheit, seine eigene Vision zu verfolgen, ohne auf externe Partner angewiesen zu sein.
Die Strategie konzentriert sich auf Forschungsintegration mit bestehenden Microsoft-Teams, kombiniert mit massiven Compute-Strategie-Investitionen. Microsoft baut KI-optimierte Rechenzentren und entwickelt maßgeschneiderte Chips. Unter den überarbeiteten Partnerschaftsbedingungen kann Microsoft unabhängige AGI-Systeme unter höheren rechnerischen Schwellenwerten entwickeln. Neue KI-Governance-Strukturen und Sicherheitsprotokolle gewährleisten verantwortliche Entwicklung bei gleichzeitiger Beibehaltung der Wettbewerbsgeschwindigkeit.
Warum das für Ihre Freiheit wichtig ist :
- Sie haben mehr Auswahl, da die Konkurrenz zunimmt
- Mehrere AGI-Anbieter verhindern Monopolkontrolle
- Unabhängige Aufsicht reduziert konzentrierte Macht
- Offene Alternativen könnten schneller entstehen
Microsofts Weg nach vorn balanciert Ehrgeiz mit Verantwortlichkeit aus und schafft Raum für Innovation jenseits eines einzelnen Torwächters.
Mustafa Suleymans Existenzrisiko-Warnungen

Suleyman hat eines der düstersten Bilder von KIs potenziellen Gefahren gezeichnet und damit Forscher widergespiegelt, die die Chancen einer existenziellen Katastrophe als “nahezu absolut” einschätzen, wenn die Entwicklung unkontrolliert weitergeht. Er hat deutlich gemacht, dass Microsoft die Notbremse ziehen und seine Arbeit einstellen wird, wenn Systeme Anzeichen dafür zeigen, dass sie der menschlichen Kontrolle entgleiten. Diese Haltung hebt das Unternehmen in einer Branche hervor, in der die meisten Akteure in einem Wettlauf gefangen zu sein scheinen, immer mächtigere KI zu entwickeln, unabhängig von den Risiken. Suleyman hat das Streben nach Superintelligenz als ein “Anti-Ziel” identifiziert und gewarnt, dass solche Systeme sich als schwer einzudämmen oder mit menschlichen Werten in Einklang zu bringen erweisen könnten.
Nahezu Absolute Untergangs-Wahrscheinlichkeiten
In einer auffälligen Abkehr von seiner früheren Haltung warnt der Tech-Leader hinter einigen der fortschrittlichsten KI-Systeme der Welt nun, dass die Wahrscheinlichkeit eines katastrophalen Versagens fast sicher sein könnte. Suleyman verwies auf KI-Sicherheitsforscher Roman Yampolskys erschreckende 99,999999%-Untergangs-Wahrscheinlichkeit—eine Zahl, die nahelegt, dass existentielles Risiko ohne Intervention praktisch garantiert ist. Diese extreme Einschätzung entstand inmitten von Bedenken über das unkontrollierte Rennen in Richtung Superintelligenz. Suleyman erklärte, dass die Entwicklung anhalten wird, wenn KI eine Bedrohung für die menschliche Sicherheit darstellt, eine Verpflichtung, die er als rational ansieht, obwohl sie in der Branche ungewöhnlich ist. Investoren haben hinterfragt, ob milliardenschwere KI-Investitionen profitabel bleiben können, wenn die Entwicklung anhalten muss. Die Warnungen stimmen mit wachsenden Berichten anderer Tech-Experten über hohe existentielle Untergangswahrscheinlichkeiten überein.
Was das für Ihre Zukunft bedeutet :
- Ihr Recht zu wählen könnte verschwinden, wenn KI-Systeme Entscheidungen ohne menschliche Eingabe treffen
- Arbeitsplätze und Gemeinden könnten schneller verschwinden, als sich die Gesellschaft anpassen kann
- Persönliche Autonomie könnte unter unkontrollierbarer Superintelligenz unmöglich werden
- Die Freiheit selbst hängt am seidenen Faden der heute getroffenen Entscheidungen
Microsofts Entwicklungsstopp-Option
Ein Tech-Gigant versprach gerade etwas fast Unerhörtes im Rennen um den Bau intelligenterer Maschinen. Microsofts Mustafa Suleyman kündigte an, dass das Unternehmen einen Entwicklungsstopp verfolgen würde, falls KI-Systeme zu entgleiten drohen und die menschliche Kontrolle überschreiten. Diese Risikomanagement-Haltung sticht als bemerkenswert selten unter Konkurrenten hervor, die künstliche allgemeine Intelligenz verfolgen.
Suleyman beschrieb diese Position als rote Linie, die mit Eindämmungs- und Ausrichtungsprioritäten verknüpft ist. Die Verpflichtung zielt auf Systeme ab, die potentiell der Aufsicht entlaufen könnten, und betont was er “humanistische Superintelligenz” nennt, die menschlichen Interessen dient. In einem von halsbrecherischer Konkurrenz getriebenen Sektor bietet dieser vorsichtige Ansatz einen bemerkenswerten Kontrast.
Das Versprechen spiegelt breitere Bedenken über Fähigkeiten wider, die noch nicht für weitverbreitete Einführung bereit sind, besonders da Microsoft zu Modellen voranschreitet, die menschliche Leistung bei verschiedenen Aufgaben übertreffen. Die überarbeitete Partnerschaftsvereinbarung des Unternehmens mit OpenAI beinhaltet nun ein unabhängiges Expertengremium zur Verifizierung jeder AGI-Erklärung, was eine externe Schutzmaßnahme zum Entwicklungsprozess hinzufügt.
Die AGI-Wettlauf ablehnen
Der Microsoft-Manager, der einst Befürchtungen über den KI-Weltuntergang als “völlig verrückt” abgetan hatte, hat dramatisch umgeschwenkt. Mustafa Suleyman setzt sich nun für ernsthafte ethische Überlegungen bezüglich der AGI-Auswirkungen ein. 2023 nannte er Sorgen über existenzielle Risiken eine Ablenkung von echten Problemen. Er drängte darauf, sich stattdessen auf Datenschutz, Voreingenommenheit und Online-Moderation zu konzentrieren. Aber seine Haltung hat sich geändert.
Heute warnt Suleyman davor, auf Systeme zuzustürzen, die wir nicht kontrollieren können :
- Keine autonome KI sollte der menschlichen Aufsicht entkommen
- Sich selbst verbessernde Systeme brauchen Lizenzierung wie nukleares Material
- Bewusstseinsbehauptungen bergen das Risiko gefährlicher emotionaler Bindungen
- Transparenz und Prüfungen müssen der Einführung vorausgehen
Dieser Wandel spiegelt das wachsende Bewusstsein wider, dass AGI-Auswirkungen Respekt verdienen, nicht Spott. Seine Leitung der KI-Abteilung von Microsoft seit März 2024 markiert einen Wendepunkt in der Herangehensweise des Unternehmens an künstliche allgemeine Intelligenz. Freiheit gedeiht, wenn Individuen die Kontrolle über ihre Werkzeuge behalten. Suleymans Entwicklung zeigt, dass selbst Skeptiker die Bedeutung erkennen.
Die Hassabis-Suleyman-Philosophische Kluft

Demis Hassabis sieht AGI als das größte wissenschaftliche Rätsel der Menschheit—eine Forschungsherausforderung, die die Geheimnisse der Intelligenz selbst entschlüsseln könnte. Mustafa Suleyman vertritt eine andere Ansicht und besteht darauf, dass wir das brauchen, was er “humanistische Superintelligenz” nennt, bei der Sicherheitstore und ethische Leitplanken vor dem Vorantreiben von Fähigkeiten kommen. Diese Spaltung offenbart zwei Wege : einer rast in Richtung Entdeckung, der andere verlangt, dass wir zuerst die Eindämmung beweisen.
Währenddessen verhandeln Microsoft und OpenAI über die Neudefinition ihrer Partnerschaft rund um die AGI-Erreichung, wobei Microsofts aktueller Zugang zu OpenAIs Modellen möglicherweise 2030 oder bei der AGI-Erklärung enden könnte—je nachdem, was zuerst eintritt.
Hassabis : AGI für Entdeckung
Entdeckung steht im Mittelpunkt von Demis Hassabis’ Vision für künstliche allgemeine Intelligenz. Er sieht AGI-Potenzial als bedeutenden Fortschritt—einen, der Heilmittel für Krankheiten, Lösungen für den Klimawandel und Antworten auf Geheimnisse freisetzt, die wir kaum zu fragen begonnen haben. Anstatt Produkte hastig auf den Markt zu bringen, setzt sich Hassabis für wissenschaftliche Verantwortung durch sorgfältige Forschung und Peer-Review ein.
Sein Ansatz spiegelt wider, wie Wissenschaftler in Laboren arbeiten : Ideen testen, Ergebnisse teilen, andere Ihre Arbeit überprüfen lassen. Sicherheit entsteht durch Verstehen dessen, was man gebaut hat, nicht durch blindes Vorpreschen. Suleyman lehnt diesen bedachten Ansatz ab und weist Narrative eines Wettlaufs zur AGI zurück, während er paradoxerweise Microsofts Vorstoß in Richtung humanistischer Superintelligenz anführt.
Warum das für alle wichtig ist :
- Freiheit zu schaffen ohne Unternehmensdruck, der Forschungsziele verzerrt
- Transparente Methoden, die jeder untersuchen und herausfordern kann
- Entdeckungen offen geteilt, nicht hinter Bezahlschranken eingesperrt
- Langfristige Vorteile priorisiert über Quartalsgewinne
Dieser geduldige, wissenschaftsorientierte Weg verspricht AGI, die der Menschheit tiefste Bedürfnisse dient.
Suleyman : Humanistische Superintelligenz abgelehnt
Während Hassabis AGI durch geduldige wissenschaftliche Entdeckung verfolgt, schlägt Mustafa Suleyman einen völlig anderen Kurs ein. Seine Vision lehnt grenzenlose Autonomie ab. Stattdessen setzt er sich für das ein, was er Humanistische Superintelligenz nennt—fortgeschrittene KI, die mit strengen Grenzen und menschlicher Aufsicht von Anfang an entwickelt wird.
Suleymans Ansatz priorisiert Eindämmung über Fähigkeitsrennen. Sein Team bei Microsoft konzentriert sich auf praktische Probleme : Gesundheitswesen, Klima, Bildung. Sie entwerfen Systeme, die sich klar als Werkzeuge präsentieren, nicht als Entitäten mit eigenem Bewusstsein. Humanistische Prinzipien leiten jede Entscheidung. Ethische Überlegungen sind keine Zusätze—sie sind grundlegend.
Diese Philosophie stellt direkt die Vorstellung in Frage, dass intelligentere KI automatisch bessere Ergebnisse bedeutet. Suleyman argumentiert, dass der Zweck wichtiger ist als rohe Macht. Sein Team baut Leitplanken, Rechenschaftsmaßnahmen und interdisziplinäre Aufsicht in Produkte wie Copilot ein. Es ist KI, die dazu entwickelt wurde zu dienen, nicht um Bewusstsein zu simulieren oder Unabhängigkeit zu suchen. Der Ansatz lädt vielfältige Hintergründe ein, KI-Design zu gestalten, und erkennt an, dass geisteswissenschaftliche Perspektiven sich als entscheidend in der Technologieentwicklung erweisen.
Wissenschaftsgetriebene vs. gewinnorientierte AGI-Strategien
Im Mittelpunkt der Spaltung zwischen DeepMind und Microsoft liegt eine grundlegende Frage : Sollte das Rennen um die künstliche allgemeine Intelligenz von wissenschaftlicher Neugier oder kommerzieller Gelegenheit geleitet werden ?
DeepMind befürwortet kollaborative Forschung und Wissenschaftsethik und bevorzugt langsamen, transparenten Fortschritt. Sie veröffentlichen Erkenntnisse offen. Sie laden externe Experten ein, Fortschritte zu überprüfen. Erfolg bedeutet, kognitive Tests zu bestehen, nicht Umsatzziele zu erreichen.
Microsoft schlägt einen anderen Weg ein. Sie integrieren Modelle schnell in Produkte. Sie unterzeichnen Lizenzverträge, um sich Marktzugang zu sichern. Ihr Ziel ? KI profitabel zu machen und sie über Unternehmensplattformen zu skalieren. Das Unternehmen nutzt seinen 50-jährigen Ruf im Dienste von 90% der S&P 500-Unternehmen.
Die Einsätze könnten nicht höher sein :
- Ihre Freiheit, unvoreingenommene KI-Forschung zu nutzen, steht auf dem Spiel
- Kommerzieller Druck könnte gefährliche Fähigkeiten vorschnell auf den Markt bringen
- Wissenschaftliche Offenheit versus Unternehmensgeheimhaltung bestimmt, wer AGI kontrolliert
- Unabhängige Überprüfung schützt alle vor rücksichtslosen Erklärungen
Diese konkurrierenden Visionen werden die KI-Zukunft der Menschheit prägen.
Quellenangabe
- https://year2049.substack.com/p/the-agi-clause-explained
- https://www.marketingaiinstitute.com/blog/microsoft-openai-partnership
- https://www.windowscentral.com/artificial-intelligence/microsoft-copilot/microsofts-ai-chief-mustafa-suleyman-has-warned-that-the-odds-of-existential-doom-are-nearly-absolute-the-company-could-walk-away-from-ai-if-risks-escalate
- https://fortune.com/2025/11/06/microsoft-launches-new-ai-humanist-superinteligence-team-mustafa-suleyman-openai/
- https://www.eweek.com/news/microsoft-google-different-plans-agi-neuron/
- https://www.theneuron.ai/explainer-articles/the-battle-for-agi-two-former-deepmind-partners-two-competing-visions
- https://www.businessinsider.com/microsoft-ai-ceo-superintelligence-anti-goal-mustafa-suleyman-2025–11
- https://blogs.microsoft.com/blog/2023/01/23/microsoftandopenaiextendpartnership/
- https://en.wikipedia.org/wiki/OpenAI
- https://news.microsoft.com/source/features/ai/15-milestones-that-shaped-microsofts-vision-for-ai/



