
OpenAI startet GPT Image 1.5
19/12/2025
Deepmind und Microsoft sind uneins über AGI : Wissenschaft oder Profit ?
19/12/2025Mehr Personen, die zusammenarbeiten, sollten bessere Ergebnisse bedeuten, oder ? Nicht ganz. Neue Forschung von Google und MIT stellt diese populäre Annahme in Frage, besonders wenn diese Teammitglieder zufällig KI-Agenten sind. Ihre Erkenntnisse zeigen etwas Unerwartetes : mehr Agenten zu einem Projekt hinzuzufügen kann die Dinge tatsächlich verschlechtern. Die Studie deckt auf, warum diese digitalen Teams Schwierigkeiten haben, wann sie am besten funktionieren und was Erfolg von spektakulärem Scheitern unterscheidet.
Wenn das Hinzufügen von mehr Agenten die Leistung verschlechtert

Drei Agenten, die zusammenarbeiten, sollten schneller fertig werden als ein Agent, der alleine arbeitet. Das ist zumindest das Versprechen. Die Realität erzählt eine andere Geschichte. Forschung zeigt, dass das Hinzufügen von mehr Agenten oft Agentenüberlastung anstatt besserer kollaborativer Effizienz erzeugt. Wenn vier Agenten Dokumente parallel verarbeiten, werden sie in drei Sekunden statt acht fertig. Klingt großartig ! Aber Koordination fügt zwei zusätzliche Sekunden hinzu, wodurch die Gesamtzeit auf fünf steigt. Das ist nur 37% Verbesserung trotz doppelter Komplexität.
Das Problem wird schlimmer, wenn Teams wachsen. Skalierungsherausforderungen multiplizieren sich, weil Agenten mit Aufgabenausrichtung und Abhängigkeitsmanagement kämpfen. Rollenkonflikte entstehen, wenn Teamdynamik zusammenbricht. Ein Agent greift sich 80% des verfügbaren Speichers und lässt andere verhungern. Performance-Kompromisse werden unvermeidlich. Ressourcenzuteilung wird chaotisch. Systeme brauchen adaptives Lernen, um diese Fallstricke zu vermeiden, aber den meisten Frameworks fehlt es. Mehr Agenten bedeuten oft schlechtere Ergebnisse.
Koordinationskosten skalieren nicht-linear mit steigender Agentenzahl, was bedeutet, dass ein Team von acht Agenten möglicherweise mehr Zeit mit der Verwaltung von Interaktionen verbringt als tatsächlich mit der Fertigstellung der Arbeit.
Die versteckte Steuer der Koordination und Kommunikation
Wenn Agenten zusammenarbeiten, tauschen sie Nachrichten hin und her aus, um auf dem gleichen Stand zu bleiben. Jede Nachricht verbraucht einen Teil ihres Token-Budgets—der Gesamtmenge an Informationen, die sie auf einmal verarbeiten können. Während das Team wächst, wird dieses Budget dünn über mehr Gespräche verteilt, und jedermanns Kontextfenster beginnt mit zu vielen Informationen überzulaufen, um sie zu verfolgen. Wenn Agenten falsche Annahmen über die Handlungen anderer treffen, verfallen sie in suboptimale Entscheidungen, die die Koordination brechen.
Token-Budget wird verwässert
Jede Nachricht zwischen Agenten trägt ein verstecktes Preisschild. Wenn Teams koordinieren, verbrauchen sie ihr Token-Budget schnell. Redundante Nachrichten zwingen Agenten dazu, dieselben Fakten immer wieder zu wiederholen und verschwenden kostbare Ressourcen. Jede Übergabe erfordert Zustandsfreigabe—das Senden des vollständigen Kontexts anstelle von intelligenten Updates. Dieser Overhead frisst sich in das ein, was zählt : tatsächliche Denkzeit.
Studien zeigen, dass Kommunikationsstrategien den Großteil des Budgets verbrauchen können, bevor die eigentliche Arbeit beginnt. Token-Effizienz leidet, wenn Koordination Vorrang hat. Leistungsskalierung hängt von intelligenten Budgetbeschränkungen ab, doch Überwachungsauswirkungen fügen eine weitere Kostenschicht hinzu. Die Überwachung, die Fehler verhindert, erfordert immer noch Token. Rollenvermischung—Planer, Löser und Verifizierer operieren ohne klare Grenzen—verstärkt das Problem durch kaskadierende Fehler, die noch mehr Token zur Diagnose und Behebung erfordern. Kostenoptimierung wird zu einem Balanceakt : zu viel Koordination kostet, und Agenten können nicht tief genug denken, um das Problem zu lösen, das sie diskutieren.
Kontextfenster erreichen Grenzen
Kontextfenster setzen harte Grenzen dafür, wie viele Informationen ein KI-Agent gleichzeitig verarbeiten kann. Stellen Sie es sich wie einen Schreibtisch vor, der nur so viele Papiere fasst, bevor alles überläuft.
Wenn mehrere Agenten zusammenarbeiten, müssen sie Updates und Erkenntnisse miteinander teilen. Jeder Austausch in einer Unterhaltung fügt Komplexität hinzu und erhöht die Kontextnutzung. Jeder Austausch fügt mehr Text zum Stapel hinzu. Eine einfache Aufgabe kann von 500 Wörtern auf 7.500 anschwellen, während die Agenten hin und her kommunizieren. Diese kontextuelle Überlastung bremst das gesamte System aus.
Große Dateien erzeugen dauerhaften Widerstand bei jeder folgenden Unterhaltung. Ein einzelnes großes Dokument kann das Budget für stundenlange Arbeit auffressen.
Das Ergebnis ? Die Agent-Effizienz stürzt ab. Anstatt intelligenter zu arbeiten, ertrinken Teams in ihrem eigenen Geplapper—unfähig sich daran zu erinnern, was am wichtigsten ist. Häufiges Erreichen von Kontextgrenzen führt zu verschlechterter Benutzererfahrung.
Wie sich Fehler in Agententeams multiplizieren

Wenn ein Agent einen Fehler macht, trägt der nächste Agent diesen Fehler oft weiter, ohne ihn zu bemerken. Forschung zeigt, dass sich diese Fehler bis zu 17 Mal schneller vermehren können, wenn Agents separat arbeiten, ohne Informationen ordnungsgemäß zu teilen. Denken Sie daran wie an Stille Post—jede Person gibt eine leicht falsche Nachricht weiter, und am Ende ähnelt die finale Antwort kaum dem, was am Anfang stand. Zentrale Koordination kann helfen, dieses Problem zu reduzieren, obwohl es das Problem von Fehlern, die sich aufeinander aufbauen, nicht vollständig löst.
Kaskadierende Ausfälle in Teams
Sobald ein Agent in einem Team einen Fehler macht, kann sich dieser Fehler wie ein falsch gelaufenes Flüsterspiel ausbreiten. Ohne starke Feedback-Schleifen, um Probleme frühzeitig zu erkennen, baut jedes Teammitglied auf fehlerhaften Informationen vom letzten auf. Diese Kommunikationsstörung verwandelt kleine Fehltritte in schwerwiegende Ausfälle.
Stellen Sie es sich wie einen Staffellauf vor, bei dem die Läufer nicht prüfen, ob sie den richtigen Stab gegriffen haben. Eine falsche Übergabe führt zur nächsten. Die Zusammenarbeit der Agenten leidet unter schlechter Entscheidungsabstimmung und schwacher Konfliktlösung. Ressourcenbeschränkungen verschlimmern alles—wenn mehrere Agenten gleichzeitig an dieselben Grenzen stoßen, kann das gesamte System einfrieren.
Die Teamdynamik bricht unter diesen Bedingungen zusammen. Leistungskennzahlen fallen stark ab. Inter-Agent-Fehlausrichtung verstärkt diese kaskadierenden Fehler und schafft Ausfallmodi, die aus Koordinationsherausforderungen und nicht aus individuellen Agentenfähigkeiten entstehen. Die Systemresilienz hängt davon ab, die Fehlerausbreitung zu erfassen, bevor sie zu einem kompletten Zusammenbruch anwächst.
Koordination verstärkt Fehlerquoten
Fehler addieren sich nicht nur in Multi-Agenten-Teams—sie multiplizieren sich. Wenn ein Agent einen Fehler macht, bauen andere auf diesem fehlerhaften Fundament auf. Forschung zeigt, dass sich Fehler bis zu 17-mal schneller verstärken ohne ordnungsgemäße Informationsübertragung zwischen Teammitgliedern. Es ist wie ein Spiel stiller Post—jede Übergabe birgt das Risiko, die Nachricht weiter zu verzerren.
Selbst mit zentralisierter Überwachung reduziert Fehlervermeidung die Multiplikation nur auf das Vierfache der Einzelagenten-Rate. Agentensynchronisation hilft, aber beseitigt nicht das Kernproblem. Frühe Fehler in sequenziellen Arbeitsabläufen erweisen sich als besonders gefährlich und durchziehen jeden nachfolgenden Schritt, bis das gesamte Projekt entgleist.
Die Mathematik ist einfach : mehr Agenten bedeuten mehr Chancen, dass etwas schiefgeht. Multi-Agenten-Systeme können die Leistung bei sequenziellen Aufgaben wie Minecraft-Planung um bis zu 70% reduzieren. Ohne konstante Kommunikation und Überwachung werden diese kleinen Fehltritte zu großen Fehlern.
Warum Teamgröße nicht gleichbedeutend mit besseren Ergebnissen ist
Viele Führungskräfte glauben, dass das Hinzufügen von mehr Mitgliedern zu einem Team die Ergebnisse verbessert. Die Forschung erzählt eine andere Geschichte. Eine Meta-Analyse von 208 Studien mit 21.435 Teams fand im Wesentlichen keinen Zusammenhang zwischen Größe und Leistung. Größere Gruppen liefern nicht automatisch bessere Ergebnisse.
Die Teamkomplexität steigt dramatisch an, wenn man Personen hinzufügt. Eine vierköpfige Gruppe braucht 44% länger als ein zweiköpfiges Team bei einfachen Aufgaben. Mehr Mitglieder bedeuten mehr Koordinierungsherausforderungen und Kommunikationsverwirrungen.
Das Engagement der Mitglieder leidet in größeren Umgebungen. Teams mit mehr als zehn Personen bilden Untergruppen und reduzierte Eigenverantwortung. Der optimale Bereich liegt zwischen drei und neun Mitgliedern. Kleinere Gruppen fördern stärkere Verbindungen und klarere Kommunikation. Sie geben jedem Raum, sinnvoll beizutragen.
Freiheit suchende Fachkräfte sollten die Annahme “mehr ist besser” hinterfragen. Konzentrieren Sie sich auf richtig dimensionierte Teams anstatt sie zu überdimensionieren. Unternehmen, die effektive Zusammenarbeit fördern, haben eine fünfmal höhere Wahrscheinlichkeit, Hochleistungsunternehmen zu sein.
Architekturentscheidungen, die Erfolg oder Misserfolg bestimmen

Beim Aufbau von Multi-Agenten-Systemen ist die Struktur wichtiger als die Anzahl. Die Forschung zeigt, dass Architekturentscheidungen direkt die Agentenleistung und die Gesamtergebnisse beeinflussen.
Vier kritische Designentscheidungen trennen Erfolg von Misserfolg :
- Zentrale Koordination steigert die Agentenleistung um 80% durch einheitliche Aufgabenüberwachung und kombinierte Ergebnisse
- Unabhängige Setups liefern nur 57% Verbesserungen aufgrund fragmentierter Ausgaben und schlechter Kommunikation
- Token-Budget-Aufteilungen zwischen mehreren Agenten schaffen Ressourcenbeschränkungen, die tool-intensive Operationen beeinträchtigen
- Fehlermanagement durch Koordinatoren reduziert sich verstärkende Fehler um den Faktor vier
Teams ohne ordnungsgemäße Aufgabenüberwachung erleben Fehler, die sich siebzehnmal schneller vermehren. Die Fähigkeitssättigungsschwelle zeigt, dass sobald ein einzelner Agent 45% Erfolg erreicht, das Hinzufügen weiterer Teammitglieder oft nach hinten losgeht. Einzelne Agenten zeigen überlegene sequenzielle Leistung bei Aufgaben, die schrittweise Ausführung erfordern, wie Planungsworkflows in Minecraft-Umgebungen. Strukturieren Sie Ihr System mit klarer Führung, oder bleiben Sie bei einem fähigen Agenten.
Sequenzielle vs. Parallelisierbare Aufgaben : Die kritische Unterscheidung
Architektur allein garantiert keinen Erfolg—die Natur der Aufgabe selbst bestimmt, ob mehrere Agenten helfen oder schaden.
Betrachten Sie Aufgabenabhängigkeiten und Ausführungsreihenfolge. Einige Jobs erfordern, dass Schritte nacheinander ablaufen, wie das Befolgen eines Rezepts. Man kann einen Kuchen nicht glasieren, bevor man ihn gebacken hat. Einzelne Agenten handhaben diese sequenziellen Arbeitsabläufe besser, besonders wenn die Genauigkeit über 45% liegt. Der direkte Pfad macht Debugging einfacher und verhindert, dass sich Fehler ausbreiten.
Andere Projekte enthalten unabhängige Teile, die gleichzeitig laufen. Denken Sie an das Sammeln von Forschungsdaten aus mehreren Quellen—jeder Agent untersucht verschiedene Datenbanken gleichzeitig und reduziert die Forschungszeit um 90%. Hier glänzt parallele Ausführung.
Die Unterscheidung ist enorm wichtig. Die Fehlklassifizierung sequenzieller Arbeit als parallel erzeugt unnötigen Overhead und Verwirrung. Das Verstehen der wahren Natur Ihrer Aufgabe bestimmt, ob ein fokussierter Agent oder mehrere Spezialisten bessere Ergebnisse liefert. Forschungen zeigen, dass frühzeitige Beendigung die Latenz effektiv verringert, ohne die Gesamtaufgaben-Abschlussrate in Multi-Agenten-Systemen zu beeinträchtigen.
Was Entwickler tun sollten, bevor sie Agententeams einsetzen
Die meisten Entwicklungsteams stürzen sich kopflos in Multi-Agent-Deployments, ohne das richtige Fundament zu legen. Kluge Entwickler gehen einen anderen Weg. Sie bauen sorgfältig auf, bevor sie etwas in die freie Wildbahn entlassen.
Das funktioniert wirklich :
- Definiere klare Agent-Struktur im Voraus—erkläre genau, was jeder Agent tut, was er nicht tun kann und wann er um Hilfe bitten muss.
- Erstelle bombensichere Delegationsprotokolle—etabliere, wer an wen übergibt, mit klaren Regeln, die sich nie überschneiden oder widersprechen.
- Teste alles gnadenlos—führe Stresstests durch, simuliere Ausfälle und fange Probleme ab, bevor Nutzer sie bemerken.
- Baue vollständige Observabilität auf—verfolge jeden Prompt, jede Übergabe, jede Entscheidung, damit du Probleme schnell erkennen kannst.
- Implementiere Input-Validierung und rollenbasierte Zugriffskontrolle—schütze vor Prompt-Injection-Angriffen, die Agent-Verhalten durch bösartige Eingaben manipulieren können.
Freiheit kommt von Systemen, die du kontrollierst, nicht von Chaos, das du nicht vorhersagen kannst.
Quellenangabe
- https://forum.gnoppix.org/t/more-ai-agents-isnt-always-better-new-google-and-mit-study-finds/3326
- https://the-decoder.com/more-ai-agents-isnt-always-better-new-google-and-mit-study-finds/
- https://fortune.com/2025/12/16/google-researchers-ai-agents-multi-agent-getting-them-to-work/
- https://www.aol.com/articles/google-researchers-unlock-truths-getting-205504092.html
- https://ai.gopubby.com/google-and-mit-just-killed-the-agent-swarm-ai-hype-cc7dbb88e27a
- https://techstrong.ai/agentic-ai/google-research-study-scaling-multi-agent-systems-is-a-strange-science/
- https://www.getmaxim.ai/articles/multi-agent-system-reliability-failure-patterns-root-causes-and-production-validation-strategies/
- https://orq.ai/blog/why-do-multi-agent-llm-systems-fail
- https://galileo.ai/blog/why-multi-agent-systems-fail
- https://arxiv.org/pdf/2503.13657



