
Anthropic startet Desktop-Agent für lokale Dateien
15/01/2026
Google drängt auf KI-geführten Kassensystem-Standard für Einzelhändler
15/01/2026Jüngste Schlagzeilen feierten eine Entdeckung : ein OpenAI-System knackte ein berühmtes Mathematikrätsel, das Experten jahrzehntelang zum Grübeln brachte. Die Geschichte klingt unglaublich—künstliche Intelligenz löst, was menschliche Köpfe nicht konnten. Aber als Mathematiker die tatsächliche Arbeit untersuchten, fanden sie etwas ganz anderes. Die KI löste das Problem nicht allein. Sie brauchte Hilfe, Korrekturen und menschliche Führung bei fast jedem Schritt. Was wirklich geschah, offenbart sowohl das Versprechen als auch die Grenzen der heutigen intelligenten Maschinen.
Warum die GPT‑5.2 Erdős Problem #728 Behauptung nicht standhält

Während OpenAIs Ankündigung über die Lösung eines Erdős-Mathematikproblems für Aufsehen sorgte, erzählt die Realität hinter GPT‑5.2s Errungenschaft eine nuanciertere Geschichte. Das System arbeitete nicht allein—es kombinierte GPT‑5.2 mit Harmonics Aristotle-Plattform, betrieben von Kevin Barreto. Die Beweisverifizierung bleibt unvollständig, die Formalisierung ist noch im Gange. Die informelle Ausarbeitung gibt sogar zu, dass sie keine Genauigkeitsansprüche erhebt.
KI-Beschränkungen treten zutage
Der Kontext ist hier wichtig. OpenAI löschte zuvor Beiträge, die fälschlicherweise behaupteten, GPT‑5 habe Erdős-Probleme gelöst, während es lediglich bestehende Lösungen abrief. Kritiker wie Demis Hassabis nannten diese Behauptungen “peinlich.” Dieses Muster wirft Fragen zur Autonomie auf. Menschliche Aufsicht erwies sich als wesentlich—Nat Sothanaphan verfasste die Ausarbeitung, und die Strategie spiegelt frühere menschliche Arbeit von Erdős und Pomerance wider. Das Problem beinhaltet das Verstehen der faktoriellen Teilbarkeit unter spezifischen logarithmischen-Lücken-Bedingungen. Wahre unabhängige Problemlösung ? Noch nicht ganz.
Wie die GPT‑5 Erdős-Ausfälle im Oktober das Muster offenbarten
Warum ist GPT‑5 so oft bei derselben Mathematikaufgabe gescheitert ? Die Oktober-Fehler waren keine zufälligen Mistakes—sie legten ein tieferes Muster offen. Jeder Versuch bei Erdős #728 scheiterte an demselben Hindernis : der Schätzung, wie weit a+b über n hinausgehen könnte. Das System übersah immer wieder wesentliche Beschränkungen, wie die Anforderung, dass sowohl a als auch b über einem Mindestschwellenwert bleiben müssen.
Diese rechnerischen Begrenzungen offenbarten etwas Wertvolles. Ingenieure bemerkten, dass die wiederholten Fehler mit einer 1968er Grenze übereinstimmten, die Erdős selbst skizziert hatte. Die Beweisstrategien, die GPT‑5 ausprobierte, konnten Primzahl-für-Primzahl-Argumente nicht richtig verketten. Ohne ordentliche Theorem-Prüfwerkzeuge konnte das System seine eigene Logik nicht verifizieren. Moderne Systeme konvertieren nun informelle Beweise in die Lean-Programmiersprache, welche mathematische Argumente formalisiert und Korrektheit gewährleistet.
Diese Mustererkennung wurde zum Fortschritt. Das genaue Verstehen, wo GPT‑5 scheiterte, zeigte Entwicklern, was die nächste Version zum Erfolg benötigte.
Welche KI-Systeme haben tatsächlich an Problem #728 gearbeitet ?
| System | Rolle | Stärke |
|---|---|---|
| GPT‑5.2 Pro | Kernlöser | Behob Fehler ohne menschliche Hilfe |
| Aristoteles | Unterstützung | Half bei der Formalisierung der Beweisschritte |
| Lean | Beweisverifikation | Überprüfte jede mathematische Behauptung |
Terence Tao hob hervor, wie ChatGPT am 4. Januar seinen eigenen Fehler erkannte und dann den Beweis autonom reparierte. Kein Mensch drängte es dazu, diesen Fehler zu beheben. Das Modell erkannte ihn einfach und korrigierte den Kurs. Das war der Fortschritt, auf den alle gewartet hatten.
GPT‑5.2 erzeugte auch ursprüngliche Beweise für die Probleme #397 und #729 und demonstrierte damit konsistente Fähigkeiten über mehrere ungelöste Herausforderungen hinweg.
GPT-5s wahrer Beitrag : Lösungen finden, nicht Probleme lösen
Das GPT‑5.2 Pro-System erfand keinen revolutionären neuen Ansatz für Problem #728. Stattdessen zeichnete es sich bei der Lösungsgenerierung innerhalb etablierter mathematischer Rahmenwerke aus. Die KI übernahm Strategien aus früheren Arbeiten der Mathematiker Erdős und Pomerance und wendete deren Methoden auf diese spezifische Herausforderung an. Was diesen bedeutenden Fortschritt besonders machte, war nicht die reine Rechenleistung—es war die mathematische Interpretation.
Die wahre Stärke des Systems zeigte sich in mehreren Schlüsselbereichen :
- Übersetzung komplizierter Fakultätsbeziehungen in binomiale Teilbarkeitsfragen
- Identifizierung von “übertragungsreichen aber spitzenfreien” Zahlenmustern
- Aufschlüsselung des Problems Primzahl für Primzahl
- Umwandlung formaler Lean-Beweise in zugängliche Mathematik
- Aufbau auf jahrzehntelanger bestehender mathematischer Forschung
Der Beweis etablierte unendlich viele Tripel, die die Fakultätsteilbarkeitsbedingung mit logarithmischen Lücken zwischen den Parametern erfüllen. Kevin Barreto bediente die KI-Tools, während Nat Sothanaphan die endgültige Ausarbeitung verfasste. Gemeinsam demonstrierten sie, wie künstliche Intelligenz Lösungen finden kann, die Menschen übersehen könnten, selbst wenn sie vertrauten Pfaden folgen.
Wo menschliche Mathematiker den Beweis interpretierten und reparierten

GPT‑5.2 Pro erzeugte beeindruckende mathematische Ergebnisse, aber Einzelpersonen leisteten die schwere Arbeit, wenn es darum ging, die Resultate zu verstehen. Die Interpretation von Beweisen erforderte Experten wie Terence Tao, um Dateien manuell zu korrigieren und Argumente zu verifizieren. Kevin Barreto bediente die KI-Tools für Problem #728, während Boris Alexeev Aristotle durch systematische Ansätze führte. ChatGPT erklärte Lösungen, aber menschliche Aufsicht erkannte kritische Fehler—wie vertauschte Variablen in Problem 480, wo “m ≠ 0” tatsächlich “n ≠ 0” bedeutete. Nat Sothanaphan übersetzte komplizierte Lean-Beweise in zugängliche Mathematik, damit Einzelpersonen sie tatsächlich verstehen konnten. Koishi Chan lieferte sogar alternative Beweise innerhalb von Stunden. Die KI fand Wege nach vorn, aber Mathematiker mussten jeden Schritt umbauen, reparieren und validieren, bevor sie etwas als gelöst bezeichnen konnten. Für Problem #1026 mussten Mathematiker Mehrdeutigkeiten in der ursprünglichen Problemstellung klären, die erst auftauchten, nachdem es im September 2025 zur Erdős-Problemseite hinzugefügt wurde.
Was das über Behauptungen zu “autonomer” KI-Mathematik enthüllt
Als OpenAI ankündigte, dass seine Modelle langjährige mathematische Probleme “gelöst” hätten, zeichneten die Schlagzeilen ein Bild von Maschinen, die Rätsel knackten, welche Experten jahrzehntelang verblüfft hatten. Die Realität sah anders aus. Die sogenannten Fortschritte offenbarten erhebliche autonome Einschränkungen, die ständige menschliche Zusammenarbeit erforderten.
Betrachten Sie, was tatsächlich passierte :
- ChatGPT fand bestehende Lösungen, die in angesehenen Zeitschriften veröffentlicht wurden, keine neuen Antworten
- Eine “Entdeckung” erschien in einer Arbeit von 2003—bereits peer-reviewed und öffentlich
- GPT‑5 schlug Beweisideen vor, aber Menschen verbrachten 12 Stunden damit, tatsächliche Beweise zusammenzustellen
- Mathematiker wählten Probleme von Hand aus und überprüften jeden Schritt manuell
- Die KI führte Literaturrecherchen durch, keine echte Problemlösung
Das waren nicht Maschinen, die allein arbeiteten. Es waren ausgeklügelte Suchwerkzeuge, die menschlichen Experten halfen, schneller zu arbeiten. Der Unterschied ist wichtig, wenn uns autonome mathematische Argumentation versprochen wird.
Der Formalisierungsprozess selbst bleibt fragil und instabil, wobei Automatisierungspipelines häufige manuelle Eingriffe erfordern, um Fehler zu korrigieren und das System durch komplexe mathematische Aussagen zu führen.
Quellenangabe
- https://arxiv.org/abs/2601.07421
- https://byteiota.com/gpt‑5–2‑solves-erdos-math-problem-but-did-it-really/
- https://openai.com/index/accelerating-science-gpt‑5/
- https://techcrunch.com/2025/10/19/openais-embarrassing-math/
- https://www.theneurondaily.com/p/ai-cracks-legendary-erdos-problems
- https://garymarcus.substack.com/p/erdosgate
- https://www.eweek.com/news/openai-math-hype/
- https://www.chosun.com/english/industry-en/2025/10/20/LCR52ROQAZGE3CKIDTA34HJPFA/
- https://www.youtube.com/watch?v=5DUabMi02js
- https://aihola.com/article/gpt‑5–2‑erdos-problem-728-ai-math



