
Anthropic kontert OpenAI mit neuem KI-Modell Claude Opus 4.6
07/02/2026
TSMC richtet 3nm-KI-Chip-Produktion in Japan ein
07/02/2026Amazon hat gerade einen Schritt gemacht, der alles in der Technologiebranche verändert. Der Einzelhandelsriese plant, in den nächsten Jahren 200 Milliarden Dollar für KI-Infrastruktur auszugeben. Das ist kein Tippfehler—Milliarden mit einem “M.” Diese massive Investition zielt darauf ab, die AWS-Kapazität bis 2027 zu verdoppeln und umfasst maßgeschneiderte Chips namens Trainium. Der Einsatz ist hoch, und Konkurrenten wie Google und Microsoft beobachten das genau. Was treibt diese enorme Wette auf künstliche Intelligenz an ?
Amazons 200-Milliarden-Dollar-KI-Infrastrukturplan : Was es kauft und wann

Amazon hat gerade etwas Großes angekündigt : einen 200-Milliarden-Dollar-Ausgabenplan mit Fokus auf KI. Diese massive Investitionsstrategie zielt darauf ab, die AWS-Kapazität bis Ende 2027 zu verdoppeln und Unternehmen mehr Macht zu geben, grenzenlos zu entwickeln.
Der größte Teil des Geldes fließt in KI-Infrastruktur—die Computer und Chips, die künstliche Intelligenz zum Laufen bringen. Der Rest unterstützt reguläre Cloud-Services, die weiterhin schnell wachsen.
Amazon baut dies mit eigenen Chips namens Trainium und Graviton auf. Diese bringen bereits jährlich 10 Milliarden Dollar ein und wachsen wie Unkraut. Trainium2 treibt Project Rainier an und verbindet über 500.000 Chips zum weltweit größten KI-System. Anthropic nutzt es, um intelligente Computermodelle zu trainieren.
Das Beste daran ? Amazon verkauft diese Kapazität so schnell, wie sie sie aufbauen. Bis Mitte 2026 sind alle Trainium3-Chips bereits vergeben. AWS hat 3,9 Gigawatt Leistung in den letzten 12 Monaten hinzugefügt, doppelt so viel wie 2022 bereitgestellt wurde.
Wie Amazons Ausgaben im Vergleich zu Google und Microsoft abschneiden
Die größten Akteure der Technologiebranche sind in einem beispiellosen Ausgabenwettlauf gefangen, wobei jedes Unternehmen versucht, die anderen zu überbieten. Amazons Kapitalinvestition von 200 Milliarden Dollar führt das Feld an, aber Google folgt dicht dahinter mit geplanten 175–185 Milliarden Dollar für 2026. Microsoft rundet die Top drei mit etwa 150 Milliarden Dollar ab.
Dieses Wettbewerbsumfeld zeigt, wie ernst es diesen Unternehmen mit der KI-Dominanz ist. Zusammen mit Meta planen die vier Giganten, allein im nächsten Jahr über 630 Milliarden Dollar auszugeben. Das ist fast das Doppelte dessen, was sie zuvor investiert haben. Amazons Aktien fielen im nachbörslichen Handel um 11,5% nach der Ankündigung.
Googles Ankündigung kam nur einen Tag vor Amazons und sorgte für eine dramatische Woche an der Wall Street. Beide Aktien fielen trotz der ehrgeizigen Pläne. Investoren wollen Beweise dafür, dass sich diese massiven Ausgabenorgien tatsächlich auszahlen werden, nicht nur Versprechen für zukünftigen Erfolg.
Warum baute AWS Trainium-Chips anstatt Nvidia zu kaufen ?
Maßgeschneiderte Chips zu entwickeln, anstatt fertige zu kaufen, mag wie der schwierige Weg erscheinen. Aber AWS hatte gute Gründe, Trainium zu entwickeln, anstatt bei Nvidia GPUs zu bleiben.
Der größte Faktor ? Kosteneffizienz. Trainium-Chips liefern ähnliche Leistung zu etwa 25% des Preises vergleichbarer Optionen. Das sind riesige Einsparungen beim Training massiver KI-Modelle.
Dann gibt es die strategische Unabhängigkeit. Nvidia kontrolliert den größten Teil des KI-Chip-Marktes, was zu himmelhohen Preisen und frustrierenden Engpässen führt. Durch die Herstellung eigener Chips befreit sich AWS von der Abhängigkeit von einem einzigen Anbieter.
Trainium verbraucht auch 40% weniger Energie als konkurrierende Hardware und liefert dabei bessere Leistung. Für Kunden, die sowohl Leistung als auch Einsparungen wollen, ist diese Kombination schwer zu schlagen.
AWS hat Trainium so entwickelt, dass es nahtlos mit SageMaker-Integration funktioniert, wodurch Teams Modelle einsetzen können, ohne ihre bestehenden Arbeitsabläufe zu ändern.
Verdopplung der KI-Kapazität bis 2027 : Rechenzentren, Chips und Zeitplan
Die Größenordnung ist entscheidend im KI-Rennen, und AWS hält sich nicht zurück. Das Unternehmen fügte im letzten Jahr 3,9 Gigawatt Rechenleistung hinzu—doppelt so viel wie 2022 existierte. Die Pläne sehen vor, diese KI-Kapazität bis Ende 2027 erneut zu verdoppeln.
AWS Wachstums-Zeitplan
| Jahr | Meilenstein | Details |
|---|---|---|
| 2024 | Projekt Rainier | 500.000+ Trainium2-Chips aktiviert |
| Mitte 2026 | Trainium3 | Vollständige Lieferung bereits zugesagt |
| 2027 | Trainium4 | Sechs Mal schneller als Trainium3 |
Diese Cloud-Expansion benötigt erhebliche Finanzierung. Die 200 Milliarden Dollar Investitionsausgaben für 2026 zielen hauptsächlich auf AWS-Infrastruktur ab. Jede Rechenzentrum-Erweiterung unterstützt die wachsende Nachfrage, die AWS sofort monetarisiert.
Chip-Entwicklung treibt diese Strategie voran. Trainium-Beschleuniger generieren jährlich 10 Milliarden Dollar, während neuere Versionen die Leistungsgrenzen verschieben. Die Freiheit, maßgeschneiderte Siliziumchips zu entwickeln, gibt AWS Kontrolle über sein Schicksal bei der Bereitstellung von KI-Rechenleistung. Das maßgeschneiderte Chip-Geschäft erzielte dreistelliges Wachstum, während es diesen Meilenstein von 10 Milliarden Dollar Jahresumsatz erreichte.
Woher die Nachfrage kommt : Unternehmens-Workloads treiben den Ausbau voran

Während AWS beispiellose Rechenleistung aufbaut, erzeugen Unternehmens-KI-Kunden den Hunger, der jeden ausgegebenen Dollar rechtfertigt.
Unternehmen experimentieren nicht mehr nur. Sie betreiben KI in großangelegten Abläufen und Arbeitsabläufen, die ernsthafte Ressourcen erfordern. Diese Arbeitslastenanforderungen bringen traditionelle Systeme an ihre Grenzen und erfordern unerwartete Leistung und Kühlung, für die die meisten Rechenzentren nicht gebaut wurden.
Die Zahlen erzählen die Geschichte. Zweiundsiebzig Prozent der Unternehmen nutzen jetzt KI aktiv. Bis nächstes Jahr werden 40% der Geschäftsanwendungen spezialisierte KI-Agenten enthalten. IT-Abteilungen treiben die Einführung zehnmal stärker voran als andere Gruppen, weil sie sehen, was möglich ist.
Hierbei geht es nicht um Pilotprojekte. Unternehmen, die KI in echte Arbeit integrieren, benötigen Infrastruktur, die nicht zusammenbricht. Integrations- und Skalierbarkeitsherausforderungen zwingen mehr als die Hälfte der Organisationen dazu, KI-Initiativen vollständig zu verschieben oder aufzugeben. Deshalb macht Amazons massiver Ausbau Sinn—Unternehmen haben endlich Probleme, die es wert sind, im großen Maßstab gelöst zu werden.
Quellenangabe
- https://www.theregister.com/2026/02/06/amazon_earnings_q4_2025/
- https://www.businessinsider.com/amazon-ai-spending-plan-capex-stuns-wall-street-2026–2
- https://intellectia.ai/blog/amazon-200b-capex-ai-infrastructure-2026
- https://www.domain‑b.com/technology/artificial-intelligence/amazon-200-billion-ai-capex-surge-aws-growth-shares-slide
- https://www.geekwire.com/2026/aws-growth-hits-3-year-high-custom-chips-top-10b-as-200b-capex-plan-rattles-investors/
- https://kfgo.com/2026/02/05/amazon-sees-50-boost-to-capital-spending-this-year-shares-tumble/
- https://www.techbuzz.ai/articles/amazon-s-200b-ai-bet-dwarfs-rivals-wall-street-isn-t-buying-it
- https://www.aol.com/articles/amazon-joins-big-tech-ai-222908961.html
- https://www.cloudexpat.com/blog/comparison-aws-trainium-google-tpu-v5e-azure-nd-h100-nvidia/
- https://www.chosun.com/english/industry-en/2025/12/03/CAX5YVRDQFGBBC64ATRTI6IBME/



