
KI-Bild von verhaftetem Demonstrant löst Debatte aus
29/01/2026
Hongkong meldet Rekord bei KI-verknüpften Cyberangriffen
29/01/2026Der Leiter von Cisco hat kürzlich eine kühne Behauptung aufgestellt, die viele Menschen zum Nachdenken brachte. Er sagte, künstliche Intelligenz könnte unsere Welt noch mehr umgestalten als das Internet es getan hat—und das will schon etwas heißen. Aber hier ist die Wendung : er warnte auch davor, dass Teile des KI-Marktes im Moment überhitzt aussehen. Manche Unternehmen geben Geld aus, das sie möglicherweise nicht zurückbekommen werden. Außerdem könnten sich Arbeitsplätze verändern auf eine Art und Weise, auf die wir uns noch nicht vollständig vorbereitet haben. Also was passiert wirklich hinter diesen Vorhersagen ?
Ciscos 61-Milliarden-Dollar-KI-Wette : Umsatzprognose und was sie signalisiert

Da Cisco sein Ziel auf einen Umsatz von 61 Milliarden Dollar für das Geschäftsjahr 2026 setzt, setzt der Netzwerk-Riese massiv darauf, dass künstliche Intelligenz die Art und Weise verändert, wie Unternehmen ihre digitale Infrastruktur aufbauen. Das Unternehmen erwartet, dass KI-Infrastruktur-Investitionen etwa 3 Milliarden Dollar Umsatz generieren werden, wobei die Bestellungen bereits im ersten Quartal allein 1,3 Milliarden Dollar erreicht haben.
Dieses KI-Umsatzwachstum kommt nicht nur von Tech-Giganten. Cisco sieht die Nachfrage auf Regierungen, Cloud-Anbieter und alltägliche Unternehmen übergreifen, die ihre eigenen KI-Systeme aufbauen. Die Pipeline für Hochleistungs-Netzwerke übersteigt 2 Milliarden Dollar in diesen neuen Kundensegmenten.
Was macht dies bemerkenswert ? Ciscos Führung glaubt, dass wir etwas erleben, das möglicherweise größer ist als die Ankunft des Internets—eine Verschiebung, die neu definieren könnte, wie jede Organisation operiert. Die Non-GAAP-Betriebsmarge des Unternehmens erreichte 34,4% im ersten Quartal und zeigt starke Profitabilität, auch während es stark in KI-Infrastruktur-Fähigkeiten investiert.
Warum deuten KI-Netzwerk-Aufträge im Wert von 2 Milliarden Dollar auf einen Architekturwandel hin ?
Die massiven 2 Milliarden Dollar an Netzwerkausrüstungsbestellungen von Cloud-Computing-Giganten erzählen eine Geschichte darüber, wie Unternehmen ihre Rechenzentren von Grund auf komplett neu aufbauen. Diese Technologieanbieter kaufen nicht nur schnellere Versionen ihrer alten Ausrüstung—sie wechseln zu völlig anderen Netzwerkansätzen, die Arbeitslasten künstlicher Intelligenz besser bewältigen. Der Wandel, der gerade stattfindet, spiegelt wider, was geschah, als Unternehmen erstmals von privaten Büronetzwerken zu internetverbundenen Systemen wechselten, außer dass dieser Wandel in einem noch schnelleren Tempo stattfindet. Ciscos KI-bezogene Umsätze erreichten 1 Milliarde Dollar für das gesamte Geschäftsjahr und zeigen, wie sich diese architektonische Transformation in tatsächliche Geschäftsergebnisse umsetzt.
Hyperscale-Cloud-Anbieter-Nachfrage
Milliarden von Dollar fließen in eine einzige Ausrüstungskategorie, die die meisten Personen nie zu Gesicht bekommen. Hyperscale-Nachfrage von großen Cloud-Anbietern verändert das Technologieumfeld. Diese Unternehmen investieren Geld in beschleunigte Server, die speziell für Aufgaben der künstlichen Intelligenz gebaut wurden. Die Ausgaben sind nicht vorübergehend—sie stellen eine mehrjährige Verpflichtung dar.
Die Zahlen erzählen eine überzeugende Geschichte :
- Beschleunigte Server stiegen 2025 stark an und wachsen weiterhin bis 2026
- Jeder Server zieht Nachfrage nach GPUs, Speicherchips, Speicherlaufwerken und Netzwerkkarten
- Investitionsniveaus bleiben historisch hoch trotz Bemühungen, die Ausgaben zu kontrollieren
- Inferenz-Arbeitslasten skalieren, um Millionen von Nutzern weltweit zu bedienen
Diese Käufe signalisieren einen grundlegenden Wandel. Cloud-Giganten setzen große Summen auf KI-Infrastruktur und bauen Kapazitäten auf, um die Computerbedürfnisse von morgen heute zu bewältigen. Die Nachfrage nach in Großbritannien gehosteten Diensten von diesen Hyperscale-Anbietern steigt weiterhin, angetrieben von verstärkten Sorgen über Datensouveränität und dem Bedarf nach Arbeitslasten, die durch inländische Gesetze geschützt sind.
Ethernet verdrängt InfiniBand-Technologie
Cloud-Anbieter kaufen nicht nur Server—sie verdrahten das gesamte Netzwerk, das sie verbindet, neu. Ethernet-Vorteile stellen nun InfiniBands Dominanz in der KI-Infrastruktur in Frage. Aktuelle Tests zeigen Leistungsunterschiede, die auf nahezu null schrumpfen—weniger als 0,03% Unterschied bei vielen Arbeitslasten. Ethernet reduziert Hardware-Kosten um ein Drittel und erreicht dabei InfiniBands 800 Gbps Geschwindigkeiten.
InfiniBand-Beschränkungen umfassen Vendor Lock-in und proprietäre Systeme, die Budgets belasten. Währenddessen funktioniert Ethernet mit bestehender Infrastruktur und bietet Rückwärtskompatibilität. Für kleinere Cluster und hybride Bereitstellungen bietet Ethernet die Freiheit zu skalieren ohne teure Überholungen.
Der Markt spiegelt diese Verschiebung wider. Während InfiniBand immer noch 90% der massiven KI-Cluster antreibt, machen Ethernets verlustfreie Fabric-Verbesserungen es für die meisten Trainingsoperationen praktikabel. Ethernets offene Standards reduzieren Vendor Lock-in und fördern wettbewerbsfähige Preise und Interoperabilität zwischen verschiedenen Hardware-Anbietern. Dies erklärt, warum Cloud-Anbieter Milliarden in Ethernet-Bestellungen investieren.
Wachstum der lokalen KI-Infrastruktur
Während Cloud-Giganten mit massiven Rechenzentrumsbauten Schlagzeilen machen, geschieht etwas gleichermaßen Wichtiges näher zu Hause. Unternehmen holen KI-Power zurück in ihre eigenen vier Wände. Bis 2028 werden drei Viertel der Unternehmens-KI-Arbeit auf hybriden Setups laufen, die On-Premises-Vorteile wie bessere Kontrolle und vorhersagbare Kosten beinhalten.
Warum Unternehmen ihre eigene Infrastruktur wählen :
- Datenresidenz-Regeln erfordern die lokale Aufbewahrung sensibler Informationen
- Gesundheits- und Finanzbranche benötigen private KI für Compliance
- Edge-Server reduzieren Verzögerungen bei Echtzeitentscheidungen
- Vermeidung von Cloud-Rechnungen, die außer Kontrolle geraten
Ciscos 2 Milliarden Dollar an Netzwerkaufträgen spiegeln diese Verschiebung wider. Unternehmen modernisieren physische Standorte mit Racks, Switches und Kühlsystemen—bauen KI-Fähigkeiten dort auf, wo es für ihre Betriebsabläufe am wichtigsten ist. Der KI-Infrastrukturmarkt soll bis 2030 223,45 Milliarden Dollar erreichen, mit einem Wachstum von 30,4% CAGR.
Catalyst 9000 Switches und Cisco Hardware für KI-Skalierung entwickelt
Ciscos neueste Hardware bringt einen Leistungssprung, der schwer zu ignorieren ist—einige Chips verarbeiten jetzt zehnmal mehr Daten als frühere Versionen. Diese Upgrades funktionieren Hand in Hand mit cloudbasierten Steuerungssystemen, die es IT-Teams ermöglichen, Netzwerke von überall aus zu verwalten. Der Catalyst 9300x liefert 100 Gbps IPsec-Verschlüsselung für sichere Hochgeschwindigkeitstunnel, die verteilte Standorte und Cloud-Umgebungen verbinden. Die wahre Magie geschieht, wenn all diese Kraft darauf fokussiert wird, KI-Aufgaben innerhalb von Unternehmen auszuführen und intelligente Anwendungen schneller und zuverlässiger als je zuvor zu machen.
Zehnfacher Leistungssprung nach vorn
Die Netzwerk-Hardware, die moderne Rechenzentren antreibt, hat einen Wendepunkt erreicht. Ciscos Switch 9500 Serie liefert Leistungsoptimierung, die grundlegend verändert, was möglich ist. Verglichen mit dem älteren 4500X Modell bringen diese Switches Bandbreiten-Verbesserungen, die wichtig sind :
- Dreimal bessere Leistung beim Gesamtdurchsatz
- Fünfmal mehr Pufferung und Verarbeitungsgeschwindigkeit
- Viermal mehr Speicher und Speicherkapazität
- 2,4‑mal höhere Dichte an 10-Gigabit-Ports
Jeder ASIC-Chip verarbeitet jetzt 1,6 Terabits Bandbreite—hoch von nur 240 Gigabits zuvor. Das sind fast siebenmal mehr Daten, die durch denselben Raum fließen. Der Switch 9300X schiebt 1 Terabit pro Sekunde über acht gestapelte Switches. Die Catalyst 9600 Serie liefert bis zu 6,4 Tbps/Slot mit erweiterten Routing-Services für die anspruchsvollsten Unternehmensumgebungen. Das sind keine schrittweisen Upgrades. Es sind Quantensprünge, die Netzwerkarchitekten die Freiheit geben, ohne Kompromisse zu bauen.
Cloud-Control-Plattform-Integration
Rohe Leistung bedeutet wenig ohne intelligente Orchestrierung dahinter. Ciscos Cloud-Integrationsansatz verbindet alles über einheitliche Dashboards, die ganze Netzwerke von einem Punkt aus verwalten. Das Nexus Dashboard liefert speziell für KI-Fabric-Setups entwickelte Vorlagen, während das Driver Center Konfigurationen gleichzeitig an Hunderte von Switches verteilt—ein Durchbruch für die Plattform-Skalierbarkeit.
Diese zentrale Kontrolle ist wichtig, weil KI-Arbeitslasten konstante Überwachung und schnelle Anpassungen erfordern. Ingenieure können Überlastungsmuster verfolgen, Engpässe erkennen und Probleme beheben, bevor sie sich ausbreiten. Das System funktioniert sogar mit Meraki Dashboard und traditionellen CLI-Methoden und gibt Teams die Freiheit, ihre bevorzugten Tools zu wählen.
ThousandEyes fügt eine weitere Ebene hinzu, indem es aufzeigt, wie Anwendungen tatsächlich über den gesamten Pfad hinweg funktionieren. Kein Rätselraten mehr, wo Verlangsamungen auftreten oder warum Verbindungen unerwartet abbrechen. Die Nexus Dashboard Insights automatisieren die Fehlerbehebung durch granulare Sichtbarkeit in Netzwerk-Überlastungsstatistiken in Echtzeit.
Unternehmens-KI-Arbeitsbelastungsoptimierung
Hinter jedem KI-Fortschritt steht ein Netzwerk, das Schwierigkeiten hat, mit massiven Datenströmen Schritt zu halten. Ciscos Nexus 9000 Switches gehen diese Herausforderung direkt an und liefern Leistungsoptimierung durch intelligentes Traffic-Management. Diese Systeme bewältigen KI-Workload-Anforderungen mit bemerkenswerter Netzwerkeffizienz und bewegen Daten mit Geschwindigkeiten von bis zu 25,6 Terabyte pro Sekunde.
Vier Schlüsselkapazitäten definieren ihre Stärke :
- Dynamische Lastverteilung verteilt Traffic intelligent über verfügbare Pfade
- Congestion-Management verhindert Engpässe durch Echtzeitüberwachung
- Telemetrie-Beobachtungen bieten Einblick in die Netzwerkgesundheit
- Mandantenfähigkeits-Vorteile ermöglichen sichere Trennung verschiedener Projekte
Die Datendurchsatz-Verbesserungen sprechen klar—37,5% schnellere Leistung im Vergleich zu herkömmlichen Routing-Methoden. Die Nexus 9364E-SG2 Serie nutzt den Cisco Silicon One G200 Chip, um vielfältige KI-Anwendungen von Training bis zu Inference-Workloads zu unterstützen. Organisationen gewinnen die Freiheit, KI-Initiativen zu skalieren, ohne dass Infrastrukturbeschränkungen sie zurückhalten.
Wie zielen Ciscos Nvidia- und Splunk-Partnerschaften auf KI-Infrastruktur ab ?
Mehrere mächtige Tech-Partnerschaften gestalten um, wie Unternehmen KI-Systeme aufbauen, die massive Arbeitsmengen bewältigen können. Ciscos Zusammenarbeit mit NVIDIA schafft KI-Infrastruktur durch Partnerschaftskooperation, die spezialisierte Chips und Netzwerk-Tools kombiniert. Diese Technologieintegration liefert Skalierungslösungen, die Unternehmen benötigen, während sie ihre Operationen ausweiten.
Die Beziehung mit Splunk bringt Observability-Wissen, wodurch Unternehmen überwachen können, wie ihre Systeme in Echtzeit performen. Splunks neues Dashboard bietet einheitliche Überwachung aller Kubernetes-Cluster, einschließlich Red Hat OpenShift, während es kritische Metriken wie GPU-Auslastung und Stromverbrauch verfolgt. Datenmanagement verbessert sich durch VAST Data-Zusammenarbeit, welche die Informationsabfrage für KI-Anwendungen beschleunigt. Netzwerkevolution entsteht durch Ciscos Silicon One in Zusammenarbeit mit NVIDIAs Spectrum-X-Plattform, wodurch schnellere Verbindungen mit geringeren Verzögerungen entstehen. Diese kombinierten Bemühungen konzentrieren sich auf KI-Optimierung und geben Organisationen die Freiheit, intelligente Systeme einzusetzen, ohne sich Sorgen machen zu müssen, dass technische Limitierungen ihren Fortschritt verlangsamen.
Warum Ethernet InfiniBand in KI-Rechenzentrum-Netzwerken schlägt ?
Da sich KI-Rechenzentren rasant ausbreiten, gewinnt ein überraschender Außenseiter das Infrastruktur-Rennen. Ethernet-Vorteile überholen InfiniBands spezialisierten Ansatz und gestalten um, wie Unternehmen ihre KI-Netzwerke aufbauen.
Die Verschiebung kommt auf vier Hauptgründe zurück :
- Kosteneinsparungen – Ethernet-Hardware kostet weniger und bietet mehr Anbieteroptionen
- Bewährte Skalierbarkeit – Große Cluster mit Tausenden von GPUs verbinden sich einfacher
- Leistungsparität – Jüngste Tests zeigen weniger als 0,03 Prozent Unterschied in der Geschwindigkeit
- Zukunftsfähige Flexibilität – Funktioniert nahtlos mit vorhandener Ausrüstung und unterstützt subnetzübergreifende Kommunikation
InfiniBand-Einschränkungen umfassen höhere Wartungskosten und proprietäre Protokolle, die Nutzer an bestimmte Anbieter binden. Forschung prognostiziert, dass 91% der KI-Arbeitslasten bis 2029 auf Ethernet laufen werden. Metas massives LLAMA3-Training über 24.000 GPUs auf Ethernet erreichte InfiniBand-Leistung bei reduzierter Komplexität und Kosten. DriveNets Network Cloud-AI demonstriert Ethernets Entwicklung und erreicht bis zu 30% bessere Auftragsabschlusszeiten als konkurrierende Ethernet-Lösungen.
Chuck Robbins nennt KI größer als das Internet : Warnt aber vor Blasenrisiko
Ciscos Geschäftsführer Chuck Robbins glaubt, dass künstliche Intelligenz die Welt in einem Ausmaß verändern wird, das selbst die transformative Wirkung des Internets in den Schatten stellt. Er schätzt, dass KI etwa 50 Milliarden Geräte verbinden wird und Möglichkeiten im Wert von Billionen von Dollar schaffen wird. Dennoch äußert Robbins auch eine warnende Anmerkung über die heutigen Marktbedingungen.
Der Technologieführer zieht Vergleiche zur Dot-com-Ära von 2000 und erkennt Anzeichen von irrationaler Überschwänglichkeit trotz stärkerer finanzieller Grundlagen bei den heutigen Hyperscalern an. Er warnt, dass Marktvolatilität einen Rückzug auslösen könnte, auch wenn die Begeisterung für KI-Investitionen berechtigt bleibt. Kein Unternehmen ist völlig vor Blasenrisiken gefeit.
Dennoch sieht Robbins, wie sich KI schnell über alle Branchen ausbreitet. Hyperscaler betrachten diese Technologie als überlebenswichtig und treiben massive Ausgaben voran. Diese Dringlichkeit bestätigt Ciscos Fokus auf KI-Infrastruktur und Netzwerkfähigkeiten. Cisco strukturiert sich in kleinere Engineering-Teams von etwa 20 Personen um, um die Agilität zu erhöhen und Lösungen schneller an Kunden zu liefern.
Quellenangabe
- https://www.youtube.com/watch?v=Y_XXGi_X1c0
- https://mobileecosystemforum.com/2025/08/19/cisco-posts-strong-q4-on-2b-ai-orders-keeps-cautious-2026-forecast/
- https://www.networkworld.com/article/4113462/ciscos-2026-agenda-prioritizes-ai-ready-infrastructure-connectivity.html
- https://newsroom.cisco.com/c/r/newsroom/en/us/artificial-intelligence.html
- https://futurumgroup.com/insights/cisco-q1-fy-2026-ai-demand-lifts-outlook-and-orders/
- https://www.nasdaq.com/articles/ciscos-ai-push-aids-networking-revenue-there-more-upside-ahead
- https://www.morningstar.com/stocks/cisco-earnings-expanding-ai-pipeline-broad-based-networking-strength
- https://www.youtube.com/watch?v=LARH0T-EnTU
- https://www.cfodive.com/news/cisco-ai-infrastructure-orders-top-2billion-agenticai/757717/
- https://www.tsinetwork.ca/daily-advice/dividend-stocks/cisco-systems-ai-infrastructure-orders-surge-past-2-billion-target-in-breakthrough-year



