
Google veröffentlicht Gemini 3 Flash und neue KI-Verifizierungstools
31/12/2025
Verbalisierte Stichprobenentnahme als neue Technik im Prompt Engineering
31/12/2025Meta hat etwas Frisches in seiner Küche für künstliche Intelligenz am Köcheln. Der Tech-Riese plant, Anfang 2026 zwei verschiedene Modelle namens Mango und Avocado herauszubringen. Jedes übernimmt unterschiedliche Aufgaben—Mango erstellt Bilder und Videos, während Avocado Code schreibt und Probleme löst. Dieser duale Ansatz markiert einen kühnen Schritt, während Meta Schwergewichte wie OpenAI und Google herausfordert. Die große Frage : können diese neuen Tools die Art wie Fachkräfte arbeiten neu gestalten ?
Dual-Modell-Veröffentlichungsstrategie für 2026

Meta bereitet sich darauf vor, Anfang 2026 zwei leistungsstarke KI-Modelle zu enthüllen, was eine bedeutende Wende in der Strategie des Unternehmens für künstliche Intelligenz darstellt. Die duale Veröffentlichungsstrategie kombiniert Avocado, ein Sprachmodell für Text und Code, mit Mango, das speziell für die Erstellung von Bildern und Videos entwickelt wurde.
Dieser Ansatz verschafft Meta generative Vorteile über mehrere Formate hinweg. Avocado übernimmt Schreib‑, Denk- und Programmieraufgaben. Mango konzentriert sich auf die Erstellung visueller Inhalte. Zusammen schließen sie kritische Lücken, in denen Konkurrenten wie OpenAI und Google Vorsprünge erzielt haben.
Die Modelle stammen aus Metas Superintelligence Labs, geleitet vom neuen Chef-KI-Beauftragten Alexandr Wang. Sie stellen die erste große Entwicklung der Marke seit der Umstrukturierung ihrer KI-Teams dar. Analysten der Bank of America sehen den Zeitplan als passend zu Metas Ausgabenplänen für 2026 an, was das Vertrauen in die KI-Ambitionen des Unternehmens stärkt. Das Unternehmen bekräftigte am 18. Dezember 2025 ein Kauf-Rating mit einem Kursziel von 810 Dollar.
Mangos Rolle in der Bild- und Videogenerierung
Fortschrittliche Bild- und Video-Tools gehören zu Mangos stärksten Features. Das Modell bringt leistungsstarke Fähigkeiten mit, die es Erstellern ermöglichen, visuelle Inhalte mit bemerkenswerter Präzision zu gestalten. Benutzer können Effekte auf bestimmte Personen oder Gegenstände anwenden, ohne die gesamte Szene zu verändern. Dieser Objektmanipulations-Ansatz öffnet neue Türen für kreativen Ausdruck.
Hauptmerkmale umfassen :
- Gezielte Bearbeitung : Anwenden von Filtern oder Farbänderungen auf einzelne Elemente in Ihrem Material
- 3D-Konvertierung : Umwandlung flacher Fotos in vollständige 3D-Modelle mittels Tiefenschätzung
- Erweiterte Sequenzen : Erzeugung längerer, detaillierterer Videoinhalte aus Textaufforderungen
Mangos Videobearbeitungsfähigkeiten kombinieren Weltmodelle, die Physik und Objektverhalten verstehen. Das bedeutet, das System begreift, wie sich Dinge natürlich bewegen und interagieren. Das Ergebnis ? Realistische Videos, die durchgehend visuelle Kohärenz bewahren. Meta entwickelte Mango, um direkt mit den jüngsten Fortschritten von OpenAI und Google zu konkurrieren. Das Projekt soll voraussichtlich in der ersten Hälfte von 2026 debütieren.
Avocados Fokus auf Programmierung und logisches Denken
Während Mango visuelle Inhaltserstellung übernimmt, bewältigt Avocado eine völlig andere Herausforderung : Computern dabei zu helfen, Probleme zu durchdenken und Code zu schreiben. Dieses Modell spezialisiert sich auf Codegenerierung und macht es für Entwickler einfacher, Software schneller zu erstellen. Meta hat Avocado so konzipiert, dass es bei der logischen Planung hervorragend abschneidet – große Aufgaben in kleinere Schritte aufteilt und den klügsten Weg nach vorn herausfindet.
Stellen Sie sich Avocado als einen hilfreichen Programmierpartner vor. Es versteht, was Programmierer brauchen, und schlägt Lösungen vor, die tatsächlich funktionieren. Das Modell kann mit anderen Tools koordinieren und fungiert wie ein intelligenter Assistent, der weiß, wann er um Hilfe bitten muss. Spezialisierte KI-Code-Synthese adressiert die wachsende Nachfrage unter Entwicklern nach automatisierten Entwicklungstools.
Meta plant, Avocado Anfang 2026 zu veröffentlichen. Im Gegensatz zu ihren früheren offenen Modellen bleibt dieses closed-source. Diese Verschiebung signalisiert Metas Absicht, Einnahmen von professionellen Entwicklern zu generieren, die leistungsstarke KI-Unterstützung schätzen.
Führung unter Meta Superintelligence Labs
Hinter jedem ehrgeizigen Projekt steht ein Team von Führungskräften, die das Schiff steuern. Meta Superintelligence Labs bringt beeindruckende Köpfe zusammen, um die Zukunft zu gestalten. Alexandr Wang dient als Chief AI Officer und führt das MSL-Team zusammen mit Nat Friedman, der zuvor GitHub leitete. Gemeinsam bauen sie etwas Besonderes auf. Shengjia Zhao, der Chief Scientist, bringt wertvolle Erfahrung aus der ChatGPT-Entwicklung von OpenAI mit. Mark Zuckerberg überwacht die gesamte KI-Strategie und wendet sich persönlich an Top-Forscher.
Die Führungsdynamik hier spiegelt Metas Innovationskultur wider :
- Flache Struktur, die es Teams ermöglicht, sich schnell zu bewegen
- Direkte Beteiligung von Top-Führungskräften bei Einstellungsentscheidungen
- Fokus darauf, brillante Köpfe mit startup-ähnlicher Freiheit anzuziehen
Dieser Ansatz schafft eine Umgebung, in der talentierte Personen ihre beste Arbeit ohne unnötige Barrieren leisten können. Die Organisation umfasst bestehende Meta-Grundlagen, Produkt- und FAIR-Teams, zusammen mit einem neuen Labor für Modellentwicklung.
Positionierung gegen KI-Branchenkonkurrenten

Meta befindet sich in einem Wettlauf, um in einem umkämpften Terrain aufzuholen, das sich dramatisch verändert hat, während sich das Unternehmen anderweitig konzentrierte. OpenAI, Google und Anthropic bauten beherrschende Führungspositionen in der generativen KI auf, während Meta Open-Source-Strategien verfolgte. Nun, mit Mango und Avocado, sucht das Unternehmen eine stärkere Wettbewerbsposition gegen diese etablierten Akteure.
Der Closed-Source-Ansatz markiert eine bemerkenswerte Wendung. Meta Superintelligence Labs rekrutierte Talente von OpenAI speziell, um Branchenführer herauszufordern. Mango zielt auf Googles Nano Banana Pro ab und reagiert auf Videogenerierungsfortschritte von Konkurrenten. Avocado zielt auf coding-fokussierte Märkte ab, wo Entwickler bereits erhebliche Einnahmen generieren. Alexandr Wang von Scale AI leitet die neue Superintelligenz-Abteilung, die diese Bemühungen vorantreibt.
Ohne strategische Partnerschaften zur Beschleunigung der Entwicklung verlässt sich Meta allein auf interne Fähigkeiten. Der Veröffentlichungstermin in der ersten Hälfte von 2026 spiegelt Dringlichkeit wider. Erfolg könnte umgestalten, welche Tools Kreative und Entwickler täglich wählen.
Quellenangabe
- https://www.contentgrip.com/meta-ai-mango-avocado-models/
- https://www.chosun.com/english/industry-en/2025/12/19/C4AO2RQ6ZNGGJDPZYVXE65VAMM/
- https://the-decoder.com/meta-preps-mango-and-avocado-ai-models-for-2026/
- https://www.youtube.com/watch?v=taBYR41IOPs&vl=en-US
- https://techcrunch.com/2025/12/19/meta-is-developing-a-new-image-and-video-model-for-a-2026-release-report-says/
- https://mlq.ai/news/meta-readies-nextgeneration-mango-and-avocado-ai-models-for-2026-launch/
- https://insights.vaizle.com/news/metas-mango-and-avocado-models-hint-at-where-the-ai-race-is-heading-next
- https://www.insidermonkey.com/blog/meta-platforms-meta-set-to-release-two-new-ai-developments-in-2026–1666649/
- https://longbridge.com/en/news/270332722
- https://www.youtube.com/watch?v=Tt9PZev0hFc



