Google hat heute die bisher größte Erweiterung seiner autonomen KI-Rechercheagenten vorgestellt. Mit den neuen Modellen Deep Research und Deep Research Max können Entwickler erstmals öffentlich verfügbare Webdaten mit internen Unternehmensdaten in einer einzigen API-Abfrage verbinden. Zudem erzeugen die Agenten native Diagramme und Infografiken direkt in den Forschungsberichten – und greifen über das Model Context Protocol (MCP) auf beliebige Drittanbieter-Datenquellen zu.
Die Veröffentlichung basiert auf Googles fortschrittlichem Gemini 3.1 Pro-Modell und markiert einen Wendepunkt im Wettbewerb um KI-Systeme, die selbstständig tiefgehende Recherchen durchführen können. Solche Aufgaben erfordern normalerweise stunden- oder tagelange Arbeit von menschlichen Analysten. Google positioniert sich damit als zentrale Plattform für unternehmensweite Forschungsabläufe in Branchen wie Finanzen, Lebenswissenschaften und Marktforschung – Bereichen, in denen falsche Informationen schwerwiegende Folgen haben können.
„Wir starten zwei leistungsstarke Updates für Deep Research im Gemini API, die mit verbesserter Qualität, MCP-Unterstützung und nativen Chart- sowie Infografik-Funktionen ausgestattet sind“, erklärte Google-CEO Sundar Pichai auf X. „Nutzen Sie Deep Research für Geschwindigkeit und Effizienz, während Deep Research Max durch erweiterte Rechenleistung die höchste Qualität bei der Kontextbeschaffung und -synthese bietet – mit beeindruckenden 93,3 % auf DeepSearchQA und 54,6 % auf HLE.“
Zwei KI-Agenten mit unterschiedlichen Stärken
Die Einführung der beiden neuen Agenten zeigt eine grundlegende Herausforderung im KI-Agenten-Design: den Konflikt zwischen Geschwindigkeit und Gründlichkeit.
Deep Research, die Standardvariante, ersetzt den im Dezember 2025 veröffentlichten Preview-Agenten und ist für interaktive Anwendungen optimiert. Google verspricht eine deutlich geringere Latenz und niedrigere Kosten bei gleichzeitig höherer Ergebnisqualität. Besonders geeignet ist das Modell für Entwickler, die Forschungsfunktionen direkt in benutzerfreundliche Oberflächen integrieren möchten – etwa in ein Finanzdashboard, das komplexe Analysen in Echtzeit beantworten kann.
Deep Research Max hingegen setzt auf erweiterte Rechenleistung („extended test-time compute“). Dabei iteriert der Agent mehrfach über seine Recherchen, verfeinert die Ergebnisse und liefert am Ende einen umfassenden Bericht. Dieses Modell eignet sich für asynchrone Hintergrundprozesse, bei denen Analystenteams vor Arbeitsende eine Reihe von Due-Diligence-Berichten initiieren und am nächsten Morgen auf detaillierte, vollständig referenzierte Auswertungen warten.
Das Google DeepMind-Team erklärte auf X: „Deep Research: Optimiert für Geschwindigkeit und Effizienz. Perfekt für interaktive Anwendungen mit schnellen Antwortzeiten. Deep Research Max: Nutzt zusätzliche Zeit für Suche und Analyse. Ideal für tiefgehende Kontextbeschaffung und Hintergrundaufgaben.“
Logan Kilpatrick, Leiter der Entwicklerkommunikation bei Google AI, ergänzte auf X: „Deep Research war unser erster gehosteter Agent im API und hat in den letzten drei Monaten viel Aufmerksamkeit erhalten. Wir freuen uns sehr auf die Tests der neuen Agenten und aller Verbesserungen – dies ist erst der Anfang unserer KI-Agenten-Reise.“
MCP-Integration ermöglicht Zugang zu privaten Unternehmensdaten
Eine der bedeutendsten Neuerungen ist die Unterstützung des Model Context Protocol (MCP). Dadurch wird Deep Research nicht mehr nur zu einem leistungsstarken Web-Recherchetool, sondern zu einem universellen Datenanalysten.
MCP ist ein offener Standard, der KI-Modelle mit externen Datenquellen verbindet. Deep Research kann nun sicher auf private Unternehmensdatenbanken, interne Dokumentenarchive und spezialisierte Drittanbieter-Dienste zugreifen – ohne sensible Informationen aus ihrer ursprünglichen Umgebung zu übertragen. In der Praxis bedeutet das: Ein Hedgefonds könnte den Agenten gleichzeitig auf seine interne Dealflow-Datenbank und einen Finanzdatendienst richten und ihn anweisen, Erkenntnisse aus beiden Quellen sowie öffentlichen Webdaten zu synthetisieren.
Google arbeitet bereits eng mit Unternehmen wie FactSet, S&P und PitchBook zusammen, um deren MCP-Server-Designs zu integrieren. Laut einem Blogbeitrag von Google DeepMind-Produktmanagern Lukas Haas und Srinivas Tadepalli soll dies „gemeinsamen Kunden ermöglichen, Finanzdatenangebote in Deep Research-basierte Workflows zu integrieren und so durch die schnelle Einbindung umfassender Datensammlungen die Produktivität deutlich zu steigern“.
Diese Entwicklung adressiert ein zentrales Hindernis bei der Einführung von KI in Unternehmen: die Lücke zwischen den öffentlich verfügbaren Informationen und den spezifischen Daten, die eine Organisation für fundierte Entscheidungen benötigt. Bisher erforderte die Überbrückung dieser Lücke aufwendige individuelle Programmierarbeiten. Mit der MCP-Unterstützung und den autonomen Recherchefähigkeiten von Deep Research entfällt dieser Aufwand weitgehend. Entwickler können den Agenten nun gleichzeitig mit Google Search, Remote-MCP-Servern, URL-Kontext, Code-Ausführung und Dateisuche betreiben – oder die Websuche komplett deaktivieren, um ausschließlich auf benutzerdefinierte Daten zuzugreifen. Zudem akzeptiert das System multimodale Eingaben wie PDFs, CSVs, Bilder, Audio und Video als Kontextgrundlage.
Native Diagramme und Infografiken für professionelle Berichte
Die zweite wichtige Neuerung – die native Erstellung von Diagrammen und Infografiken – klingt auf den ersten Blick unspektakulär, ist aber ein entscheidender Schritt zur Professionalisierung KI-generierter Forschungsberichte.
Bisherige KI-Ausgaben waren oft schwer lesbar oder erforderten manuelle Nachbearbeitung, um die Ergebnisse in einer für Stakeholder geeigneten Form aufzubereiten. Mit den neuen Funktionen können Deep Research und Deep Research Max automatisch aussagekräftige Visualisierungen erstellen, die direkt in die Berichte integriert werden. Dies spart nicht nur Zeit, sondern verbessert auch die Verständlichkeit und Überzeugungskraft der Ergebnisse – ein entscheidender Faktor für die Akzeptanz in Unternehmen.
Die neuen Agenten stehen ab sofort in einer öffentlichen Vorschauphase über kostenpflichtige Tarife des Gemini API zur Verfügung. Der Zugriff erfolgt über die bereits im Dezember 2025 eingeführte Interactions API. Google signalisiert damit, dass die Entwicklung autonomer KI-Recherchetools noch lange nicht abgeschlossen ist – und dass weitere Innovationen in diesem Bereich zu erwarten sind.
KI-Zusammenfassung
Google’s new Deep Research and Deep Research Max agents blend open web data with private enterprise sources via a single API call, delivering native charts and MCP support. Explore their enterprise-grade capabilities.


