Computerhaus Quickborn

Google I/O 2025: Die wichtigsten Neuvorstellungen​

Sundar Pichai, CEO von Alphabet und Google, präsentierte in seiner Keynote eine ganze Reihe von Neuigkeiten.Google Google hat auf seiner jährlichen Entwicklerkonferenz bahnbrechende KI-Innovationen präsentiert, die weit über bloße Produkt-Updates hinausgehen. Sie skizzieren vielmehr eine Zukunft, in der künstliche Intelligenz nicht mehr nur ein Werkzeug ist, sondern ein allgegenwärtiger, proaktiver Begleiter. Hier die wichtigsten Neuvorstellungen.  Project Astra: Der universelle KI-Assistent  Project Astra, seit seiner ersten Vorstellung auf der Google I/O 2024 kontinuierlich weiterentwickelt, verkörpert Googles Vision eines universellen KI-Assistenten. Die revolutionärste Neuerung: Astra kann jetzt proaktiv handeln. Statt nur auf direkte Befehle zu reagieren, beobachtet der Assistent kontinuierlich seine Umgebung und entscheidet selbstständig, wann er eingreifen sollte.  “Astra kann basierend auf Ereignissen, die es sieht, selbst entscheiden, wann es sprechen möchte”, erklärt Greg Wayne, Forschungsdirektor bei Google DeepMind. “Es beobachtet fortlaufend und kann dann kommentieren.” Diese Fähigkeit markiert einen fundamentalen Wandel in der Mensch-KI-Interaktion.  Die praktischen Anwendungsbeispiele sind vielfältig: Sitzen Schüler an ihren Hausaufgaben, könnte Astra etwa einen Fehler bemerken und darauf hinweisen. Ein anderes Szenario wäre, dass der KI-Assistent intermittierend Fastende kurz vor Ende der Fastenzeit Bescheid gibt – oder vorsichtig nachfragt, ob sie wirklich außerhalb ihres Essenszeitfensters etwas zu sich nehmen wollen.  DeepMind-CEO Demis Hassabis nennt diese Fähigkeit “reading the room” – das Gespür für die Situation. Gleichzeitig betont er, wie unglaublich schwierig es sei, einem Computer beizubringen, wann er eingreifen sollte, welchen Ton er anschlagen sollte und wann er einfach still sein sollte.  Astra kann jetzt auch auf Informationen aus dem Web und von anderen Google-Produkten zugreifen sowie Android-Geräte bedienen. In einer beeindruckenden Demo zeigte etwa Bibo Xiu, Produktmanagerin im DeepMind-Team, wie Astra selbstständig Bluetooth-Kopfhörer mit einem Smartphone koppelte.  Gemini 2.5: Das neue Flaggschiff-Modell  Gemini 2.5 steht im Zentrum von Googles KI-Strategie und hat bedeutende Upgrades erhalten. Die Familie umfasst zwei Hauptvarianten:   Gemini 2.5 Pro, das Flaggschiff-Modell für komplexe Aufgaben, und   Gemini 2.5 Flash, die effizientere und schnellere Version für alltägliche Anwendungen.  Die spannendste Neuerung ist “Deep Think” – ein experimenteller, erweiterter Denkmodus für 2.5 Pro. Diese Funktion nutzt neue Forschungstechniken, die es dem Modell ermöglichen, mehrere Hypothesen zu betrachten, bevor es antwortet. Die Ergebnisse sind beeindruckend: Deep Think erzielt hervorragende Werte bei den USAMO 2025 Mathematik-Benchmarks, führt bei LiveCodeBench für Wettbewerbs-Coding und erreicht 84 Prozent beim MMMU-Test für multimodales Reasoning.  Gemini 2.5 Flash wiederum wurde als effizientes “Arbeitspferd” optimiert und bietet jetzt laut Google bessere Leistung bei 20 bis 30 Prozent geringerer Token-Nutzung. Flash ist bereits in der Gemini App für alle Nutzer verfügbar und wird ab Juni allgemein für Produktionsumgebungen freigegeben.  Beide Modelle erhalten zudem neue Fähigkeiten: Die Live API führt audiovisuelle Eingaben und native Audio-Ausgabe ein, was natürlichere Konversationen ermöglicht. Das Modell kann seinen Tonfall, Akzent und Sprechstil anpassen – beispielsweise kann der Nutzer es anweisen, eine dramatische Stimme zu verwenden, wenn es eine Geschichte erzählt.  Als weitere Neuerung unterstützen die Text-to-Speech-Fähigkeiten jetzt erstmals mehrere Sprecher und funktionieren in über 24 Sprachen mit nahtlosem Wechsel zwischen ihnen. Zudem wurden die Sicherheitsmaßnahmen gegen indirekte Prompt-Injections erheblich verstärkt.  KI-Integration in Google-Dienste  Auch in bestehenden Diensten von Google hält KI zunehmend Einzug. So wird nun der KI-Modus in Google Search für alle US-Nutzer ausgerollt, mit neuen Funktionen, die zuerst dort debütieren, bevor sie in die reguläre Suche übernommen werden.  Besonders spannend ist “Deep Search” – eine Funktion, die komplexe Recherchen übernimmt und dabei mehrere Quellen analysiert, vergleicht und zusammenführt. “Search Live” wiederum ermöglicht Echtzeit-Informationssuche: Zeigt man etwa mit der Smartphone-Kamera auf ein Gebäude, liefert die Google-Suche sofort Informationen zu dessen Geschichte, Architekturstil und Öffnungszeiten.  Auch Gmail profitiert von KI-Upgrades. Die personalisierten Smart Replies berücksichtigen nun den persönlichen Schreibstil des Nutzers, frühere Interaktionen und sogar seinen Kalender. “Haben Sie dort einen wichtigen Termin um 15 Uhr eingetragen, könnte die Smart Reply vorschlagen, das Meeting auf 16 Uhr zu verschieben, statt es einfach anzunehmen”, erklärte ein Google-Vertreter.  “Thought Summaries” bieten Einblick in die “Denkprozesse” der KI und machen nachvollziehbar, wie sie zu bestimmten Schlussfolgerungen kommt. “Thinking Budgets” ermöglichen Entwicklern, die “Denkzeit” ihrer KI-Anwendungen zu verwalten und zu optimieren.  Kreative KI-Tools für Medienproduktion  Mit einer Reihe neuer und verbesserter Tools revolutioniert Google außerdem die Art und Weise, wie Bilder, Videos und Musik erstellt werden. Das aufregendste neue Tool ist “Flow” – eine KI-App speziell für Filmemacher, die aus einfachen Textbeschreibungen komplexe Videoszenen generieren kann.  Selbst der renommierte Regisseur Darren Aronofsky (u.a. The Whale, Black Swan) nutzt bereits KI in seinen kreativen Prozessen, wie auf der Konferenz enthüllt wurde. Dies unterstreicht, dass diese Tools nicht nur für Amateure gedacht sind, sondern auch von Profis angenommen werden.  Ebenfalls vorgestellt wurde Imagen 4. Die neueste Version von Googles Bildgenerierungssystem soll nun neue Maßstäbe in Sachen Detailgenauigkeit und Realismus setzen. Ähnliche Fortschritte soll Veo 3 bei der Videogenerierung realisieren. Im Audiobereich sorgt Lyria 2 für Aufsehen – Googles Musikgenerierungssystem kann jetzt vollständige Musikstücke erzeugen und bestehende Musik bearbeiten.  Mit SynthID hat Google zudem ein System eingeführt, um KI-generierte Inhalte zu authentifizieren und kennzeichnen. Das Tool fügt dazu unsichtbare Wasserzeichen in generierte Medien ein, die später nachgewiesen werden können – ein wichtiger Schritt für Transparenz in einer Welt, in der die Unterscheidung zwischen menschlich und maschinell erstellten Inhalten zunehmend schwieriger wird.  Google Beam und XR-Technologien  Mit der Umbenennung von Project Starline zu Google Beam und der Vorstellung neuer XR-Technologien macht Google deutlich, dass immersive Erfahrungen ein zentraler Bestandteil seiner Zukunftsvision sind.  Google Beam, der Nachfolger des 2021 vorgestellten Project Starline, markiert einen bedeutenden Fortschritt in der Telepräsenz-Technologie. Die neue Version benötigt die Lösung laut Google weniger Platz, verbraucht weniger Energie und bietet dennoch die gleiche beeindruckende Präsenz-Erfahrung.  Beam ist Googles Beitrag zum Thema Telepräsenz. Die ersten kommerziellen Produkte sollen dabei in Kooperation mit HP auf den Markt kommen.Google LLC Besonders beeindruckend ist die Integration von Echtzeit-Sprachübersetzung in Google Meet. Diese Funktion übersetzt Gespräche simultan und zeigt Untertitel in der gewünschten Sprache an, während die Stimme des Sprechers in der Zielsprache synthetisiert wird.  Android XR wiederum dokumentiert Googles ambitionierten Vorstoß in die Welt der erweiterten Realität. Die Plattform bietet Entwicklern Tools, um immersive Anwendungen zu erstellen, die nahtlos zwischen Smartphones, Tablets und XR-Brillen funktionieren.  Der Prototyp Project Aura von Xreal, der in Zusammenarbeit mit Google entwickelt wurde, zeigt auf, wie die Zukunft von AR-Brillen aussehen könnte. Die Smart Glasses sind kaum von normalen Brillen zu unterscheiden, ein entscheidender Schritt für die soziale Akzeptanz solcher Technologien.  Die Integration von Gemini auf Headsets stellt einen weiteren Meilenstein dar. Der KI-Assistent kann nicht nur Sprachbefehle verarbeiten, sondern auch visuelle Informationen aus der Umgebung des Nutzers interpretieren.  Agentic AI: Die Zukunft der Automatisierung  “Agentic AI” – also KI-Systeme, die eigenständig Aufgaben planen und ausführen können – standen gleich im Mittelpunkt zahlreicher Ankündigungen, markieren sie doch einen Paradigmenwechsel in der Mensch-Maschine-Interaktion.  Erwähnenswert ist dabei insbesondere Project Mariner. Erstmals im Dezember 2024 vorgestellt, umfasst die Lösung jetzt ein System von Agenten, die bis zu zehn verschiedene Aufgaben gleichzeitig erledigen können. Sie sind unter anderem in der Lage, Informationen nachzuschlagen, Buchungen vorzunehmen oder Einkäufe zu tätigen – und alles zur gleichen Zeit.  Der Agent Mode geht noch weiter: Hier versteht die KI die Intention des Nutzers und wählt eigenständig den effizientesten Weg zur Erreichung des gewünschten Ziels. In einer Demo zeigte Google etwa, wie ein einfacher Befehl wie “Plane einen Wochenendausflug nach Berlin” zu einer Kaskade von Aktionen führte: Der Agent recherchierte daraufhin Flüge, Hotels und Aktivitäten und präsentierte einen vollständigen Reiseplan – alles ohne weitere Nutzerinteraktion.  Besonders revolutionär ist Agentic Checkout – eine Funktion, die das Online-Shopping-Erlebnis grundlegend verändern könnte. Der Agent kann den gesamten Checkout-Prozess übernehmen, die besten Angebote finden, Formulare ausfüllen und den Kauf abschließen – alles mit minimaler Nutzerinteraktion.  Google betont, dass Sicherheit und Verantwortung zentral für ihre Arbeit sind. Die Agenten erklären ihre Aktionen, fragen bei wichtigen Entscheidungen nach und können jederzeit vom Nutzer unterbrochen werden.  Wissenschaftliche KI-Anwendungen  Die vorgestellten KI-Forschungs-Apps decken ein breites Spektrum wissenschaftlicher Disziplinen ab. Diese spezialisierten Anwendungen kombinieren Geminis Verständnis wissenschaftlicher Literatur mit domänenspezifischen Modellen und Simulationsfähigkeiten.  Besonders beeindruckend war die Demonstration einer Anwendung für Proteinfaltung, die auf den Erkenntnissen von DeepMinds KI-System AlphaFold aufbaut. Die neue Version kann nicht nur die dreidimensionale Struktur von Proteinen vorhersagen, sondern auch deren Interaktionen mit anderen Molekülen simulieren – ein entscheidender Schritt für die Medikamentenentwicklung.  Der Jules Coding Assistant wiederum stellt einen Quantensprung für die KI-gestützte Softwareentwicklung dar. Anders als herkömmliche Code-Assistenten versteht Jules nicht nur Programmiersprachen, sondern auch die Intention hinter dem Code und den breiteren Kontext des Projekts.  Canvas, Googles kollaborative KI-Umgebung, soll die wissenschaftliche Zusammenarbeit auf ein neues Niveau heben. Die Plattform ermöglicht es Forschern, komplexe Daten zu visualisieren, Modelle zu entwickeln und Ergebnisse zu interpretieren – alles in einer gemeinsamen virtuellen Umgebung.  Ironwood und Project Mariner, zwei von Googles fortschrittlichsten Forschungsprototypen, kombinieren multimodale Verständnisfähigkeiten mit agentenbasiertem Handeln und können komplexe wissenschaftliche Workflows selbstständig planen und durchführen.  Zu Risiken und Nebenwirkungen…  Bei aller Euphorie ist eine kritische Betrachtung der neuen Lösungen unerlässlich. So darf man nicht vergessen, dass KI-Systeme trotz aller Fortschritte fehleranfällig bleiben. Sie können Fakten erfinden, Zusammenhänge falsch interpretieren oder in unerwarteten Situationen versagen. Die Demos auf der I/O fanden in kontrollierten Umgebungen statt – in der chaotischen Realität dürften die Ergebnisse weniger beeindruckend sein.  Datenschutz- und Sicherheitsaspekte werfen weitere Schatten. Je mehr Kontext KI-Systeme haben, desto besser funktionieren sie – aber desto mehr sensible Daten müssen sie verarbeiten. Wenn ein KI-Agent in meinem Namen handeln kann, welche Sicherheitsgarantien gibt es gegen Missbrauch oder Manipulation?  Die gesellschaftlichen Auswirkungen sind möglicherweise am schwierigsten abzuschätzen. KI-Systeme könnten zahlreiche Berufe transformieren oder sogar überflüssig machen. Gleichzeitig könnten diese Technologien bestehende Ungleichheiten verstärken. Der Zugang zu fortschrittlicher KI erfordert schnelles Internet, moderne Geräte und oft kostenpflichtige Abonnements – Ressourcen, die global ungleich verteilt sind.  Google hat auf der I/O 2025 bewiesen, dass es an der Spitze der KI-Innovation steht. Doch der wahre Erfolg dieser Technologien wird sich nicht an Benchmarks oder Demos messen lassen, sondern daran, ob sie das Leben der Menschen tatsächlich verbessern – ob sie uns befähigen, kreativer, produktiver und erfüllter zu sein, ohne dafür unsere Autonomie, Privatsphäre oder Menschlichkeit zu opfern.  

Google I/O 2025: Die wichtigsten Neuvorstellungen​ Sundar Pichai, CEO von Alphabet und Google, präsentierte in seiner Keynote eine ganze Reihe von Neuigkeiten.Google Google hat auf seiner jährlichen Entwicklerkonferenz bahnbrechende KI-Innovationen präsentiert, die weit über bloße Produkt-Updates hinausgehen. Sie skizzieren vielmehr eine Zukunft, in der künstliche Intelligenz nicht mehr nur ein Werkzeug ist, sondern ein allgegenwärtiger, proaktiver Begleiter. Hier die wichtigsten Neuvorstellungen.  Project Astra: Der universelle KI-Assistent  Project Astra, seit seiner ersten Vorstellung auf der Google I/O 2024 kontinuierlich weiterentwickelt, verkörpert Googles Vision eines universellen KI-Assistenten. Die revolutionärste Neuerung: Astra kann jetzt proaktiv handeln. Statt nur auf direkte Befehle zu reagieren, beobachtet der Assistent kontinuierlich seine Umgebung und entscheidet selbstständig, wann er eingreifen sollte.  “Astra kann basierend auf Ereignissen, die es sieht, selbst entscheiden, wann es sprechen möchte”, erklärt Greg Wayne, Forschungsdirektor bei Google DeepMind. “Es beobachtet fortlaufend und kann dann kommentieren.” Diese Fähigkeit markiert einen fundamentalen Wandel in der Mensch-KI-Interaktion.  Die praktischen Anwendungsbeispiele sind vielfältig: Sitzen Schüler an ihren Hausaufgaben, könnte Astra etwa einen Fehler bemerken und darauf hinweisen. Ein anderes Szenario wäre, dass der KI-Assistent intermittierend Fastende kurz vor Ende der Fastenzeit Bescheid gibt – oder vorsichtig nachfragt, ob sie wirklich außerhalb ihres Essenszeitfensters etwas zu sich nehmen wollen.  DeepMind-CEO Demis Hassabis nennt diese Fähigkeit “reading the room” – das Gespür für die Situation. Gleichzeitig betont er, wie unglaublich schwierig es sei, einem Computer beizubringen, wann er eingreifen sollte, welchen Ton er anschlagen sollte und wann er einfach still sein sollte.  Astra kann jetzt auch auf Informationen aus dem Web und von anderen Google-Produkten zugreifen sowie Android-Geräte bedienen. In einer beeindruckenden Demo zeigte etwa Bibo Xiu, Produktmanagerin im DeepMind-Team, wie Astra selbstständig Bluetooth-Kopfhörer mit einem Smartphone koppelte.  Gemini 2.5: Das neue Flaggschiff-Modell  Gemini 2.5 steht im Zentrum von Googles KI-Strategie und hat bedeutende Upgrades erhalten. Die Familie umfasst zwei Hauptvarianten:   Gemini 2.5 Pro, das Flaggschiff-Modell für komplexe Aufgaben, und   Gemini 2.5 Flash, die effizientere und schnellere Version für alltägliche Anwendungen.  Die spannendste Neuerung ist “Deep Think” – ein experimenteller, erweiterter Denkmodus für 2.5 Pro. Diese Funktion nutzt neue Forschungstechniken, die es dem Modell ermöglichen, mehrere Hypothesen zu betrachten, bevor es antwortet. Die Ergebnisse sind beeindruckend: Deep Think erzielt hervorragende Werte bei den USAMO 2025 Mathematik-Benchmarks, führt bei LiveCodeBench für Wettbewerbs-Coding und erreicht 84 Prozent beim MMMU-Test für multimodales Reasoning.  Gemini 2.5 Flash wiederum wurde als effizientes “Arbeitspferd” optimiert und bietet jetzt laut Google bessere Leistung bei 20 bis 30 Prozent geringerer Token-Nutzung. Flash ist bereits in der Gemini App für alle Nutzer verfügbar und wird ab Juni allgemein für Produktionsumgebungen freigegeben.  Beide Modelle erhalten zudem neue Fähigkeiten: Die Live API führt audiovisuelle Eingaben und native Audio-Ausgabe ein, was natürlichere Konversationen ermöglicht. Das Modell kann seinen Tonfall, Akzent und Sprechstil anpassen – beispielsweise kann der Nutzer es anweisen, eine dramatische Stimme zu verwenden, wenn es eine Geschichte erzählt.  Als weitere Neuerung unterstützen die Text-to-Speech-Fähigkeiten jetzt erstmals mehrere Sprecher und funktionieren in über 24 Sprachen mit nahtlosem Wechsel zwischen ihnen. Zudem wurden die Sicherheitsmaßnahmen gegen indirekte Prompt-Injections erheblich verstärkt.  KI-Integration in Google-Dienste  Auch in bestehenden Diensten von Google hält KI zunehmend Einzug. So wird nun der KI-Modus in Google Search für alle US-Nutzer ausgerollt, mit neuen Funktionen, die zuerst dort debütieren, bevor sie in die reguläre Suche übernommen werden.  Besonders spannend ist “Deep Search” – eine Funktion, die komplexe Recherchen übernimmt und dabei mehrere Quellen analysiert, vergleicht und zusammenführt. “Search Live” wiederum ermöglicht Echtzeit-Informationssuche: Zeigt man etwa mit der Smartphone-Kamera auf ein Gebäude, liefert die Google-Suche sofort Informationen zu dessen Geschichte, Architekturstil und Öffnungszeiten.  Auch Gmail profitiert von KI-Upgrades. Die personalisierten Smart Replies berücksichtigen nun den persönlichen Schreibstil des Nutzers, frühere Interaktionen und sogar seinen Kalender. “Haben Sie dort einen wichtigen Termin um 15 Uhr eingetragen, könnte die Smart Reply vorschlagen, das Meeting auf 16 Uhr zu verschieben, statt es einfach anzunehmen”, erklärte ein Google-Vertreter.  “Thought Summaries” bieten Einblick in die “Denkprozesse” der KI und machen nachvollziehbar, wie sie zu bestimmten Schlussfolgerungen kommt. “Thinking Budgets” ermöglichen Entwicklern, die “Denkzeit” ihrer KI-Anwendungen zu verwalten und zu optimieren.  Kreative KI-Tools für Medienproduktion  Mit einer Reihe neuer und verbesserter Tools revolutioniert Google außerdem die Art und Weise, wie Bilder, Videos und Musik erstellt werden. Das aufregendste neue Tool ist “Flow” – eine KI-App speziell für Filmemacher, die aus einfachen Textbeschreibungen komplexe Videoszenen generieren kann.  Selbst der renommierte Regisseur Darren Aronofsky (u.a. The Whale, Black Swan) nutzt bereits KI in seinen kreativen Prozessen, wie auf der Konferenz enthüllt wurde. Dies unterstreicht, dass diese Tools nicht nur für Amateure gedacht sind, sondern auch von Profis angenommen werden.  Ebenfalls vorgestellt wurde Imagen 4. Die neueste Version von Googles Bildgenerierungssystem soll nun neue Maßstäbe in Sachen Detailgenauigkeit und Realismus setzen. Ähnliche Fortschritte soll Veo 3 bei der Videogenerierung realisieren. Im Audiobereich sorgt Lyria 2 für Aufsehen – Googles Musikgenerierungssystem kann jetzt vollständige Musikstücke erzeugen und bestehende Musik bearbeiten.  Mit SynthID hat Google zudem ein System eingeführt, um KI-generierte Inhalte zu authentifizieren und kennzeichnen. Das Tool fügt dazu unsichtbare Wasserzeichen in generierte Medien ein, die später nachgewiesen werden können – ein wichtiger Schritt für Transparenz in einer Welt, in der die Unterscheidung zwischen menschlich und maschinell erstellten Inhalten zunehmend schwieriger wird.  Google Beam und XR-Technologien  Mit der Umbenennung von Project Starline zu Google Beam und der Vorstellung neuer XR-Technologien macht Google deutlich, dass immersive Erfahrungen ein zentraler Bestandteil seiner Zukunftsvision sind.  Google Beam, der Nachfolger des 2021 vorgestellten Project Starline, markiert einen bedeutenden Fortschritt in der Telepräsenz-Technologie. Die neue Version benötigt die Lösung laut Google weniger Platz, verbraucht weniger Energie und bietet dennoch die gleiche beeindruckende Präsenz-Erfahrung.  Beam ist Googles Beitrag zum Thema Telepräsenz. Die ersten kommerziellen Produkte sollen dabei in Kooperation mit HP auf den Markt kommen.Google LLC Besonders beeindruckend ist die Integration von Echtzeit-Sprachübersetzung in Google Meet. Diese Funktion übersetzt Gespräche simultan und zeigt Untertitel in der gewünschten Sprache an, während die Stimme des Sprechers in der Zielsprache synthetisiert wird.  Android XR wiederum dokumentiert Googles ambitionierten Vorstoß in die Welt der erweiterten Realität. Die Plattform bietet Entwicklern Tools, um immersive Anwendungen zu erstellen, die nahtlos zwischen Smartphones, Tablets und XR-Brillen funktionieren.  Der Prototyp Project Aura von Xreal, der in Zusammenarbeit mit Google entwickelt wurde, zeigt auf, wie die Zukunft von AR-Brillen aussehen könnte. Die Smart Glasses sind kaum von normalen Brillen zu unterscheiden, ein entscheidender Schritt für die soziale Akzeptanz solcher Technologien.  Die Integration von Gemini auf Headsets stellt einen weiteren Meilenstein dar. Der KI-Assistent kann nicht nur Sprachbefehle verarbeiten, sondern auch visuelle Informationen aus der Umgebung des Nutzers interpretieren.  Agentic AI: Die Zukunft der Automatisierung  “Agentic AI” – also KI-Systeme, die eigenständig Aufgaben planen und ausführen können – standen gleich im Mittelpunkt zahlreicher Ankündigungen, markieren sie doch einen Paradigmenwechsel in der Mensch-Maschine-Interaktion.  Erwähnenswert ist dabei insbesondere Project Mariner. Erstmals im Dezember 2024 vorgestellt, umfasst die Lösung jetzt ein System von Agenten, die bis zu zehn verschiedene Aufgaben gleichzeitig erledigen können. Sie sind unter anderem in der Lage, Informationen nachzuschlagen, Buchungen vorzunehmen oder Einkäufe zu tätigen – und alles zur gleichen Zeit.  Der Agent Mode geht noch weiter: Hier versteht die KI die Intention des Nutzers und wählt eigenständig den effizientesten Weg zur Erreichung des gewünschten Ziels. In einer Demo zeigte Google etwa, wie ein einfacher Befehl wie “Plane einen Wochenendausflug nach Berlin” zu einer Kaskade von Aktionen führte: Der Agent recherchierte daraufhin Flüge, Hotels und Aktivitäten und präsentierte einen vollständigen Reiseplan – alles ohne weitere Nutzerinteraktion.  Besonders revolutionär ist Agentic Checkout – eine Funktion, die das Online-Shopping-Erlebnis grundlegend verändern könnte. Der Agent kann den gesamten Checkout-Prozess übernehmen, die besten Angebote finden, Formulare ausfüllen und den Kauf abschließen – alles mit minimaler Nutzerinteraktion.  Google betont, dass Sicherheit und Verantwortung zentral für ihre Arbeit sind. Die Agenten erklären ihre Aktionen, fragen bei wichtigen Entscheidungen nach und können jederzeit vom Nutzer unterbrochen werden.  Wissenschaftliche KI-Anwendungen  Die vorgestellten KI-Forschungs-Apps decken ein breites Spektrum wissenschaftlicher Disziplinen ab. Diese spezialisierten Anwendungen kombinieren Geminis Verständnis wissenschaftlicher Literatur mit domänenspezifischen Modellen und Simulationsfähigkeiten.  Besonders beeindruckend war die Demonstration einer Anwendung für Proteinfaltung, die auf den Erkenntnissen von DeepMinds KI-System AlphaFold aufbaut. Die neue Version kann nicht nur die dreidimensionale Struktur von Proteinen vorhersagen, sondern auch deren Interaktionen mit anderen Molekülen simulieren – ein entscheidender Schritt für die Medikamentenentwicklung.  Der Jules Coding Assistant wiederum stellt einen Quantensprung für die KI-gestützte Softwareentwicklung dar. Anders als herkömmliche Code-Assistenten versteht Jules nicht nur Programmiersprachen, sondern auch die Intention hinter dem Code und den breiteren Kontext des Projekts.  Canvas, Googles kollaborative KI-Umgebung, soll die wissenschaftliche Zusammenarbeit auf ein neues Niveau heben. Die Plattform ermöglicht es Forschern, komplexe Daten zu visualisieren, Modelle zu entwickeln und Ergebnisse zu interpretieren – alles in einer gemeinsamen virtuellen Umgebung.  Ironwood und Project Mariner, zwei von Googles fortschrittlichsten Forschungsprototypen, kombinieren multimodale Verständnisfähigkeiten mit agentenbasiertem Handeln und können komplexe wissenschaftliche Workflows selbstständig planen und durchführen.  Zu Risiken und Nebenwirkungen…  Bei aller Euphorie ist eine kritische Betrachtung der neuen Lösungen unerlässlich. So darf man nicht vergessen, dass KI-Systeme trotz aller Fortschritte fehleranfällig bleiben. Sie können Fakten erfinden, Zusammenhänge falsch interpretieren oder in unerwarteten Situationen versagen. Die Demos auf der I/O fanden in kontrollierten Umgebungen statt – in der chaotischen Realität dürften die Ergebnisse weniger beeindruckend sein.  Datenschutz- und Sicherheitsaspekte werfen weitere Schatten. Je mehr Kontext KI-Systeme haben, desto besser funktionieren sie – aber desto mehr sensible Daten müssen sie verarbeiten. Wenn ein KI-Agent in meinem Namen handeln kann, welche Sicherheitsgarantien gibt es gegen Missbrauch oder Manipulation?  Die gesellschaftlichen Auswirkungen sind möglicherweise am schwierigsten abzuschätzen. KI-Systeme könnten zahlreiche Berufe transformieren oder sogar überflüssig machen. Gleichzeitig könnten diese Technologien bestehende Ungleichheiten verstärken. Der Zugang zu fortschrittlicher KI erfordert schnelles Internet, moderne Geräte und oft kostenpflichtige Abonnements – Ressourcen, die global ungleich verteilt sind.  Google hat auf der I/O 2025 bewiesen, dass es an der Spitze der KI-Innovation steht. Doch der wahre Erfolg dieser Technologien wird sich nicht an Benchmarks oder Demos messen lassen, sondern daran, ob sie das Leben der Menschen tatsächlich verbessern – ob sie uns befähigen, kreativer, produktiver und erfüllter zu sein, ohne dafür unsere Autonomie, Privatsphäre oder Menschlichkeit zu opfern. 

Sundar Pichai, CEO von Alphabet und Google, präsentierte in seiner Keynote eine ganze Reihe von Neuigkeiten.Google Google hat auf seiner jährlichen Entwicklerkonferenz bahnbrechende KI-Innovationen präsentiert, die weit über bloße Produkt-Updates hinausgehen. Sie skizzieren vielmehr eine Zukunft, in der künstliche Intelligenz nicht mehr nur ein Werkzeug ist, sondern ein allgegenwärtiger, proaktiver Begleiter. Hier die wichtigsten Neuvorstellungen.  Project Astra: Der universelle KI-Assistent  Project Astra, seit seiner ersten Vorstellung auf der Google I/O 2024 kontinuierlich weiterentwickelt, verkörpert Googles Vision eines universellen KI-Assistenten. Die revolutionärste Neuerung: Astra kann jetzt proaktiv handeln. Statt nur auf direkte Befehle zu reagieren, beobachtet der Assistent kontinuierlich seine Umgebung und entscheidet selbstständig, wann er eingreifen sollte.  “Astra kann basierend auf Ereignissen, die es sieht, selbst entscheiden, wann es sprechen möchte”, erklärt Greg Wayne, Forschungsdirektor bei Google DeepMind. “Es beobachtet fortlaufend und kann dann kommentieren.” Diese Fähigkeit markiert einen fundamentalen Wandel in der Mensch-KI-Interaktion.  Die praktischen Anwendungsbeispiele sind vielfältig: Sitzen Schüler an ihren Hausaufgaben, könnte Astra etwa einen Fehler bemerken und darauf hinweisen. Ein anderes Szenario wäre, dass der KI-Assistent intermittierend Fastende kurz vor Ende der Fastenzeit Bescheid gibt – oder vorsichtig nachfragt, ob sie wirklich außerhalb ihres Essenszeitfensters etwas zu sich nehmen wollen.  DeepMind-CEO Demis Hassabis nennt diese Fähigkeit “reading the room” – das Gespür für die Situation. Gleichzeitig betont er, wie unglaublich schwierig es sei, einem Computer beizubringen, wann er eingreifen sollte, welchen Ton er anschlagen sollte und wann er einfach still sein sollte.  Astra kann jetzt auch auf Informationen aus dem Web und von anderen Google-Produkten zugreifen sowie Android-Geräte bedienen. In einer beeindruckenden Demo zeigte etwa Bibo Xiu, Produktmanagerin im DeepMind-Team, wie Astra selbstständig Bluetooth-Kopfhörer mit einem Smartphone koppelte.  Gemini 2.5: Das neue Flaggschiff-Modell  Gemini 2.5 steht im Zentrum von Googles KI-Strategie und hat bedeutende Upgrades erhalten. Die Familie umfasst zwei Hauptvarianten:   Gemini 2.5 Pro, das Flaggschiff-Modell für komplexe Aufgaben, und   Gemini 2.5 Flash, die effizientere und schnellere Version für alltägliche Anwendungen.  Die spannendste Neuerung ist “Deep Think” – ein experimenteller, erweiterter Denkmodus für 2.5 Pro. Diese Funktion nutzt neue Forschungstechniken, die es dem Modell ermöglichen, mehrere Hypothesen zu betrachten, bevor es antwortet. Die Ergebnisse sind beeindruckend: Deep Think erzielt hervorragende Werte bei den USAMO 2025 Mathematik-Benchmarks, führt bei LiveCodeBench für Wettbewerbs-Coding und erreicht 84 Prozent beim MMMU-Test für multimodales Reasoning.  Gemini 2.5 Flash wiederum wurde als effizientes “Arbeitspferd” optimiert und bietet jetzt laut Google bessere Leistung bei 20 bis 30 Prozent geringerer Token-Nutzung. Flash ist bereits in der Gemini App für alle Nutzer verfügbar und wird ab Juni allgemein für Produktionsumgebungen freigegeben.  Beide Modelle erhalten zudem neue Fähigkeiten: Die Live API führt audiovisuelle Eingaben und native Audio-Ausgabe ein, was natürlichere Konversationen ermöglicht. Das Modell kann seinen Tonfall, Akzent und Sprechstil anpassen – beispielsweise kann der Nutzer es anweisen, eine dramatische Stimme zu verwenden, wenn es eine Geschichte erzählt.  Als weitere Neuerung unterstützen die Text-to-Speech-Fähigkeiten jetzt erstmals mehrere Sprecher und funktionieren in über 24 Sprachen mit nahtlosem Wechsel zwischen ihnen. Zudem wurden die Sicherheitsmaßnahmen gegen indirekte Prompt-Injections erheblich verstärkt.  KI-Integration in Google-Dienste  Auch in bestehenden Diensten von Google hält KI zunehmend Einzug. So wird nun der KI-Modus in Google Search für alle US-Nutzer ausgerollt, mit neuen Funktionen, die zuerst dort debütieren, bevor sie in die reguläre Suche übernommen werden.  Besonders spannend ist “Deep Search” – eine Funktion, die komplexe Recherchen übernimmt und dabei mehrere Quellen analysiert, vergleicht und zusammenführt. “Search Live” wiederum ermöglicht Echtzeit-Informationssuche: Zeigt man etwa mit der Smartphone-Kamera auf ein Gebäude, liefert die Google-Suche sofort Informationen zu dessen Geschichte, Architekturstil und Öffnungszeiten.  Auch Gmail profitiert von KI-Upgrades. Die personalisierten Smart Replies berücksichtigen nun den persönlichen Schreibstil des Nutzers, frühere Interaktionen und sogar seinen Kalender. “Haben Sie dort einen wichtigen Termin um 15 Uhr eingetragen, könnte die Smart Reply vorschlagen, das Meeting auf 16 Uhr zu verschieben, statt es einfach anzunehmen”, erklärte ein Google-Vertreter.  “Thought Summaries” bieten Einblick in die “Denkprozesse” der KI und machen nachvollziehbar, wie sie zu bestimmten Schlussfolgerungen kommt. “Thinking Budgets” ermöglichen Entwicklern, die “Denkzeit” ihrer KI-Anwendungen zu verwalten und zu optimieren.  Kreative KI-Tools für Medienproduktion  Mit einer Reihe neuer und verbesserter Tools revolutioniert Google außerdem die Art und Weise, wie Bilder, Videos und Musik erstellt werden. Das aufregendste neue Tool ist “Flow” – eine KI-App speziell für Filmemacher, die aus einfachen Textbeschreibungen komplexe Videoszenen generieren kann.  Selbst der renommierte Regisseur Darren Aronofsky (u.a. The Whale, Black Swan) nutzt bereits KI in seinen kreativen Prozessen, wie auf der Konferenz enthüllt wurde. Dies unterstreicht, dass diese Tools nicht nur für Amateure gedacht sind, sondern auch von Profis angenommen werden.  Ebenfalls vorgestellt wurde Imagen 4. Die neueste Version von Googles Bildgenerierungssystem soll nun neue Maßstäbe in Sachen Detailgenauigkeit und Realismus setzen. Ähnliche Fortschritte soll Veo 3 bei der Videogenerierung realisieren. Im Audiobereich sorgt Lyria 2 für Aufsehen – Googles Musikgenerierungssystem kann jetzt vollständige Musikstücke erzeugen und bestehende Musik bearbeiten.  Mit SynthID hat Google zudem ein System eingeführt, um KI-generierte Inhalte zu authentifizieren und kennzeichnen. Das Tool fügt dazu unsichtbare Wasserzeichen in generierte Medien ein, die später nachgewiesen werden können – ein wichtiger Schritt für Transparenz in einer Welt, in der die Unterscheidung zwischen menschlich und maschinell erstellten Inhalten zunehmend schwieriger wird.  Google Beam und XR-Technologien  Mit der Umbenennung von Project Starline zu Google Beam und der Vorstellung neuer XR-Technologien macht Google deutlich, dass immersive Erfahrungen ein zentraler Bestandteil seiner Zukunftsvision sind.  Google Beam, der Nachfolger des 2021 vorgestellten Project Starline, markiert einen bedeutenden Fortschritt in der Telepräsenz-Technologie. Die neue Version benötigt die Lösung laut Google weniger Platz, verbraucht weniger Energie und bietet dennoch die gleiche beeindruckende Präsenz-Erfahrung.  Beam ist Googles Beitrag zum Thema Telepräsenz. Die ersten kommerziellen Produkte sollen dabei in Kooperation mit HP auf den Markt kommen.Google LLC Besonders beeindruckend ist die Integration von Echtzeit-Sprachübersetzung in Google Meet. Diese Funktion übersetzt Gespräche simultan und zeigt Untertitel in der gewünschten Sprache an, während die Stimme des Sprechers in der Zielsprache synthetisiert wird.  Android XR wiederum dokumentiert Googles ambitionierten Vorstoß in die Welt der erweiterten Realität. Die Plattform bietet Entwicklern Tools, um immersive Anwendungen zu erstellen, die nahtlos zwischen Smartphones, Tablets und XR-Brillen funktionieren.  Der Prototyp Project Aura von Xreal, der in Zusammenarbeit mit Google entwickelt wurde, zeigt auf, wie die Zukunft von AR-Brillen aussehen könnte. Die Smart Glasses sind kaum von normalen Brillen zu unterscheiden, ein entscheidender Schritt für die soziale Akzeptanz solcher Technologien.  Die Integration von Gemini auf Headsets stellt einen weiteren Meilenstein dar. Der KI-Assistent kann nicht nur Sprachbefehle verarbeiten, sondern auch visuelle Informationen aus der Umgebung des Nutzers interpretieren.  Agentic AI: Die Zukunft der Automatisierung  “Agentic AI” – also KI-Systeme, die eigenständig Aufgaben planen und ausführen können – standen gleich im Mittelpunkt zahlreicher Ankündigungen, markieren sie doch einen Paradigmenwechsel in der Mensch-Maschine-Interaktion.  Erwähnenswert ist dabei insbesondere Project Mariner. Erstmals im Dezember 2024 vorgestellt, umfasst die Lösung jetzt ein System von Agenten, die bis zu zehn verschiedene Aufgaben gleichzeitig erledigen können. Sie sind unter anderem in der Lage, Informationen nachzuschlagen, Buchungen vorzunehmen oder Einkäufe zu tätigen – und alles zur gleichen Zeit.  Der Agent Mode geht noch weiter: Hier versteht die KI die Intention des Nutzers und wählt eigenständig den effizientesten Weg zur Erreichung des gewünschten Ziels. In einer Demo zeigte Google etwa, wie ein einfacher Befehl wie “Plane einen Wochenendausflug nach Berlin” zu einer Kaskade von Aktionen führte: Der Agent recherchierte daraufhin Flüge, Hotels und Aktivitäten und präsentierte einen vollständigen Reiseplan – alles ohne weitere Nutzerinteraktion.  Besonders revolutionär ist Agentic Checkout – eine Funktion, die das Online-Shopping-Erlebnis grundlegend verändern könnte. Der Agent kann den gesamten Checkout-Prozess übernehmen, die besten Angebote finden, Formulare ausfüllen und den Kauf abschließen – alles mit minimaler Nutzerinteraktion.  Google betont, dass Sicherheit und Verantwortung zentral für ihre Arbeit sind. Die Agenten erklären ihre Aktionen, fragen bei wichtigen Entscheidungen nach und können jederzeit vom Nutzer unterbrochen werden.  Wissenschaftliche KI-Anwendungen  Die vorgestellten KI-Forschungs-Apps decken ein breites Spektrum wissenschaftlicher Disziplinen ab. Diese spezialisierten Anwendungen kombinieren Geminis Verständnis wissenschaftlicher Literatur mit domänenspezifischen Modellen und Simulationsfähigkeiten.  Besonders beeindruckend war die Demonstration einer Anwendung für Proteinfaltung, die auf den Erkenntnissen von DeepMinds KI-System AlphaFold aufbaut. Die neue Version kann nicht nur die dreidimensionale Struktur von Proteinen vorhersagen, sondern auch deren Interaktionen mit anderen Molekülen simulieren – ein entscheidender Schritt für die Medikamentenentwicklung.  Der Jules Coding Assistant wiederum stellt einen Quantensprung für die KI-gestützte Softwareentwicklung dar. Anders als herkömmliche Code-Assistenten versteht Jules nicht nur Programmiersprachen, sondern auch die Intention hinter dem Code und den breiteren Kontext des Projekts.  Canvas, Googles kollaborative KI-Umgebung, soll die wissenschaftliche Zusammenarbeit auf ein neues Niveau heben. Die Plattform ermöglicht es Forschern, komplexe Daten zu visualisieren, Modelle zu entwickeln und Ergebnisse zu interpretieren – alles in einer gemeinsamen virtuellen Umgebung.  Ironwood und Project Mariner, zwei von Googles fortschrittlichsten Forschungsprototypen, kombinieren multimodale Verständnisfähigkeiten mit agentenbasiertem Handeln und können komplexe wissenschaftliche Workflows selbstständig planen und durchführen.  Zu Risiken und Nebenwirkungen…  Bei aller Euphorie ist eine kritische Betrachtung der neuen Lösungen unerlässlich. So darf man nicht vergessen, dass KI-Systeme trotz aller Fortschritte fehleranfällig bleiben. Sie können Fakten erfinden, Zusammenhänge falsch interpretieren oder in unerwarteten Situationen versagen. Die Demos auf der I/O fanden in kontrollierten Umgebungen statt – in der chaotischen Realität dürften die Ergebnisse weniger beeindruckend sein.  Datenschutz- und Sicherheitsaspekte werfen weitere Schatten. Je mehr Kontext KI-Systeme haben, desto besser funktionieren sie – aber desto mehr sensible Daten müssen sie verarbeiten. Wenn ein KI-Agent in meinem Namen handeln kann, welche Sicherheitsgarantien gibt es gegen Missbrauch oder Manipulation?  Die gesellschaftlichen Auswirkungen sind möglicherweise am schwierigsten abzuschätzen. KI-Systeme könnten zahlreiche Berufe transformieren oder sogar überflüssig machen. Gleichzeitig könnten diese Technologien bestehende Ungleichheiten verstärken. Der Zugang zu fortschrittlicher KI erfordert schnelles Internet, moderne Geräte und oft kostenpflichtige Abonnements – Ressourcen, die global ungleich verteilt sind.  Google hat auf der I/O 2025 bewiesen, dass es an der Spitze der KI-Innovation steht. Doch der wahre Erfolg dieser Technologien wird sich nicht an Benchmarks oder Demos messen lassen, sondern daran, ob sie das Leben der Menschen tatsächlich verbessern – ob sie uns befähigen, kreativer, produktiver und erfüllter zu sein, ohne dafür unsere Autonomie, Privatsphäre oder Menschlichkeit zu opfern.  

Nach oben scrollen
×