Sieht so die Zukunft des Smartphones aus?KDdesign_photo_video – Shutterstock.com Schon lange prophezeit, scheint nun allmählich das Ende des Smartphones, wie wir es kennen, zu kommen. Der Grund: Statt sich mühsam von App zu App zu hangeln, ermöglicht künstliche Intelligenz (KI) künftig, KI-Assistenten App-übergreifende Aufgaben zu übertragen – unter anderem per Sprachbefehl. Wie bedeutend dieser Schritt ist, zeigt ein Blick zurück auf die Entwicklung der Benutzerschnittstellen: Dominierte noch Anfang der 1970er Jahre die Kommandozeile, wurde sie ab den 1980er Jahren durch die grafische Benutzeroberfläche (Graphical User Interface; GUI) nach und nach abgelöst. In den 2000er Jahren folgte dann die Touch-Bedienung und allmählich kam Spracheingabe hinzu. Dennoch sind Apps immer noch Silos, in denen Nutzer relativ abgeschirmt agieren – ein Zustand, der sich nun mit dem Siegeszug von Generative AI (GenAI) und KI-Agenten langsam auflöst. Anfang mit Hindernissen Pioniere auf diesem Gebiet, die allerdings gnadenlos scheiterten, sind Humane AI Pin und Rabbit r1. Bei diesen handelt es sich um Devices, die sich vom klassischen Formfaktor eines Smartphones lösen und primär via Sprache bedient werden. Der Haken dabei: Anders als das Marketing versprach, war die Technologie nicht praxisreif und die Befehle nicht gut umgesetzt. Gut gedacht, schlecht gedacht: Der Humane AI Pin war seiner Zeit von der Theorie her voraus.shutterstock.com – Tada Images Auch die Deutsche Telekom hatte bereits auf dem MWC 2024 mit dem (ersten) KI-Phone ein Konzept vorgestellt, bei dem die zahllosen Apps auf dem Smartphone durch einen KI-basierten Assistenten ersetzt werden sollten. Die Idee: Wie ein Concierge versteht die KI die Wünsche der Benutzer und kümmert sich dann um die Details. Statt etwa in unterschiedlichen Portalen oder Airlines-Apps nach einem Flug zum WM-Viertelfinale zu suchen, soll der User das künftig einfach per Sprachbefehl über sein Smartphone beauftragen können. So zumindest ein Szenario, das offenbar aus dem Connected-Car-Bereich entliehen wurde. Ganz abwegig scheint diese Vorstellung allerdings nicht zu sein, denn die Telekom will daran festhalten. Das Unternehmen stellte dieses Jahr in Barcelona eine aktualisierte Version seines KI-Phone vor und kündigte an, dieses in der zweiten Jahreshälfte „zu einem erschwinglichen Preis“ verfügbar zu machen. Während das unscheinbare Äußere des Android-Smartphones erhalten geblieben ist, hat sich der Technologiepartner der Telekom geändert. Statt Natural AI von Brain.ai kommt nun eine (ebenfalls Cloud-basierte) GenAI-Lösung von Perplexity zum Einsatz. Weitere KI-Features soll das Telekom-Phone in Form von Anwendungen von Google Cloud AI (Objekterkennung), Elevenlabs (Podcast-Generator) und Picsart (GenAI-Design-Tool) bieten. srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/03/MWC_DT_KI_Phone_Magenta_AI_teleko_16.jpg?quality=50&strip=all 6000w, https://b2b-contenthub.com/wp-content/uploads/2025/03/MWC_DT_KI_Phone_Magenta_AI_teleko_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/03/MWC_DT_KI_Phone_Magenta_AI_teleko_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/03/MWC_DT_KI_Phone_Magenta_AI_teleko_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/03/MWC_DT_KI_Phone_Magenta_AI_teleko_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/03/MWC_DT_KI_Phone_Magenta_AI_teleko_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/03/MWC_DT_KI_Phone_Magenta_AI_teleko_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/03/MWC_DT_KI_Phone_Magenta_AI_teleko_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/03/MWC_DT_KI_Phone_Magenta_AI_teleko_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/03/MWC_DT_KI_Phone_Magenta_AI_teleko_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/03/MWC_DT_KI_Phone_Magenta_AI_teleko_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Das KI-Phone der Telekom setzt auf die Cloud-AI-Lösung von Perplexity.Deutsche Telekom Einen Eindruck über die Funktionsweise können sich Nutzer anhand des als App frei verfügbaren Perplexity Assistant (nicht zu verwechseln mit der KI-gestützten Suchmaschine) verschaffen. Das KI-Tool ist auf Android-Geräten unter anderem in der Lage, verschiedene Apps zu öffnen, Nachrichten zu versenden, via OpenTable Tische in Restaurants zu reservieren und Texte auf dem Bildschirm zu übersetzen. Auf dem iPhone ist die Funktionalität der App etwas eingeschränkt, kannbeim Zugriff auf Third-Party-Apps Siri jedoch problemlos in den Schatten stellen. Außerdem bietet Perplexity in der iOS-Version eine Funktion, die das Unternehmen „Persistent Listening“ nennt. Ist diese aktiviert, hört der Sprachassistent weiterhin auf die Stimme des Benutzers, auch wenn dieser die App verlässt oder wechselt. Dabei handelt es sich um einen Workaround, da Apple ein „Aufwachwort“ wie „Hey Siri“ natürlich nicht zulässt. Auch OpenAI und Google mischen mit Angesichts des aktuellen Trends zu KI-Agenten, beziehungsweise Agentic AI, finden sich ähnliche Ansätze aber auch bei anderen Anbietern. So hat etwa OpenAI mit Operator im Januar einen KI-Agenten vorgestellt, der eine Reihe von repetitiven Aufgaben im Web selbstständig übernehmen kann. Dem Anbieter zufolge kann der aktuell nur in den USA verfügbare (als Preview für Pro-Nutzer von ChatGPT) Agent mit einer Vielzahl sich wiederholender Browser-basierter Aufgaben beauftragt werden, etwa damit, Formulare auszufüllen oder Lebensmittel zu bestellen. Angetrieben wird der Operator von OpenAIs Computer-Using Agent (CUA), einem KI-Modell, das die visuellen Fähigkeiten von GPT-4o mit Reasoning kombiniert. CUA ist laut OpenAI darauf trainiert, mit grafischen Benutzeroberflächen (GUIs) genauso zu interagieren wie mit Menschen. Das geschieht mithilfe von zahlreichen „Screenshots“ der Website, die von der KI bewertet werden, um den nächsten Schritt zu initiieren. Dadurch sei der Agent flexibel genug, um digitale Aufgaben auszuführen, ohne Betriebssystem- oder Web-spezifische APIs zu verwenden, so das Unternehmen. Google befasst sich gleich in mehreren Projekten mit dem Thema KI-Assistent. Auf der Entwicklerkonferenz I/O 2025 demonstrierte der Tech-Riese unter anderem die neuesten Fortschritte bei Project Astra. Die revolutionärste Neuerung: Astra kann jetzt proaktiv handeln. Statt nur auf direkte Befehle zu reagieren, beobachtet der Assistent kontinuierlich seine Umgebung und entscheidet selbstständig, wann er eingreifen sollte. Das erstmals im Dezember 2024 vorgestellte Project Mariner wiederum umfasst jetzt ein System von Agenten, die bis zu zehn verschiedene Aufgaben gleichzeitig erledigen können. Sie sind unter anderem in der Lage, Informationen nachzuschlagen, Buchungen vorzunehmen oder Einkäufe zu tätigen – und alles zur gleichen Zeit. In einer Demo zeigte Google auf der I/O etwa, wie ein einfacher Befehl wie “Plane einen Wochenendausflug nach Berlin” zu einer Kaskade von Aktionen führte: Der Agent recherchierte daraufhin Flüge, Hotels und Aktivitäten und präsentierte einen vollständigen Reiseplan – alles ohne weitere Nutzerinteraktion. Ähnlich wie bei den anderen Tools gilt bei solchen Schritten das Prinzip „Human in the Loop“ (HITL): Die Agenten erklären ihre Aktionen, fragen bei wichtigen Entscheidungen nach und können jederzeit vom Nutzer unterbrochen werden. On Device AI oder Cloud AI – oder beides? Während Cloud AI eine weitere KI-Verbreitung und – bei guter Konnektivität – eine bessere -Performance verspricht, setzen Hardwarehersteller wie Apple, Samsung oder Qualcomm auf „On Device AI“, um sich zu differenzieren und Anreize für den Kauf neuer, hochwertiger Geräte zu schaffen. So gab Samsung bei der Vorstellung seines neuen Smartphone-Flaggschiffs Galaxy S25 stolz bekannt, dass entsprechende Features im Vergleich zum Vorgänger fast verdoppelt wurden. Als Beispiel dafür nannten die Koreaner etwa die Möglichkeit, freihändig via Sprachbefehl Einstellungen wie den Dark Mode zu aktivieren. Gleichzeitig lässt sich über die Funktionstaste Googles Gemini aktivieren, um die Apps von Samsung und Google zu nutzen, ohne sie einzeln anwählen zu müssen. Auch einige Apps von Drittanbietern wie Spotify und WhatsApp lassen sich so ansteuern. Auch Qualcomm, das mit seinem Chipsatz Snapdragon 8 Elite (beziehungsweise der darin verbauten Hexagon NPU) die erforderliche KI-Rechenleistung für Highend-Smartphones wie das S25 liefert, treibt den Trend zur On-Device-KI voran. So stellt das Unternehmen auf seinem AI Hub eine Vielzahl von Small Language Models (SLMs) bereit. Die Sprachmodelle werden dabei zwar in der Cloud trainiert, das Inferencing findet jedoch auf dem Gerät statt. Und Apple? Der iPhone-Hersteller hinkt im Bereich KI-Agenten weit hinterher, obwohl die ursprüngliche Siri-App 2014 vor dem Kauf durch Apple schon ziemlich weit war und etwa ein Abendessen reservieren, ein Kino finden oder ein Taxi rufen konnte. Nach dem Tod von Steve Jobs sei es dann dem Entwickler-Team schwer gefallen, Softwarechef Craig Federighi davon zu überzeugen, KI ernstzunehmen, berichtet Bloomberg unter Berufung auf informierte Kreise und zitiert einen Insider: „Als ChatGPT im November 2022 öffentlich vorgestellt wurde, existierte Apple Intelligence noch nicht mal als Idee, obwohl es kein Geheimnis war, was OpenAI da machte.” Mittlerweile arbeitet Apple zwar an „LLM Siri“, aber der für 2025 anvisierte Launch verzögert sich aus technischen Gründen weiter. Das größte Problem ist dabei laut Bloomberg, dass Apple die Infrastruktur von Siri in zwei Hälften teilen musste, um die neuen Funktionen so schnell wie möglich auf den Markt zu bringen. Dabei wurde der alte Code für alte Funktionen (zum Beispiel einen Alarm einstellen) und der neue Code für Anfragen verwendet, die auf persönliche Daten zurückgreifen. Dieser Kniff habe jedoch Integrationsprobleme verursacht, die zu Verzögerungen führten. Wie viel Personalisierung braucht es? Um einen Kontext bei manchen Tasks herzustellen, ist es natürlich von Vorteil, wenn die Agenten persönliches Wissen über den Nutzer, etwa Geschlecht, Alter, aber auch Dinge wie etwa Stand- und Wohnort oder kulinarische Vorlieben mit einbeziehen können. Klassisches (Marketing-)Beispiel ist ein Szenario, in dem ein Nutzer bei der Fahrt nach Hause noch etwas essen möchte. Er bittet den KI-Assistenten entsprechend, ihm ein Restaurant herauszusuchen und einen Tisch zu reservieren. Wenn es darum geht, ein Lokal zu finden, das zu den Ernährungsgewohnheiten des Nutzers passt und auf der Strecke liegt, sind klassische Datensammler wie Google – Stichwort Google Maps – klar im Vorteil. Allerdings ist auch ein Device wie das Smartphone als ständiger Begleiter in der Lage, viele persönliche Daten des Nutzers zu sammeln. Gleichzeitig dürfte hier auch die Hemmschwelle nicht so hoch sein, Informationen zu teilen. Dass solch ein persönlicher Knowledge Graph keine Fiktion ist, belegen Ankündigungen von Unternehmen wie OPPO. Der Smartphone-Hersteller gab unlängst bekannt, dass er ein neues System für das Wissen von Nutzer entwickelt, das als zentraler Speicher für die Daten der Anwender dient. „Das System ist darauf ausgelegt, aus Aktivitäten, Interessen, Daten und Erinnerungen der Nutzer zu lernen und sich anzupassen. Dadurch sollen hochgradig personalisierte KI-Erlebnisse möglich und so Fortschritte auf dem Weg zu einer Zukunftsvision von intelligenten, KI-gesteuerten Betriebssystemen erzielt werden”, heißt es in der Ankündigung. Samsung wiederum hat bereits 2024 mit der Übernahme von Oxford Semantic die Grundlage für einen solchen Knowledge Graph geschaffen und nun in seine Galaxy-S25-Familie integriert. „RDFox ist die Technologie hinter der Personal Data Engine von Samsung, die hyperpersonalisierte Benutzererlebnisse schafft und gleichzeitig den Datenschutz und die Sicherheit der Daten auf dem Gerät gewährleistet“, gab Oxford Semantic bei der Vorstellung des neuen Samsung-Flaggschiffs bekannt. Durch die Verwendung von Knowledge-Graph-Technologie, um Daten zu integrieren und zu verknüpfen, verbessere RDFox das Verständnis dafür, wie Menschen ein Produkt oder eine Dienstleistung nutzen, und ermögliche es, entsprechende Informationen schnell abzurufen und Empfehlungen auszusprechen. Thema mit Variationen Wird so ein persönlicher Knowledge Graph einmal in Betrieb genommen, fangen die Probleme erst an: Um Missbrauch zu verhindern, muss er stark verschlüsselt in einer Secure Enclave aufbewahrt werden. Im Fall des Galaxy S25 werden sie beispielsweise in Samsungs Knox Vault gespeichert und durch das Blockchain-basierte Sicherheitssystem Knox Matrix geschützt. Gleichzeitig ergeben sich aber noch zahlreiche weitere Fragen, die teilweise noch beantwortet werden müssen, etwa: Inwieweit werden diese Informationen bei einem Gerätewechsel weitergegeben? Welche Szenarien gibt es beim Wechsel auf das Nachfolgemodell, ein Modell des gleichen Herstellers, ein Modell mit gleichem Betriebssystem oder gar ein anderes Betriebssystem? Gibt es für Migrations- oder Verlustszenarien ein Backup in der Cloud? Teilen sich mehrere Geräte – etwa Tablet und Smartphone – das Wissen? Gibt es bei mehreren Agenten einen geräteübergreifenden Knowledge Graph oder mehrere getrennte? Gibt es für verschiedene Personas (etwa privat oder beruflich) unterschiedliche Datenbanken? Aber auch eher technische Aspekte müssen umgesetzt werden, wenn die KI ständig zuhört – etwa das Energiemanagement. Eine Option ist, mehrere KIs zu verwenden: Ein stromsparendes KI-Modul wartet im Hintergrund auf Kommandos und übergibt diese dann an andere, spezialisierte KIs. Mögliche App-Implikationen Wenn die KI-Agenten primär via API auf Funktionen und Dienste zugreifen, hat das natürlich auch Konsequenzen für das User Interface von Apps. „Apps werden nicht bedeutungslos, aber anders“, kommentiert das Fraunhofer-Institut für Experimentelles Software Engineering (IESE) die Entwicklung in einem Blogbeitag. Ein zukunftsfähiges Softwarekonzept müsse folglich so gestaltet sein, dass es auch dann funktioniert, wenn Nutzerinnen und Nutzer die Oberfläche der Software gar nicht sehen. „Die Fähigkeit, in verschiedenen Kontexten und über verschiedene Schnittstellen hinweg nahtlos zu funktionieren, wird zum entscheidenden Faktor für den Erfolg“, konstatiert Fraunhofer IESE. „Die Herausforderung und die Kunst der nativen App-Entwicklung werden sein, diese Entwicklungen nicht als Konkurrenz, sondern als Chance zu sehen“, ergänzt Mark Zimmermann, Leiter des CoE für mobile Anwendungsentwicklung bei der EnBW. „Erfolgreiche Apps der Zukunft werden nicht nur auf klassische UI-Elemente setzen, sondern sich intelligent mit KI-gesteuerten Systemen verzahnen.“ Mobility-Experte Mark Zimmermann rät App-Entwicklern, sich frühzeitig mit dem Trend auseinanderzusetzen. EnBW Der Schlüssel zum Erfolg liege dabei in der Integration, so Zimmermann: „Kunden müssen dort abgeholt werden, wo sie es erwarten – sei es durch Sprachinteraktion, multimodale Schnittstellen oder direkt in bestehenden Ökosystemen. Es geht also nicht um das Ende des UI, sondern um dessen Transformation. Wer sich frühzeitig mit diesen Techniken auseinandersetzt und sie integriert, wird langfristig im Wettbewerb bestehen.“
Wird KI das neue UI?
Sieht so die Zukunft des Smartphones aus?KDdesign_photo_video – Shutterstock.com Schon lange prophezeit, scheint nun allmählich das Ende des Smartphones, wie wir es kennen, zu kommen. Der Grund: Statt sich mühsam von App zu App zu hangeln, ermöglicht künstliche Intelligenz (KI) künftig, KI-Assistenten App-übergreifende Aufgaben zu übertragen – unter anderem per Sprachbefehl. Wie bedeutend dieser Schritt ist, zeigt ein Blick zurück auf die Entwicklung der Benutzerschnittstellen: Dominierte noch Anfang der 1970er Jahre die Kommandozeile, wurde sie ab den 1980er Jahren durch die grafische Benutzeroberfläche (Graphical User Interface; GUI) nach und nach abgelöst. In den 2000er Jahren folgte dann die Touch-Bedienung und allmählich kam Spracheingabe hinzu. Dennoch sind Apps immer noch Silos, in denen Nutzer relativ abgeschirmt agieren – ein Zustand, der sich nun mit dem Siegeszug von Generative AI (GenAI) und KI-Agenten langsam auflöst. Anfang mit Hindernissen Pioniere auf diesem Gebiet, die allerdings gnadenlos scheiterten, sind Humane AI Pin und Rabbit r1. Bei diesen handelt es sich um Devices, die sich vom klassischen Formfaktor eines Smartphones lösen und primär via Sprache bedient werden. Der Haken dabei: Anders als das Marketing versprach, war die Technologie nicht praxisreif und die Befehle nicht gut umgesetzt. Gut gedacht, schlecht gedacht: Der Humane AI Pin war seiner Zeit von der Theorie her voraus.shutterstock.com – Tada Images Auch die Deutsche Telekom hatte bereits auf dem MWC 2024 mit dem (ersten) KI-Phone ein Konzept vorgestellt, bei dem die zahllosen Apps auf dem Smartphone durch einen KI-basierten Assistenten ersetzt werden sollten. Die Idee: Wie ein Concierge versteht die KI die Wünsche der Benutzer und kümmert sich dann um die Details. Statt etwa in unterschiedlichen Portalen oder Airlines-Apps nach einem Flug zum WM-Viertelfinale zu suchen, soll der User das künftig einfach per Sprachbefehl über sein Smartphone beauftragen können. So zumindest ein Szenario, das offenbar aus dem Connected-Car-Bereich entliehen wurde. Ganz abwegig scheint diese Vorstellung allerdings nicht zu sein, denn die Telekom will daran festhalten. Das Unternehmen stellte dieses Jahr in Barcelona eine aktualisierte Version seines KI-Phone vor und kündigte an, dieses in der zweiten Jahreshälfte „zu einem erschwinglichen Preis“ verfügbar zu machen. Während das unscheinbare Äußere des Android-Smartphones erhalten geblieben ist, hat sich der Technologiepartner der Telekom geändert. Statt Natural AI von Brain.ai kommt nun eine (ebenfalls Cloud-basierte) GenAI-Lösung von Perplexity zum Einsatz. Weitere KI-Features soll das Telekom-Phone in Form von Anwendungen von Google Cloud AI (Objekterkennung), Elevenlabs (Podcast-Generator) und Picsart (GenAI-Design-Tool) bieten. srcset="https://b2b-contenthub.com/wp-content/uploads/2025/03/MWC_DT_KI_Phone_Magenta_AI_teleko_16.jpg?quality=50&strip=all 6000w, https://b2b-contenthub.com/wp-content/uploads/2025/03/MWC_DT_KI_Phone_Magenta_AI_teleko_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/03/MWC_DT_KI_Phone_Magenta_AI_teleko_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/03/MWC_DT_KI_Phone_Magenta_AI_teleko_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/03/MWC_DT_KI_Phone_Magenta_AI_teleko_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/03/MWC_DT_KI_Phone_Magenta_AI_teleko_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/03/MWC_DT_KI_Phone_Magenta_AI_teleko_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/03/MWC_DT_KI_Phone_Magenta_AI_teleko_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/03/MWC_DT_KI_Phone_Magenta_AI_teleko_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/03/MWC_DT_KI_Phone_Magenta_AI_teleko_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/03/MWC_DT_KI_Phone_Magenta_AI_teleko_16.jpg?resize=444%2C250&quality=50&strip=all 444w" width="1024" height="576" sizes="(max-width: 1024px) 100vw, 1024px">Das KI-Phone der Telekom setzt auf die Cloud-AI-Lösung von Perplexity.Deutsche Telekom Einen Eindruck über die Funktionsweise können sich Nutzer anhand des als App frei verfügbaren Perplexity Assistant (nicht zu verwechseln mit der KI-gestützten Suchmaschine) verschaffen. Das KI-Tool ist auf Android-Geräten unter anderem in der Lage, verschiedene Apps zu öffnen, Nachrichten zu versenden, via OpenTable Tische in Restaurants zu reservieren und Texte auf dem Bildschirm zu übersetzen. Auf dem iPhone ist die Funktionalität der App etwas eingeschränkt, kannbeim Zugriff auf Third-Party-Apps Siri jedoch problemlos in den Schatten stellen. Außerdem bietet Perplexity in der iOS-Version eine Funktion, die das Unternehmen „Persistent Listening“ nennt. Ist diese aktiviert, hört der Sprachassistent weiterhin auf die Stimme des Benutzers, auch wenn dieser die App verlässt oder wechselt. Dabei handelt es sich um einen Workaround, da Apple ein „Aufwachwort“ wie „Hey Siri“ natürlich nicht zulässt. Auch OpenAI und Google mischen mit Angesichts des aktuellen Trends zu KI-Agenten, beziehungsweise Agentic AI, finden sich ähnliche Ansätze aber auch bei anderen Anbietern. So hat etwa OpenAI mit Operator im Januar einen KI-Agenten vorgestellt, der eine Reihe von repetitiven Aufgaben im Web selbstständig übernehmen kann. Dem Anbieter zufolge kann der aktuell nur in den USA verfügbare (als Preview für Pro-Nutzer von ChatGPT) Agent mit einer Vielzahl sich wiederholender Browser-basierter Aufgaben beauftragt werden, etwa damit, Formulare auszufüllen oder Lebensmittel zu bestellen. Angetrieben wird der Operator von OpenAIs Computer-Using Agent (CUA), einem KI-Modell, das die visuellen Fähigkeiten von GPT-4o mit Reasoning kombiniert. CUA ist laut OpenAI darauf trainiert, mit grafischen Benutzeroberflächen (GUIs) genauso zu interagieren wie mit Menschen. Das geschieht mithilfe von zahlreichen „Screenshots“ der Website, die von der KI bewertet werden, um den nächsten Schritt zu initiieren. Dadurch sei der Agent flexibel genug, um digitale Aufgaben auszuführen, ohne Betriebssystem- oder Web-spezifische APIs zu verwenden, so das Unternehmen. Google befasst sich gleich in mehreren Projekten mit dem Thema KI-Assistent. Auf der Entwicklerkonferenz I/O 2025 demonstrierte der Tech-Riese unter anderem die neuesten Fortschritte bei Project Astra. Die revolutionärste Neuerung: Astra kann jetzt proaktiv handeln. Statt nur auf direkte Befehle zu reagieren, beobachtet der Assistent kontinuierlich seine Umgebung und entscheidet selbstständig, wann er eingreifen sollte. Das erstmals im Dezember 2024 vorgestellte Project Mariner wiederum umfasst jetzt ein System von Agenten, die bis zu zehn verschiedene Aufgaben gleichzeitig erledigen können. Sie sind unter anderem in der Lage, Informationen nachzuschlagen, Buchungen vorzunehmen oder Einkäufe zu tätigen – und alles zur gleichen Zeit. In einer Demo zeigte Google auf der I/O etwa, wie ein einfacher Befehl wie “Plane einen Wochenendausflug nach Berlin” zu einer Kaskade von Aktionen führte: Der Agent recherchierte daraufhin Flüge, Hotels und Aktivitäten und präsentierte einen vollständigen Reiseplan – alles ohne weitere Nutzerinteraktion. Ähnlich wie bei den anderen Tools gilt bei solchen Schritten das Prinzip „Human in the Loop“ (HITL): Die Agenten erklären ihre Aktionen, fragen bei wichtigen Entscheidungen nach und können jederzeit vom Nutzer unterbrochen werden. On Device AI oder Cloud AI – oder beides? Während Cloud AI eine weitere KI-Verbreitung und – bei guter Konnektivität – eine bessere -Performance verspricht, setzen Hardwarehersteller wie Apple, Samsung oder Qualcomm auf „On Device AI“, um sich zu differenzieren und Anreize für den Kauf neuer, hochwertiger Geräte zu schaffen. So gab Samsung bei der Vorstellung seines neuen Smartphone-Flaggschiffs Galaxy S25 stolz bekannt, dass entsprechende Features im Vergleich zum Vorgänger fast verdoppelt wurden. Als Beispiel dafür nannten die Koreaner etwa die Möglichkeit, freihändig via Sprachbefehl Einstellungen wie den Dark Mode zu aktivieren. Gleichzeitig lässt sich über die Funktionstaste Googles Gemini aktivieren, um die Apps von Samsung und Google zu nutzen, ohne sie einzeln anwählen zu müssen. Auch einige Apps von Drittanbietern wie Spotify und WhatsApp lassen sich so ansteuern. Auch Qualcomm, das mit seinem Chipsatz Snapdragon 8 Elite (beziehungsweise der darin verbauten Hexagon NPU) die erforderliche KI-Rechenleistung für Highend-Smartphones wie das S25 liefert, treibt den Trend zur On-Device-KI voran. So stellt das Unternehmen auf seinem AI Hub eine Vielzahl von Small Language Models (SLMs) bereit. Die Sprachmodelle werden dabei zwar in der Cloud trainiert, das Inferencing findet jedoch auf dem Gerät statt. Und Apple? Der iPhone-Hersteller hinkt im Bereich KI-Agenten weit hinterher, obwohl die ursprüngliche Siri-App 2014 vor dem Kauf durch Apple schon ziemlich weit war und etwa ein Abendessen reservieren, ein Kino finden oder ein Taxi rufen konnte. Nach dem Tod von Steve Jobs sei es dann dem Entwickler-Team schwer gefallen, Softwarechef Craig Federighi davon zu überzeugen, KI ernstzunehmen, berichtet Bloomberg unter Berufung auf informierte Kreise und zitiert einen Insider: „Als ChatGPT im November 2022 öffentlich vorgestellt wurde, existierte Apple Intelligence noch nicht mal als Idee, obwohl es kein Geheimnis war, was OpenAI da machte.” Mittlerweile arbeitet Apple zwar an „LLM Siri“, aber der für 2025 anvisierte Launch verzögert sich aus technischen Gründen weiter. Das größte Problem ist dabei laut Bloomberg, dass Apple die Infrastruktur von Siri in zwei Hälften teilen musste, um die neuen Funktionen so schnell wie möglich auf den Markt zu bringen. Dabei wurde der alte Code für alte Funktionen (zum Beispiel einen Alarm einstellen) und der neue Code für Anfragen verwendet, die auf persönliche Daten zurückgreifen. Dieser Kniff habe jedoch Integrationsprobleme verursacht, die zu Verzögerungen führten. Wie viel Personalisierung braucht es? Um einen Kontext bei manchen Tasks herzustellen, ist es natürlich von Vorteil, wenn die Agenten persönliches Wissen über den Nutzer, etwa Geschlecht, Alter, aber auch Dinge wie etwa Stand- und Wohnort oder kulinarische Vorlieben mit einbeziehen können. Klassisches (Marketing-)Beispiel ist ein Szenario, in dem ein Nutzer bei der Fahrt nach Hause noch etwas essen möchte. Er bittet den KI-Assistenten entsprechend, ihm ein Restaurant herauszusuchen und einen Tisch zu reservieren. Wenn es darum geht, ein Lokal zu finden, das zu den Ernährungsgewohnheiten des Nutzers passt und auf der Strecke liegt, sind klassische Datensammler wie Google – Stichwort Google Maps – klar im Vorteil. Allerdings ist auch ein Device wie das Smartphone als ständiger Begleiter in der Lage, viele persönliche Daten des Nutzers zu sammeln. Gleichzeitig dürfte hier auch die Hemmschwelle nicht so hoch sein, Informationen zu teilen. Dass solch ein persönlicher Knowledge Graph keine Fiktion ist, belegen Ankündigungen von Unternehmen wie OPPO. Der Smartphone-Hersteller gab unlängst bekannt, dass er ein neues System für das Wissen von Nutzer entwickelt, das als zentraler Speicher für die Daten der Anwender dient. „Das System ist darauf ausgelegt, aus Aktivitäten, Interessen, Daten und Erinnerungen der Nutzer zu lernen und sich anzupassen. Dadurch sollen hochgradig personalisierte KI-Erlebnisse möglich und so Fortschritte auf dem Weg zu einer Zukunftsvision von intelligenten, KI-gesteuerten Betriebssystemen erzielt werden”, heißt es in der Ankündigung. Samsung wiederum hat bereits 2024 mit der Übernahme von Oxford Semantic die Grundlage für einen solchen Knowledge Graph geschaffen und nun in seine Galaxy-S25-Familie integriert. „RDFox ist die Technologie hinter der Personal Data Engine von Samsung, die hyperpersonalisierte Benutzererlebnisse schafft und gleichzeitig den Datenschutz und die Sicherheit der Daten auf dem Gerät gewährleistet“, gab Oxford Semantic bei der Vorstellung des neuen Samsung-Flaggschiffs bekannt. Durch die Verwendung von Knowledge-Graph-Technologie, um Daten zu integrieren und zu verknüpfen, verbessere RDFox das Verständnis dafür, wie Menschen ein Produkt oder eine Dienstleistung nutzen, und ermögliche es, entsprechende Informationen schnell abzurufen und Empfehlungen auszusprechen. Thema mit Variationen Wird so ein persönlicher Knowledge Graph einmal in Betrieb genommen, fangen die Probleme erst an: Um Missbrauch zu verhindern, muss er stark verschlüsselt in einer Secure Enclave aufbewahrt werden. Im Fall des Galaxy S25 werden sie beispielsweise in Samsungs Knox Vault gespeichert und durch das Blockchain-basierte Sicherheitssystem Knox Matrix geschützt. Gleichzeitig ergeben sich aber noch zahlreiche weitere Fragen, die teilweise noch beantwortet werden müssen, etwa: Inwieweit werden diese Informationen bei einem Gerätewechsel weitergegeben? Welche Szenarien gibt es beim Wechsel auf das Nachfolgemodell, ein Modell des gleichen Herstellers, ein Modell mit gleichem Betriebssystem oder gar ein anderes Betriebssystem? Gibt es für Migrations- oder Verlustszenarien ein Backup in der Cloud? Teilen sich mehrere Geräte – etwa Tablet und Smartphone – das Wissen? Gibt es bei mehreren Agenten einen geräteübergreifenden Knowledge Graph oder mehrere getrennte? Gibt es für verschiedene Personas (etwa privat oder beruflich) unterschiedliche Datenbanken? Aber auch eher technische Aspekte müssen umgesetzt werden, wenn die KI ständig zuhört – etwa das Energiemanagement. Eine Option ist, mehrere KIs zu verwenden: Ein stromsparendes KI-Modul wartet im Hintergrund auf Kommandos und übergibt diese dann an andere, spezialisierte KIs. Mögliche App-Implikationen Wenn die KI-Agenten primär via API auf Funktionen und Dienste zugreifen, hat das natürlich auch Konsequenzen für das User Interface von Apps. „Apps werden nicht bedeutungslos, aber anders“, kommentiert das Fraunhofer-Institut für Experimentelles Software Engineering (IESE) die Entwicklung in einem Blogbeitag. Ein zukunftsfähiges Softwarekonzept müsse folglich so gestaltet sein, dass es auch dann funktioniert, wenn Nutzerinnen und Nutzer die Oberfläche der Software gar nicht sehen. „Die Fähigkeit, in verschiedenen Kontexten und über verschiedene Schnittstellen hinweg nahtlos zu funktionieren, wird zum entscheidenden Faktor für den Erfolg“, konstatiert Fraunhofer IESE. „Die Herausforderung und die Kunst der nativen App-Entwicklung werden sein, diese Entwicklungen nicht als Konkurrenz, sondern als Chance zu sehen“, ergänzt Mark Zimmermann, Leiter des CoE für mobile Anwendungsentwicklung bei der EnBW. „Erfolgreiche Apps der Zukunft werden nicht nur auf klassische UI-Elemente setzen, sondern sich intelligent mit KI-gesteuerten Systemen verzahnen.“ Mobility-Experte Mark Zimmermann rät App-Entwicklern, sich frühzeitig mit dem Trend auseinanderzusetzen. EnBW Der Schlüssel zum Erfolg liege dabei in der Integration, so Zimmermann: „Kunden müssen dort abgeholt werden, wo sie es erwarten – sei es durch Sprachinteraktion, multimodale Schnittstellen oder direkt in bestehenden Ökosystemen. Es geht also nicht um das Ende des UI, sondern um dessen Transformation. Wer sich frühzeitig mit diesen Techniken auseinandersetzt und sie integriert, wird langfristig im Wettbewerb bestehen.“
Wird KI das neue UI? Sieht so die Zukunft des Smartphones aus?KDdesign_photo_video – Shutterstock.com Schon lange prophezeit, scheint nun allmählich das Ende des Smartphones, wie wir es kennen, zu kommen. Der Grund: Statt sich mühsam von App zu App zu hangeln, ermöglicht künstliche Intelligenz (KI) künftig, KI-Assistenten App-übergreifende Aufgaben zu übertragen – unter anderem per Sprachbefehl. Wie bedeutend dieser Schritt ist, zeigt ein Blick zurück auf die Entwicklung der Benutzerschnittstellen: Dominierte noch Anfang der 1970er Jahre die Kommandozeile, wurde sie ab den 1980er Jahren durch die grafische Benutzeroberfläche (Graphical User Interface; GUI) nach und nach abgelöst. In den 2000er Jahren folgte dann die Touch-Bedienung und allmählich kam Spracheingabe hinzu. Dennoch sind Apps immer noch Silos, in denen Nutzer relativ abgeschirmt agieren – ein Zustand, der sich nun mit dem Siegeszug von Generative AI (GenAI) und KI-Agenten langsam auflöst. Anfang mit Hindernissen Pioniere auf diesem Gebiet, die allerdings gnadenlos scheiterten, sind Humane AI Pin und Rabbit r1. Bei diesen handelt es sich um Devices, die sich vom klassischen Formfaktor eines Smartphones lösen und primär via Sprache bedient werden. Der Haken dabei: Anders als das Marketing versprach, war die Technologie nicht praxisreif und die Befehle nicht gut umgesetzt. Gut gedacht, schlecht gedacht: Der Humane AI Pin war seiner Zeit von der Theorie her voraus.shutterstock.com – Tada Images Auch die Deutsche Telekom hatte bereits auf dem MWC 2024 mit dem (ersten) KI-Phone ein Konzept vorgestellt, bei dem die zahllosen Apps auf dem Smartphone durch einen KI-basierten Assistenten ersetzt werden sollten. Die Idee: Wie ein Concierge versteht die KI die Wünsche der Benutzer und kümmert sich dann um die Details. Statt etwa in unterschiedlichen Portalen oder Airlines-Apps nach einem Flug zum WM-Viertelfinale zu suchen, soll der User das künftig einfach per Sprachbefehl über sein Smartphone beauftragen können. So zumindest ein Szenario, das offenbar aus dem Connected-Car-Bereich entliehen wurde. Ganz abwegig scheint diese Vorstellung allerdings nicht zu sein, denn die Telekom will daran festhalten. Das Unternehmen stellte dieses Jahr in Barcelona eine aktualisierte Version seines KI-Phone vor und kündigte an, dieses in der zweiten Jahreshälfte „zu einem erschwinglichen Preis“ verfügbar zu machen. Während das unscheinbare Äußere des Android-Smartphones erhalten geblieben ist, hat sich der Technologiepartner der Telekom geändert. Statt Natural AI von Brain.ai kommt nun eine (ebenfalls Cloud-basierte) GenAI-Lösung von Perplexity zum Einsatz. Weitere KI-Features soll das Telekom-Phone in Form von Anwendungen von Google Cloud AI (Objekterkennung), Elevenlabs (Podcast-Generator) und Picsart (GenAI-Design-Tool) bieten. srcset="https://b2b-contenthub.com/wp-content/uploads/2025/03/MWC_DT_KI_Phone_Magenta_AI_teleko_16.jpg?quality=50&strip=all 6000w, https://b2b-contenthub.com/wp-content/uploads/2025/03/MWC_DT_KI_Phone_Magenta_AI_teleko_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/03/MWC_DT_KI_Phone_Magenta_AI_teleko_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/03/MWC_DT_KI_Phone_Magenta_AI_teleko_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/03/MWC_DT_KI_Phone_Magenta_AI_teleko_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/03/MWC_DT_KI_Phone_Magenta_AI_teleko_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/03/MWC_DT_KI_Phone_Magenta_AI_teleko_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/03/MWC_DT_KI_Phone_Magenta_AI_teleko_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/03/MWC_DT_KI_Phone_Magenta_AI_teleko_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/03/MWC_DT_KI_Phone_Magenta_AI_teleko_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/03/MWC_DT_KI_Phone_Magenta_AI_teleko_16.jpg?resize=444%2C250&quality=50&strip=all 444w" width="1024" height="576" sizes="(max-width: 1024px) 100vw, 1024px">Das KI-Phone der Telekom setzt auf die Cloud-AI-Lösung von Perplexity.Deutsche Telekom Einen Eindruck über die Funktionsweise können sich Nutzer anhand des als App frei verfügbaren Perplexity Assistant (nicht zu verwechseln mit der KI-gestützten Suchmaschine) verschaffen. Das KI-Tool ist auf Android-Geräten unter anderem in der Lage, verschiedene Apps zu öffnen, Nachrichten zu versenden, via OpenTable Tische in Restaurants zu reservieren und Texte auf dem Bildschirm zu übersetzen. Auf dem iPhone ist die Funktionalität der App etwas eingeschränkt, kannbeim Zugriff auf Third-Party-Apps Siri jedoch problemlos in den Schatten stellen. Außerdem bietet Perplexity in der iOS-Version eine Funktion, die das Unternehmen „Persistent Listening“ nennt. Ist diese aktiviert, hört der Sprachassistent weiterhin auf die Stimme des Benutzers, auch wenn dieser die App verlässt oder wechselt. Dabei handelt es sich um einen Workaround, da Apple ein „Aufwachwort“ wie „Hey Siri“ natürlich nicht zulässt. Auch OpenAI und Google mischen mit Angesichts des aktuellen Trends zu KI-Agenten, beziehungsweise Agentic AI, finden sich ähnliche Ansätze aber auch bei anderen Anbietern. So hat etwa OpenAI mit Operator im Januar einen KI-Agenten vorgestellt, der eine Reihe von repetitiven Aufgaben im Web selbstständig übernehmen kann. Dem Anbieter zufolge kann der aktuell nur in den USA verfügbare (als Preview für Pro-Nutzer von ChatGPT) Agent mit einer Vielzahl sich wiederholender Browser-basierter Aufgaben beauftragt werden, etwa damit, Formulare auszufüllen oder Lebensmittel zu bestellen. Angetrieben wird der Operator von OpenAIs Computer-Using Agent (CUA), einem KI-Modell, das die visuellen Fähigkeiten von GPT-4o mit Reasoning kombiniert. CUA ist laut OpenAI darauf trainiert, mit grafischen Benutzeroberflächen (GUIs) genauso zu interagieren wie mit Menschen. Das geschieht mithilfe von zahlreichen „Screenshots“ der Website, die von der KI bewertet werden, um den nächsten Schritt zu initiieren. Dadurch sei der Agent flexibel genug, um digitale Aufgaben auszuführen, ohne Betriebssystem- oder Web-spezifische APIs zu verwenden, so das Unternehmen. Google befasst sich gleich in mehreren Projekten mit dem Thema KI-Assistent. Auf der Entwicklerkonferenz I/O 2025 demonstrierte der Tech-Riese unter anderem die neuesten Fortschritte bei Project Astra. Die revolutionärste Neuerung: Astra kann jetzt proaktiv handeln. Statt nur auf direkte Befehle zu reagieren, beobachtet der Assistent kontinuierlich seine Umgebung und entscheidet selbstständig, wann er eingreifen sollte. Das erstmals im Dezember 2024 vorgestellte Project Mariner wiederum umfasst jetzt ein System von Agenten, die bis zu zehn verschiedene Aufgaben gleichzeitig erledigen können. Sie sind unter anderem in der Lage, Informationen nachzuschlagen, Buchungen vorzunehmen oder Einkäufe zu tätigen – und alles zur gleichen Zeit. In einer Demo zeigte Google auf der I/O etwa, wie ein einfacher Befehl wie “Plane einen Wochenendausflug nach Berlin” zu einer Kaskade von Aktionen führte: Der Agent recherchierte daraufhin Flüge, Hotels und Aktivitäten und präsentierte einen vollständigen Reiseplan – alles ohne weitere Nutzerinteraktion. Ähnlich wie bei den anderen Tools gilt bei solchen Schritten das Prinzip „Human in the Loop“ (HITL): Die Agenten erklären ihre Aktionen, fragen bei wichtigen Entscheidungen nach und können jederzeit vom Nutzer unterbrochen werden. On Device AI oder Cloud AI – oder beides? Während Cloud AI eine weitere KI-Verbreitung und – bei guter Konnektivität – eine bessere -Performance verspricht, setzen Hardwarehersteller wie Apple, Samsung oder Qualcomm auf „On Device AI“, um sich zu differenzieren und Anreize für den Kauf neuer, hochwertiger Geräte zu schaffen. So gab Samsung bei der Vorstellung seines neuen Smartphone-Flaggschiffs Galaxy S25 stolz bekannt, dass entsprechende Features im Vergleich zum Vorgänger fast verdoppelt wurden. Als Beispiel dafür nannten die Koreaner etwa die Möglichkeit, freihändig via Sprachbefehl Einstellungen wie den Dark Mode zu aktivieren. Gleichzeitig lässt sich über die Funktionstaste Googles Gemini aktivieren, um die Apps von Samsung und Google zu nutzen, ohne sie einzeln anwählen zu müssen. Auch einige Apps von Drittanbietern wie Spotify und WhatsApp lassen sich so ansteuern. Auch Qualcomm, das mit seinem Chipsatz Snapdragon 8 Elite (beziehungsweise der darin verbauten Hexagon NPU) die erforderliche KI-Rechenleistung für Highend-Smartphones wie das S25 liefert, treibt den Trend zur On-Device-KI voran. So stellt das Unternehmen auf seinem AI Hub eine Vielzahl von Small Language Models (SLMs) bereit. Die Sprachmodelle werden dabei zwar in der Cloud trainiert, das Inferencing findet jedoch auf dem Gerät statt. Und Apple? Der iPhone-Hersteller hinkt im Bereich KI-Agenten weit hinterher, obwohl die ursprüngliche Siri-App 2014 vor dem Kauf durch Apple schon ziemlich weit war und etwa ein Abendessen reservieren, ein Kino finden oder ein Taxi rufen konnte. Nach dem Tod von Steve Jobs sei es dann dem Entwickler-Team schwer gefallen, Softwarechef Craig Federighi davon zu überzeugen, KI ernstzunehmen, berichtet Bloomberg unter Berufung auf informierte Kreise und zitiert einen Insider: „Als ChatGPT im November 2022 öffentlich vorgestellt wurde, existierte Apple Intelligence noch nicht mal als Idee, obwohl es kein Geheimnis war, was OpenAI da machte.” Mittlerweile arbeitet Apple zwar an „LLM Siri“, aber der für 2025 anvisierte Launch verzögert sich aus technischen Gründen weiter. Das größte Problem ist dabei laut Bloomberg, dass Apple die Infrastruktur von Siri in zwei Hälften teilen musste, um die neuen Funktionen so schnell wie möglich auf den Markt zu bringen. Dabei wurde der alte Code für alte Funktionen (zum Beispiel einen Alarm einstellen) und der neue Code für Anfragen verwendet, die auf persönliche Daten zurückgreifen. Dieser Kniff habe jedoch Integrationsprobleme verursacht, die zu Verzögerungen führten. Wie viel Personalisierung braucht es? Um einen Kontext bei manchen Tasks herzustellen, ist es natürlich von Vorteil, wenn die Agenten persönliches Wissen über den Nutzer, etwa Geschlecht, Alter, aber auch Dinge wie etwa Stand- und Wohnort oder kulinarische Vorlieben mit einbeziehen können. Klassisches (Marketing-)Beispiel ist ein Szenario, in dem ein Nutzer bei der Fahrt nach Hause noch etwas essen möchte. Er bittet den KI-Assistenten entsprechend, ihm ein Restaurant herauszusuchen und einen Tisch zu reservieren. Wenn es darum geht, ein Lokal zu finden, das zu den Ernährungsgewohnheiten des Nutzers passt und auf der Strecke liegt, sind klassische Datensammler wie Google – Stichwort Google Maps – klar im Vorteil. Allerdings ist auch ein Device wie das Smartphone als ständiger Begleiter in der Lage, viele persönliche Daten des Nutzers zu sammeln. Gleichzeitig dürfte hier auch die Hemmschwelle nicht so hoch sein, Informationen zu teilen. Dass solch ein persönlicher Knowledge Graph keine Fiktion ist, belegen Ankündigungen von Unternehmen wie OPPO. Der Smartphone-Hersteller gab unlängst bekannt, dass er ein neues System für das Wissen von Nutzer entwickelt, das als zentraler Speicher für die Daten der Anwender dient. „Das System ist darauf ausgelegt, aus Aktivitäten, Interessen, Daten und Erinnerungen der Nutzer zu lernen und sich anzupassen. Dadurch sollen hochgradig personalisierte KI-Erlebnisse möglich und so Fortschritte auf dem Weg zu einer Zukunftsvision von intelligenten, KI-gesteuerten Betriebssystemen erzielt werden”, heißt es in der Ankündigung. Samsung wiederum hat bereits 2024 mit der Übernahme von Oxford Semantic die Grundlage für einen solchen Knowledge Graph geschaffen und nun in seine Galaxy-S25-Familie integriert. „RDFox ist die Technologie hinter der Personal Data Engine von Samsung, die hyperpersonalisierte Benutzererlebnisse schafft und gleichzeitig den Datenschutz und die Sicherheit der Daten auf dem Gerät gewährleistet“, gab Oxford Semantic bei der Vorstellung des neuen Samsung-Flaggschiffs bekannt. Durch die Verwendung von Knowledge-Graph-Technologie, um Daten zu integrieren und zu verknüpfen, verbessere RDFox das Verständnis dafür, wie Menschen ein Produkt oder eine Dienstleistung nutzen, und ermögliche es, entsprechende Informationen schnell abzurufen und Empfehlungen auszusprechen. Thema mit Variationen Wird so ein persönlicher Knowledge Graph einmal in Betrieb genommen, fangen die Probleme erst an: Um Missbrauch zu verhindern, muss er stark verschlüsselt in einer Secure Enclave aufbewahrt werden. Im Fall des Galaxy S25 werden sie beispielsweise in Samsungs Knox Vault gespeichert und durch das Blockchain-basierte Sicherheitssystem Knox Matrix geschützt. Gleichzeitig ergeben sich aber noch zahlreiche weitere Fragen, die teilweise noch beantwortet werden müssen, etwa: Inwieweit werden diese Informationen bei einem Gerätewechsel weitergegeben? Welche Szenarien gibt es beim Wechsel auf das Nachfolgemodell, ein Modell des gleichen Herstellers, ein Modell mit gleichem Betriebssystem oder gar ein anderes Betriebssystem? Gibt es für Migrations- oder Verlustszenarien ein Backup in der Cloud? Teilen sich mehrere Geräte – etwa Tablet und Smartphone – das Wissen? Gibt es bei mehreren Agenten einen geräteübergreifenden Knowledge Graph oder mehrere getrennte? Gibt es für verschiedene Personas (etwa privat oder beruflich) unterschiedliche Datenbanken? Aber auch eher technische Aspekte müssen umgesetzt werden, wenn die KI ständig zuhört – etwa das Energiemanagement. Eine Option ist, mehrere KIs zu verwenden: Ein stromsparendes KI-Modul wartet im Hintergrund auf Kommandos und übergibt diese dann an andere, spezialisierte KIs. Mögliche App-Implikationen Wenn die KI-Agenten primär via API auf Funktionen und Dienste zugreifen, hat das natürlich auch Konsequenzen für das User Interface von Apps. „Apps werden nicht bedeutungslos, aber anders“, kommentiert das Fraunhofer-Institut für Experimentelles Software Engineering (IESE) die Entwicklung in einem Blogbeitag. Ein zukunftsfähiges Softwarekonzept müsse folglich so gestaltet sein, dass es auch dann funktioniert, wenn Nutzerinnen und Nutzer die Oberfläche der Software gar nicht sehen. „Die Fähigkeit, in verschiedenen Kontexten und über verschiedene Schnittstellen hinweg nahtlos zu funktionieren, wird zum entscheidenden Faktor für den Erfolg“, konstatiert Fraunhofer IESE. „Die Herausforderung und die Kunst der nativen App-Entwicklung werden sein, diese Entwicklungen nicht als Konkurrenz, sondern als Chance zu sehen“, ergänzt Mark Zimmermann, Leiter des CoE für mobile Anwendungsentwicklung bei der EnBW. „Erfolgreiche Apps der Zukunft werden nicht nur auf klassische UI-Elemente setzen, sondern sich intelligent mit KI-gesteuerten Systemen verzahnen.“ Mobility-Experte Mark Zimmermann rät App-Entwicklern, sich frühzeitig mit dem Trend auseinanderzusetzen. EnBW Der Schlüssel zum Erfolg liege dabei in der Integration, so Zimmermann: „Kunden müssen dort abgeholt werden, wo sie es erwarten – sei es durch Sprachinteraktion, multimodale Schnittstellen oder direkt in bestehenden Ökosystemen. Es geht also nicht um das Ende des UI, sondern um dessen Transformation. Wer sich frühzeitig mit diesen Techniken auseinandersetzt und sie integriert, wird langfristig im Wettbewerb bestehen.“