Computerhaus Quickborn

Wird Windows 12 zum sprachgesteuerten KI-Betriebssystem?​

Wird Windows 12 das erste Betriebssystem, dass mit kompletter KI-Integration und Sprachsteuerung konzipiert wurde?MacroEcon – shutterstock.com Auch wenn Windows 12 wohl nicht mehr in diesem Jahr kommt, soll Microsoft bereits fleißig an der nächsten Version seines Betriebssystems arbeiten. In einem kürzlich veröffentlichten Video-Interview gab Pavan Davuluri, Corporate Vice President, Windows + Devices, einen Einblick in die Zukunft der Plattform. Er gehe davon aus, „dass Computer immer allgegenwärtiger und omnipräsenter werden“, erklärte der seit einem Jahr amtierende Windows-Chef. Hierbei würden sie „weiterhin verschiedene Formfaktoren abdecken und im Laufe der Zeit sicherlich multimodaler werden.“ Seiner Ansicht nach werde die Sprache als Eingabemedium weiter an Bedeutung gewinnen. Grundsätzlich gehe er davon aus, dass das Konzept des Computers, der den Bildschirm „sehen“ und kontextuell verstehen kann, eine wichtige Modalität in der Zukunft sei. Der Screen liest mit und versteht Davuluri bestätigte auch, dass sich Windows im Zuge des Vormarsches der KI erheblich verändern werde. Die nächste Version des Betriebssystems soll umgebungsbezogener sowie multimodaler werden. Dafür müsse es aber unter anderem in der Lage sein, den Inhalt von Bildschirmen seiner Nutzenden jederzeit zu verstehen. Dies ermögliche kontextbezogene Funktionen, die bisher nicht umsetzbar seien. Der Windows-Chef führte weiter aus, dass User künftig mit ihrem Computer sprechen könnten, während sie schreiben, zeichnen oder mit einer anderen Person interagieren. Der Computer werde dabei in der Lage sein, die „Absicht, mit ihm zu interagieren, semantisch verstehen“ zu können. Bald drei Eingabemethoden? Die Redmonder wollen anscheinend Sprachsteuerung als zusätzliche Eingabemethode hinzufügen. Nutzende sollen in natürlicher Sprache mit Windows kommunizieren können, während das Betriebssystem Ihre Absicht anhand der aktuellen Bildschirmanzeige verstehen soll. Anstelle zweier primärer Eingabemethoden gäbe es dann drei: Tastatur, Touchscreen/Maus und Sprache. Das erste KI-Betriebssystem? Davuluri deutete auch an, dass Windows dank Agentic AI wahrscheinlich sein Aussehen verändern werde. Als Gründe hierfür nannte er unter anderem die erwartete Veränderung der Benutzeroberflächen in den nächsten fünf Jahren. „Das Betriebssystem wird zunehmend agentenbasiert und multimodal… das ist für uns ein Bereich, in den wir enorm investieren und der sich stark verändert“, erklärte der Windows-Chef. Davuluri hob zudem die Cloud als Wegbereiter für diese zukünftigen Erfahrungen hervor: „Computing wird allgegenwärtig sein, da Windows-Erfahrungen eine Kombination aus lokalen und Cloud-basierten Funktionen nutzen werden. Ich denke, es ist unsere Verantwortung, dafür zu sorgen, dass diese für unsere Kunden nahtlos funktionieren.“ Es bleibt abzuwarten, wie sehr sich Betriebssysteme optisch verändern – und wie stark sie sich von bereits existierenden KI-Assistenten unterscheiden werden. Programme wie Copilot unter Windows, Gemini unter Android oder Siri auf dem Mac sind momentan in erster Linie als Apps auf bestehenden Betriebssystemplattformen vorhanden. Sie sind hierbei als Overlays oder schwebende App-Fenster über dem Betriebssystem konzipiert. Ein System, dass von vornherein mit KI verknüpft ist, existiert noch nicht. 

Wird Windows 12 zum sprachgesteuerten KI-Betriebssystem?​ Wird Windows 12 das erste Betriebssystem, dass mit kompletter KI-Integration und Sprachsteuerung konzipiert wurde?MacroEcon – shutterstock.com Auch wenn Windows 12 wohl nicht mehr in diesem Jahr kommt, soll Microsoft bereits fleißig an der nächsten Version seines Betriebssystems arbeiten. In einem kürzlich veröffentlichten Video-Interview gab Pavan Davuluri, Corporate Vice President, Windows + Devices, einen Einblick in die Zukunft der Plattform. Er gehe davon aus, „dass Computer immer allgegenwärtiger und omnipräsenter werden“, erklärte der seit einem Jahr amtierende Windows-Chef. Hierbei würden sie „weiterhin verschiedene Formfaktoren abdecken und im Laufe der Zeit sicherlich multimodaler werden.“ Seiner Ansicht nach werde die Sprache als Eingabemedium weiter an Bedeutung gewinnen. Grundsätzlich gehe er davon aus, dass das Konzept des Computers, der den Bildschirm „sehen“ und kontextuell verstehen kann, eine wichtige Modalität in der Zukunft sei. Der Screen liest mit und versteht Davuluri bestätigte auch, dass sich Windows im Zuge des Vormarsches der KI erheblich verändern werde. Die nächste Version des Betriebssystems soll umgebungsbezogener sowie multimodaler werden. Dafür müsse es aber unter anderem in der Lage sein, den Inhalt von Bildschirmen seiner Nutzenden jederzeit zu verstehen. Dies ermögliche kontextbezogene Funktionen, die bisher nicht umsetzbar seien. Der Windows-Chef führte weiter aus, dass User künftig mit ihrem Computer sprechen könnten, während sie schreiben, zeichnen oder mit einer anderen Person interagieren. Der Computer werde dabei in der Lage sein, die „Absicht, mit ihm zu interagieren, semantisch verstehen“ zu können. Bald drei Eingabemethoden? Die Redmonder wollen anscheinend Sprachsteuerung als zusätzliche Eingabemethode hinzufügen. Nutzende sollen in natürlicher Sprache mit Windows kommunizieren können, während das Betriebssystem Ihre Absicht anhand der aktuellen Bildschirmanzeige verstehen soll. Anstelle zweier primärer Eingabemethoden gäbe es dann drei: Tastatur, Touchscreen/Maus und Sprache. Das erste KI-Betriebssystem? Davuluri deutete auch an, dass Windows dank Agentic AI wahrscheinlich sein Aussehen verändern werde. Als Gründe hierfür nannte er unter anderem die erwartete Veränderung der Benutzeroberflächen in den nächsten fünf Jahren. „Das Betriebssystem wird zunehmend agentenbasiert und multimodal… das ist für uns ein Bereich, in den wir enorm investieren und der sich stark verändert“, erklärte der Windows-Chef. Davuluri hob zudem die Cloud als Wegbereiter für diese zukünftigen Erfahrungen hervor: „Computing wird allgegenwärtig sein, da Windows-Erfahrungen eine Kombination aus lokalen und Cloud-basierten Funktionen nutzen werden. Ich denke, es ist unsere Verantwortung, dafür zu sorgen, dass diese für unsere Kunden nahtlos funktionieren.“ Es bleibt abzuwarten, wie sehr sich Betriebssysteme optisch verändern – und wie stark sie sich von bereits existierenden KI-Assistenten unterscheiden werden. Programme wie Copilot unter Windows, Gemini unter Android oder Siri auf dem Mac sind momentan in erster Linie als Apps auf bestehenden Betriebssystemplattformen vorhanden. Sie sind hierbei als Overlays oder schwebende App-Fenster über dem Betriebssystem konzipiert. Ein System, dass von vornherein mit KI verknüpft ist, existiert noch nicht.

Wird Windows 12 das erste Betriebssystem, dass mit kompletter KI-Integration und Sprachsteuerung konzipiert wurde?MacroEcon – shutterstock.com Auch wenn Windows 12 wohl nicht mehr in diesem Jahr kommt, soll Microsoft bereits fleißig an der nächsten Version seines Betriebssystems arbeiten. In einem kürzlich veröffentlichten Video-Interview gab Pavan Davuluri, Corporate Vice President, Windows + Devices, einen Einblick in die Zukunft der Plattform. Er gehe davon aus, „dass Computer immer allgegenwärtiger und omnipräsenter werden“, erklärte der seit einem Jahr amtierende Windows-Chef. Hierbei würden sie „weiterhin verschiedene Formfaktoren abdecken und im Laufe der Zeit sicherlich multimodaler werden.“ Seiner Ansicht nach werde die Sprache als Eingabemedium weiter an Bedeutung gewinnen. Grundsätzlich gehe er davon aus, dass das Konzept des Computers, der den Bildschirm „sehen“ und kontextuell verstehen kann, eine wichtige Modalität in der Zukunft sei. Der Screen liest mit und versteht Davuluri bestätigte auch, dass sich Windows im Zuge des Vormarsches der KI erheblich verändern werde. Die nächste Version des Betriebssystems soll umgebungsbezogener sowie multimodaler werden. Dafür müsse es aber unter anderem in der Lage sein, den Inhalt von Bildschirmen seiner Nutzenden jederzeit zu verstehen. Dies ermögliche kontextbezogene Funktionen, die bisher nicht umsetzbar seien. Der Windows-Chef führte weiter aus, dass User künftig mit ihrem Computer sprechen könnten, während sie schreiben, zeichnen oder mit einer anderen Person interagieren. Der Computer werde dabei in der Lage sein, die „Absicht, mit ihm zu interagieren, semantisch verstehen“ zu können. Bald drei Eingabemethoden? Die Redmonder wollen anscheinend Sprachsteuerung als zusätzliche Eingabemethode hinzufügen. Nutzende sollen in natürlicher Sprache mit Windows kommunizieren können, während das Betriebssystem Ihre Absicht anhand der aktuellen Bildschirmanzeige verstehen soll. Anstelle zweier primärer Eingabemethoden gäbe es dann drei: Tastatur, Touchscreen/Maus und Sprache. Das erste KI-Betriebssystem? Davuluri deutete auch an, dass Windows dank Agentic AI wahrscheinlich sein Aussehen verändern werde. Als Gründe hierfür nannte er unter anderem die erwartete Veränderung der Benutzeroberflächen in den nächsten fünf Jahren. „Das Betriebssystem wird zunehmend agentenbasiert und multimodal… das ist für uns ein Bereich, in den wir enorm investieren und der sich stark verändert“, erklärte der Windows-Chef. Davuluri hob zudem die Cloud als Wegbereiter für diese zukünftigen Erfahrungen hervor: „Computing wird allgegenwärtig sein, da Windows-Erfahrungen eine Kombination aus lokalen und Cloud-basierten Funktionen nutzen werden. Ich denke, es ist unsere Verantwortung, dafür zu sorgen, dass diese für unsere Kunden nahtlos funktionieren.“ Es bleibt abzuwarten, wie sehr sich Betriebssysteme optisch verändern – und wie stark sie sich von bereits existierenden KI-Assistenten unterscheiden werden. Programme wie Copilot unter Windows, Gemini unter Android oder Siri auf dem Mac sind momentan in erster Linie als Apps auf bestehenden Betriebssystemplattformen vorhanden. Sie sind hierbei als Overlays oder schwebende App-Fenster über dem Betriebssystem konzipiert. Ein System, dass von vornherein mit KI verknüpft ist, existiert noch nicht. 

Nach oben scrollen
×