Computerhaus Quickborn

Mai 2025

Microsoft Build 2025: Vision des Open Agentic Web​

Allgemein

Microsoft-Chef Satya Nadella präsentierte auf der Build 2025 seine Vision eines Internets der KI-Agenten. Microsoft Auf der hauseigenen Konferenz Build 2025 präsentierte Microsoft-Chef Satya Nadella seine Vorstellungen des Internets der Zukunft. Dies ist eine Welt, in der Agenten in individuellen, organisatorischen, Team- und End-to-End-Geschäftskontexten agieren. Dabei treffen die KI-Agenten im offenen agentenbasierten Web (Open Agentic Web) Entscheidungen und führen Aufgaben im Namen von Anwendern oder Unternehmen aus. Nur Visionen eines abgehobenen CEOs? Nein, denn mit den Plattformen, Produkten und der Infrastruktur des Konzernes plant Nadella, diese Zukunftsidee Realität werden zu lassen. Dazu will Microsoft Entwicklern neue Modelle und Coding-Agenten an die Hand geben sowie neue Agenten der Enterprise-Klasse bereitstellen. KI-Protokoll für das Web Als Plattformen für die Entwicklung dieser Zukunft sieht der Microsoft-Boss Azure AI Foundry, GitHub und Windows. Darüber hinaus setzt der Konzern dazu auf offene Protokolle wie das Model Context Protocol (MCP) oder das neu angekündigte NLWeb – Natural Language Web. Letztes soll im agentischen Web eine ähnliche Rolle spielen wie HTML im heutigen Internet. NLWeb ermöglicht es laut Microsoft Websites, mit nur wenigen Codezeilen und einem frei wählbaren Modell eine natürliche Sprachschnittstelle bereitzustellen. Produkt-News von der Build 2025 Das Open Agentic Web im Detail. Microsoft Neben dem Support für MCP in einer Vielzahl von Produkten – darunter GitHub, Copilot Studio, Dynamics 365, Azure AI Foundry, Semantic Kernel und Windows 11 – sowie dem neuen Protokoll NLWeb, kündigte Microsoft noch eine Vielzahl an Neuerungen rund um das Thema KI an: GitHub Copilot Coding-Agent GitHub Copilot entwickelt sich, so Microsoft, von einem Assistenten im Editor zu einem agentischen KI-Partner mit einem asynchronen Coding-Agenten, der in die GitHub-Plattform integriert ist.  Windows AI Foundry & Foundry Local  Windows AI Foundry bietet eine einheitliche und zuverlässige Plattform, die den gesamten Lebenszyklus der KI-Entwicklung – vom Training bis hin zur Inferenz – unterstützt. Dank einfacher Modell-APIs für Aufgaben in den Bereichen Vision und Sprache können Entwickler die Open-Source-LLMs über Foundry Local verwalten und ausführen. Ebenso sei es möglich, eigene Modelle zu konvertieren, feinzujustieren und flexibel auf Client- und Cloud-Umgebungen bereitzustellen. Azure-AI-Foundry-Modelle und neue Tools Azure AI Foundry betrachtet Microsoft als zentrale Plattform für Entwickler zur Konzeption, Anpassung und Verwaltung von KI-Anwendungen und -Agenten. Neu im Ökosystem sind die Grok-3- und Grok-3-Mini-Modelle von xAI sowie neue Werkzeuge wie das Model Leaderboard und der Model Router, die bei der Auswahl geeigneter Modelle unterstützen.  Azure AI Foundry Agent Service  Zu den neuen Funktionen gehören unter anderem Multi-Agent-Workflows. Zudem gibt es jetzt eine Integration von SharePoint-Tools. Eine erweiterte Interoperabilität soll die Unterstützung offener Agentenprotokolle (A2A und MCP) sicherstellen. Anwender erhalten die Möglichkeit für Kundinnen und Kunden, eigene LLMs von beliebigen Cloud-Anbietern einzubringen. Ferner verspricht Microsoft eine integrierte Observability für Metriken zu Performance, Qualität, Kosten und Sicherheit.  Microsoft Entra Agent ID Durch Microsoft Entra Agent ID erhalten Agenten, die in Microsoft Copilot Studio oder Azure AI Foundry erstellt werden, automatisch eine eindeutige Identität im Entra-Verzeichnis. Auf diese Weise könnten Unternehmen ihre Agenten von Anfang an sicher verwalten und einer unkontrollierten Ausbreitung („Agent Sprawl“) entgegenwirken, die Sicherheits- oder Kontroll-Lücken zur Folge haben könnte. Multi-Agenten-Orchestrierung in Copilot Studio Die neue Multi-Agenten-Orchestrierung in Copilot Studio ermöglicht es, mehrere Agenten miteinander zu verknüpfen. So können die Agenten ihre Fähigkeiten kombinieren und gemeinsam umfangreichere sowie komplexere Aufgaben bewältigen. Microsoft Discovery Die Plattform soll es Forschern ermöglichen, den Entwicklungs- und Forschungsprozess durch agentische KI neu zu gestalten. Dies, so Microsoft, verkürze die Markteinführungszeit neuer Produkte und beschleunige sowie erweitere den gesamten wissenschaftlichen Entdeckungsprozess. 

Microsoft Build 2025: Vision des Open Agentic Web​ Microsoft-Chef Satya Nadella präsentierte auf der Build 2025 seine Vision eines Internets der KI-Agenten.
Microsoft

Auf der hauseigenen Konferenz Build 2025 präsentierte Microsoft-Chef Satya Nadella seine Vorstellungen des Internets der Zukunft. Dies ist eine Welt, in der Agenten in individuellen, organisatorischen, Team- und End-to-End-Geschäftskontexten agieren. Dabei treffen die KI-Agenten im offenen agentenbasierten Web (Open Agentic Web) Entscheidungen und führen Aufgaben im Namen von Anwendern oder Unternehmen aus.

Nur Visionen eines abgehobenen CEOs? Nein, denn mit den Plattformen, Produkten und der Infrastruktur des Konzernes plant Nadella, diese Zukunftsidee Realität werden zu lassen. Dazu will Microsoft Entwicklern neue Modelle und Coding-Agenten an die Hand geben sowie neue Agenten der Enterprise-Klasse bereitstellen.

KI-Protokoll für das Web

Als Plattformen für die Entwicklung dieser Zukunft sieht der Microsoft-Boss Azure AI Foundry, GitHub und Windows. Darüber hinaus setzt der Konzern dazu auf offene Protokolle wie das Model Context Protocol (MCP) oder das neu angekündigte NLWeb – Natural Language Web.

Letztes soll im agentischen Web eine ähnliche Rolle spielen wie HTML im heutigen Internet. NLWeb ermöglicht es laut Microsoft Websites, mit nur wenigen Codezeilen und einem frei wählbaren Modell eine natürliche Sprachschnittstelle bereitzustellen.

Produkt-News von der Build 2025

Das Open Agentic Web im Detail.
Microsoft

Neben dem Support für MCP in einer Vielzahl von Produkten – darunter GitHub, Copilot Studio, Dynamics 365, Azure AI Foundry, Semantic Kernel und Windows 11 – sowie dem neuen Protokoll NLWeb, kündigte Microsoft noch eine Vielzahl an Neuerungen rund um das Thema KI an:

GitHub Copilot Coding-Agent

GitHub Copilot entwickelt sich, so Microsoft, von einem Assistenten im Editor zu einem agentischen KI-Partner mit einem asynchronen Coding-Agenten, der in die GitHub-Plattform integriert ist. 

Windows AI Foundry & Foundry Local 

Windows AI Foundry bietet eine einheitliche und zuverlässige Plattform, die den gesamten Lebenszyklus der KI-Entwicklung – vom Training bis hin zur Inferenz – unterstützt. Dank einfacher Modell-APIs für Aufgaben in den Bereichen Vision und Sprache können Entwickler die Open-Source-LLMs über Foundry Local verwalten und ausführen. Ebenso sei es möglich, eigene Modelle zu konvertieren, feinzujustieren und flexibel auf Client- und Cloud-Umgebungen bereitzustellen.

Azure-AI-Foundry-Modelle und neue Tools

Azure AI Foundry betrachtet Microsoft als zentrale Plattform für Entwickler zur Konzeption, Anpassung und Verwaltung von KI-Anwendungen und -Agenten. Neu im Ökosystem sind die Grok-3- und Grok-3-Mini-Modelle von xAI sowie neue Werkzeuge wie das Model Leaderboard und der Model Router, die bei der Auswahl geeigneter Modelle unterstützen. 

Azure AI Foundry Agent Service 

Zu den neuen Funktionen gehören unter anderem Multi-Agent-Workflows. Zudem gibt es jetzt eine Integration von SharePoint-Tools. Eine erweiterte Interoperabilität soll die Unterstützung offener Agentenprotokolle (A2A und MCP) sicherstellen. Anwender erhalten die Möglichkeit für Kundinnen und Kunden, eigene LLMs von beliebigen Cloud-Anbietern einzubringen. Ferner verspricht Microsoft eine integrierte Observability für Metriken zu Performance, Qualität, Kosten und Sicherheit. 

Microsoft Entra Agent ID

Durch Microsoft Entra Agent ID erhalten Agenten, die in Microsoft Copilot Studio oder Azure AI Foundry erstellt werden, automatisch eine eindeutige Identität im Entra-Verzeichnis. Auf diese Weise könnten Unternehmen ihre Agenten von Anfang an sicher verwalten und einer unkontrollierten Ausbreitung („Agent Sprawl“) entgegenwirken, die Sicherheits- oder Kontroll-Lücken zur Folge haben könnte.

Multi-Agenten-Orchestrierung in Copilot Studio

Die neue Multi-Agenten-Orchestrierung in Copilot Studio ermöglicht es, mehrere Agenten miteinander zu verknüpfen. So können die Agenten ihre Fähigkeiten kombinieren und gemeinsam umfangreichere sowie komplexere Aufgaben bewältigen.

Microsoft Discovery

Die Plattform soll es Forschern ermöglichen, den Entwicklungs- und Forschungsprozess durch agentische KI neu zu gestalten. Dies, so Microsoft, verkürze die Markteinführungszeit neuer Produkte und beschleunige sowie erweitere den gesamten wissenschaftlichen Entdeckungsprozess.

Microsoft Build 2025: Vision des Open Agentic Web​ Weiterlesen »

Google I/O 2025: Die wichtigsten Neuvorstellungen​

Allgemein

Sundar Pichai, CEO von Alphabet und Google, präsentierte in seiner Keynote eine ganze Reihe von Neuigkeiten.Google Google hat auf seiner jährlichen Entwicklerkonferenz bahnbrechende KI-Innovationen präsentiert, die weit über bloße Produkt-Updates hinausgehen. Sie skizzieren vielmehr eine Zukunft, in der künstliche Intelligenz nicht mehr nur ein Werkzeug ist, sondern ein allgegenwärtiger, proaktiver Begleiter. Hier die wichtigsten Neuvorstellungen.  Project Astra: Der universelle KI-Assistent  Project Astra, seit seiner ersten Vorstellung auf der Google I/O 2024 kontinuierlich weiterentwickelt, verkörpert Googles Vision eines universellen KI-Assistenten. Die revolutionärste Neuerung: Astra kann jetzt proaktiv handeln. Statt nur auf direkte Befehle zu reagieren, beobachtet der Assistent kontinuierlich seine Umgebung und entscheidet selbstständig, wann er eingreifen sollte.  “Astra kann basierend auf Ereignissen, die es sieht, selbst entscheiden, wann es sprechen möchte”, erklärt Greg Wayne, Forschungsdirektor bei Google DeepMind. “Es beobachtet fortlaufend und kann dann kommentieren.” Diese Fähigkeit markiert einen fundamentalen Wandel in der Mensch-KI-Interaktion.  Die praktischen Anwendungsbeispiele sind vielfältig: Sitzen Schüler an ihren Hausaufgaben, könnte Astra etwa einen Fehler bemerken und darauf hinweisen. Ein anderes Szenario wäre, dass der KI-Assistent intermittierend Fastende kurz vor Ende der Fastenzeit Bescheid gibt – oder vorsichtig nachfragt, ob sie wirklich außerhalb ihres Essenszeitfensters etwas zu sich nehmen wollen.  DeepMind-CEO Demis Hassabis nennt diese Fähigkeit “reading the room” – das Gespür für die Situation. Gleichzeitig betont er, wie unglaublich schwierig es sei, einem Computer beizubringen, wann er eingreifen sollte, welchen Ton er anschlagen sollte und wann er einfach still sein sollte.  Astra kann jetzt auch auf Informationen aus dem Web und von anderen Google-Produkten zugreifen sowie Android-Geräte bedienen. In einer beeindruckenden Demo zeigte etwa Bibo Xiu, Produktmanagerin im DeepMind-Team, wie Astra selbstständig Bluetooth-Kopfhörer mit einem Smartphone koppelte.  Gemini 2.5: Das neue Flaggschiff-Modell  Gemini 2.5 steht im Zentrum von Googles KI-Strategie und hat bedeutende Upgrades erhalten. Die Familie umfasst zwei Hauptvarianten:   Gemini 2.5 Pro, das Flaggschiff-Modell für komplexe Aufgaben, und   Gemini 2.5 Flash, die effizientere und schnellere Version für alltägliche Anwendungen.  Die spannendste Neuerung ist “Deep Think” – ein experimenteller, erweiterter Denkmodus für 2.5 Pro. Diese Funktion nutzt neue Forschungstechniken, die es dem Modell ermöglichen, mehrere Hypothesen zu betrachten, bevor es antwortet. Die Ergebnisse sind beeindruckend: Deep Think erzielt hervorragende Werte bei den USAMO 2025 Mathematik-Benchmarks, führt bei LiveCodeBench für Wettbewerbs-Coding und erreicht 84 Prozent beim MMMU-Test für multimodales Reasoning.  Gemini 2.5 Flash wiederum wurde als effizientes “Arbeitspferd” optimiert und bietet jetzt laut Google bessere Leistung bei 20 bis 30 Prozent geringerer Token-Nutzung. Flash ist bereits in der Gemini App für alle Nutzer verfügbar und wird ab Juni allgemein für Produktionsumgebungen freigegeben.  Beide Modelle erhalten zudem neue Fähigkeiten: Die Live API führt audiovisuelle Eingaben und native Audio-Ausgabe ein, was natürlichere Konversationen ermöglicht. Das Modell kann seinen Tonfall, Akzent und Sprechstil anpassen – beispielsweise kann der Nutzer es anweisen, eine dramatische Stimme zu verwenden, wenn es eine Geschichte erzählt.  Als weitere Neuerung unterstützen die Text-to-Speech-Fähigkeiten jetzt erstmals mehrere Sprecher und funktionieren in über 24 Sprachen mit nahtlosem Wechsel zwischen ihnen. Zudem wurden die Sicherheitsmaßnahmen gegen indirekte Prompt-Injections erheblich verstärkt.  KI-Integration in Google-Dienste  Auch in bestehenden Diensten von Google hält KI zunehmend Einzug. So wird nun der KI-Modus in Google Search für alle US-Nutzer ausgerollt, mit neuen Funktionen, die zuerst dort debütieren, bevor sie in die reguläre Suche übernommen werden.  Besonders spannend ist “Deep Search” – eine Funktion, die komplexe Recherchen übernimmt und dabei mehrere Quellen analysiert, vergleicht und zusammenführt. “Search Live” wiederum ermöglicht Echtzeit-Informationssuche: Zeigt man etwa mit der Smartphone-Kamera auf ein Gebäude, liefert die Google-Suche sofort Informationen zu dessen Geschichte, Architekturstil und Öffnungszeiten.  Auch Gmail profitiert von KI-Upgrades. Die personalisierten Smart Replies berücksichtigen nun den persönlichen Schreibstil des Nutzers, frühere Interaktionen und sogar seinen Kalender. “Haben Sie dort einen wichtigen Termin um 15 Uhr eingetragen, könnte die Smart Reply vorschlagen, das Meeting auf 16 Uhr zu verschieben, statt es einfach anzunehmen”, erklärte ein Google-Vertreter.  “Thought Summaries” bieten Einblick in die “Denkprozesse” der KI und machen nachvollziehbar, wie sie zu bestimmten Schlussfolgerungen kommt. “Thinking Budgets” ermöglichen Entwicklern, die “Denkzeit” ihrer KI-Anwendungen zu verwalten und zu optimieren.  Kreative KI-Tools für Medienproduktion  Mit einer Reihe neuer und verbesserter Tools revolutioniert Google außerdem die Art und Weise, wie Bilder, Videos und Musik erstellt werden. Das aufregendste neue Tool ist “Flow” – eine KI-App speziell für Filmemacher, die aus einfachen Textbeschreibungen komplexe Videoszenen generieren kann.  Selbst der renommierte Regisseur Darren Aronofsky (u.a. The Whale, Black Swan) nutzt bereits KI in seinen kreativen Prozessen, wie auf der Konferenz enthüllt wurde. Dies unterstreicht, dass diese Tools nicht nur für Amateure gedacht sind, sondern auch von Profis angenommen werden.  Ebenfalls vorgestellt wurde Imagen 4. Die neueste Version von Googles Bildgenerierungssystem soll nun neue Maßstäbe in Sachen Detailgenauigkeit und Realismus setzen. Ähnliche Fortschritte soll Veo 3 bei der Videogenerierung realisieren. Im Audiobereich sorgt Lyria 2 für Aufsehen – Googles Musikgenerierungssystem kann jetzt vollständige Musikstücke erzeugen und bestehende Musik bearbeiten.  Mit SynthID hat Google zudem ein System eingeführt, um KI-generierte Inhalte zu authentifizieren und kennzeichnen. Das Tool fügt dazu unsichtbare Wasserzeichen in generierte Medien ein, die später nachgewiesen werden können – ein wichtiger Schritt für Transparenz in einer Welt, in der die Unterscheidung zwischen menschlich und maschinell erstellten Inhalten zunehmend schwieriger wird.  Google Beam und XR-Technologien  Mit der Umbenennung von Project Starline zu Google Beam und der Vorstellung neuer XR-Technologien macht Google deutlich, dass immersive Erfahrungen ein zentraler Bestandteil seiner Zukunftsvision sind.  Google Beam, der Nachfolger des 2021 vorgestellten Project Starline, markiert einen bedeutenden Fortschritt in der Telepräsenz-Technologie. Die neue Version benötigt die Lösung laut Google weniger Platz, verbraucht weniger Energie und bietet dennoch die gleiche beeindruckende Präsenz-Erfahrung.  Beam ist Googles Beitrag zum Thema Telepräsenz. Die ersten kommerziellen Produkte sollen dabei in Kooperation mit HP auf den Markt kommen.Google LLC Besonders beeindruckend ist die Integration von Echtzeit-Sprachübersetzung in Google Meet. Diese Funktion übersetzt Gespräche simultan und zeigt Untertitel in der gewünschten Sprache an, während die Stimme des Sprechers in der Zielsprache synthetisiert wird.  Android XR wiederum dokumentiert Googles ambitionierten Vorstoß in die Welt der erweiterten Realität. Die Plattform bietet Entwicklern Tools, um immersive Anwendungen zu erstellen, die nahtlos zwischen Smartphones, Tablets und XR-Brillen funktionieren.  Der Prototyp Project Aura von Xreal, der in Zusammenarbeit mit Google entwickelt wurde, zeigt auf, wie die Zukunft von AR-Brillen aussehen könnte. Die Smart Glasses sind kaum von normalen Brillen zu unterscheiden, ein entscheidender Schritt für die soziale Akzeptanz solcher Technologien.  Die Integration von Gemini auf Headsets stellt einen weiteren Meilenstein dar. Der KI-Assistent kann nicht nur Sprachbefehle verarbeiten, sondern auch visuelle Informationen aus der Umgebung des Nutzers interpretieren.  Agentic AI: Die Zukunft der Automatisierung  “Agentic AI” – also KI-Systeme, die eigenständig Aufgaben planen und ausführen können – standen gleich im Mittelpunkt zahlreicher Ankündigungen, markieren sie doch einen Paradigmenwechsel in der Mensch-Maschine-Interaktion.  Erwähnenswert ist dabei insbesondere Project Mariner. Erstmals im Dezember 2024 vorgestellt, umfasst die Lösung jetzt ein System von Agenten, die bis zu zehn verschiedene Aufgaben gleichzeitig erledigen können. Sie sind unter anderem in der Lage, Informationen nachzuschlagen, Buchungen vorzunehmen oder Einkäufe zu tätigen – und alles zur gleichen Zeit.  Der Agent Mode geht noch weiter: Hier versteht die KI die Intention des Nutzers und wählt eigenständig den effizientesten Weg zur Erreichung des gewünschten Ziels. In einer Demo zeigte Google etwa, wie ein einfacher Befehl wie “Plane einen Wochenendausflug nach Berlin” zu einer Kaskade von Aktionen führte: Der Agent recherchierte daraufhin Flüge, Hotels und Aktivitäten und präsentierte einen vollständigen Reiseplan – alles ohne weitere Nutzerinteraktion.  Besonders revolutionär ist Agentic Checkout – eine Funktion, die das Online-Shopping-Erlebnis grundlegend verändern könnte. Der Agent kann den gesamten Checkout-Prozess übernehmen, die besten Angebote finden, Formulare ausfüllen und den Kauf abschließen – alles mit minimaler Nutzerinteraktion.  Google betont, dass Sicherheit und Verantwortung zentral für ihre Arbeit sind. Die Agenten erklären ihre Aktionen, fragen bei wichtigen Entscheidungen nach und können jederzeit vom Nutzer unterbrochen werden.  Wissenschaftliche KI-Anwendungen  Die vorgestellten KI-Forschungs-Apps decken ein breites Spektrum wissenschaftlicher Disziplinen ab. Diese spezialisierten Anwendungen kombinieren Geminis Verständnis wissenschaftlicher Literatur mit domänenspezifischen Modellen und Simulationsfähigkeiten.  Besonders beeindruckend war die Demonstration einer Anwendung für Proteinfaltung, die auf den Erkenntnissen von DeepMinds KI-System AlphaFold aufbaut. Die neue Version kann nicht nur die dreidimensionale Struktur von Proteinen vorhersagen, sondern auch deren Interaktionen mit anderen Molekülen simulieren – ein entscheidender Schritt für die Medikamentenentwicklung.  Der Jules Coding Assistant wiederum stellt einen Quantensprung für die KI-gestützte Softwareentwicklung dar. Anders als herkömmliche Code-Assistenten versteht Jules nicht nur Programmiersprachen, sondern auch die Intention hinter dem Code und den breiteren Kontext des Projekts.  Canvas, Googles kollaborative KI-Umgebung, soll die wissenschaftliche Zusammenarbeit auf ein neues Niveau heben. Die Plattform ermöglicht es Forschern, komplexe Daten zu visualisieren, Modelle zu entwickeln und Ergebnisse zu interpretieren – alles in einer gemeinsamen virtuellen Umgebung.  Ironwood und Project Mariner, zwei von Googles fortschrittlichsten Forschungsprototypen, kombinieren multimodale Verständnisfähigkeiten mit agentenbasiertem Handeln und können komplexe wissenschaftliche Workflows selbstständig planen und durchführen.  Zu Risiken und Nebenwirkungen…  Bei aller Euphorie ist eine kritische Betrachtung der neuen Lösungen unerlässlich. So darf man nicht vergessen, dass KI-Systeme trotz aller Fortschritte fehleranfällig bleiben. Sie können Fakten erfinden, Zusammenhänge falsch interpretieren oder in unerwarteten Situationen versagen. Die Demos auf der I/O fanden in kontrollierten Umgebungen statt – in der chaotischen Realität dürften die Ergebnisse weniger beeindruckend sein.  Datenschutz- und Sicherheitsaspekte werfen weitere Schatten. Je mehr Kontext KI-Systeme haben, desto besser funktionieren sie – aber desto mehr sensible Daten müssen sie verarbeiten. Wenn ein KI-Agent in meinem Namen handeln kann, welche Sicherheitsgarantien gibt es gegen Missbrauch oder Manipulation?  Die gesellschaftlichen Auswirkungen sind möglicherweise am schwierigsten abzuschätzen. KI-Systeme könnten zahlreiche Berufe transformieren oder sogar überflüssig machen. Gleichzeitig könnten diese Technologien bestehende Ungleichheiten verstärken. Der Zugang zu fortschrittlicher KI erfordert schnelles Internet, moderne Geräte und oft kostenpflichtige Abonnements – Ressourcen, die global ungleich verteilt sind.  Google hat auf der I/O 2025 bewiesen, dass es an der Spitze der KI-Innovation steht. Doch der wahre Erfolg dieser Technologien wird sich nicht an Benchmarks oder Demos messen lassen, sondern daran, ob sie das Leben der Menschen tatsächlich verbessern – ob sie uns befähigen, kreativer, produktiver und erfüllter zu sein, ohne dafür unsere Autonomie, Privatsphäre oder Menschlichkeit zu opfern.  

Google I/O 2025: Die wichtigsten Neuvorstellungen​ Sundar Pichai, CEO von Alphabet und Google, präsentierte in seiner Keynote eine ganze Reihe von Neuigkeiten.Google

Google hat auf seiner jährlichen Entwicklerkonferenz bahnbrechende KI-Innovationen präsentiert, die weit über bloße Produkt-Updates hinausgehen. Sie skizzieren vielmehr eine Zukunft, in der künstliche Intelligenz nicht mehr nur ein Werkzeug ist, sondern ein allgegenwärtiger, proaktiver Begleiter. Hier die wichtigsten Neuvorstellungen. 

Project Astra: Der universelle KI-Assistent 

Project Astra, seit seiner ersten Vorstellung auf der Google I/O 2024 kontinuierlich weiterentwickelt, verkörpert Googles Vision eines universellen KI-Assistenten. Die revolutionärste Neuerung: Astra kann jetzt proaktiv handeln. Statt nur auf direkte Befehle zu reagieren, beobachtet der Assistent kontinuierlich seine Umgebung und entscheidet selbstständig, wann er eingreifen sollte. 

“Astra kann basierend auf Ereignissen, die es sieht, selbst entscheiden, wann es sprechen möchte”, erklärt Greg Wayne, Forschungsdirektor bei Google DeepMind. “Es beobachtet fortlaufend und kann dann kommentieren.” Diese Fähigkeit markiert einen fundamentalen Wandel in der Mensch-KI-Interaktion. 

Die praktischen Anwendungsbeispiele sind vielfältig: Sitzen Schüler an ihren Hausaufgaben, könnte Astra etwa einen Fehler bemerken und darauf hinweisen. Ein anderes Szenario wäre, dass der KI-Assistent intermittierend Fastende kurz vor Ende der Fastenzeit Bescheid gibt – oder vorsichtig nachfragt, ob sie wirklich außerhalb ihres Essenszeitfensters etwas zu sich nehmen wollen. 

DeepMind-CEO Demis Hassabis nennt diese Fähigkeit “reading the room” – das Gespür für die Situation. Gleichzeitig betont er, wie unglaublich schwierig es sei, einem Computer beizubringen, wann er eingreifen sollte, welchen Ton er anschlagen sollte und wann er einfach still sein sollte. 

Astra kann jetzt auch auf Informationen aus dem Web und von anderen Google-Produkten zugreifen sowie Android-Geräte bedienen. In einer beeindruckenden Demo zeigte etwa Bibo Xiu, Produktmanagerin im DeepMind-Team, wie Astra selbstständig Bluetooth-Kopfhörer mit einem Smartphone koppelte. 

Gemini 2.5: Das neue Flaggschiff-Modell 

Gemini 2.5 steht im Zentrum von Googles KI-Strategie und hat bedeutende Upgrades erhalten. Die Familie umfasst zwei Hauptvarianten:  

Gemini 2.5 Pro, das Flaggschiff-Modell für komplexe Aufgaben, und  

Gemini 2.5 Flash, die effizientere und schnellere Version für alltägliche Anwendungen. 

Die spannendste Neuerung ist “Deep Think” – ein experimenteller, erweiterter Denkmodus für 2.5 Pro. Diese Funktion nutzt neue Forschungstechniken, die es dem Modell ermöglichen, mehrere Hypothesen zu betrachten, bevor es antwortet. Die Ergebnisse sind beeindruckend: Deep Think erzielt hervorragende Werte bei den USAMO 2025 Mathematik-Benchmarks, führt bei LiveCodeBench für Wettbewerbs-Coding und erreicht 84 Prozent beim MMMU-Test für multimodales Reasoning. 

Gemini 2.5 Flash wiederum wurde als effizientes “Arbeitspferd” optimiert und bietet jetzt laut Google bessere Leistung bei 20 bis 30 Prozent geringerer Token-Nutzung. Flash ist bereits in der Gemini App für alle Nutzer verfügbar und wird ab Juni allgemein für Produktionsumgebungen freigegeben. 

Beide Modelle erhalten zudem neue Fähigkeiten: Die Live API führt audiovisuelle Eingaben und native Audio-Ausgabe ein, was natürlichere Konversationen ermöglicht. Das Modell kann seinen Tonfall, Akzent und Sprechstil anpassen – beispielsweise kann der Nutzer es anweisen, eine dramatische Stimme zu verwenden, wenn es eine Geschichte erzählt. 

Als weitere Neuerung unterstützen die Text-to-Speech-Fähigkeiten jetzt erstmals mehrere Sprecher und funktionieren in über 24 Sprachen mit nahtlosem Wechsel zwischen ihnen. Zudem wurden die Sicherheitsmaßnahmen gegen indirekte Prompt-Injections erheblich verstärkt. 

KI-Integration in Google-Dienste 

Auch in bestehenden Diensten von Google hält KI zunehmend Einzug. So wird nun der KI-Modus in Google Search für alle US-Nutzer ausgerollt, mit neuen Funktionen, die zuerst dort debütieren, bevor sie in die reguläre Suche übernommen werden. 

Besonders spannend ist “Deep Search” – eine Funktion, die komplexe Recherchen übernimmt und dabei mehrere Quellen analysiert, vergleicht und zusammenführt. “Search Live” wiederum ermöglicht Echtzeit-Informationssuche: Zeigt man etwa mit der Smartphone-Kamera auf ein Gebäude, liefert die Google-Suche sofort Informationen zu dessen Geschichte, Architekturstil und Öffnungszeiten. 

Auch Gmail profitiert von KI-Upgrades. Die personalisierten Smart Replies berücksichtigen nun den persönlichen Schreibstil des Nutzers, frühere Interaktionen und sogar seinen Kalender. “Haben Sie dort einen wichtigen Termin um 15 Uhr eingetragen, könnte die Smart Reply vorschlagen, das Meeting auf 16 Uhr zu verschieben, statt es einfach anzunehmen”, erklärte ein Google-Vertreter. 

“Thought Summaries” bieten Einblick in die “Denkprozesse” der KI und machen nachvollziehbar, wie sie zu bestimmten Schlussfolgerungen kommt. “Thinking Budgets” ermöglichen Entwicklern, die “Denkzeit” ihrer KI-Anwendungen zu verwalten und zu optimieren. 

Kreative KI-Tools für Medienproduktion 

Mit einer Reihe neuer und verbesserter Tools revolutioniert Google außerdem die Art und Weise, wie Bilder, Videos und Musik erstellt werden. Das aufregendste neue Tool ist “Flow” – eine KI-App speziell für Filmemacher, die aus einfachen Textbeschreibungen komplexe Videoszenen generieren kann. 

Selbst der renommierte Regisseur Darren Aronofsky (u.a. The Whale, Black Swan) nutzt bereits KI in seinen kreativen Prozessen, wie auf der Konferenz enthüllt wurde. Dies unterstreicht, dass diese Tools nicht nur für Amateure gedacht sind, sondern auch von Profis angenommen werden. 

Ebenfalls vorgestellt wurde Imagen 4. Die neueste Version von Googles Bildgenerierungssystem soll nun neue Maßstäbe in Sachen Detailgenauigkeit und Realismus setzen. Ähnliche Fortschritte soll Veo 3 bei der Videogenerierung realisieren. Im Audiobereich sorgt Lyria 2 für Aufsehen – Googles Musikgenerierungssystem kann jetzt vollständige Musikstücke erzeugen und bestehende Musik bearbeiten. 

Mit SynthID hat Google zudem ein System eingeführt, um KI-generierte Inhalte zu authentifizieren und kennzeichnen. Das Tool fügt dazu unsichtbare Wasserzeichen in generierte Medien ein, die später nachgewiesen werden können – ein wichtiger Schritt für Transparenz in einer Welt, in der die Unterscheidung zwischen menschlich und maschinell erstellten Inhalten zunehmend schwieriger wird. 

Google Beam und XR-Technologien 

Mit der Umbenennung von Project Starline zu Google Beam und der Vorstellung neuer XR-Technologien macht Google deutlich, dass immersive Erfahrungen ein zentraler Bestandteil seiner Zukunftsvision sind. 

Google Beam, der Nachfolger des 2021 vorgestellten Project Starline, markiert einen bedeutenden Fortschritt in der Telepräsenz-Technologie. Die neue Version benötigt die Lösung laut Google weniger Platz, verbraucht weniger Energie und bietet dennoch die gleiche beeindruckende Präsenz-Erfahrung. 

Beam ist Googles Beitrag zum Thema Telepräsenz. Die ersten kommerziellen Produkte sollen dabei in Kooperation mit HP auf den Markt kommen.Google LLC

Besonders beeindruckend ist die Integration von Echtzeit-Sprachübersetzung in Google Meet. Diese Funktion übersetzt Gespräche simultan und zeigt Untertitel in der gewünschten Sprache an, während die Stimme des Sprechers in der Zielsprache synthetisiert wird. 

Android XR wiederum dokumentiert Googles ambitionierten Vorstoß in die Welt der erweiterten Realität. Die Plattform bietet Entwicklern Tools, um immersive Anwendungen zu erstellen, die nahtlos zwischen Smartphones, Tablets und XR-Brillen funktionieren. 

Der Prototyp Project Aura von Xreal, der in Zusammenarbeit mit Google entwickelt wurde, zeigt auf, wie die Zukunft von AR-Brillen aussehen könnte. Die Smart Glasses sind kaum von normalen Brillen zu unterscheiden, ein entscheidender Schritt für die soziale Akzeptanz solcher Technologien. 

Die Integration von Gemini auf Headsets stellt einen weiteren Meilenstein dar. Der KI-Assistent kann nicht nur Sprachbefehle verarbeiten, sondern auch visuelle Informationen aus der Umgebung des Nutzers interpretieren. 

Agentic AI: Die Zukunft der Automatisierung 

“Agentic AI” – also KI-Systeme, die eigenständig Aufgaben planen und ausführen können – standen gleich im Mittelpunkt zahlreicher Ankündigungen, markieren sie doch einen Paradigmenwechsel in der Mensch-Maschine-Interaktion. 

Erwähnenswert ist dabei insbesondere Project Mariner. Erstmals im Dezember 2024 vorgestellt, umfasst die Lösung jetzt ein System von Agenten, die bis zu zehn verschiedene Aufgaben gleichzeitig erledigen können. Sie sind unter anderem in der Lage, Informationen nachzuschlagen, Buchungen vorzunehmen oder Einkäufe zu tätigen – und alles zur gleichen Zeit. 

Der Agent Mode geht noch weiter: Hier versteht die KI die Intention des Nutzers und wählt eigenständig den effizientesten Weg zur Erreichung des gewünschten Ziels. In einer Demo zeigte Google etwa, wie ein einfacher Befehl wie “Plane einen Wochenendausflug nach Berlin” zu einer Kaskade von Aktionen führte: Der Agent recherchierte daraufhin Flüge, Hotels und Aktivitäten und präsentierte einen vollständigen Reiseplan – alles ohne weitere Nutzerinteraktion. 

Besonders revolutionär ist Agentic Checkout – eine Funktion, die das Online-Shopping-Erlebnis grundlegend verändern könnte. Der Agent kann den gesamten Checkout-Prozess übernehmen, die besten Angebote finden, Formulare ausfüllen und den Kauf abschließen – alles mit minimaler Nutzerinteraktion. 

Google betont, dass Sicherheit und Verantwortung zentral für ihre Arbeit sind. Die Agenten erklären ihre Aktionen, fragen bei wichtigen Entscheidungen nach und können jederzeit vom Nutzer unterbrochen werden. 

Wissenschaftliche KI-Anwendungen 

Die vorgestellten KI-Forschungs-Apps decken ein breites Spektrum wissenschaftlicher Disziplinen ab. Diese spezialisierten Anwendungen kombinieren Geminis Verständnis wissenschaftlicher Literatur mit domänenspezifischen Modellen und Simulationsfähigkeiten. 

Besonders beeindruckend war die Demonstration einer Anwendung für Proteinfaltung, die auf den Erkenntnissen von DeepMinds KI-System AlphaFold aufbaut. Die neue Version kann nicht nur die dreidimensionale Struktur von Proteinen vorhersagen, sondern auch deren Interaktionen mit anderen Molekülen simulieren – ein entscheidender Schritt für die Medikamentenentwicklung. 

Der Jules Coding Assistant wiederum stellt einen Quantensprung für die KI-gestützte Softwareentwicklung dar. Anders als herkömmliche Code-Assistenten versteht Jules nicht nur Programmiersprachen, sondern auch die Intention hinter dem Code und den breiteren Kontext des Projekts. 

Canvas, Googles kollaborative KI-Umgebung, soll die wissenschaftliche Zusammenarbeit auf ein neues Niveau heben. Die Plattform ermöglicht es Forschern, komplexe Daten zu visualisieren, Modelle zu entwickeln und Ergebnisse zu interpretieren – alles in einer gemeinsamen virtuellen Umgebung. 

Ironwood und Project Mariner, zwei von Googles fortschrittlichsten Forschungsprototypen, kombinieren multimodale Verständnisfähigkeiten mit agentenbasiertem Handeln und können komplexe wissenschaftliche Workflows selbstständig planen und durchführen. 

Zu Risiken und Nebenwirkungen… 

Bei aller Euphorie ist eine kritische Betrachtung der neuen Lösungen unerlässlich. So darf man nicht vergessen, dass KI-Systeme trotz aller Fortschritte fehleranfällig bleiben. Sie können Fakten erfinden, Zusammenhänge falsch interpretieren oder in unerwarteten Situationen versagen. Die Demos auf der I/O fanden in kontrollierten Umgebungen statt – in der chaotischen Realität dürften die Ergebnisse weniger beeindruckend sein. 

Datenschutz- und Sicherheitsaspekte werfen weitere Schatten. Je mehr Kontext KI-Systeme haben, desto besser funktionieren sie – aber desto mehr sensible Daten müssen sie verarbeiten. Wenn ein KI-Agent in meinem Namen handeln kann, welche Sicherheitsgarantien gibt es gegen Missbrauch oder Manipulation? 

Die gesellschaftlichen Auswirkungen sind möglicherweise am schwierigsten abzuschätzen. KI-Systeme könnten zahlreiche Berufe transformieren oder sogar überflüssig machen. Gleichzeitig könnten diese Technologien bestehende Ungleichheiten verstärken. Der Zugang zu fortschrittlicher KI erfordert schnelles Internet, moderne Geräte und oft kostenpflichtige Abonnements – Ressourcen, die global ungleich verteilt sind. 

Google hat auf der I/O 2025 bewiesen, dass es an der Spitze der KI-Innovation steht. Doch der wahre Erfolg dieser Technologien wird sich nicht an Benchmarks oder Demos messen lassen, sondern daran, ob sie das Leben der Menschen tatsächlich verbessern – ob sie uns befähigen, kreativer, produktiver und erfüllter zu sein, ohne dafür unsere Autonomie, Privatsphäre oder Menschlichkeit zu opfern. 

Google I/O 2025: Die wichtigsten Neuvorstellungen​ Weiterlesen »

Große Sprachmodelle, kleine Wirkung?​

Allgemein

width=”2488″ height=”1399″ sizes=”(max-width: 2488px) 100vw, 2488px”>KI-Chatbots sind am Arbeitsplatz angekommen, aber sie haben die Arbeit noch nicht verändert.Poca Wander Stock – shutterstock.com Obwohl KI-Chatbots mittlerweile in zahlreichen Unternehmen zum Einsatz kommen, sind die damit erzielten Auswirkungen auf Produktivität, Arbeitszeit und Bezahlung unter dem Strich vernachlässigbar.   So wenig Zeit spart KI  Zu diesem Resultat kommt zumindest eine Studie des National Bureau of Economic Research (PDF). Forscher der Universität von Chicago und der Universität Kopenhagen haben darin die Akzeptanz von Chatbots, die Mitarbeiterinitiativen zur Förderung der Nutzung und die wahrgenommenen Vorteile wie Zeitersparnis und Qualitätsverbesserung untersucht. Grundlage waren Umfragen in Dänemark unter 25.000 Arbeitnehmern aus elf ausgewählten Berufen, verknüpft mit Arbeitsmarktdaten des Landes.   Wie die Untersuchung ergab, beträgt die Zeitersparnis der Mitarbeiter durch die Verwendung von KI-Tools im Schnitt nur 2,8 Prozent. Selbst dieser Effekt scheint jedoch zu verpuffen, da die Forscher keine signifikanten Auswirkungen auf Verdienst oder aufgezeichnete Stunden feststellen konnten. Lediglich drei bis sieben Prozent der geschätzten Zeitersparnis machten sich auch auf dem Lohnzettel bemerkbar.  Ein etwas anderes Bild ergibt sich allerdings, wenn der Arbeitgeber die Mitarbeitenden zur Nutzung ermutigt und sie schult, damit zu arbeiten. Geschieht dies, verdoppelt sich die Adoptionsrate nahezu auf 83 Prozent (statt 47 Prozent).   Gleichzeitig stellten die Forscher auch einen positiven Einfluss auf den wahrgenommenen Nutzen fest: Die Vorteile, von denen Nutzer im Zusammenhang mit KI-Chatbots berichten, also Zeitersparnis, Qualitätsverbesserungen, höhere Kreativität, Aufgabenerweiterung und mehr Zufriedenheit mit der Arbeit, werden allesamt zehn bis 40 Prozent höher gewichtet, wenn Arbeitgeber zur Nutzung ermutigen.   Die Forscher weisen darüber hinaus darauf hin, dass in viele Fällen auch die Arbeitsabläufe angepasst werden müssen, um das Produktivitätspotenzial von KI-Chatbots am Arbeitsplatz freizusetzen.  

Große Sprachmodelle, kleine Wirkung?​ width=”2488″ height=”1399″ sizes=”(max-width: 2488px) 100vw, 2488px”>KI-Chatbots sind am Arbeitsplatz angekommen, aber sie haben die Arbeit noch nicht verändert.Poca Wander Stock – shutterstock.com

Obwohl KI-Chatbots mittlerweile in zahlreichen Unternehmen zum Einsatz kommen, sind die damit erzielten Auswirkungen auf Produktivität, Arbeitszeit und Bezahlung unter dem Strich vernachlässigbar.  

So wenig Zeit spart KI 

Zu diesem Resultat kommt zumindest eine Studie des National Bureau of Economic Research (PDF). Forscher der Universität von Chicago und der Universität Kopenhagen haben darin die Akzeptanz von Chatbots, die Mitarbeiterinitiativen zur Förderung der Nutzung und die wahrgenommenen Vorteile wie Zeitersparnis und Qualitätsverbesserung untersucht. Grundlage waren Umfragen in Dänemark unter 25.000 Arbeitnehmern aus elf ausgewählten Berufen, verknüpft mit Arbeitsmarktdaten des Landes.  

Wie die Untersuchung ergab, beträgt die Zeitersparnis der Mitarbeiter durch die Verwendung von KI-Tools im Schnitt nur 2,8 Prozent. Selbst dieser Effekt scheint jedoch zu verpuffen, da die Forscher keine signifikanten Auswirkungen auf Verdienst oder aufgezeichnete Stunden feststellen konnten. Lediglich drei bis sieben Prozent der geschätzten Zeitersparnis machten sich auch auf dem Lohnzettel bemerkbar. 

Ein etwas anderes Bild ergibt sich allerdings, wenn der Arbeitgeber die Mitarbeitenden zur Nutzung ermutigt und sie schult, damit zu arbeiten. Geschieht dies, verdoppelt sich die Adoptionsrate nahezu auf 83 Prozent (statt 47 Prozent).  

Gleichzeitig stellten die Forscher auch einen positiven Einfluss auf den wahrgenommenen Nutzen fest: Die Vorteile, von denen Nutzer im Zusammenhang mit KI-Chatbots berichten, also Zeitersparnis, Qualitätsverbesserungen, höhere Kreativität, Aufgabenerweiterung und mehr Zufriedenheit mit der Arbeit, werden allesamt zehn bis 40 Prozent höher gewichtet, wenn Arbeitgeber zur Nutzung ermutigen.  

Die Forscher weisen darüber hinaus darauf hin, dass in viele Fällen auch die Arbeitsabläufe angepasst werden müssen, um das Produktivitätspotenzial von KI-Chatbots am Arbeitsplatz freizusetzen. 

Große Sprachmodelle, kleine Wirkung?​ Weiterlesen »

Technische Schulden als billige Ausrede​

Allgemein

Wenn technische Schulden zur Ausrede verkommen, ist ein Richtungswechsel dringend angebracht.elmar gubisch | shutterstock.com Agile-Pionier Ward Cunningham hat den Begriff Technical Debt maßgeblich geprägt und definiert (PDF). Dabei ging der Informatiker davon aus, dass technische Schulden auf einer bewussten Entscheidung basieren: Zwar ist den Devs klar, dass es einen besseren, “korrekteren” Weg zum Ziel gäbe – aber sie wählen einen anderen, der im Nachgang Kosten verursacht. Solche Entscheidungen werden für gewöhnlich getroffen, um Projekte zu beschleunigen – allerdings sollten die Entwickler die entstandene Schuld auch zu einem späteren Zeitpunkt “begleichen”. Anders ausgedrückt: Existiert kein Jira-Ticket im Backlog, um den ungünstigen Code zu bereinigen, handelt es sich auch nicht um Technical Debt. Technische Umschuldung? In der Realität haben wir die Definition von technischen Schulden so weit ausgedehnt, dass der Begriff fast bedeutungslos geworden ist. Inzwischen wird einfach jeder schlechte Haufen Code mit diesem Etikett versehen. Egal, ob er das Ergebnis einer bewussten Entscheidung war oder es einen Plan gibt, diesen zukünftig zu bereinigen (was in den meisten Fällen nicht zutrifft). So wird auch Code, der unter die Definition von “Accidental Complexity” (PDF) fällt, regelmäßig das Technical-Debt-Label aufgedrückt. Ebenso wie hastig zusammengeschusterten “Notfalllösungen”. In der Konsequenz schafft das willkommene Gelegenheiten, die eigentlichen Ursachen für schlecht umgesetzte Lösungen zu verschleiern – etwa fehlendes Knowhow, Nachlässigkeiten oder massiver Zeitdruck.    So werden vermeidbare Fehler zu “technischen Schulden”. Das klingt nicht nur besser, sondern erweckt auch den Eindruck, die Unwägbarkeiten würden später behoben – obwohl allen Beteiligten klar ist, dass es niemals dazu kommen wird. Etabliert sich ein Mindset dieser Art in Entwicklungsteams, ist der Niedergang nur eine Frage der Zeit. Schließlich ist so immer eine billige Ausrede für schlechte Entscheidungen und Praktiken verfügbar. Echte technische Schulden sollten mit einem klaren Arbeitsauftrag, beziehungsweise einem Korrekturplan inklusive Deadline verknüpft sein. Alles andere muss als das benannt werden, was es ist: minderwertiger Code. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Technische Schulden als billige Ausrede​ Wenn technische Schulden zur Ausrede verkommen, ist ein Richtungswechsel dringend angebracht.elmar gubisch | shutterstock.com

Agile-Pionier Ward Cunningham hat den Begriff Technical Debt maßgeblich geprägt und definiert (PDF). Dabei ging der Informatiker davon aus, dass technische Schulden auf einer bewussten Entscheidung basieren: Zwar ist den Devs klar, dass es einen besseren, “korrekteren” Weg zum Ziel gäbe – aber sie wählen einen anderen, der im Nachgang Kosten verursacht.

Solche Entscheidungen werden für gewöhnlich getroffen, um Projekte zu beschleunigen – allerdings sollten die Entwickler die entstandene Schuld auch zu einem späteren Zeitpunkt “begleichen”. Anders ausgedrückt: Existiert kein Jira-Ticket im Backlog, um den ungünstigen Code zu bereinigen, handelt es sich auch nicht um Technical Debt.

Technische Umschuldung?

In der Realität haben wir die Definition von technischen Schulden so weit ausgedehnt, dass der Begriff fast bedeutungslos geworden ist. Inzwischen wird einfach jeder schlechte Haufen Code mit diesem Etikett versehen. Egal, ob er das Ergebnis einer bewussten Entscheidung war oder es einen Plan gibt, diesen zukünftig zu bereinigen (was in den meisten Fällen nicht zutrifft). So wird auch Code, der unter die Definition von “Accidental Complexity” (PDF) fällt, regelmäßig das Technical-Debt-Label aufgedrückt. Ebenso wie hastig zusammengeschusterten “Notfalllösungen”. In der Konsequenz schafft das willkommene Gelegenheiten, die eigentlichen Ursachen für schlecht umgesetzte Lösungen zu verschleiern – etwa fehlendes Knowhow, Nachlässigkeiten oder massiver Zeitdruck.   

So werden vermeidbare Fehler zu “technischen Schulden”. Das klingt nicht nur besser, sondern erweckt auch den Eindruck, die Unwägbarkeiten würden später behoben – obwohl allen Beteiligten klar ist, dass es niemals dazu kommen wird. Etabliert sich ein Mindset dieser Art in Entwicklungsteams, ist der Niedergang nur eine Frage der Zeit. Schließlich ist so immer eine billige Ausrede für schlechte Entscheidungen und Praktiken verfügbar.

Echte technische Schulden sollten mit einem klaren Arbeitsauftrag, beziehungsweise einem Korrekturplan inklusive Deadline verknüpft sein. Alles andere muss als das benannt werden, was es ist: minderwertiger Code. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Technische Schulden als billige Ausrede​ Weiterlesen »

Matrixorganisation: Unternehmen effizient strukturieren​

Allgemein

Richtig strukturiert, kommuniziert und ausgesteuert kann die Matrixorganisation mehr Flexibilität und einen verbesserten Einsatz der Mitarbeiter ermöglichen. Foto: carlos castilla – shutterstock.com“Ich weiß nicht, wo mir der Kopf steht. Ich kann die Vielzahl der Aufgaben kaum stemmen” – so klingt es häufig, wenn man Mitarbeitern in Unternehmen mit einer Matrixorganisation zuhört. Und das bringt bereits den Haken dieser etablierten Organisationsform auf den Punkt. Schließlich bedienen Mitarbeiter in diesem System Aufgaben aus zwei Richtungen und sind – insbesondere, wenn sie ihre Kompetenz bereits unter Beweis gestellt haben – häufig vielfach gefragt. Dies kann zu Stress und Überlast mit allen Folgeerscheinungen führen. Dabei weist die Matrixorganisation zahlreiche unstrittige Vorteile bei der Strukturierung von Unternehmen auf – gerade wenn sich ein Unternehmen effizient aufstellen will. Zu den Entwürfen einer klassischen, hierarchischen Aufbauorganisation und der derzeit vielfach publizierten agilen Organisation bietet die Matrix eine attraktive Alternative. Ihre mehrdimensionale Struktur ermöglicht organisatorische Flexibilität in Hinblick auf Themen, Teams und Mitarbeiter und ist dabei sehr wirksam – wenn sie denn passgenau auf das jeweilige Unternehmen zugeschnitten und in der Kultur verankert ist. So braucht eine nachhaltig wirkungsvolle Matrixorganisation – wie jede andere Organisationsform auch – einen klaren, für alle nachvollziehbaren und gelebten Rahmen, der in Zeiten von Remote Work in besonderem Maße relevant ist. Matrixorganisation – DefinitionDie Matrixorganisation beschreibt eine mehrdimensionale Organisationsstruktur, in der eine funktionale, vertikale Aufbaustruktur um eine horizontale Ebene ergänzt wird. So wird über die vertikale Dimension der fachlichen Struktur (beispielsweise nach Funktionen wie Marketing, Produktmanagement oder Technologie) eine zweite Dimension (zum Beispiel nach Projekten, Geschäftsfeldern, Kunden) gelegt. Mittlerweile wird vielfach auch von einer dritten Dimension gesprochen, mit der die Querschnitts-Managementfunktionen wie beispielsweise HR, Einkauf oder Controlling gemeint sind.Die Matrixorganisation als Modell. Foto: Sabine DietrichDa alle Dimensionen unabhängig voneinander dabei in einer “ausgeglichenen” Matrix theoretisch gleichberechtigt sind, entsteht ein crossfunktionales System, das Flexibilität und Effizienzgewinn zur Folge hat, im Unternehmensalltag häufig jedoch für die involvierten Mitarbeiter eher einen Würgegriff bedeutet. Denn letztlich stehen alle Mitarbeiter zum Beispiel in zwei Weisungsbeziehungen: gegenüber dem Fachbereichsleiter als disziplinarischer Führungskraft und dem jeweiligen Projekt- oder Geschäftsfeldleiter. So entsteht ein klassisches “Zwei-Boss-System”, das im Organigramm über die Knotenpunkte verdeutlicht wird. Und das sich auch zum “Mehr-Boss-System” entwickeln kann, wenn nämlich Mitarbeiter in mehreren Projekten arbeiten, was im Unternehmensalltag an der Tagesordnung ist.Die Anfänge der MatrixorganisationDie Matrixorganisation hat ihren Ursprung in den von zunehmender Internationalisierung und technologischem Wandel geprägten 50er bis 70er Jahren des 20. Jahrhunderts. Diese Entwicklung erforderte mehr Verflechtung und Professionalität, also Themen, die uns auch heute treiben. Die erste Matrixorganisation wird dem Luft- und Raumfahrtunternehmen TRW Inc. und seinem Mitbegründer Simon Ramo zugeschrieben, der so produktspezifisches und funktionales Know-how ohne irgendeine Dominanz zusammenbringen wollte. Die übersichtliche Darstellung über Organigramme klärte direkt die Bezüge und Weisungsbefugnisse. In der Folge breitete sich diese Organisationsform immer weiter aus, mit Schwerpunkt im industriellen Bereich – zum Beispiel in Sparten bei DuPont oder General Motors.Eine Renaissance erlebte die Matrix in der zweiten Hälfte der 80er Jahre des vergangenen Jahrhunderts mit dem Trend zu flacheren Hierarchien und dem zunehmenden Projektgeschäft. In der Folge hat sie sich bis heute in vielen Branchen und Unternehmen mit hohem Entwicklungsdruck und/oder Projektgeschäft etabliert, also zum Beispiel bei IT- und Software-Unternehmen, in der Bau- und Automobilindustrie sowie dem Dienstleistungssektor. Und zwar unabhängig von der Unternehmensgröße, wobei in KMUs oder Startups häufig eine informelle Matrix zu finden ist.Dabei haben sich im Lauf der Zeit unterschiedliche Formen der Matrix gebildet: die starke, schwache und die ausgeglichene Matrix. Diese Varianten unterscheiden sich über den Grad der Autonomie der Führungsentscheidungen auf der horizontalen Ebene der Matrix. Während also in der starken Matrix Projektleiter über eine hohe Entscheidungskompetenz verfügen, ist diese in der schwachen Matrix auch schwach ausgeprägt.Matrixorganisation – Vor- und NachteileDie Vorteile einer Matrixorganisation sind naheliegend: Mitarbeiter können zielgerichteter und flexibler eingesetzt werden, so dass Silos aufgebrochen werden. Das wiederum verhindert Einseitigkeit auf Seiten der Mitarbeiter, unterstützt interdisziplinäres Denken und Handeln von Führungskräften und Mitarbeitern und eröffnet die Möglichkeit zur Weiterentwicklung. Im Unternehmen können zudem Auslastungsschwankungen optimal abgefedert werden. So weit, so gut.Wo nun allerdings die Matrix im Organigramm Knotenpunkte ausweist, arbeiten in Unternehmen Menschen. Menschen mit unterschiedlichen Persönlichkeiten, Ambitionen und Belastungsgrenzen. Und diese Menschen erhalten nicht nur von unterschiedlichen Seiten ihre Aufgaben, sie berichten in der Matrix an zwei Chefs: ihren Linienvorgesetzten und ihren Projektleiter. Arbeiten sie in mehreren Projekten mit, erhöht sich die Anzahl der Vorgesetzten entsprechend, was die Gemengelage nicht vereinfacht. Oder was denken Sie, wer in diesem Konstrukt den Ton angibt, wenn der eine Boss die Jahresziele vorgibt, die Gehaltserhöhung vertritt oder auch den Urlaubsschein freigibt? Menschen werden sich in diesem Kontext immer am Stärkeren orientieren und das ist für sie persönlich auch die richtige Entscheidung. Ob das im Sinn der Aufgabe ist, tritt dabei häufig in den Hintergrund. Konsequenzen können verlängerte Entscheidungsprozesse, Verwirrung, Konflikte oder auch Konkurrenzkämpfe zwischen den verschiedenen Entscheidern oder den Experten aus unterschiedlichen Bereichen sein. Und wem wird bei Abschluss eines Projektes, einer Aufgabe der Erfolg oder auch Misserfolg zugeschrieben? Eine nicht lapidare Frage im Zwei-Boss-System.Zudem werden die mit der funktionalen Struktur verbundenen hierarchischen Strukturen in der divisionalen Arbeit aufgelöst. Eine Führungskraft, zum Beispiel ein Abteilungsleiter, kann im Projekt demzufolge zum Mitarbeiter werden. Sein Vorgesetzter im Projekt ist der Projektleiter, der in der Hierarchie jedoch auf Mitarbeiterebene angesiedelt ist. Eine Herausforderung für alle Beteiligten.Ein weiterer kritischer Aspekt dieses Systems ist die Mehrbelastung der Mitarbeiter, sind sie doch zumeist prozentual für zum Beispiel Projektaufgaben eingeteilt. Häufig ohne Berücksichtigung dieser Aufwände bei der klassischen Linientätigkeit. Die Arbeit aus der 2. Dimension, den Projekten oder auch Sparten, wird als Add-on bewertet. Diese Fehleinschätzung kann sich bitter rächen. Denn die daraus häufig resultierende Überlastung kann bis hin zu Demotivation, Burnout und innerer Kündigung führen. Folgen, die gerade in der aktuellen Zeit der zunehmenden Anforderungen und deren Abarbeitung im Homeoffice ohne den inoffiziellen Austausch mit den Kollegen, massiv zunehmen.Die Matrixorganisation im Unternehmensalltag. Foto: Sabine DietrichDie Erfolgsfaktoren der MatrixDie Matrix kann das Erfolgsmodell einer Unternehmensorganisation sein und bewährt sich mit ihrer Verbindung von hierarchischer und divisionaler Struktur im Vergleich zu anderen neueren Entwicklungen – gerade in den Unternehmen, die von ihrer Historie, den Rahmendaten oder ihrer Unternehmenskultur her den eher tradierten Rollen verbunden sind.Um ihre volle Leistungsfähigkeit zu entwickeln, benötigt die Matrixorganisation allerdings einen Rahmen, der im Unternehmen aktiv gelebt und in der Kultur verankert sein muss. Dabei sind drei Aspekte besonders relevant:1. Klare Rollen & VerantwortlichkeitenZur Vermeidung von Kompetenzkonflikten, Machtkämpfen oder auch Verunsicherung auf Seiten von Führungskräften, Projektleitern und Mitarbeitern sind in jeder Matrix die Rollen, deren Aufgaben, Verantwortungen und Kompetenzen zu klären. Die Grundlage schaffen Unternehmen, indem sie jede Rolle mit einem entsprechenden Profil hinterlegen, das die Aufgaben, Kompetenzen und Verantwortungen sowie die Eskalationsprozesse beschreibt – unter Berücksichtigung der Schnittstellen zu den anderen Rollen. Die Praxis zeigt immer wieder, dass diese Profile, wenn sie denn existieren, nicht allen bekannt sind oder auch unterschiedlich interpretiert werden. Insofern empfiehlt sich, in jedem neuen Projekt – auch wenn die Beteiligten noch so häufig bereits zusammengearbeitet haben – diese Punkte offen, klar und verbindlich zu thematisieren und auch fixieren.Als weitere Themen in diesen Gesprächen empfiehlt sich die Klärung der wechselseitigen Erwartungen und die Wege, beziehungsweise Stufen einer Eskalation. Dieser Klärungsprozess sollte vor Start der Arbeit in einem Projekt in alle Richtungen erfolgen: Also Projektleiter mit seinem Team und seinen beiden Bossen Auftraggeber und Führungskraft, darüber hinaus mit den verschiedenen Führungskräften der Projektmitarbeiter.Um dies für alle verbindlich festzuhalten und auch im stressigen Tagesgeschäft kontinuierlich transparent zu machen, hat sich die schriftliche Vereinbarung von Spielregeln bewährt – die dann häufig auch Aspekte des nächsten Punktes umfassen.2. Offene KommunikationFür diesen Klärungsprozess wie auch für die weitere Zusammenarbeit (nicht nur) in dieser Struktur ist eine offene, vertrauensvolle Kommunikation unabdingbar. Eine Hidden Agenda, und sei sie noch so menschlich, ist nicht hilfreich. Die Themen und Erwartungen gehören auf den Tisch und sind im Zweifel auszuhandeln. Dabei gilt: Jedes Thema, jede Erwartung ist möglich im Gespräch. Letztlich machen Ton und Form die Musik, die Inhalte folgen. Die Führungskräfte haben in diesem Zwei-Boss-System eine Vorbildfunktion, indem sie diese Offenheit vorleben und gerade kritische Themen ansprechen. Projektleiter sollten sich allerdings auch als Führungskraft verstehen und informieren, kommunizieren und fragen, fragen, fragen … : ihren Auftraggeber, das Projektteam, die Führungskräfte ihrer Teammitglieder.Dieses Verständnis von Kommunikation und vor allem dessen Umsetzung setzt eine entsprechende Haltung der Beteiligten voraus. Sie schafft auf allen Seiten die Grundlage für diesen Erfolgsfaktor, der im weiteren Projektverlauf seine Relevanz beweist. Denn jegliche Information zum Beispiel zu Umpriorisierungen, Terminverschiebungen, aber auch zu Überlastungen der Mitarbeiter muss offen an die entsprechenden Beteiligten weitergegeben und verhandelt bzw. diskutiert werden (können).3. Transparentes RessourcenmanagementWieviel Aufgaben von zwei oder auch mehr Seiten verträgt eine Struktur? Was kann bei wem noch eingeplant werden? Antworten auf diese Fragen sind für Führungskräfte in der Matrix mit der Einsteuerung von Aufgaben von mindestens einer zweiten Seite häufig schwierig. Die Folge ist die aufgezeigte Überlastung, der Frust der Mitarbeiter.Um dem entgegenzusteuern, ist ein Ressourcenmanagement unverzichtbar. In einem einfachen System werden den verfügbaren Mitarbeitertagen zum Beispiel eines Monats die zu leistenden Aufgaben mit den jeweiligen Aufwänden gegenübergestellt. Diese systematische Vorgehensweise schafft Transparenz und häufig überraschende Ergebnisse. Denn allein die Berücksichtigung von Abwesenheiten oder auch Grundlast bei der Ermittlung der Verfügbarkeiten verschiebt häufig das Bild erheblich: Wenn einerseits – zugegebenermaßen meistens – die Überlast so messbar wird, zeigt die Praxis auch Bereiche, in denen die bisher häufig beklagte Überlast nicht darstellbar war.Führungskräfte verfügen so über ein mächtiges Steuerungselement zur Einplanung von Aufgaben gerade in der Matrixorganisation – und damit zur Vermeidung der vielbesprochenen Überforderung von Mitarbeitern. Die Verantwortlichen für das Projektportfolio haben zudem Transparenz über die verfügbaren Projektressourcen und können diese den Prioritäten entsprechend verteilen. Dabei ist nicht zwingend ein komplexes Tool erforderlich, für einen Überblick reichen häufig Bordmittel aus. Wichtig ist, dass diese passgenau in Hinblick auf die zu erreichende Zielsetzung zugeschnitten sind und somit Aufwand und Nutzen in einem vertretbaren Verhältnis stehen.Organisationsform für die VUCA-WeltDie Matrixorganisation ist als Organisationsform etabliert und verspricht Flexibilität und optimierten Einsatz der Mitarbeiter. Qualitäten, die in der aktuellen VUCA-Welt mehr denn je vonnöten sind. Um eine Organisation als Matrix erfolgreich aufzustellen und die verschiedenen Störfaktoren auszuschließen, hat sich Folgendes bewährt: eine verbindliche Klärung der Rollen aller Beteiligten, eine offene Kommunikation in allen Richtungen und ein transparentes Ressourcenmanagement als Steuerungsinstrument für die Führungskräfte.Diese Faktoren erhalten in Zeiten von Remote Work und dem damit verbundenen reduzierten sozialen Austausch eine ganz neue, erheblich gesteigerte Relevanz. Wenn sie aber in der Unternehmenskultur verankert sind und von allen bewusst gelebt werden, wird aus der vielfach kritisierten Matrixorganisation ein Erfolgsmodell. (mb) 

Matrixorganisation: Unternehmen effizient strukturieren​ Richtig strukturiert, kommuniziert und ausgesteuert kann die Matrixorganisation mehr Flexibilität und einen verbesserten Einsatz der Mitarbeiter ermöglichen.
Foto: carlos castilla – shutterstock.com“Ich weiß nicht, wo mir der Kopf steht. Ich kann die Vielzahl der Aufgaben kaum stemmen” – so klingt es häufig, wenn man Mitarbeitern in Unternehmen mit einer Matrixorganisation zuhört. Und das bringt bereits den Haken dieser etablierten Organisationsform auf den Punkt. Schließlich bedienen Mitarbeiter in diesem System Aufgaben aus zwei Richtungen und sind – insbesondere, wenn sie ihre Kompetenz bereits unter Beweis gestellt haben – häufig vielfach gefragt. Dies kann zu Stress und Überlast mit allen Folgeerscheinungen führen. Dabei weist die Matrixorganisation zahlreiche unstrittige Vorteile bei der Strukturierung von Unternehmen auf – gerade wenn sich ein Unternehmen effizient aufstellen will. Zu den Entwürfen einer klassischen, hierarchischen Aufbauorganisation und der derzeit vielfach publizierten agilen Organisation bietet die Matrix eine attraktive Alternative. Ihre mehrdimensionale Struktur ermöglicht organisatorische Flexibilität in Hinblick auf Themen, Teams und Mitarbeiter und ist dabei sehr wirksam – wenn sie denn passgenau auf das jeweilige Unternehmen zugeschnitten und in der Kultur verankert ist. So braucht eine nachhaltig wirkungsvolle Matrixorganisation – wie jede andere Organisationsform auch – einen klaren, für alle nachvollziehbaren und gelebten Rahmen, der in Zeiten von Remote Work in besonderem Maße relevant ist. Matrixorganisation – DefinitionDie Matrixorganisation beschreibt eine mehrdimensionale Organisationsstruktur, in der eine funktionale, vertikale Aufbaustruktur um eine horizontale Ebene ergänzt wird. So wird über die vertikale Dimension der fachlichen Struktur (beispielsweise nach Funktionen wie Marketing, Produktmanagement oder Technologie) eine zweite Dimension (zum Beispiel nach Projekten, Geschäftsfeldern, Kunden) gelegt. Mittlerweile wird vielfach auch von einer dritten Dimension gesprochen, mit der die Querschnitts-Managementfunktionen wie beispielsweise HR, Einkauf oder Controlling gemeint sind.Die Matrixorganisation als Modell.
Foto: Sabine DietrichDa alle Dimensionen unabhängig voneinander dabei in einer “ausgeglichenen” Matrix theoretisch gleichberechtigt sind, entsteht ein crossfunktionales System, das Flexibilität und Effizienzgewinn zur Folge hat, im Unternehmensalltag häufig jedoch für die involvierten Mitarbeiter eher einen Würgegriff bedeutet. Denn letztlich stehen alle Mitarbeiter zum Beispiel in zwei Weisungsbeziehungen: gegenüber dem Fachbereichsleiter als disziplinarischer Führungskraft und dem jeweiligen Projekt- oder Geschäftsfeldleiter. So entsteht ein klassisches “Zwei-Boss-System”, das im Organigramm über die Knotenpunkte verdeutlicht wird. Und das sich auch zum “Mehr-Boss-System” entwickeln kann, wenn nämlich Mitarbeiter in mehreren Projekten arbeiten, was im Unternehmensalltag an der Tagesordnung ist.Die Anfänge der MatrixorganisationDie Matrixorganisation hat ihren Ursprung in den von zunehmender Internationalisierung und technologischem Wandel geprägten 50er bis 70er Jahren des 20. Jahrhunderts. Diese Entwicklung erforderte mehr Verflechtung und Professionalität, also Themen, die uns auch heute treiben. Die erste Matrixorganisation wird dem Luft- und Raumfahrtunternehmen TRW Inc. und seinem Mitbegründer Simon Ramo zugeschrieben, der so produktspezifisches und funktionales Know-how ohne irgendeine Dominanz zusammenbringen wollte. Die übersichtliche Darstellung über Organigramme klärte direkt die Bezüge und Weisungsbefugnisse. In der Folge breitete sich diese Organisationsform immer weiter aus, mit Schwerpunkt im industriellen Bereich – zum Beispiel in Sparten bei DuPont oder General Motors.Eine Renaissance erlebte die Matrix in der zweiten Hälfte der 80er Jahre des vergangenen Jahrhunderts mit dem Trend zu flacheren Hierarchien und dem zunehmenden Projektgeschäft. In der Folge hat sie sich bis heute in vielen Branchen und Unternehmen mit hohem Entwicklungsdruck und/oder Projektgeschäft etabliert, also zum Beispiel bei IT- und Software-Unternehmen, in der Bau- und Automobilindustrie sowie dem Dienstleistungssektor. Und zwar unabhängig von der Unternehmensgröße, wobei in KMUs oder Startups häufig eine informelle Matrix zu finden ist.Dabei haben sich im Lauf der Zeit unterschiedliche Formen der Matrix gebildet: die starke, schwache und die ausgeglichene Matrix. Diese Varianten unterscheiden sich über den Grad der Autonomie der Führungsentscheidungen auf der horizontalen Ebene der Matrix. Während also in der starken Matrix Projektleiter über eine hohe Entscheidungskompetenz verfügen, ist diese in der schwachen Matrix auch schwach ausgeprägt.Matrixorganisation – Vor- und NachteileDie Vorteile einer Matrixorganisation sind naheliegend: Mitarbeiter können zielgerichteter und flexibler eingesetzt werden, so dass Silos aufgebrochen werden. Das wiederum verhindert Einseitigkeit auf Seiten der Mitarbeiter, unterstützt interdisziplinäres Denken und Handeln von Führungskräften und Mitarbeitern und eröffnet die Möglichkeit zur Weiterentwicklung. Im Unternehmen können zudem Auslastungsschwankungen optimal abgefedert werden. So weit, so gut.Wo nun allerdings die Matrix im Organigramm Knotenpunkte ausweist, arbeiten in Unternehmen Menschen. Menschen mit unterschiedlichen Persönlichkeiten, Ambitionen und Belastungsgrenzen. Und diese Menschen erhalten nicht nur von unterschiedlichen Seiten ihre Aufgaben, sie berichten in der Matrix an zwei Chefs: ihren Linienvorgesetzten und ihren Projektleiter. Arbeiten sie in mehreren Projekten mit, erhöht sich die Anzahl der Vorgesetzten entsprechend, was die Gemengelage nicht vereinfacht. Oder was denken Sie, wer in diesem Konstrukt den Ton angibt, wenn der eine Boss die Jahresziele vorgibt, die Gehaltserhöhung vertritt oder auch den Urlaubsschein freigibt? Menschen werden sich in diesem Kontext immer am Stärkeren orientieren und das ist für sie persönlich auch die richtige Entscheidung. Ob das im Sinn der Aufgabe ist, tritt dabei häufig in den Hintergrund. Konsequenzen können verlängerte Entscheidungsprozesse, Verwirrung, Konflikte oder auch Konkurrenzkämpfe zwischen den verschiedenen Entscheidern oder den Experten aus unterschiedlichen Bereichen sein. Und wem wird bei Abschluss eines Projektes, einer Aufgabe der Erfolg oder auch Misserfolg zugeschrieben? Eine nicht lapidare Frage im Zwei-Boss-System.Zudem werden die mit der funktionalen Struktur verbundenen hierarchischen Strukturen in der divisionalen Arbeit aufgelöst. Eine Führungskraft, zum Beispiel ein Abteilungsleiter, kann im Projekt demzufolge zum Mitarbeiter werden. Sein Vorgesetzter im Projekt ist der Projektleiter, der in der Hierarchie jedoch auf Mitarbeiterebene angesiedelt ist. Eine Herausforderung für alle Beteiligten.Ein weiterer kritischer Aspekt dieses Systems ist die Mehrbelastung der Mitarbeiter, sind sie doch zumeist prozentual für zum Beispiel Projektaufgaben eingeteilt. Häufig ohne Berücksichtigung dieser Aufwände bei der klassischen Linientätigkeit. Die Arbeit aus der 2. Dimension, den Projekten oder auch Sparten, wird als Add-on bewertet. Diese Fehleinschätzung kann sich bitter rächen. Denn die daraus häufig resultierende Überlastung kann bis hin zu Demotivation, Burnout und innerer Kündigung führen. Folgen, die gerade in der aktuellen Zeit der zunehmenden Anforderungen und deren Abarbeitung im Homeoffice ohne den inoffiziellen Austausch mit den Kollegen, massiv zunehmen.Die Matrixorganisation im Unternehmensalltag.
Foto: Sabine DietrichDie Erfolgsfaktoren der MatrixDie Matrix kann das Erfolgsmodell einer Unternehmensorganisation sein und bewährt sich mit ihrer Verbindung von hierarchischer und divisionaler Struktur im Vergleich zu anderen neueren Entwicklungen – gerade in den Unternehmen, die von ihrer Historie, den Rahmendaten oder ihrer Unternehmenskultur her den eher tradierten Rollen verbunden sind.Um ihre volle Leistungsfähigkeit zu entwickeln, benötigt die Matrixorganisation allerdings einen Rahmen, der im Unternehmen aktiv gelebt und in der Kultur verankert sein muss. Dabei sind drei Aspekte besonders relevant:1. Klare Rollen & VerantwortlichkeitenZur Vermeidung von Kompetenzkonflikten, Machtkämpfen oder auch Verunsicherung auf Seiten von Führungskräften, Projektleitern und Mitarbeitern sind in jeder Matrix die Rollen, deren Aufgaben, Verantwortungen und Kompetenzen zu klären. Die Grundlage schaffen Unternehmen, indem sie jede Rolle mit einem entsprechenden Profil hinterlegen, das die Aufgaben, Kompetenzen und Verantwortungen sowie die Eskalationsprozesse beschreibt – unter Berücksichtigung der Schnittstellen zu den anderen Rollen. Die Praxis zeigt immer wieder, dass diese Profile, wenn sie denn existieren, nicht allen bekannt sind oder auch unterschiedlich interpretiert werden. Insofern empfiehlt sich, in jedem neuen Projekt – auch wenn die Beteiligten noch so häufig bereits zusammengearbeitet haben – diese Punkte offen, klar und verbindlich zu thematisieren und auch fixieren.Als weitere Themen in diesen Gesprächen empfiehlt sich die Klärung der wechselseitigen Erwartungen und die Wege, beziehungsweise Stufen einer Eskalation. Dieser Klärungsprozess sollte vor Start der Arbeit in einem Projekt in alle Richtungen erfolgen: Also Projektleiter mit seinem Team und seinen beiden Bossen Auftraggeber und Führungskraft, darüber hinaus mit den verschiedenen Führungskräften der Projektmitarbeiter.Um dies für alle verbindlich festzuhalten und auch im stressigen Tagesgeschäft kontinuierlich transparent zu machen, hat sich die schriftliche Vereinbarung von Spielregeln bewährt – die dann häufig auch Aspekte des nächsten Punktes umfassen.2. Offene KommunikationFür diesen Klärungsprozess wie auch für die weitere Zusammenarbeit (nicht nur) in dieser Struktur ist eine offene, vertrauensvolle Kommunikation unabdingbar. Eine Hidden Agenda, und sei sie noch so menschlich, ist nicht hilfreich. Die Themen und Erwartungen gehören auf den Tisch und sind im Zweifel auszuhandeln. Dabei gilt: Jedes Thema, jede Erwartung ist möglich im Gespräch. Letztlich machen Ton und Form die Musik, die Inhalte folgen. Die Führungskräfte haben in diesem Zwei-Boss-System eine Vorbildfunktion, indem sie diese Offenheit vorleben und gerade kritische Themen ansprechen. Projektleiter sollten sich allerdings auch als Führungskraft verstehen und informieren, kommunizieren und fragen, fragen, fragen … : ihren Auftraggeber, das Projektteam, die Führungskräfte ihrer Teammitglieder.Dieses Verständnis von Kommunikation und vor allem dessen Umsetzung setzt eine entsprechende Haltung der Beteiligten voraus. Sie schafft auf allen Seiten die Grundlage für diesen Erfolgsfaktor, der im weiteren Projektverlauf seine Relevanz beweist. Denn jegliche Information zum Beispiel zu Umpriorisierungen, Terminverschiebungen, aber auch zu Überlastungen der Mitarbeiter muss offen an die entsprechenden Beteiligten weitergegeben und verhandelt bzw. diskutiert werden (können).3. Transparentes RessourcenmanagementWieviel Aufgaben von zwei oder auch mehr Seiten verträgt eine Struktur? Was kann bei wem noch eingeplant werden? Antworten auf diese Fragen sind für Führungskräfte in der Matrix mit der Einsteuerung von Aufgaben von mindestens einer zweiten Seite häufig schwierig. Die Folge ist die aufgezeigte Überlastung, der Frust der Mitarbeiter.Um dem entgegenzusteuern, ist ein Ressourcenmanagement unverzichtbar. In einem einfachen System werden den verfügbaren Mitarbeitertagen zum Beispiel eines Monats die zu leistenden Aufgaben mit den jeweiligen Aufwänden gegenübergestellt. Diese systematische Vorgehensweise schafft Transparenz und häufig überraschende Ergebnisse. Denn allein die Berücksichtigung von Abwesenheiten oder auch Grundlast bei der Ermittlung der Verfügbarkeiten verschiebt häufig das Bild erheblich: Wenn einerseits – zugegebenermaßen meistens – die Überlast so messbar wird, zeigt die Praxis auch Bereiche, in denen die bisher häufig beklagte Überlast nicht darstellbar war.Führungskräfte verfügen so über ein mächtiges Steuerungselement zur Einplanung von Aufgaben gerade in der Matrixorganisation – und damit zur Vermeidung der vielbesprochenen Überforderung von Mitarbeitern. Die Verantwortlichen für das Projektportfolio haben zudem Transparenz über die verfügbaren Projektressourcen und können diese den Prioritäten entsprechend verteilen. Dabei ist nicht zwingend ein komplexes Tool erforderlich, für einen Überblick reichen häufig Bordmittel aus. Wichtig ist, dass diese passgenau in Hinblick auf die zu erreichende Zielsetzung zugeschnitten sind und somit Aufwand und Nutzen in einem vertretbaren Verhältnis stehen.Organisationsform für die VUCA-WeltDie Matrixorganisation ist als Organisationsform etabliert und verspricht Flexibilität und optimierten Einsatz der Mitarbeiter. Qualitäten, die in der aktuellen VUCA-Welt mehr denn je vonnöten sind. Um eine Organisation als Matrix erfolgreich aufzustellen und die verschiedenen Störfaktoren auszuschließen, hat sich Folgendes bewährt: eine verbindliche Klärung der Rollen aller Beteiligten, eine offene Kommunikation in allen Richtungen und ein transparentes Ressourcenmanagement als Steuerungsinstrument für die Führungskräfte.Diese Faktoren erhalten in Zeiten von Remote Work und dem damit verbundenen reduzierten sozialen Austausch eine ganz neue, erheblich gesteigerte Relevanz. Wenn sie aber in der Unternehmenskultur verankert sind und von allen bewusst gelebt werden, wird aus der vielfach kritisierten Matrixorganisation ein Erfolgsmodell. (mb)

Matrixorganisation: Unternehmen effizient strukturieren​ Weiterlesen »

Tech-Mitarbeiter binden: Wie Arbeitgeber Fachkarrieren projektieren​

Allgemein

Die Implementierung eines stringenten Karrierekonzepts zur beruflichen Weiterentwicklung von Fachkräften kann für Unternehmen ein wichtiger Schlüssel zur Mitarbeiterbindung sein. Foto: VectorMine – shutterstock.comIn Sachen aktive Mitarbeiterbindung ist hierzulande noch viel Luft nach oben. Selbst in Gesprächen mit Entscheidern oberer Ebenen kommt gezielte Förderung gar nicht so häufig vor, wie man angesichts der Fachkräftelage meinen könnte. Mitarbeiterbindung hat viele Gesichter, so etwa konstruktive Führung und ein passendes Gesamtpakt. Was gut gemachte Expertenlaufbahnen angeht, so sind sie in Deutschland noch immer selten. Dabei liegen sie nahe: Die große Mehrheit aller Mitarbeiter bleibt ein Berufsleben lang Fachkraft. Experten sorgen für Wertschöpfung in Projekten und in agilen Settings, Fachkarrieren bieten ihnen strukturierte Entwicklung. Fachkarrieren sind kein Idealismus, sondern würdigen die ökonomische Bedeutung von Expertise. Es wäre geradezu unrentabel, Mitarbeiter mit Expertise für gefragte Jobrollen nicht zu binden. Außerdem ermöglichen Fachkarrieren interne Flexibilität. Experten, die sich verändern, verankern beim Wechsel wertvolles Know-how in anderen Bereichen – unbezahlbar. Das Unternehmen profitiert: Expertise spielt eine wesentliche Rolle bei der Vergabe von Aufträgen. Fachkarrieren untermauern weiterhin unternehmensweite Standards und sorgen für eine Weitergabe von Wissen. Last but not least: Gibt es Fachkarrieren, so muss der beste Experte nicht Führungskraft werden.Fehlstart in die Fachkarriere?Häufig starten Organisationen die Fachkarriere enthusiastisch, doch dann kommt das Projekt ins Stocken. Das passiert, wenn es kein klares Konzept gibt. Die Folge: Interne Stakeholder der Organisation sehen wenig Sinn oder Struktur in der Fachkarriere. Das Thema ist fortan belastet, ein Reset mühsam.Gut gemeint ist auch der “Wir-alle-zusammen”-Ansatz: Arbeitsgruppen erstellen umfangreiche Excel-Tabellen für die Fachkarriere, in denen fachliche Kompetenzen und Trends, Skills und soziale sowie persönliche Kompetenzen durcheinandergehen. Oft kommen dann Anrufe mit der Fragestellung, wie dieses Material in ein System zu bringen sei? Leider muss man dann sagen: Kaum, denn der Fokus muss auf den Beginn gerichtet sein. Eine Sammlung ohne Konzept bleibt ein Datenknäuel. In einer weiteren Variante befördert man einige Fachkräfte zu “Seniors”, nach dem Motto: “Sie sind unser bester Experte, ab jetzt steht Senior auf Ihrer Visitenkarte!” Sicher eine Würdigung, doch früher oder später fragen diejenigen Fachkräfte, die keine “Seniors” werden, danach was ihnen denn noch fehlt. Transparenz schafft Fairness und für Transparenz brauchen Sie klar definierte Anforderungen an Fachkarrierestufen. Mitarbeiterbindung: Systematik für FachkarrierenIT-Berufsgruppen und die Digitalwirtschaft sind geradezu prädestiniert für Fachkarrieren, denn dort findet man viele Fachenthusiasten und tiefe, wertige Expertisen. Auch Tech-Vertrieb eignet sich für Fachkarrieren: So können Einsteiger zum Beispiel Know-how in Sachen Produkte sowie Erfahrungen sammeln. Außerdem bekommen sie einen Eindruck davon, wie Kundenabschlüsse generiert werden. Fachkarrieren laufen in der Softwareentwicklung, in der Netzwerktechnik, in beratenden IT-Berufsgruppen, agilen Rollen und im Projektmanagement, um einige Beispiele zu nennen. Ein praxistaugliches Konzept ist Ihr Kompass zur erfolgreichen Einführung von Fachkarrieren. Klären Sie zum Start folgende Fragen:Welches Ziel verbinden Sie mit Fachkarrieren? Möchten Sie gute Experten binden, Ihren Kunden klar erkennbare Expertise bieten oder Fachkarrieren als Recruiting-Vorteil nutzen?Empfiehlt es sich, ein Pilotprojekt in einem Bereich zu starten? Welche Bereiche werden Sie perspektivisch in die Fachkarriere einbinden?Wie gestalten Sie Anforderungsprofile der Fachkarrierestufen? Wie bieten Sie Beschäftigen Orientierung dazu, was besser zu ihnen passt: eine Führungs- oder Expertenlaufbahn?Skizze einer Fachkarriere im Projektmanagement Foto: Regina BergdoltWas oft unterschätzt wird: Professionelle Fachkarrieren brauchen HR-Handwerk, Wissen zu Fachkarrieren und solides Projektmanagement. Fachkarrieren sind ein Querschnittsprojekt, das andere Themen berührt. Wer irgendwo anfängt, dem fehlt der rote Faden, und am Ende passen die Teilstücke nicht mehr zusammen. Wichtig ist es, die Stufen von Fachkarrieren präzise zu definieren; dazu gehören Fähigkeiten im Kompetenzmanagement. Es braucht keine langen Listen von fachlichen wie sozialen, methodischen und persönlichen Kompetenzen, bis keiner mehr durchblickt. Gutes HR-Management bedeutet, die entscheidenden Kompetenzen klar zu beschreiben. Das lohnt sich, denn so verbinden Sie Mitarbeiterentwicklung mit der Unternehmensentwicklung und bauen zukunftsweisende Kompetenzen auf. Zentrale Aufgabe ist es, Führungskräfte methodisch beim Fokussieren auf Kompetenzen zu unterstützen. Weiter entscheiden Sie über die grundsätzliche Ausrichtung Ihrer Fachkarriere. Es gibt verschiedene Modelle, die unterschiedlich aufgebaut sind und unterschiedlich viele Experten in die Fachkarriere einbeziehen. Welches Modell für ein Unternehmen das richtige ist, bestimmen dessen Ziele sowie internen Strukturen.Mitarbeiter binden: Fachkarrieren kommen anIch rate Kunden zum Einstieg über ein Pilotprojekt, das sich zunächst auf einen Bereich konzentriert. So entsteht ein interner Prototyp der Fachkarriere. Auf diese Weise können organisatorische Erfahrungen gesammelt und eine Marschroute für den Rollout festgelegt werden. Das ist wirksamer als umfassende Konzept-Papiertiger.Vorgehensmodell zur Einführung einer Fachkarriere im Unternehmen. Foto: Regina BergdoltJetzt oder nie: Packen Sie die Fachkarriere an. Sie machen so Expertisen sichtbar und fördern Fachcommunitys über Organisationsbereiche hinweg. Fachkarrieren bieten eine Alternative und verhindern persönliches Scheitern in Führungsrollen. Da erstaunlich wenige IT-Organisationen gute Fachkarrieren bieten, sind sie (noch) ein Alleinstellungsmerkmal. Oder, illustriert mit einer Geschichte aus der Praxis: In einem Unternehmen hatten wir gerade die Fachkarriere eingeführt. Ein Bewerber erläuterte uns, warum er wechseln wolle: Er erhalte einfach kein Feedback zu Entwicklungsmöglichkeiten bei seinem derzeitigen Arbeitgeber. Später sagte er uns, dass die Fachkarriere ein entscheidender Faktor für den Jobwechsel gewesen sei. (pg)Fachkarrieren als Erfolgsprojekt zur MitarbeiterbindungPraxistipps: Wie Sie Karrierekonzepte für Fachkräfte umsetzen Foto: Sergey Nivens – shutterstock.comFachkräfte sind für den Unternehmenserfolg unverzichtbar. Für Arbeitgeber ist es deshalb besonders sinnvoll, diesen Spezialisten von vorneherein Karrierechancen aufzuzeigen, ohne ihr Potenzial zwangsläufig in Führungspositionen zu vergeuden. HR- und Organisationsexpertin Regina Bergdolt gibt Tipps, wie der Projekte für Fachkarrieren erfolgreich geplant und umgesetzt werden. Projektplan festlegen Foto: Robert Kneschke – shutterstock.comDefinieren Sie klar verständliche Ziele und einen Projektplan mit Meilensteinen. Gerade Vorstände brauchen Systematik, um Fachkarrieren zu unterstützen und Ressourcen freizumachen.Stakeholder definieren Foto: Robert Kneschke – shutterstock.comKlären Sie in einer Stakeholderanalyse: Wer treibt die Fachkarriere mit Ihnen, ein Machtpromotor, Führungskräfte, Mitarbeiter, Bewerber?Projektleitung auswählen Foto: Matej Kastelic – shutterstock.comWählen Sie eine Projektleitung mit HR-Erfahrung und Standing. Nicht alle HR-Abteilungen sind schon erfahren im Projektmanagement; das können Sie ändern. Expertise sicherstellen Foto: Jacek Dudzinski – shutterstock.comHolen Sie sich die Expertise ins Projekt, die Sie benötigen, anstatt an kritischen Punkten hängen zu bleiben.Fachkarriere aktiv bewerben Foto: Andrey_Popov – shutterstock.comNutzen Sie die Fachkarriere schon im Projektstadium aktiv als Angebot des Unternehmens: auf der Karriereseite und im Gespräch mit Bewerbern. 

Tech-Mitarbeiter binden: Wie Arbeitgeber Fachkarrieren projektieren​ Die Implementierung eines stringenten Karrierekonzepts zur beruflichen Weiterentwicklung von Fachkräften kann für Unternehmen ein wichtiger Schlüssel zur Mitarbeiterbindung sein.
Foto: VectorMine – shutterstock.comIn Sachen aktive Mitarbeiterbindung ist hierzulande noch viel Luft nach oben. Selbst in Gesprächen mit Entscheidern oberer Ebenen kommt gezielte Förderung gar nicht so häufig vor, wie man angesichts der Fachkräftelage meinen könnte. Mitarbeiterbindung hat viele Gesichter, so etwa konstruktive Führung und ein passendes Gesamtpakt. Was gut gemachte Expertenlaufbahnen angeht, so sind sie in Deutschland noch immer selten. Dabei liegen sie nahe: Die große Mehrheit aller Mitarbeiter bleibt ein Berufsleben lang Fachkraft. Experten sorgen für Wertschöpfung in Projekten und in agilen Settings, Fachkarrieren bieten ihnen strukturierte Entwicklung. Fachkarrieren sind kein Idealismus, sondern würdigen die ökonomische Bedeutung von Expertise. Es wäre geradezu unrentabel, Mitarbeiter mit Expertise für gefragte Jobrollen nicht zu binden. Außerdem ermöglichen Fachkarrieren interne Flexibilität. Experten, die sich verändern, verankern beim Wechsel wertvolles Know-how in anderen Bereichen – unbezahlbar. Das Unternehmen profitiert: Expertise spielt eine wesentliche Rolle bei der Vergabe von Aufträgen. Fachkarrieren untermauern weiterhin unternehmensweite Standards und sorgen für eine Weitergabe von Wissen. Last but not least: Gibt es Fachkarrieren, so muss der beste Experte nicht Führungskraft werden.Fehlstart in die Fachkarriere?Häufig starten Organisationen die Fachkarriere enthusiastisch, doch dann kommt das Projekt ins Stocken. Das passiert, wenn es kein klares Konzept gibt. Die Folge: Interne Stakeholder der Organisation sehen wenig Sinn oder Struktur in der Fachkarriere. Das Thema ist fortan belastet, ein Reset mühsam.Gut gemeint ist auch der “Wir-alle-zusammen”-Ansatz: Arbeitsgruppen erstellen umfangreiche Excel-Tabellen für die Fachkarriere, in denen fachliche Kompetenzen und Trends, Skills und soziale sowie persönliche Kompetenzen durcheinandergehen. Oft kommen dann Anrufe mit der Fragestellung, wie dieses Material in ein System zu bringen sei? Leider muss man dann sagen: Kaum, denn der Fokus muss auf den Beginn gerichtet sein. Eine Sammlung ohne Konzept bleibt ein Datenknäuel. In einer weiteren Variante befördert man einige Fachkräfte zu “Seniors”, nach dem Motto: “Sie sind unser bester Experte, ab jetzt steht Senior auf Ihrer Visitenkarte!” Sicher eine Würdigung, doch früher oder später fragen diejenigen Fachkräfte, die keine “Seniors” werden, danach was ihnen denn noch fehlt. Transparenz schafft Fairness und für Transparenz brauchen Sie klar definierte Anforderungen an Fachkarrierestufen. Mitarbeiterbindung: Systematik für FachkarrierenIT-Berufsgruppen und die Digitalwirtschaft sind geradezu prädestiniert für Fachkarrieren, denn dort findet man viele Fachenthusiasten und tiefe, wertige Expertisen. Auch Tech-Vertrieb eignet sich für Fachkarrieren: So können Einsteiger zum Beispiel Know-how in Sachen Produkte sowie Erfahrungen sammeln. Außerdem bekommen sie einen Eindruck davon, wie Kundenabschlüsse generiert werden. Fachkarrieren laufen in der Softwareentwicklung, in der Netzwerktechnik, in beratenden IT-Berufsgruppen, agilen Rollen und im Projektmanagement, um einige Beispiele zu nennen. Ein praxistaugliches Konzept ist Ihr Kompass zur erfolgreichen Einführung von Fachkarrieren. Klären Sie zum Start folgende Fragen:Welches Ziel verbinden Sie mit Fachkarrieren? Möchten Sie gute Experten binden, Ihren Kunden klar erkennbare Expertise bieten oder Fachkarrieren als Recruiting-Vorteil nutzen?Empfiehlt es sich, ein Pilotprojekt in einem Bereich zu starten? Welche Bereiche werden Sie perspektivisch in die Fachkarriere einbinden?Wie gestalten Sie Anforderungsprofile der Fachkarrierestufen? Wie bieten Sie Beschäftigen Orientierung dazu, was besser zu ihnen passt: eine Führungs- oder Expertenlaufbahn?Skizze einer Fachkarriere im Projektmanagement
Foto: Regina BergdoltWas oft unterschätzt wird: Professionelle Fachkarrieren brauchen HR-Handwerk, Wissen zu Fachkarrieren und solides Projektmanagement. Fachkarrieren sind ein Querschnittsprojekt, das andere Themen berührt. Wer irgendwo anfängt, dem fehlt der rote Faden, und am Ende passen die Teilstücke nicht mehr zusammen. Wichtig ist es, die Stufen von Fachkarrieren präzise zu definieren; dazu gehören Fähigkeiten im Kompetenzmanagement. Es braucht keine langen Listen von fachlichen wie sozialen, methodischen und persönlichen Kompetenzen, bis keiner mehr durchblickt. Gutes HR-Management bedeutet, die entscheidenden Kompetenzen klar zu beschreiben. Das lohnt sich, denn so verbinden Sie Mitarbeiterentwicklung mit der Unternehmensentwicklung und bauen zukunftsweisende Kompetenzen auf. Zentrale Aufgabe ist es, Führungskräfte methodisch beim Fokussieren auf Kompetenzen zu unterstützen. Weiter entscheiden Sie über die grundsätzliche Ausrichtung Ihrer Fachkarriere. Es gibt verschiedene Modelle, die unterschiedlich aufgebaut sind und unterschiedlich viele Experten in die Fachkarriere einbeziehen. Welches Modell für ein Unternehmen das richtige ist, bestimmen dessen Ziele sowie internen Strukturen.Mitarbeiter binden: Fachkarrieren kommen anIch rate Kunden zum Einstieg über ein Pilotprojekt, das sich zunächst auf einen Bereich konzentriert. So entsteht ein interner Prototyp der Fachkarriere. Auf diese Weise können organisatorische Erfahrungen gesammelt und eine Marschroute für den Rollout festgelegt werden. Das ist wirksamer als umfassende Konzept-Papiertiger.Vorgehensmodell zur Einführung einer Fachkarriere im Unternehmen.
Foto: Regina BergdoltJetzt oder nie: Packen Sie die Fachkarriere an. Sie machen so Expertisen sichtbar und fördern Fachcommunitys über Organisationsbereiche hinweg. Fachkarrieren bieten eine Alternative und verhindern persönliches Scheitern in Führungsrollen. Da erstaunlich wenige IT-Organisationen gute Fachkarrieren bieten, sind sie (noch) ein Alleinstellungsmerkmal. Oder, illustriert mit einer Geschichte aus der Praxis: In einem Unternehmen hatten wir gerade die Fachkarriere eingeführt. Ein Bewerber erläuterte uns, warum er wechseln wolle: Er erhalte einfach kein Feedback zu Entwicklungsmöglichkeiten bei seinem derzeitigen Arbeitgeber. Später sagte er uns, dass die Fachkarriere ein entscheidender Faktor für den Jobwechsel gewesen sei. (pg)Fachkarrieren als Erfolgsprojekt zur MitarbeiterbindungPraxistipps: Wie Sie Karrierekonzepte für Fachkräfte umsetzen
Foto: Sergey Nivens – shutterstock.comFachkräfte sind für den Unternehmenserfolg unverzichtbar. Für Arbeitgeber ist es deshalb besonders sinnvoll, diesen Spezialisten von vorneherein Karrierechancen aufzuzeigen, ohne ihr Potenzial zwangsläufig in Führungspositionen zu vergeuden. HR- und Organisationsexpertin Regina Bergdolt gibt Tipps, wie der Projekte für Fachkarrieren erfolgreich geplant und umgesetzt werden. Projektplan festlegen
Foto: Robert Kneschke – shutterstock.comDefinieren Sie klar verständliche Ziele und einen Projektplan mit Meilensteinen. Gerade Vorstände brauchen Systematik, um Fachkarrieren zu unterstützen und Ressourcen freizumachen.Stakeholder definieren
Foto: Robert Kneschke – shutterstock.comKlären Sie in einer Stakeholderanalyse: Wer treibt die Fachkarriere mit Ihnen, ein Machtpromotor, Führungskräfte, Mitarbeiter, Bewerber?Projektleitung auswählen
Foto: Matej Kastelic – shutterstock.comWählen Sie eine Projektleitung mit HR-Erfahrung und Standing. Nicht alle HR-Abteilungen sind schon erfahren im Projektmanagement; das können Sie ändern. Expertise sicherstellen
Foto: Jacek Dudzinski – shutterstock.comHolen Sie sich die Expertise ins Projekt, die Sie benötigen, anstatt an kritischen Punkten hängen zu bleiben.Fachkarriere aktiv bewerben
Foto: Andrey_Popov – shutterstock.comNutzen Sie die Fachkarriere schon im Projektstadium aktiv als Angebot des Unternehmens: auf der Karriereseite und im Gespräch mit Bewerbern.

Tech-Mitarbeiter binden: Wie Arbeitgeber Fachkarrieren projektieren​ Weiterlesen »

Microsoft-Entlassungen treffen Entwickler am härtesten​

Allgemein

Immer mehr Code wird von KI geschrieben, wodurch Tech-Konzerne zunehmend Menschen aussortieren.Emagnetic / Shutterstock Da Künstliche Intelligenz (KI) immer mehr Aufgaben übernimmt, werden Berufe wie Programmierer zunehmend obsolet. So verkündete Microsoft-CEO Satya Nadella bereits im April, dass bis zu 30 Prozent des firmeneigenen Codes von KI geschrieben werde. Vergangene Woche gab Microsoft dann bekannt, dass das Unternehmen in seinem Heimatbundestaat Washington 2.000 Mitarbeitende entlässt. Laut Bloomberg waren Programmierer am stärksten von der Kündigungswelle betroffen. Kündigungen treffen Softwareentwickler am härtesten Wie das Nachrichtenportal basierend auf Beschäftigungsdaten des Bundesstaates herausfand, arbeiteten mehr als 40 Prozent der entlassenen IT-Spezialisten in der Softwareentwicklung. Dagegen waren laut Bloomberg relativ wenige Vertriebs- oder Marketingpositionen von den Kündigungen betroffen. Die jetzigen Personalmaßnahmen sind Teil der jüngsten Entlassungen bei Microsoft, von denen etwa insgesamt 6.000 Personen betroffen sind. Der Grund für diese Entscheidung scheint das allgemeine Umdenken in der Tech-Industrie zu sein. In guter Gesellschaft Mit der Idee Mitarbeitende durch KI zu ersetzen, ist der Tech-Riese nicht allein: Bereits im Februar 2025 kündigten Branchengrößen wie IBM und Sophos an, Stellen abzubauen und durch KI zu ersetzen. 

Microsoft-Entlassungen treffen Entwickler am härtesten​ Immer mehr Code wird von KI geschrieben, wodurch Tech-Konzerne zunehmend Menschen aussortieren.Emagnetic / Shutterstock

Da Künstliche Intelligenz (KI) immer mehr Aufgaben übernimmt, werden Berufe wie Programmierer zunehmend obsolet. So verkündete Microsoft-CEO Satya Nadella bereits im April, dass bis zu 30 Prozent des firmeneigenen Codes von KI geschrieben werde.

Vergangene Woche gab Microsoft dann bekannt, dass das Unternehmen in seinem Heimatbundestaat Washington 2.000 Mitarbeitende entlässt. Laut Bloomberg waren Programmierer am stärksten von der Kündigungswelle betroffen.

Kündigungen treffen Softwareentwickler am härtesten

Wie das Nachrichtenportal basierend auf Beschäftigungsdaten des Bundesstaates herausfand, arbeiteten mehr als 40 Prozent der entlassenen IT-Spezialisten in der Softwareentwicklung. Dagegen waren laut Bloomberg relativ wenige Vertriebs- oder Marketingpositionen von den Kündigungen betroffen.

Die jetzigen Personalmaßnahmen sind Teil der jüngsten Entlassungen bei Microsoft, von denen etwa insgesamt 6.000 Personen betroffen sind. Der Grund für diese Entscheidung scheint das allgemeine Umdenken in der Tech-Industrie zu sein.

In guter Gesellschaft

Mit der Idee Mitarbeitende durch KI zu ersetzen, ist der Tech-Riese nicht allein: Bereits im Februar 2025 kündigten Branchengrößen wie IBM und Sophos an, Stellen abzubauen und durch KI zu ersetzen.

Microsoft-Entlassungen treffen Entwickler am härtesten​ Weiterlesen »

SAP will KI allgegenwärtig machen​

Allgemein

width=”1888″ height=”1062″ sizes=”(max-width: 1888px) 100vw, 1888px”>KI soll die Art und Weise, wie Nutzerinnen und Nutzer mit SAP arbeiten, von Grund auf verändern.TenPixels – shutterstock.com „Wir machen wir KI für Unternehmen greifbar und treiben die digitale Transformation voran, damit unsere Kunden in einer zunehmend unberechenbaren Welt erfolgreich sein können“, verspricht SAP-Chef Christian Klein zur Eröffnung der diesjährigen Sapphire in Orlando, Florida. Der deutsche Softwarekonzern stellt dazu Erweiterungen von Joule, Partnerschaften mit anderen KI-Pionieren sowie neue Features für die Business Data Cloud und die Business Suite vor. „SAP kombiniert die weltweit leistungsfähigste Suite von Geschäftsanwendungen mit einer einzigartigen Datenvielfalt und den neuesten KI-Innovationen, um Mehrwerte für die Kunden zu schaffen“, so Klein.   KI greifbar machen und so die digitale Transformation vorantreiben – das ist der Plan, mit dem SAP-Chef Christian Klein seine Kunden überzeugen will.Christian Klein (SAP) / Supplied Sein Kollege Thomas Saueressig, als SAP-Vorstand verantwortlich für den Bereich Customer Services & Delivery, spricht zur diesjährigen Sapphire von einem regelrechten Feuerwerk an Innovationen. Der Blick des Managers richtet sich dabei vor allem auf SAPs Copiloten Joule und ein wachsendes Netz von KI-Agenten. Joule werde die Art und Weise verändern, wie Menschen arbeiten und Unternehmen funktionieren, stellt Saueressig seinen Kunden in Aussicht. 34.000 Betriebe würden bereits mit SAPs Business AI arbeiten. 230 AI-Szenarien seien heute schon fest im eigenen Softwarekosmos eingebettet – bis Ende 2025 sollen es über 400 sein. Joule soll User den ganzen Tag begleiten Joule soll als Begleiter der Anwenderinnen und Anwender allgegenwärtig werden, so der Plan der SAP-Verantwortlichen. Der KI-Assistent soll die User während ihres gesamten Tages begleiten können, sowohl innerhalb wie auch außerhalb des SAP-Anwendungsuniversums. Der Business-Copilot sei in der Lage, Daten zu finden, daraus Erkenntnisse in Echtzeit zu gewinnen und Arbeitsabläufe zu optimieren. Generative-AI-Funktionen: SAP stellt mit Joule einen eigenen KI-Bot vor Rund um Joule baut SAP zusätzliche Tools, um Anwendern die Nutzung des KI-Assistenten so komfortabel wie möglich zu machen. Beispielsweise soll es eine Art Aktionsleiste geben, die von SAP WalkMe angetrieben wird und das Nutzerverhalten über alle Anwendungen hinweg untersucht. Damit entwickle sich Joule zu einer proaktiven KI, die die Bedürfnisse der Nutzer vorhersehe, bevor sie entstehen, hieß es in einer Mitteilung des Softwarekonzerns. Zusätzlich will SAP seinen Kunden im Rahmen einer Partnerschaft mit Perplexity eine Business Answer Engine an die Hand geben. Damit könnten User auch außerhalb von SAP Fragen an Joule stellen. Anwender könnten eine Wirtschaftsmeldung auf einer Nachrichtenseite, beispielsweise zu neuen Zöllen, markieren und Joule direkt fragen, was dies für das eigene Business bedeute, beschreibt Saueressig ein mögliches Szenario. Der Copilot könne diese Meldung dann direkt mit Daten aus dem SAP-System verknüpfen und entsprechend Tipps geben, wie das Unternehmen angesichts der Veränderungen reagieren sollte. KI-Agenten unter Kontrolle Neben Joule arbeitet SAP eigenen Angaben zufolge mit Hochdruck am Bau weiterer KI-Agenten. Diese Agenten, die auf Geschäftsdaten aus der eigenen Business Data Cloud (BCD) basieren und von Joule orchestriert werden, sollen system- und bereichsübergreifend arbeiten können, um zu antizipieren, sich anzupassen und eigenständig zu handeln. Unternehmen könnten damit in einer sich schnell verändernden Welt agil bleiben, verspricht SAP. Zusätzlich kündigt SAP eine Art Betriebssystem für die KI-Entwicklung an. Die SAP AI Foundation biete Entwicklern Zugang zu allen Werkzeugen, die sie für den Aufbau, die Erweiterung und den Betrieb benutzerdefinierter KI-Lösungen benötigten. width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/6v903pU89NSQ7NqzN8GPKx?utm_source=oembed”> Damit Anwenderunternehmen angesichts immer zahlreicherer KI-Agenten nicht den Überblick verlieren, hat SAP außerdem eine erweiterte Bibliothek von KI-Agenten vorgestellt. Darüber hinaus arbeitet SAP mit anderen KI-Anbietern zusammen, um ein Ökosystem interoperabler Agenten auf die Beine zu stellen, die End-to-End-Prozesse ausführen können. SAP-Manager Saueressig nennt an dieser Stelle Googles A2A-Initiative. Das Agent-to-Agent-Protocol soll plattformübergreifend Spezifikationen anbieten, damit KI-Agenten verschiedener Anbieter interagieren können. SAP kooperiert mit Palantir Für die Business Data Cloud (BDC) hat SAP außerdem neue intelligente Anwendungen sogenannte Insight Apps angekündigt. Diese Apps sollen Unternehmen helfen, Routinearbeiten durch eine Kombination aus Standardgeschäftskennzahlen, KI-Modellen und integrierten Planungsfunktionen zu optimieren. Der Softwarekonzern nennt als Beispiel die Anwendung People Intelligence. Diese verknüpft Daten zu Mitarbeitern und Fähigkeiten aus der SAP SuccessFactors HCM Suite für tiefere Einblicke in die Belegschaft. Mit Hilfe KI-gesteuerter Empfehlungen sollen Führungskräfte die Teamleistung optimieren, das Mitarbeiterwachstum fördern und die Einhaltung von Vorschriften gewährleisten können, hieß es. In Sachen Datenanalysen will SAP außerdem enger mit dem Analytics-Spezialisten Palantir zusammenarbeiten. Die Nutzung der entsprechenden Werkzeuge im SAP-Kontext sei jedoch optional, relativiert Saueressig und versucht so Bedenken hinsichtlich der Kooperation mit dem umstrittenen Softwareanbieter zu zerstreuen. Vor allem Kunden in den USA nutzten die Tools von Palantir, begründet der SAP-Manager die engere Zusammenarbeit. Wer hat S/4HANA gesehen? Den Schlussakkord in SAPs Dreiklang aus Geschäftsdaten, Business AI und Geschäftsanwendungen setzt die Business Suite. Zur Sapphire stellt der Softwarehersteller zusätzliche Pakete für dedizierte Anwendungsbereiche vor – beispielsweise Finance, Supply Chain Management (SCM), Human Capital Management (HCM), das Strategic Procurement und das Kundenmanagement. Unter dem im Februar dieses Jahres vorgestellten Label Business Suite, mit der der Konzern in alten On-Premises-Zeiten große Erfolge gefeiert hatte, versteht SAP ein modulares Set verschiedener miteinander integrierter Lösungen. Konkret nennt der Anbieter Cloud ERP, Business Applikationen, die Business Data Cloud und Business AI sowie als gemeinsame Basis die Business Technology Platform (BTP). Mit integriert ist außerdem SAP Build, um Kunden dabei zu helfen, ihre Anwendungen an individuelle Anforderungen anzupassen – ohne dabei allerdings in ein zu starkes Customizing abzudriften und immer einen „Clean Core“ zu behalten. SAP baut neue Business Suite in der Cloud Auffallend an dieser Stelle: SAP spricht im Zusammenhang mit Business-Anwendungen nur noch von Cloud ERP und der Business Suite. Der Name S/4HANA, der die Strategie der SAP im zurückliegenden Jahrzehnt maßgeblich bestimmt hat, fällt gar nicht mehr. In einem 26-seitigen Innovation-Guide, den SAP zu Sapphire 2025 veröffentlicht hat, wird S/4HANA kein einziges Mal erwähnt. Inwieweit damit ein regelrechter Strategiewechsel einhergeht oder ob es sich lediglich um ein Umlabeln handelt, ist noch nicht klar ersichtlich. Vielleicht möchte SAP an dieser Stelle auch einen Schlussstrich ziehen unter die ständigen Migrationsdiskussionen der vergangenen Jahre. Viele Unternehmen verbinden mit S/4HANA langwierige und kostenintensive Umstiegsprojekte und haben vielfach noch gar damit nicht angefangen, obwohl das Support-Ende für das Vorgänger-Release immer näher rückt. SAP verspricht einfachere Preis- und Lizenzmodelle SAP-Vorstand Saueressig verspricht seinen Kunden zur diesjährigen Sapphire jedenfalls, dass künftig vieles einfacher soll – angefangen von der Migration bis hin zu den Preis- und Lizenzmodellen. Die Transition Guidance soll Anwenderunternehmen dabei helfen, schneller in die Cloud zu wechseln. Mit Joule als Einstiegspunkt und auf der Grundlage von Erkenntnissen aus SAP-Lösungen wie SAP Signavio und SAP LeanIX liefere die App personalisierte Anleitungen und umsetzbare Empfehlungen, die auf die Transformationsziele eines Unternehmens zugeschnitten seien, versprechen die Walldorfer. width=”1600″ height=”900″ sizes=”(max-width: 1600px) 100vw, 1600px”>SAP-Vorstand Thomas Saueressig verspricht seinen Kunden, dass vieles im Umgang mit der SAP künftig einfacher werde – von der Migration bis hin zu Preis- und Lizenzmodellen.SAP Für die Business Suite in der Cloud soll es in Zukunft ein vereinfachtes Service- und Supportmodell in drei Stufen geben: Der Foundational Plan erweitert den Support, der mit jedem Cloud-Lizenz-Abonnement geliefert wird, um ein verbessertes Onboarding. Cloud-ERP-Privatkunden haben außerdem Zugang zu Services zur Vorbereitung der Transformation. Der Advanced Plan beinhaltet den Foundational Plan plus ein höheres Maß an fortlaufendem Service, Beratung, Anleitung und Lösungsaktivierung, um Kunden bei der Umstellung auf die Public Cloud und einen sauberen Kern zu unterstützen. Der Max Plan enthält alle Angebote des Basisplans und des erweiterten Plans sowie einen maßgeschneiderten Ansatz zur Begleitung komplexer, unternehmensweiter Transformationen. „Wir wollen näher am Kunden sein und deren Transformation begleiten“, verspricht Saueressig und verweist noch einmal auf den Dreiklang aus Daten, Applikationen und KI. Der Business Kontext mache den Unterschied. SAP sitze mit seinen Lösungen am richtigen Hebel. Der SAP-Mann gibt sich selbstbewusst: „Wir halten nicht nur Schritt mit den Entwicklungen, sondern wir sind Schrittmacher.“   

SAP will KI allgegenwärtig machen​ width=”1888″ height=”1062″ sizes=”(max-width: 1888px) 100vw, 1888px”>KI soll die Art und Weise, wie Nutzerinnen und Nutzer mit SAP arbeiten, von Grund auf verändern.TenPixels – shutterstock.com

„Wir machen wir KI für Unternehmen greifbar und treiben die digitale Transformation voran, damit unsere Kunden in einer zunehmend unberechenbaren Welt erfolgreich sein können“, verspricht SAP-Chef Christian Klein zur Eröffnung der diesjährigen Sapphire in Orlando, Florida. Der deutsche Softwarekonzern stellt dazu Erweiterungen von Joule, Partnerschaften mit anderen KI-Pionieren sowie neue Features für die Business Data Cloud und die Business Suite vor. „SAP kombiniert die weltweit leistungsfähigste Suite von Geschäftsanwendungen mit einer einzigartigen Datenvielfalt und den neuesten KI-Innovationen, um Mehrwerte für die Kunden zu schaffen“, so Klein.  

KI greifbar machen und so die digitale Transformation vorantreiben – das ist der Plan, mit dem SAP-Chef Christian Klein seine Kunden überzeugen will.Christian Klein (SAP) / Supplied

Sein Kollege Thomas Saueressig, als SAP-Vorstand verantwortlich für den Bereich Customer Services & Delivery, spricht zur diesjährigen Sapphire von einem regelrechten Feuerwerk an Innovationen. Der Blick des Managers richtet sich dabei vor allem auf SAPs Copiloten Joule und ein wachsendes Netz von KI-Agenten.

Joule werde die Art und Weise verändern, wie Menschen arbeiten und Unternehmen funktionieren, stellt Saueressig seinen Kunden in Aussicht. 34.000 Betriebe würden bereits mit SAPs Business AI arbeiten. 230 AI-Szenarien seien heute schon fest im eigenen Softwarekosmos eingebettet – bis Ende 2025 sollen es über 400 sein.

Joule soll User den ganzen Tag begleiten

Joule soll als Begleiter der Anwenderinnen und Anwender allgegenwärtig werden, so der Plan der SAP-Verantwortlichen. Der KI-Assistent soll die User während ihres gesamten Tages begleiten können, sowohl innerhalb wie auch außerhalb des SAP-Anwendungsuniversums. Der Business-Copilot sei in der Lage, Daten zu finden, daraus Erkenntnisse in Echtzeit zu gewinnen und Arbeitsabläufe zu optimieren.

Generative-AI-Funktionen: SAP stellt mit Joule einen eigenen KI-Bot vor

Rund um Joule baut SAP zusätzliche Tools, um Anwendern die Nutzung des KI-Assistenten so komfortabel wie möglich zu machen. Beispielsweise soll es eine Art Aktionsleiste geben, die von SAP WalkMe angetrieben wird und das Nutzerverhalten über alle Anwendungen hinweg untersucht. Damit entwickle sich Joule zu einer proaktiven KI, die die Bedürfnisse der Nutzer vorhersehe, bevor sie entstehen, hieß es in einer Mitteilung des Softwarekonzerns.

Zusätzlich will SAP seinen Kunden im Rahmen einer Partnerschaft mit Perplexity eine Business Answer Engine an die Hand geben. Damit könnten User auch außerhalb von SAP Fragen an Joule stellen. Anwender könnten eine Wirtschaftsmeldung auf einer Nachrichtenseite, beispielsweise zu neuen Zöllen, markieren und Joule direkt fragen, was dies für das eigene Business bedeute, beschreibt Saueressig ein mögliches Szenario. Der Copilot könne diese Meldung dann direkt mit Daten aus dem SAP-System verknüpfen und entsprechend Tipps geben, wie das Unternehmen angesichts der Veränderungen reagieren sollte.

KI-Agenten unter Kontrolle

Neben Joule arbeitet SAP eigenen Angaben zufolge mit Hochdruck am Bau weiterer KI-Agenten. Diese Agenten, die auf Geschäftsdaten aus der eigenen Business Data Cloud (BCD) basieren und von Joule orchestriert werden, sollen system- und bereichsübergreifend arbeiten können, um zu antizipieren, sich anzupassen und eigenständig zu handeln. Unternehmen könnten damit in einer sich schnell verändernden Welt agil bleiben, verspricht SAP.

Zusätzlich kündigt SAP eine Art Betriebssystem für die KI-Entwicklung an. Die SAP AI Foundation biete Entwicklern Zugang zu allen Werkzeugen, die sie für den Aufbau, die Erweiterung und den Betrieb benutzerdefinierter KI-Lösungen benötigten.

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/6v903pU89NSQ7NqzN8GPKx?utm_source=oembed”>

Damit Anwenderunternehmen angesichts immer zahlreicherer KI-Agenten nicht den Überblick verlieren, hat SAP außerdem eine erweiterte Bibliothek von KI-Agenten vorgestellt. Darüber hinaus arbeitet SAP mit anderen KI-Anbietern zusammen, um ein Ökosystem interoperabler Agenten auf die Beine zu stellen, die End-to-End-Prozesse ausführen können. SAP-Manager Saueressig nennt an dieser Stelle Googles A2A-Initiative. Das Agent-to-Agent-Protocol soll plattformübergreifend Spezifikationen anbieten, damit KI-Agenten verschiedener Anbieter interagieren können.

SAP kooperiert mit Palantir

Für die Business Data Cloud (BDC) hat SAP außerdem neue intelligente Anwendungen sogenannte Insight Apps angekündigt. Diese Apps sollen Unternehmen helfen, Routinearbeiten durch eine Kombination aus Standardgeschäftskennzahlen, KI-Modellen und integrierten Planungsfunktionen zu optimieren. Der Softwarekonzern nennt als Beispiel die Anwendung People Intelligence. Diese verknüpft Daten zu Mitarbeitern und Fähigkeiten aus der SAP SuccessFactors HCM Suite für tiefere Einblicke in die Belegschaft. Mit Hilfe KI-gesteuerter Empfehlungen sollen Führungskräfte die Teamleistung optimieren, das Mitarbeiterwachstum fördern und die Einhaltung von Vorschriften gewährleisten können, hieß es.

In Sachen Datenanalysen will SAP außerdem enger mit dem Analytics-Spezialisten Palantir zusammenarbeiten. Die Nutzung der entsprechenden Werkzeuge im SAP-Kontext sei jedoch optional, relativiert Saueressig und versucht so Bedenken hinsichtlich der Kooperation mit dem umstrittenen Softwareanbieter zu zerstreuen. Vor allem Kunden in den USA nutzten die Tools von Palantir, begründet der SAP-Manager die engere Zusammenarbeit.

Wer hat S/4HANA gesehen?

Den Schlussakkord in SAPs Dreiklang aus Geschäftsdaten, Business AI und Geschäftsanwendungen setzt die Business Suite. Zur Sapphire stellt der Softwarehersteller zusätzliche Pakete für dedizierte Anwendungsbereiche vor – beispielsweise Finance, Supply Chain Management (SCM), Human Capital Management (HCM), das Strategic Procurement und das Kundenmanagement.

Unter dem im Februar dieses Jahres vorgestellten Label Business Suite, mit der der Konzern in alten On-Premises-Zeiten große Erfolge gefeiert hatte, versteht SAP ein modulares Set verschiedener miteinander integrierter Lösungen. Konkret nennt der Anbieter Cloud ERP, Business Applikationen, die Business Data Cloud und Business AI sowie als gemeinsame Basis die Business Technology Platform (BTP). Mit integriert ist außerdem SAP Build, um Kunden dabei zu helfen, ihre Anwendungen an individuelle Anforderungen anzupassen – ohne dabei allerdings in ein zu starkes Customizing abzudriften und immer einen „Clean Core“ zu behalten.

SAP baut neue Business Suite in der Cloud

Auffallend an dieser Stelle: SAP spricht im Zusammenhang mit Business-Anwendungen nur noch von Cloud ERP und der Business Suite. Der Name S/4HANA, der die Strategie der SAP im zurückliegenden Jahrzehnt maßgeblich bestimmt hat, fällt gar nicht mehr. In einem 26-seitigen Innovation-Guide, den SAP zu Sapphire 2025 veröffentlicht hat, wird S/4HANA kein einziges Mal erwähnt.

Inwieweit damit ein regelrechter Strategiewechsel einhergeht oder ob es sich lediglich um ein Umlabeln handelt, ist noch nicht klar ersichtlich. Vielleicht möchte SAP an dieser Stelle auch einen Schlussstrich ziehen unter die ständigen Migrationsdiskussionen der vergangenen Jahre. Viele Unternehmen verbinden mit S/4HANA langwierige und kostenintensive Umstiegsprojekte und haben vielfach noch gar damit nicht angefangen, obwohl das Support-Ende für das Vorgänger-Release immer näher rückt.

SAP verspricht einfachere Preis- und Lizenzmodelle

SAP-Vorstand Saueressig verspricht seinen Kunden zur diesjährigen Sapphire jedenfalls, dass künftig vieles einfacher soll – angefangen von der Migration bis hin zu den Preis- und Lizenzmodellen. Die Transition Guidance soll Anwenderunternehmen dabei helfen, schneller in die Cloud zu wechseln. Mit Joule als Einstiegspunkt und auf der Grundlage von Erkenntnissen aus SAP-Lösungen wie SAP Signavio und SAP LeanIX liefere die App personalisierte Anleitungen und umsetzbare Empfehlungen, die auf die Transformationsziele eines Unternehmens zugeschnitten seien, versprechen die Walldorfer.

width=”1600″ height=”900″ sizes=”(max-width: 1600px) 100vw, 1600px”>SAP-Vorstand Thomas Saueressig verspricht seinen Kunden, dass vieles im Umgang mit der SAP künftig einfacher werde – von der Migration bis hin zu Preis- und Lizenzmodellen.SAP

Für die Business Suite in der Cloud soll es in Zukunft ein vereinfachtes Service- und Supportmodell in drei Stufen geben:

Der Foundational Plan erweitert den Support, der mit jedem Cloud-Lizenz-Abonnement geliefert wird, um ein verbessertes Onboarding. Cloud-ERP-Privatkunden haben außerdem Zugang zu Services zur Vorbereitung der Transformation.

Der Advanced Plan beinhaltet den Foundational Plan plus ein höheres Maß an fortlaufendem Service, Beratung, Anleitung und Lösungsaktivierung, um Kunden bei der Umstellung auf die Public Cloud und einen sauberen Kern zu unterstützen.

Der Max Plan enthält alle Angebote des Basisplans und des erweiterten Plans sowie einen maßgeschneiderten Ansatz zur Begleitung komplexer, unternehmensweiter Transformationen.

„Wir wollen näher am Kunden sein und deren Transformation begleiten“, verspricht Saueressig und verweist noch einmal auf den Dreiklang aus Daten, Applikationen und KI. Der Business Kontext mache den Unterschied. SAP sitze mit seinen Lösungen am richtigen Hebel. Der SAP-Mann gibt sich selbstbewusst: „Wir halten nicht nur Schritt mit den Entwicklungen, sondern wir sind Schrittmacher.“  

SAP will KI allgegenwärtig machen​ Weiterlesen »

KI-Tutorial für bessere Helpdesks​

Allgemein

Helpdesks mit KI-Unterstützung arbeiten nicht nur schneller – sie tragen auch zur Kunden- und Mitarbeiterzufriedenheit bei.Jacob Lund | shutterstock.com Service-orientierte Unternehmen bearbeiten jeden Tag Tausende von Kunden-E-Mails. Das stellt für die IT-Helpdesks und Customer-Service-Organisationen, die diese Nachrichten lesen, priorisieren und beantworten müssen, eine erhebliche Belastung dar. In vielen Fällen bekommen Kunden deswegen (mindestens) verzögertes Feedback, was sich wiederum negativ auf die Kundenzufriedenheit und -bindung auswirkt.   Um die Reaktionszeit von (IT-)Helpdesks zu optimieren, ist es entscheidend, Anfragen präzise zu klassifizieren und priorisieren. Mit einer Kombination aus Textklassifizierung und Sentimentanalysen können Unternehmen noch einen Schritt weiter gehen und die E-Mail-Triage automatisieren. Das ermöglicht, den Helpdesk zu skalieren, zu optimieren und parallel die Betriebskosten zu senken. In diesem Tutorial lesen Sie, wie Sie das ganz konkret umsetzen. Helpdesk-Problem trifft Lösung Das Problem Bei der herkömmlichen E-Mail-Triage müssen menschliche Mitarbeiter E-Mails lesen, kategorisieren und priorisieren. Dieser Ansatz ist: langsam, weil die Mitarbeiter mit einer Flut von E-Mails konfrontiert sind. inkonsistent, weil die Möglichkeit besteht, dass verschiedene Mitarbeiter dieselbe Nachricht unterschiedlich klassifizieren. fehleranfällig, weil kritische Probleme in der Hektik unter den Tisch fallen können. Diese Ineffizienzen lassen sich KI-gestützt, beziehungsweise mit Machine Learning (ML) automatisieren. Der Lösungsansatz E-Mails, die beim Helpdesk auflaufen, lassen sich in der Regel in eine von sechs Kategorien einordnen. Sie beziehen sich in aller Regel auf: Anforderungen (Anfragen nach neuen Features oder Funktionen, die noch nicht vorhanden sind), Verbesserungen (Vorschläge, um bestehende Features oder Funktionen zu optimieren), Fehlermeldungen (Systemfehler, Ausfälle oder sonstiges, unerwartetes Verhalten), Sicherheitsprobleme (Sicherheitslücken, Breaches oder Datenlecks), Feedback (allgemeine positive und negative Vorschläge zum Produkt oder Service), oder Konfigurationsprobleme (Schwierigkeiten bei der Einrichtung von Systemen). Jenseits der Kategorisierung ist es mit Hilfe von Sentiment- beziehungsweise Stimmungsanalysen möglich, auch den emotionalen „Tonfall“ von E-Mails zu erfassen. Das kann zu einer besseren Priorisierung beitragen. Nachfolgend einige Beispiele, wie das mit unserer Lösung konkret aussehen soll.   Positives Sentiment: „Ich finde diese Funktion toll, aber können wir X hinzufügen?“. Diese Nachricht wird an das für Verbesserungen zuständige Team weitergeleitet und mit niedriger Priorität gekennzeichnet. Neutrales Sentiment: „Ich habe einen Fehler im Anmeldesystem gefunden“. Diese Nachricht wird an das Bug-Fixing-Team weitergereicht und mit mittlerer Priorität versehen. Negatives Sentiment: „Ihre App ist furchtbar und die Anmeldung funktioniert nicht!“. Diese E-Mail geht an das Team, das für kritische Fehler zuständig ist und wird mit hoher Priorität gekennzeichnet. Der Trainingsdatensatz Wir haben speziell für dieses Projekt einen Dummy-Datensatz erstellt, der Helpdesk-E-Mail-Inhalte simuliert und gelabelte Beispiele aus den oben aufgeführten Kategorien enthält. Jede E-Mail ist zudem mit einem Sentiment-Label ausgestattet, um damit sowohl die Kategorisierung als auch die Priorisierung zu unterstützen. Den Trainingsdatensatz können Sie direkt über dieses GitHub-Repository abrufen. Den vollständige Code für dieses Projekt finden Sie hier. KI-Helpdesk-Lösung umsetzen Im Folgenden lesen Sie, wie Sie die eben beschriebene Lösung ganz konkret in sechs Schritten realisieren. 1. Bibliotheken importieren Unsere Implementierung basiert auf folgenden Komponenten: Pandas für die Datenbearbeitung, NLTK für Natural Language Processing, SentimentIntensityAnalyzer für Sentimentanalysen und Scikit-learn für die Textklassifizierung (unter Verwendung des Multinomial-Naive-Bayes-Klassifikators). import pandas as pd import nltk from nltk.sentiment import SentimentIntensityAnalyzer from sklearn.naive_bayes import MultinomialNB 2. Trainingsdaten vorverarbeiten Indem wir Sonderzeichen, Bindewörter und Artikel entfernen und Wörter per Lemmatisierung auf ihre Grundform reduzieren, verarbeiten wir die Trainingsdaten vor. Diese Maßnahmen verbessern die Datenqualität und damit die Modell-Performance. nltk.download(‘stopwords’) nltk.download(‘wordnet’) nltk.download(‘vader_lexicon’) from nltk.corpus import stopwords from nltk.stem import WordNetLemmatizer #object of WordNetLemmatizer lm = WordNetLemmatizer() def text_transformation(df_col): corpus = [] for item in df_col: new_item = re.sub(‘[^a-zA-Z]’,’ ‘,str(item)) new_item = new_item.lower() new_item = new_item.split() new_item = [lm.lemmatize(word) for word in new_item if word not in set(stopwords.words(‘english’))] corpus.append(‘ ‘.join(str(x) for x in new_item)) return corpus corpus = text_transformation(df_train[‘text’]) Mit CountVectorizer (ebenfalls Bestandteil von Scikit-learn) wandeln wir die Textdaten nun zu Machine-Learning-Zwecken in numerische Daten um. cv = CountVectorizer(ngram_range=(1,2)) traindata = cv.fit_transform(corpus) X = traindata y = df_train.label In diesem Code-Snippet ist zu beachten, dass: CountVectorizer(ngram_range=(1, 2)) den vorverarbeiteten E-Mail-Text (aus dem Korpus) in eine Matrix mit Token-Zählungen umwandelt, die sowohl Unigramme (Einzelwörter) als auch Bigramme (Wortpaare) enthält. X die Feature-Matrix darstellt, die verwendet wird, um das Modell zu trainieren. y die Zielvariable verkörpert, die die E-Mail-Kategorien enthält. 3. Klassifizierungsmodell trainieren Wie bereits erwähnt, verwenden wir das Multinomial-Naïve-Bayes (MNB)-Modell. So können wir unsere Trainingsvektoren an die Werte der Zielvariablen anpassen. classifier = MultinomialNB() classifier.fit(X, y) Dieser probabilistische Algorithmus eignet sich besonders gut für Textklassifizierungsaufgaben, bei denen die Merkmale auf Wortzählungen oder -häufigkeiten basieren. Das passt besonders gut zu unseren Daten, weil: diese aus gelabelten E-Mail-Texten bestehen, deren Features (Wörter und Sätze) naturgemäß als diskrete Zählungen oder Häufigkeiten dargestellt werden. der Output von CountVectorizer oder TfidfVectorizer eine große Sparse-Matrix mit Wortvorkommen kreiert, die das MNB-Modell effizient und effektiv verarbeitet – ohne Overfitting. wir E-Mails in sechs verschiedene Klassen einordnen und MNB standardmäßig Multi-Class-Klassifizierung unterstützt. das MNB-Modell leichtgewichtig ist und ein besonders schnelles Modelltraining gewährleistet – was insbesondere hilfreich ist, wenn Sie Feature Engineering iterieren oder mit Dummy-Datensätzen arbeiten. MNB bei Textklassifizierungsaufgaben selbst mit minimaler Feinabstimmung in aller Regel gute Ergebnisse liefert. Multinomial Naïve Bayes ist ein simpler und effektiver Startpunkt – es ist jedoch ganz generell zu empfehlen, mehrere ML-Algorithmen zu testen. So können etwa auch das Regressionsmodell, Support Vector Machines, Entscheidungsbäume oder Deep-Learning-Modelle wie LSTM und BERT gute Textklassifizierungsergebnisse liefern. Um die Performanz verschiedener ML-Modelle miteinander zu vergleichen, kommen Bewertungs-Metriken zum Einsatz wie: Genauigkeit: Der Prozentsatz der insgesamt korrekten Vorhersagen. Die Genauigkeit ist am höchsten, wenn die Klassen ausgewogen sind. Präzision: Der Prozentsatz aller E-Mails, die das Modell einer bestimmte Kategorie korrekt zugeordnet hat. Recall: Der Prozentsatz aller vom Modell korrekt identifizierten und kategorisierten E-Mails. F1-Score: Der Mittelwert aus Präzision und Recall. Der F1-Score bietet ein ausgewogenes Maß für die Performance, wenn sowohl falsche Positive als auch falsche Negative eine Rolle spielen. Support: Gibt an, wie viele tatsächliche Beispiele für jede Klasse vorgelegen haben. Diese Metrik ist hilfreich, um die Klassenverteilung zu verstehen. 4. Klassifizierungsmodell testen und bewerten Im nachfolgende Code-Snippet werden in Kombination: Testdaten vorverarbeitet, Zielwerte aus den Testdaten vorhergesagt, sowie die Modellleistung durch die Confusion Matrix dargestellt und Genauigkeit, Präzision und Recall berechnet. Dann vergleicht die Confusion-Matrix die Vorhersagen des Modells mit den tatsächlichen Labels. Der folgende Klassifizierungs-Report fasst die Bewertungsmetriken für jede Klasse zusammen. #Reading Test Data test_df = pd.read_csv(test_Data.txt’,delimiter=’;’,names=[‘text’,’label’]) # Applying same transformation as on Train Data X_test,y_test = test_df.text,test_df.label #pre-processing of text test_corpus = text_transformation(X_test) #convert text data into vectors testdata = cv.transform(test_corpus) #predict the target predictions = clf.predict(testdata) #evaluating model performance parameters mlp.rcParams[‘figure.figsize’] = 10,5 plot_confusion_matrix(y_test,predictions) print(‘Accuracy_score: ‘, accuracy_score(y_test,predictions)) print(‘Precision_score: ‘, precision_score(y_test,predictions,average=’micro’)) print(‘Recall_score: ‘, recall_score(y_test,predictions,average=’micro’)) print(classification_report(y_test,predictions)) IDG IDG Die akzeptablen Schwellenwerte variieren zwar je nach Anwendungsfall, aber ein F1-Wert über 0,80 gilt im Allgemeinen als gut, wenn es um Multi-Class-Textklassifizierungen geht. Entsprechend demonstriert der F1-Wert von 0,8409, dass unser Modell in allen sechs E-Mail-Kategorien zuverlässig funktioniert. Folgende Faustregeln sollten Sie mit Blick auf die Performance-Metriken im Hinterkopf behalten: Wenn sowohl die Genauigkeit als auch der F1-Wert über 0,80 liegen, gilt das Modell für viele Business-Szenarien als produktionsreif. Wenn der Recall-Wert niedrig ist, entgehen dem Modell möglicherweise wichtige Fälle – was für E-Mail-Triage entscheidend ist. Wenn der Präzisionswert niedrig ist, flaggt das Modell möglicherweise bestimmte E-Mails falsch, was bei sensiblen Kategorien wie IT Security problematisch ist. 5. Sentimentanalyse integrieren Um E-Mails nach Sentiment zu bewerten, integrieren wir nun den SentimentIntensityAnalyzer von NLTK. Dabei setzen wir setzen die Priorität für negative Stimmung auf hoch, für neutrale auf mittel und für positive auf niedrig. sia = SentimentIntensityAnalyzer() def get_sentiment(text): # Predict Category (Ensure it is a string) category = clf.predict(cv.transform([text]))[0] # Extract first element # Sentiment Analysis sentiment_score = sia.polarity_scores(text)[‘compound’] if sentiment_score >= 0.05: sentiment = “Positive” elif sentiment_score 6. Testing Beispiel 1 email_sentiments = get_sentiment(‘Your app is terrible and not secure, login doesn’t work!’) print(email_sentiments) Output – { ‘Category’: ‘SecurityIssues’, ‘Sentiment’: ‘Negative’,’Priority’: ‘High’} Beispiel 2 email_sentiments = get_sentiment(‘Add advanced filtering and export options for reports’) print(email_sentiments) Output – { ‘Category’: ‘RequirementEnhancement’,’Sentiment’: ‘Positive’,’Priority’: ‘Low’ } (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

KI-Tutorial für bessere Helpdesks​ Helpdesks mit KI-Unterstützung arbeiten nicht nur schneller – sie tragen auch zur Kunden- und Mitarbeiterzufriedenheit bei.Jacob Lund | shutterstock.com

Service-orientierte Unternehmen bearbeiten jeden Tag Tausende von Kunden-E-Mails. Das stellt für die IT-Helpdesks und Customer-Service-Organisationen, die diese Nachrichten lesen, priorisieren und beantworten müssen, eine erhebliche Belastung dar. In vielen Fällen bekommen Kunden deswegen (mindestens) verzögertes Feedback, was sich wiederum negativ auf die Kundenzufriedenheit und -bindung auswirkt.  

Um die Reaktionszeit von (IT-)Helpdesks zu optimieren, ist es entscheidend, Anfragen präzise zu klassifizieren und priorisieren. Mit einer Kombination aus Textklassifizierung und Sentimentanalysen können Unternehmen noch einen Schritt weiter gehen und die E-Mail-Triage automatisieren. Das ermöglicht, den Helpdesk zu skalieren, zu optimieren und parallel die Betriebskosten zu senken. In diesem Tutorial lesen Sie, wie Sie das ganz konkret umsetzen.

Helpdesk-Problem trifft Lösung

Das Problem

Bei der herkömmlichen E-Mail-Triage müssen menschliche Mitarbeiter E-Mails lesen, kategorisieren und priorisieren. Dieser Ansatz ist:

langsam, weil die Mitarbeiter mit einer Flut von E-Mails konfrontiert sind.

inkonsistent, weil die Möglichkeit besteht, dass verschiedene Mitarbeiter dieselbe Nachricht unterschiedlich klassifizieren.

fehleranfällig, weil kritische Probleme in der Hektik unter den Tisch fallen können.

Diese Ineffizienzen lassen sich KI-gestützt, beziehungsweise mit Machine Learning (ML) automatisieren.

Der Lösungsansatz

E-Mails, die beim Helpdesk auflaufen, lassen sich in der Regel in eine von sechs Kategorien einordnen. Sie beziehen sich in aller Regel auf:

Anforderungen (Anfragen nach neuen Features oder Funktionen, die noch nicht vorhanden sind),

Verbesserungen (Vorschläge, um bestehende Features oder Funktionen zu optimieren),

Fehlermeldungen (Systemfehler, Ausfälle oder sonstiges, unerwartetes Verhalten),

Sicherheitsprobleme (Sicherheitslücken, Breaches oder Datenlecks),

Feedback (allgemeine positive und negative Vorschläge zum Produkt oder Service), oder

Konfigurationsprobleme (Schwierigkeiten bei der Einrichtung von Systemen).

Jenseits der Kategorisierung ist es mit Hilfe von Sentiment- beziehungsweise Stimmungsanalysen möglich, auch den emotionalen „Tonfall“ von E-Mails zu erfassen. Das kann zu einer besseren Priorisierung beitragen. Nachfolgend einige Beispiele, wie das mit unserer Lösung konkret aussehen soll.  

Positives Sentiment: „Ich finde diese Funktion toll, aber können wir X hinzufügen?“. Diese Nachricht wird an das für Verbesserungen zuständige Team weitergeleitet und mit niedriger Priorität gekennzeichnet.

Neutrales Sentiment: „Ich habe einen Fehler im Anmeldesystem gefunden“. Diese Nachricht wird an das Bug-Fixing-Team weitergereicht und mit mittlerer Priorität versehen.

Negatives Sentiment: „Ihre App ist furchtbar und die Anmeldung funktioniert nicht!“. Diese E-Mail geht an das Team, das für kritische Fehler zuständig ist und wird mit hoher Priorität gekennzeichnet.

Der Trainingsdatensatz

Wir haben speziell für dieses Projekt einen Dummy-Datensatz erstellt, der Helpdesk-E-Mail-Inhalte simuliert und gelabelte Beispiele aus den oben aufgeführten Kategorien enthält. Jede E-Mail ist zudem mit einem Sentiment-Label ausgestattet, um damit sowohl die Kategorisierung als auch die Priorisierung zu unterstützen. Den Trainingsdatensatz können Sie direkt über dieses GitHub-Repository abrufen. Den vollständige Code für dieses Projekt finden Sie hier.

KI-Helpdesk-Lösung umsetzen

Im Folgenden lesen Sie, wie Sie die eben beschriebene Lösung ganz konkret in sechs Schritten realisieren.

1. Bibliotheken importieren

Unsere Implementierung basiert auf folgenden Komponenten:

Pandas für die Datenbearbeitung,

NLTK für Natural Language Processing,

SentimentIntensityAnalyzer für Sentimentanalysen und

Scikit-learn für die Textklassifizierung (unter Verwendung des Multinomial-Naive-Bayes-Klassifikators).

import pandas as pd
import nltk
from nltk.sentiment import SentimentIntensityAnalyzer
from sklearn.naive_bayes import MultinomialNB

2. Trainingsdaten vorverarbeiten

Indem wir Sonderzeichen, Bindewörter und Artikel entfernen und Wörter per Lemmatisierung auf ihre Grundform reduzieren, verarbeiten wir die Trainingsdaten vor. Diese Maßnahmen verbessern die Datenqualität und damit die Modell-Performance.

nltk.download(‘stopwords’)
nltk.download(‘wordnet’)
nltk.download(‘vader_lexicon’)
from nltk.corpus import stopwords
from nltk.stem import WordNetLemmatizer

#object of WordNetLemmatizer
lm = WordNetLemmatizer()

def text_transformation(df_col):
corpus = []
for item in df_col:
new_item = re.sub(‘[^a-zA-Z]’,’ ‘,str(item))
new_item = new_item.lower()
new_item = new_item.split()
new_item = [lm.lemmatize(word) for word in new_item if word not in set(stopwords.words(‘english’))]
corpus.append(‘ ‘.join(str(x) for x in new_item))
return corpus

corpus = text_transformation(df_train[‘text’])

Mit CountVectorizer (ebenfalls Bestandteil von Scikit-learn) wandeln wir die Textdaten nun zu Machine-Learning-Zwecken in numerische Daten um.

cv = CountVectorizer(ngram_range=(1,2))
traindata = cv.fit_transform(corpus)
X = traindata
y = df_train.label

In diesem Code-Snippet ist zu beachten, dass:

CountVectorizer(ngram_range=(1, 2)) den vorverarbeiteten E-Mail-Text (aus dem Korpus) in eine Matrix mit Token-Zählungen umwandelt, die sowohl Unigramme (Einzelwörter) als auch Bigramme (Wortpaare) enthält.

X die Feature-Matrix darstellt, die verwendet wird, um das Modell zu trainieren.

y die Zielvariable verkörpert, die die E-Mail-Kategorien enthält.

3. Klassifizierungsmodell trainieren

Wie bereits erwähnt, verwenden wir das Multinomial-Naïve-Bayes (MNB)-Modell. So können wir unsere Trainingsvektoren an die Werte der Zielvariablen anpassen.

classifier = MultinomialNB()
classifier.fit(X, y)

Dieser probabilistische Algorithmus eignet sich besonders gut für Textklassifizierungsaufgaben, bei denen die Merkmale auf Wortzählungen oder -häufigkeiten basieren. Das passt besonders gut zu unseren Daten, weil:

diese aus gelabelten E-Mail-Texten bestehen, deren Features (Wörter und Sätze) naturgemäß als diskrete Zählungen oder Häufigkeiten dargestellt werden.

der Output von CountVectorizer oder TfidfVectorizer eine große Sparse-Matrix mit Wortvorkommen kreiert, die das MNB-Modell effizient und effektiv verarbeitet – ohne Overfitting.

wir E-Mails in sechs verschiedene Klassen einordnen und MNB standardmäßig Multi-Class-Klassifizierung unterstützt.

das MNB-Modell leichtgewichtig ist und ein besonders schnelles Modelltraining gewährleistet – was insbesondere hilfreich ist, wenn Sie Feature Engineering iterieren oder mit Dummy-Datensätzen arbeiten.

MNB bei Textklassifizierungsaufgaben selbst mit minimaler Feinabstimmung in aller Regel gute Ergebnisse liefert.

Multinomial Naïve Bayes ist ein simpler und effektiver Startpunkt – es ist jedoch ganz generell zu empfehlen, mehrere ML-Algorithmen zu testen. So können etwa auch das Regressionsmodell, Support Vector Machines, Entscheidungsbäume oder Deep-Learning-Modelle wie LSTM und BERT gute Textklassifizierungsergebnisse liefern. Um die Performanz verschiedener ML-Modelle miteinander zu vergleichen, kommen Bewertungs-Metriken zum Einsatz wie:

Genauigkeit: Der Prozentsatz der insgesamt korrekten Vorhersagen. Die Genauigkeit ist am höchsten, wenn die Klassen ausgewogen sind.

Präzision: Der Prozentsatz aller E-Mails, die das Modell einer bestimmte Kategorie korrekt zugeordnet hat.

Recall: Der Prozentsatz aller vom Modell korrekt identifizierten und kategorisierten E-Mails.

F1-Score: Der Mittelwert aus Präzision und Recall. Der F1-Score bietet ein ausgewogenes Maß für die Performance, wenn sowohl falsche Positive als auch falsche Negative eine Rolle spielen.

Support: Gibt an, wie viele tatsächliche Beispiele für jede Klasse vorgelegen haben. Diese Metrik ist hilfreich, um die Klassenverteilung zu verstehen.

4. Klassifizierungsmodell testen und bewerten

Im nachfolgende Code-Snippet werden in Kombination:

Testdaten vorverarbeitet,

Zielwerte aus den Testdaten vorhergesagt, sowie

die Modellleistung durch die Confusion Matrix dargestellt und Genauigkeit, Präzision und Recall berechnet.

Dann vergleicht die Confusion-Matrix die Vorhersagen des Modells mit den tatsächlichen Labels. Der folgende Klassifizierungs-Report fasst die Bewertungsmetriken für jede Klasse zusammen.

#Reading Test Data
test_df = pd.read_csv(test_Data.txt’,delimiter=’;’,names=[‘text’,’label’])
# Applying same transformation as on Train Data
X_test,y_test = test_df.text,test_df.label
#pre-processing of text
test_corpus = text_transformation(X_test)
#convert text data into vectors
testdata = cv.transform(test_corpus)
#predict the target
predictions = clf.predict(testdata)
#evaluating model performance parameters
mlp.rcParams[‘figure.figsize’] = 10,5
plot_confusion_matrix(y_test,predictions)
print(‘Accuracy_score: ‘, accuracy_score(y_test,predictions))
print(‘Precision_score: ‘, precision_score(y_test,predictions,average=’micro’))
print(‘Recall_score: ‘, recall_score(y_test,predictions,average=’micro’))
print(classification_report(y_test,predictions))

IDG

IDG

Die akzeptablen Schwellenwerte variieren zwar je nach Anwendungsfall, aber ein F1-Wert über 0,80 gilt im Allgemeinen als gut, wenn es um Multi-Class-Textklassifizierungen geht. Entsprechend demonstriert der F1-Wert von 0,8409, dass unser Modell in allen sechs E-Mail-Kategorien zuverlässig funktioniert.

Folgende Faustregeln sollten Sie mit Blick auf die Performance-Metriken im Hinterkopf behalten:

Wenn sowohl die Genauigkeit als auch der F1-Wert über 0,80 liegen, gilt das Modell für viele Business-Szenarien als produktionsreif.

Wenn der Recall-Wert niedrig ist, entgehen dem Modell möglicherweise wichtige Fälle – was für E-Mail-Triage entscheidend ist.

Wenn der Präzisionswert niedrig ist, flaggt das Modell möglicherweise bestimmte E-Mails falsch, was bei sensiblen Kategorien wie IT Security problematisch ist.

5. Sentimentanalyse integrieren

Um E-Mails nach Sentiment zu bewerten, integrieren wir nun den SentimentIntensityAnalyzer von NLTK. Dabei setzen wir setzen die Priorität für negative Stimmung auf hoch, für neutrale auf mittel und für positive auf niedrig.

sia = SentimentIntensityAnalyzer()
def get_sentiment(text):
# Predict Category (Ensure it is a string)
category = clf.predict(cv.transform([text]))[0] # Extract first element

# Sentiment Analysis
sentiment_score = sia.polarity_scores(text)[‘compound’]

if sentiment_score >= 0.05:
sentiment = “Positive”
elif sentiment_score

6. Testing

Beispiel 1

email_sentiments = get_sentiment(‘Your app is terrible and not secure, login doesn’t work!’)
print(email_sentiments)
Output –
{ ‘Category’: ‘SecurityIssues’, ‘Sentiment’: ‘Negative’,’Priority’: ‘High’}

Beispiel 2

email_sentiments = get_sentiment(‘Add advanced filtering and export options for reports’)
print(email_sentiments)
Output –
{
‘Category’: ‘RequirementEnhancement’,’Sentiment’: ‘Positive’,’Priority’: ‘Low’
}

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

KI-Tutorial für bessere Helpdesks​ Weiterlesen »

Abwärme aus Rechenzentren: Die Energiewende in Finnland​

Allgemein

Abwärme als Ressource: Googles Rechenzentrum in Hamina an der Ostseeküste soll ab Ende 2025 bis zu 80 Prozent des lokalen Fernwärmebedarfs abdecken. Google Während Deutschland noch über hohe Energiekosten und den Kurs der Energiewende diskutiert, realisieren die Finnen bereits ein Kreislaufmodell: Energie und Nebenprodukte aus einem Prozess werden zu wertvollen Inputs für einen anderen. „Abwärme ist kein energetischer Abfall, sondern eine wertvolle Ressource. Ihre konsequente Nutzung ist nicht nur ökologisch geboten, sondern ein entscheidender Faktor für wirtschaftliche Effizienz und Wettbewerbsfähigkeit in der Energiewende“, erklärt Helmi-Nelli Körkkö, Senior Advisor bei Business Finland, die Strategie. Und es scheint sich zu rechnen: Die finnischen Verbraucher zahlen laut Business Finland 4,6 Cent pro kWh Strom. Geschlossenes System In diesem ganzheitlichen Ansatz wird digitale Infrastruktur mit erneuerbaren Ressourcen und konsequenter Abwärme-Rückgewinnung zu einem geschlossenen System verbunden. Und noch etwas entscheidet Finnland von Deutschland. Hierzulande gibt es lediglich erste Pilotprojekt zur Nutzung der Abwärme von Rechenzentren. Und per Gesetz müssen neue Rechenzentren erst ab Juli 2026 zehn Prozent ihrer Abwärme nutzen. Finnland bindet dagegen den IT- und TK-Sektor konsequent in den Energiekreislauf ein. Server in Googles finnischen Rechenzentrum in Hamina. Ihr Abwärme heizt demnächst Wohnungen. Google So deckt beispielsweise Googles Rechenzentrum in der südostfinnischen Hafenstadt Hamina an der Ostseeküste ab Ende 2025 bis zu 80 Prozent des lokalen Fernwärmebedarfs. Und Microsoft kündigte in Kooperation mit dem Energieunternehmen Fortum an, die Abwärme seiner neuen Rechenzentren nach Fertigstellung zur Beheizung von Haushalten und Unternehmen zu nutzen. Auch die weltgrößte Anlage zur Wärmegewinnung aus gereinigtem Abwasser (die Wärmepumpenanlage Katri Vala des Energieunternehmens Helen) speist in Helsinki Wärme ins Netz ein. Innovative Speicher Innovative Speicher gleichen dabei die Schwankungen erneuerbarer Energien aus. Dazu zählen große Sandbatterien (Polar Night Energy), Europas größter saisonaler Kavernenwärmespeicher (Varanto-Speicher des Energieunternehmens Vantaan Energia) und Power-to-Heat-Lösungen (Elstor). Selbst Mobilfunk-Basisstationen werden zu virtuellen Kraftwerken gebündelt (Elisa), um das Netz zu stabilisieren. Damit das Zusammenspiel funktioniert, ist eine robuste und hochentwickelte digitale Infrastruktur erforderlich. Über sie werden Energieerzeugung, -verbrauch und -rückgewinnung in Echtzeit überwacht und gesteuert. „Der Schlüssel liegt in der intelligenten Verknüpfung von erneuerbaren Energien, Sektorenkopplung durch Abwärmenutzung und digitaler Steuerung“, geht Helmi-Nelli Körkkö ins Detail. „Dieses integrierte System schafft Transparenz, maximiert die Effizienz und zeigt einen gangbaren Weg auf, wie Industriestaaten ihre Energieversorgung sicher, sauber und kosteneffizient gestalten können.“ KI optimiert Energieverteilung So optimieren KI-gestützte Prognosetools wie VTT EnergyTeller beispielsweise die Speicherung und Verteilung von Energie. Das VTT-Tool nutzt Wetterdaten und andere relevante Informationen, um Energiebedarf und Marktentwicklungen präziser vorherzusagen. Bemühungen, die laut Business Finland bereits zu greifbaren Ergebnissen führten: In den vergangenen vier Jahren gelang es der verarbeitenden Industrie in Finnland, ihre Emissionen aus der eingekauften Energie um etwa 45 Prozent zu senken und gleichzeitig die Produktion um 43 Prozent zu steigern. 

Abwärme aus Rechenzentren: Die Energiewende in Finnland​ Abwärme als Ressource: Googles Rechenzentrum in Hamina an der Ostseeküste soll ab Ende 2025 bis zu 80 Prozent des lokalen Fernwärmebedarfs abdecken.
Google

Während Deutschland noch über hohe Energiekosten und den Kurs der Energiewende diskutiert, realisieren die Finnen bereits ein Kreislaufmodell: Energie und Nebenprodukte aus einem Prozess werden zu wertvollen Inputs für einen anderen.

„Abwärme ist kein energetischer Abfall, sondern eine wertvolle Ressource. Ihre konsequente Nutzung ist nicht nur ökologisch geboten, sondern ein entscheidender Faktor für wirtschaftliche Effizienz und Wettbewerbsfähigkeit in der Energiewende“, erklärt Helmi-Nelli Körkkö, Senior Advisor bei Business Finland, die Strategie. Und es scheint sich zu rechnen: Die finnischen Verbraucher zahlen laut Business Finland 4,6 Cent pro kWh Strom.

Geschlossenes System

In diesem ganzheitlichen Ansatz wird digitale Infrastruktur mit erneuerbaren Ressourcen und konsequenter Abwärme-Rückgewinnung zu einem geschlossenen System verbunden. Und noch etwas entscheidet Finnland von Deutschland. Hierzulande gibt es lediglich erste Pilotprojekt zur Nutzung der Abwärme von Rechenzentren. Und per Gesetz müssen neue Rechenzentren erst ab Juli 2026 zehn Prozent ihrer Abwärme nutzen. Finnland bindet dagegen den IT- und TK-Sektor konsequent in den Energiekreislauf ein.

Server in Googles finnischen Rechenzentrum in Hamina. Ihr Abwärme heizt demnächst Wohnungen.
Google

So deckt beispielsweise Googles Rechenzentrum in der südostfinnischen Hafenstadt Hamina an der Ostseeküste ab Ende 2025 bis zu 80 Prozent des lokalen Fernwärmebedarfs. Und Microsoft kündigte in Kooperation mit dem Energieunternehmen Fortum an, die Abwärme seiner neuen Rechenzentren nach Fertigstellung zur Beheizung von Haushalten und Unternehmen zu nutzen. Auch die weltgrößte Anlage zur Wärmegewinnung aus gereinigtem Abwasser (die Wärmepumpenanlage Katri Vala des Energieunternehmens Helen) speist in Helsinki Wärme ins Netz ein.

Innovative Speicher

Innovative Speicher gleichen dabei die Schwankungen erneuerbarer Energien aus. Dazu zählen große Sandbatterien (Polar Night Energy), Europas größter saisonaler Kavernenwärmespeicher (Varanto-Speicher des Energieunternehmens Vantaan Energia) und Power-to-Heat-Lösungen (Elstor). Selbst Mobilfunk-Basisstationen werden zu virtuellen Kraftwerken gebündelt (Elisa), um das Netz zu stabilisieren.

Damit das Zusammenspiel funktioniert, ist eine robuste und hochentwickelte digitale Infrastruktur erforderlich. Über sie werden Energieerzeugung, -verbrauch und -rückgewinnung in Echtzeit überwacht und gesteuert. „Der Schlüssel liegt in der intelligenten Verknüpfung von erneuerbaren Energien, Sektorenkopplung durch Abwärmenutzung und digitaler Steuerung“, geht Helmi-Nelli Körkkö ins Detail. „Dieses integrierte System schafft Transparenz, maximiert die Effizienz und zeigt einen gangbaren Weg auf, wie Industriestaaten ihre Energieversorgung sicher, sauber und kosteneffizient gestalten können.“

KI optimiert Energieverteilung

So optimieren KI-gestützte Prognosetools wie VTT EnergyTeller beispielsweise die Speicherung und Verteilung von Energie. Das VTT-Tool nutzt Wetterdaten und andere relevante Informationen, um Energiebedarf und Marktentwicklungen präziser vorherzusagen.

Bemühungen, die laut Business Finland bereits zu greifbaren Ergebnissen führten: In den vergangenen vier Jahren gelang es der verarbeitenden Industrie in Finnland, ihre Emissionen aus der eingekauften Energie um etwa 45 Prozent zu senken und gleichzeitig die Produktion um 43 Prozent zu steigern.

Abwärme aus Rechenzentren: Die Energiewende in Finnland​ Weiterlesen »

Alle Android-Versionen im Überblick​

Allgemein

Die Android-Versionshistorie ist – zumindest bis ins Jahr 2018 – mit süßen Versuchungen gepflastert. Foto: Olezzo – shutterstock.com Googles mobiles Betriebssystem Android blickt auf bescheidene Anfänge zurück und wurde über die Jahre immens weiterentwickelt – sowohl auf optischer als auch konzeptioneller und funktioneller Ebene. Im Folgenden haben wir alle jemals erschienenen (relevanten) Android-Versionen im Zeitverlauf für Sie zusammengestellt – inklusive ihrer jeweiligen Highlights. Android 1.0/1.1 Sein offizielles Debüt feierte Android mit Version 1.0 im Jahr 2008 – damals noch ohne aparten Codenamen mit Backwerk-Bezug. In der Smartphone-Frühzeit waren die Dinge bei Android vor allem eines: simpel. Der Homescreen von Android 1.0 – und sein rudimentärer Webbrowser. Foto: T-Mobile Dennoch konnte das Google-Betriebssystem bereits mit integrierten Apps aufwarten, etwa Gmail, Google Maps, Kalender oder Youtube. Ein krasser Gegensatz zum heute gängigen (und besser aktualisierbaren) Standalone-App-Modell. Android 1.5 Cupcake Mit dem Release von Android 1.5 begann Google, die Versionen seines Mobile OS nach teigigen Leckereien zu benennen. Eine Tradition, die über etliche Jahre Bestand haben sollte. Mit Cupcake hielten diverse Optimierungen der Benutzeroberfläche Einzug – unter anderem in Form der ersten virtuellen Bildschirmtastatur. Bei Android Cupcake rückte Google Widgets in den Fokus. Foto: Android Police Vor allem führte Google mit Cupcake aber das Framework für Drittanbieter-App-Widgets ein, was sich schnell zu einem Android-Alleinstellungsmerkmal entwickelte. Mit Android Version 1.5 war es außerdem erstmals möglich, auch Videoaufnahmen zu realisieren. Android 1.6 Donut Im Herbst 2009 erblickte Android Version 1.6 – Codename Donut – das Licht der Welt. Diese Android-Version optimierte Googles mobiles Betriebssystem weiter, zum Beispiel mit Support für diverse verschiedene Bildschirmauflösungen und -formate. Ein besonders zukunftskritisches Feature für Android hielt mit der Unterstützung des Mobilfunkstandards CDMA Einzug. Letzteres begünstigte die folgende explosionsartige Ausbreitung von Android. Die Universal Search Box hatte mit Android Version 1.6 ihren ersten Auftritt. Foto: Google Android 2.0/2.1 Eclair Nur sechs Wochen nach Donut ließ Google Android 2.0 mit dem Codenamen Eclair auf die Nutzer los – einige Monate später folgte das 2.1-Update. Das erste Smartphone, das diese Android-Version nutzte, war Motorolas Milestone. Das Smartphone wurde in den USA unter der Bezeichnung “Droid” vermarktet und sollte den technikaffinen Gegenpol zu Apples iPhone bilden – zumindest legte das die relativ aggressive Marketingkampagne in den USA nahe: Bei Apple dürfte jedoch vor allem für Verstimmung gesorgt haben, dass mit Eclair auch die bis dahin iOS-exklusive “Pinch-to-Zoom”-Funktionalität in Android eingeführt wurde. Die revolutionärsten Elemente dieser Android-Version waren jedoch sprachgesteuerte Turn-by-Turn-Navigation und Verkehrsinformationen in Echtzeit – bis dahin nicht realisierte Features in der Smartphone-Welt. Darüber hinaus hielten mit Eclair auch Live-Hintergrundbilder sowie die erste Speech-to-Text-Funktion Einzug. Die erste Navigations- und Diktierfunktion in Android 2.0. Foto: Google Android 2.2 Froyo Mit Android 2.2 widmete sich Google (vier Monate nach dem Release von Version 2.1) hauptsächlich Performance-Optimierungen unter der Haube. Android Froyo erweiterte jedoch die Benutzeroberfläche um einige praktische Funktionen – darunter das inzwischen zum Standard gewordene Dock am unteren Rand des Startbildschirms sowie die erste Version von Voice Actions. Letzteres erlaubte den Benutzern, einige grundlegende Funktionen wie Wegbeschreibungen oder Notizen abzurufen, indem sie ein Icon antippen und anschließend einen Sprachbefehl folgen lassen. Froyo brachte Sprachsteuerung erstmals in ernsthafter Form auf Android-Telefone. Foto: Google Bemerkenswert ist Android Version 2.2 vor allem auch deshalb, weil es den Android-Webbrowser mit Flash-Unterstützung ausstattete. Das war nicht nur wichtig, weil Flash damals im Web allgegenwärtig war, sondern auch weil Apple sich standhaft weigerte, das iPhone um Flash-Support zu erweitern. Das war eine ganze Zeit lang ein echter Vorteil für Android – bis sich die Flash-Dominanz schließlich in Luft auflöste. Android 2.3 Gingerbread Mit Gingerbread versuchte Google, Android im Jahr 2010 erstmals eine echte, “visuelle Identität” zu verleihen. Die Farbe des Android-Maskottchens breitete sich mit Android Version 2.3 über die gesamte Benutzeroberfläche aus. Der erste Schritt hin zu einer eigenständigen Designsprache. Mit Android Gingerbread nahm die Android-Designsprache ihren Anfang. Foto: JR Raphael | IDG Android 3.0/3.1/3.2 Honeycomb Die Android-Honeycomb-Ära markierte ab 2011 einen weiteren Umbruch: Android 3.0 war ein Tablet-exklusives Betriebssystem, das zum Marktstart des iPad-Konkurrenten Motorola Xoom veröffentlicht wurde. Auch die Point-Updates 3.1 und 3.2 waren exklusiv auf die zu dieser Zeit stark gefragten Tablets ausgelegt. Android Honeycomb sollte Tablets einen “Weltraum-ähnlichen”, “holografischen” Look verleihen. Foto: JR Raphael | IDG Zwar hatte das Konzept der Tablet-spezifischen Oberfläche schon nach kurzer Zeit wieder ausgedient – allerdings wurden mit Android 3.0 zahlreiche Ideen umgesetzt, die das heute bekannte Android definiert haben: Honeycomb war die erste Android-Version, die die Nutzer essenzielle Navigationsbefehle über virtuelle Bildschirmtasten erledigen ließ und führte das Konzept einer “Karten-basierten” UI ein. Android 4.0 Ice Cream Sandwich Während Honeycomb so etwas wie eine “Brückenversion” darstellte, bildete Android 4.0 – Codename Ice Cream Sandwich – den offiziellen Einstiegspunkt in die neue Android-Designwelt. Veröffentlicht wurde diese Version ebenfalls im Jahr 2011 – und verfeinerte in erster Linie die mit Honeycomb eingeführten, visuellen Konzepte. Zudem vereinheitlichte Google mit dieser Android-Version sein Betriebssystem für Mobiltelefone und Tablets. Mit Android 4.0 wurde zudem die Steuerung über Wischbewegungen als integrale Methode etabliert, um sich zurechtzufinden – eine damals weltbewegende Neuerung. Darüber hinaus markierte Ice Cream Sandwich auch den Beginn der Umstellung des Android-Ökosystems auf ein standardisiertes Design-Framework, auch bekannt als “Holo“. Homescreen und App Switching in Android 4.0. Foto: JR Raphael | IDG Android 4.1/4.2/4.3 Jelly Bean Die Jelly-Bean-Ära erstreckte sich über drei Android-Versionen und die Jahre 2012 und 2013. Dabei wurde das frische Fundament von Ice Cream Sandwich mit Bedacht, aber zielstrebig weiter optimiert und ausgebaut. Ergebnis war ein Android-Betriebssystem, das mit neuem Schwung und Glanz zunehmend auch Mobile-Durchschnittsbenutzer begeistern konnte. Abgesehen von der Optik brachte Jelly Bean auch einen ersten Vorgeschmack auf Google Now (das leider inzwischen zu einem zweitklassigen Newsfeed verkommen ist). Weitere Benefits, die mit Android Jelly Bean Einzug hielten, waren unter anderem ein erweitertes (sprachbasiertes) Suchsystem und Multi-User-Support. Letzteres stand allerdings nur auf Tablet-Geräten zur Verfügung. Davon abgesehen, gab auch das Quick Settings Panel in dieser Android-Version sein Debüt – genauso wie Widgets für den Sperrbildschirm. Quick Settings und der (kurzlebige) Widget-befüllte Lockscreen in Android Jelly Bean. Foto: JR Raphael | IDG Android 4.4 KitKat Mit Version 4.4 kam das Zeitalter der dunklen Farbgebung bei Android zu einem Ende. KitKat brachte Ende 2013 frischere, hellere Farben für Googles Betriebssystem und sorgte damit für eine umfassende, optische Modernisierung. Premiere feierte mit Android 4.4 außerdem das allseits bekannte “OK, Google”-Freihand-Feature (das damals nur funktionierte, wenn der Startbildschirm oder die Google-App bereits geöffnet war). Der Kitkat-Homescreen und das dedizierte Google-Now-Panel. Foto: JR Raphael | IDG Die Nutzer von Google-eigenen (Nexus-)Smartphones durften sich zudem erstmals an einem Startbildschirm-Panel erfreuen, das exklusiv für Google-Dienste reserviert war. Android 5.0/5.1 Lollipop Mit Lollipop führte Google im Herbst 2014 den bis heute gültigen Material-Design-Standard bei Android ein, der sich nicht nur auf das Betriebssystem selbst, sondern auch auf Apps und andere Google-Produkte auswirkte. Das kartenbasierte User Interface, das bislang punktuell in Android eingesetzt wurde, wurde mit Android 5.0 zum zentralen Designaspekt. Davon abgesehen, brachte Android Lollipop auch einige neue Funktionen in die Android-Welt – unter anderem den weiterentwickelten “Ok, Google”-Befehl, Multi-User-Support für Mobiltelefone sowie ein optimiertes Benachrichtigungsmanagement. Leider flossen mit Lollipop auch diverse Bugs ein, die in weiten Teilen erst mit der Android-Version 5.1 ab 2015 vollständig behoben werden konnten. Mit Lollipop nahm Androids Material Design seinen Anfang. Foto: JR Raphael | IDG Android 6.0 Marshmallow Im Großen und Ganzen war Marshmallow – ebenfalls im Jahr 2015 veröffentlicht – eine eher unbedeutende Android-Version, die mehr wie ein Point-Update wirkte. Allerdings setzte Marshmallow den Startpunkt dafür, dass Google jährlich eine große neue Android-Version veröffentlicht. Android Marshmallow und “Now on Tap” (RIP). Foto: JR Raphael | IDG Das auffälligste Marshmallow-Feature war die vielversprechende Bildschirmsuchfunktion “Now On Tap” – die leider nie weiterentwickelt und 2016 still und heimlich beerdigt wurde. Android 6.0 enthielt jedoch auch einige subtilere Neuerungen, etwa granularere App-Berechtigungen sowie Support für Fingerabdruckscanner und USB-C. Android 7.0/7.1 Nougat Die Android-Versionen mit dem Codenamen Nougat wurden 2016 veröffentlicht und ergänzten Googles Mobile OS um einen nativen Split-Screen-Modus, ein neues System, um Benachrichtigungen zu managen, und eine Data-Saver-Funktion. Darüber hinaus hatte Android 7.0 bis 7.1 auch einige kleinere, aber dennoch wichtige Features an Bord – beispielsweise einen Shortcut, um zwischen Apps zu wechseln. Der mit Nougat neu eingeführte, native Split-Screen-Modus. Foto: JR Raphael | IDG Die vielleicht wichtigste Neuerung von Android Nougat war jedoch die Möglichkeit, den Google Assistant zu integrieren, der etwa zwei Monate nach dem Nougat-Debüt (zusammen mit Google erstem Pixel-Smartphone) vorgestellt wurde. Der Assistant entwickelte sich in den kommenden Jahren zu einer wichtigen Android-Komponente (und den meisten anderen Google-Produkten). Android 8.0/8.1 Oreo Mit Version 8.0 und 8.1 – veröffentlicht im Jahr 2017 unter dem Codenamen Oreo – erhielt Android weitere Annehmlichkeiten. Unter anderem einen nativen Bild-in-Bild-Modus, eine Schlummerfunktion für Notifications sowie tiefgehendere Möglichkeiten, App-Benachrichtigungen zu kontrollieren. Darüber hinaus war diese Android-Version auch ein Versuch von Google, Android und Chrome OS näher zusammenzubringen und die Nutzung von Android-Apps auf Chromebooks zu optimieren. Davon abgesehen war Android 8 auch vom ehrgeizigen Bestreben geprägt, mit “Project Treble” eine modulare Basis für den Android-Quellcode zu schaffen. Die Hoffnung: Es den Geräteherstellern einfacher zu machen, zeitnah Software-Updates bereitzustellen. Android Oreo erweiterte Googles mobiles Betriebssystem um diverse bedeutende Funktionen. Foto: JR Raphael | IDG Android 9 Pie Android-Version 9, auch bekannt unter dem Codenamen Pie, brachte im August 2018 frischen Wind in Googles Mobile-Ökosystem. Die wesentlichste Änderung war dabei ein hybrides Gesten-Button-Navigationssystem, das die traditionellen Navigationstasten mit einem großen, multifunktionalen “Home Button” ersetzte. Alles neu machte Android 9 – zumindest in Sachen Bedienung. Foto: JR Raphael | IDG Android Pie enthielt allerdings auch einige bemerkenswerte neue Productivity-Funktionen, beispielsweise ein universelles System, um mit vorgeschlagenen Antworten auf Nachrichten zu reagieren oder ein intelligenteres Energiemanagement. Erwähnenswert sind bei dieser Android-Version zudem zahlreiche Optimierungen in Sachen Datenschutz und Sicherheit. Android Version 10 Im September 2019 ereilte der nächste Umschwung auch die Backwerk-affine Nomenklatur: Android 10 war die erste Version, die ausschließlich mit einer Zahl bezeichnet wird. Dazu passend brachte die Betriebssystem-Software auch eine völlig neu gestaltete Oberfläche mit sich, die ab diesem Zeitpunkt vollständig auf Wischbewegungen ausgelegt war. Zu den wichtigen Verbesserungen, die Android 10 darüber hinaus an Bord hatte, gehörten ein aktualisiertes App-Berechtigungssystem mit tioefergehenden Kontrollmöglichkeiten, eine “Darkmode”-Option, ein Fokusmodus sowie die Möglichkeit, abzuspielende Mediendateien automatisch mit Untertiteln zu versehen. Speziell in Sachen Standortdaten brachte Android 10 eine dringend nötige Nuancierung. Foto: JR Raphael | IDG Android Version 11 Mit Android Version 11 veröffentlichte Google im September 2020 ein umfassendes Software-Update, das zahlreiche Neuerungen brachte. Die wichtigste Änderung drehte sich um das Thema Datenschutz: Das mit Android 10 eingeführte Berechtigungssystem wurde um die Möglichkeit erweitert, Apps einmaligen Zugriff auf Standortdaten, Kamera oder Mikrofon zu gewähren. Mit Android 11 erschwerte Google außerdem, dass Apps den Standort der Nutzer im Hintergrund ermitteln können und führte eine Funktion ein, die Apps automatisch Berechtigungen entzieht, wenn diese für längere Zeit nicht genutzt wurden. Auf Interface-Ebene bot Android 11 außerdem einen vereinheitlichten Media Player, eine Benachrichtigungshistorie, die Möglichkeit, alle verbundenen Geräte in einer Übersicht anzuzeigen sowie eine native Screen-Recording-Funktion. Der neue Einheits-Media-Player in Android 11. Foto: JR Raphael | IDG Android Version 12 Die finale Version von Android 12 präsentierte Google pünktlich zur Markteinführung seiner Smartphones Pixel 6 und Pixel 6 Pro im Oktober 2021. Die wesentlichen Fortschritte waren bei dieser Android-Version direkt sichtbar: Sie bot die wohl größte Interface-Überarbeitung bei Android seit Lollipop und führte einen aktualisierten Design-Standard namens “Material You” ein. Das fußt auf der Idee, das Erscheinungsbild des Betriebssystems mit dynamisch generierten Themes an die individuelle “Farbwelt” des Benutzers anzupassen. Android 12 brachte einen völlig neuen frischen Look mit – dem “Material You”-Designstandard sei Dank. Foto: JR Raphael | IDG Davon abgesehen hatte Android 12 auch ein (lange überfälliges) neues Widget-System sowie eine Reihe grundlegender Verbesserungen in den Bereichen Leistung, Sicherheit und Datenschutz zu bieten. In diesem Zuge erweiterte Google sein Betriebssystem auch um einen isolierten Bereich, der KI-Funktionen auch ohne Netzwerkzugriff und Datenexposition ermöglicht. Android Version 13 Mit Android 13 veröffentlichte Google im August 2022 eine der bislang ungewöhnlichsten Android-Versionen: Sie ist eines der ehrgeizigsten Android-Updates überhaupt – beinhaltet gleichzeitig aber auch vornehmlich subtile Änderungen. Für das Nutzererlebnis spielte dabei auch eine tragende Rolle, auf welchem Device Android 13 installiert wurde. Für Tablets und faltbare Smartphones führte Android 13 ein gänzlich neues Interface-Design ein – mit dem Ziel, ein verbessertes Benutzererlebnis auf größeren Bildschirmen zu realisieren. Das schlug sich auch in einem auf Multitasking ausgelegten, aktualisierten Split-Screen-Modus und einer Taskbar im Chrome-OS-Stil nieder. Darüber hinaus schuf Android 13 auch die Vorraussetzung dafür, dass Pixel-Tablets als stationäres Smart Display fungieren konnten. Mit Blick auf Smartphones war der Release von Android 13 weit weniger bedeutsam. Neben einigen kleineren visuellen Optimierungen führte diese Android-Version ein erweitertes System für die Zwischenablage ein, eine native Funktion, um QR-Codes zu scannen, sowie weitere Optimierungen in den Bereichen Datenschutz, Sicherheit und Leistung. Android Version 14 Nach achtmonatiger Entwicklungsphase präsentierte Google Anfang Oktober 2023 Android 14 – zeitgleich zur Vorstellung seiner Pixel-8-Smartphones. Auch diese Android-Version kam eher subtil um die Ecke: Sie brachte zum Beispiel ein neues System zum Einsatz, um Text zwischen Apps im Drag-und-Drop-Verfahren auszutauschen, sowie native Anpassungsmöglichkeiten für den Android-Sperrbildschirm. Zudem durften die Nutzer mit Android 14 auf ein integriertes Dashboard zugreifen, um sämtliche ihrer Gesundheits- und Fitness-Daten zu managen. Darüber hinaus enthält diese Android-Version eine Reihe wichtiger Erweiterungen für die Barrierefreiheit – etwa eine On-Demand-Lupe, verbesserten Support für Hörgeräte sowie die Möglichkeit, eingehende Nachrichten über den Kamerablitz zu visualisieren. Die Benutzer von Pixel 8 und Pixel 8 Pro durften mit Android 14 auch erstmals und exklusiv Googles KI-basierten Wallpaper Creator austesten. Der KI-basierte Wallpaper Generator in Android 14 liefert interessante Ergebnisse. Foto: JR Raphael | IDG Android Version 15 Technisch betrachtet hat Google Android 15 bereits im September 2024 veröffentlicht – allerdings tauchte die neue Android-Version erst ab Mitte Oktober auf den hauseigenen Pixel-Geräten auf. Mit Android 15 hält eine ganze eine Reihe bemerkenswerter neuer Funktionen Einzug. Darunter eine „Private Space“-Option, die es ermöglicht, sensible Applikationen beziehungsweise Inhalte mit einer zusätzlichen Authentifizierungsebene auszustatten. Davon abgesehen verbessert Version 15 auch die mit Android 13 eingeführten Multitasking-Systeme weiter: Die Android Taskbar ist jetzt optional dauerhaft präsent. Außerdem lassen sich bestimmte App-Kombinationen ab Version 15 mit einem Fingertipp im Split-Screen-Modus aufrufen. Mit „Private Space“ sind bestimmte Apps ausschließlich über einen geschützten (und optional auch versteckten) Bereich abrufbar.JR Raphael / Foundry Weitere nennenswerte Neuerungen von Android 15 sind ein neu designtes Lautstärkeregelungs-Panel sowie ein (Pixel-exklusives) „Adaptive Vibration“-Feature, dass die Vibrationsintensität an der jeweils aktuellen Umgebung ausrichtet. Android Version 16 (Beta) Mit dem Jahr 2025 hat Google beschlossen, seinen bisherigen Android-Upgrade-Zyklus aufzubrechen: Beginnend mit der Veröffentlichung von Version 16 sollen künftig pro Jahr zwei Android-Versionen erscheinen. Den ersten Teil dieses Versprechens hat Google bereits mit der Veröffentlichung der Android-16-Beta Ende Januar 2025 umgesetzt. Die Vorabversion wird seitdem zielstrebig mit Updates auf ihren finalen Rollout – voraussichtlich im Frühjahr 2025 – vorbereitet. Zu den wichtigsten neuen Funktionen von Android 16 zählen (bislang) Live-Updates – eine neue Art von Benachrichtigungen, die ähnlich funktionieren wie die Live-Aktivitäten bei iOS. Darüber hinaus verspricht Version 16 des Google-Mobile-Betriebssystems auch eine Reihe von Verbesserungen für die Benutzeroberfläche, ein besseres Desktop-Erlebnis sowie Support für striktere Netzwerksicherheitsregeln.    Mit Android 16 sollen Android-Apps sich endlich auch im Großformat ordentlich präsentieren – statt etwa auf Tablets ein Smartphone zu „simulieren“.Google (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Alle Android-Versionen im Überblick​ Die Android-Versionshistorie ist – zumindest bis ins Jahr 2018 – mit süßen Versuchungen gepflastert.
Foto: Olezzo – shutterstock.com

Googles mobiles Betriebssystem Android blickt auf bescheidene Anfänge zurück und wurde über die Jahre immens weiterentwickelt – sowohl auf optischer als auch konzeptioneller und funktioneller Ebene. Im Folgenden haben wir alle jemals erschienenen (relevanten) Android-Versionen im Zeitverlauf für Sie zusammengestellt – inklusive ihrer jeweiligen Highlights.

Android 1.0/1.1

Sein offizielles Debüt feierte Android mit Version 1.0 im Jahr 2008 – damals noch ohne aparten Codenamen mit Backwerk-Bezug. In der Smartphone-Frühzeit waren die Dinge bei Android vor allem eines: simpel.

Der Homescreen von Android 1.0 – und sein rudimentärer Webbrowser.
Foto: T-Mobile

Dennoch konnte das Google-Betriebssystem bereits mit integrierten Apps aufwarten, etwa Gmail, Google Maps, Kalender oder Youtube. Ein krasser Gegensatz zum heute gängigen (und besser aktualisierbaren) Standalone-App-Modell.

Android 1.5 Cupcake

Mit dem Release von Android 1.5 begann Google, die Versionen seines Mobile OS nach teigigen Leckereien zu benennen. Eine Tradition, die über etliche Jahre Bestand haben sollte. Mit Cupcake hielten diverse Optimierungen der Benutzeroberfläche Einzug – unter anderem in Form der ersten virtuellen Bildschirmtastatur.

Bei Android Cupcake rückte Google Widgets in den Fokus.
Foto: Android Police

Vor allem führte Google mit Cupcake aber das Framework für Drittanbieter-App-Widgets ein, was sich schnell zu einem Android-Alleinstellungsmerkmal entwickelte. Mit Android Version 1.5 war es außerdem erstmals möglich, auch Videoaufnahmen zu realisieren.

Android 1.6 Donut

Im Herbst 2009 erblickte Android Version 1.6 – Codename Donut – das Licht der Welt. Diese Android-Version optimierte Googles mobiles Betriebssystem weiter, zum Beispiel mit Support für diverse verschiedene Bildschirmauflösungen und -formate. Ein besonders zukunftskritisches Feature für Android hielt mit der Unterstützung des Mobilfunkstandards CDMA Einzug. Letzteres begünstigte die folgende explosionsartige Ausbreitung von Android.

Die Universal Search Box hatte mit Android Version 1.6 ihren ersten Auftritt.
Foto: Google

Android 2.0/2.1 Eclair

Nur sechs Wochen nach Donut ließ Google Android 2.0 mit dem Codenamen Eclair auf die Nutzer los – einige Monate später folgte das 2.1-Update. Das erste Smartphone, das diese Android-Version nutzte, war Motorolas Milestone. Das Smartphone wurde in den USA unter der Bezeichnung “Droid” vermarktet und sollte den technikaffinen Gegenpol zu Apples iPhone bilden – zumindest legte das die relativ aggressive Marketingkampagne in den USA nahe:

Bei Apple dürfte jedoch vor allem für Verstimmung gesorgt haben, dass mit Eclair auch die bis dahin iOS-exklusive “Pinch-to-Zoom”-Funktionalität in Android eingeführt wurde. Die revolutionärsten Elemente dieser Android-Version waren jedoch sprachgesteuerte Turn-by-Turn-Navigation und Verkehrsinformationen in Echtzeit – bis dahin nicht realisierte Features in der Smartphone-Welt. Darüber hinaus hielten mit Eclair auch Live-Hintergrundbilder sowie die erste Speech-to-Text-Funktion Einzug.

Die erste Navigations- und Diktierfunktion in Android 2.0.
Foto: Google

Android 2.2 Froyo

Mit Android 2.2 widmete sich Google (vier Monate nach dem Release von Version 2.1) hauptsächlich Performance-Optimierungen unter der Haube. Android Froyo erweiterte jedoch die Benutzeroberfläche um einige praktische Funktionen – darunter das inzwischen zum Standard gewordene Dock am unteren Rand des Startbildschirms sowie die erste Version von Voice Actions. Letzteres erlaubte den Benutzern, einige grundlegende Funktionen wie Wegbeschreibungen oder Notizen abzurufen, indem sie ein Icon antippen und anschließend einen Sprachbefehl folgen lassen.

Froyo brachte Sprachsteuerung erstmals in ernsthafter Form auf Android-Telefone.
Foto: Google

Bemerkenswert ist Android Version 2.2 vor allem auch deshalb, weil es den Android-Webbrowser mit Flash-Unterstützung ausstattete. Das war nicht nur wichtig, weil Flash damals im Web allgegenwärtig war, sondern auch weil Apple sich standhaft weigerte, das iPhone um Flash-Support zu erweitern. Das war eine ganze Zeit lang ein echter Vorteil für Android – bis sich die Flash-Dominanz schließlich in Luft auflöste.

Android 2.3 Gingerbread

Mit Gingerbread versuchte Google, Android im Jahr 2010 erstmals eine echte, “visuelle Identität” zu verleihen. Die Farbe des Android-Maskottchens breitete sich mit Android Version 2.3 über die gesamte Benutzeroberfläche aus. Der erste Schritt hin zu einer eigenständigen Designsprache.

Mit Android Gingerbread nahm die Android-Designsprache ihren Anfang.
Foto: JR Raphael | IDG

Android 3.0/3.1/3.2 Honeycomb

Die Android-Honeycomb-Ära markierte ab 2011 einen weiteren Umbruch: Android 3.0 war ein Tablet-exklusives Betriebssystem, das zum Marktstart des iPad-Konkurrenten Motorola Xoom veröffentlicht wurde. Auch die Point-Updates 3.1 und 3.2 waren exklusiv auf die zu dieser Zeit stark gefragten Tablets ausgelegt.

Android Honeycomb sollte Tablets einen “Weltraum-ähnlichen”, “holografischen” Look verleihen.
Foto: JR Raphael | IDG

Zwar hatte das Konzept der Tablet-spezifischen Oberfläche schon nach kurzer Zeit wieder ausgedient – allerdings wurden mit Android 3.0 zahlreiche Ideen umgesetzt, die das heute bekannte Android definiert haben: Honeycomb war die erste Android-Version, die die Nutzer essenzielle Navigationsbefehle über virtuelle Bildschirmtasten erledigen ließ und führte das Konzept einer “Karten-basierten” UI ein.

Android 4.0 Ice Cream Sandwich

Während Honeycomb so etwas wie eine “Brückenversion” darstellte, bildete Android 4.0 – Codename Ice Cream Sandwich – den offiziellen Einstiegspunkt in die neue Android-Designwelt. Veröffentlicht wurde diese Version ebenfalls im Jahr 2011 – und verfeinerte in erster Linie die mit Honeycomb eingeführten, visuellen Konzepte. Zudem vereinheitlichte Google mit dieser Android-Version sein Betriebssystem für Mobiltelefone und Tablets.

Mit Android 4.0 wurde zudem die Steuerung über Wischbewegungen als integrale Methode etabliert, um sich zurechtzufinden – eine damals weltbewegende Neuerung. Darüber hinaus markierte Ice Cream Sandwich auch den Beginn der Umstellung des Android-Ökosystems auf ein standardisiertes Design-Framework, auch bekannt als “Holo“.

Homescreen und App Switching in Android 4.0.
Foto: JR Raphael | IDG

Android 4.1/4.2/4.3 Jelly Bean

Die Jelly-Bean-Ära erstreckte sich über drei Android-Versionen und die Jahre 2012 und 2013. Dabei wurde das frische Fundament von Ice Cream Sandwich mit Bedacht, aber zielstrebig weiter optimiert und ausgebaut. Ergebnis war ein Android-Betriebssystem, das mit neuem Schwung und Glanz zunehmend auch Mobile-Durchschnittsbenutzer begeistern konnte.

Abgesehen von der Optik brachte Jelly Bean auch einen ersten Vorgeschmack auf Google Now (das leider inzwischen zu einem zweitklassigen Newsfeed verkommen ist). Weitere Benefits, die mit Android Jelly Bean Einzug hielten, waren unter anderem ein erweitertes (sprachbasiertes) Suchsystem und Multi-User-Support. Letzteres stand allerdings nur auf Tablet-Geräten zur Verfügung. Davon abgesehen, gab auch das Quick Settings Panel in dieser Android-Version sein Debüt – genauso wie Widgets für den Sperrbildschirm.

Quick Settings und der (kurzlebige) Widget-befüllte Lockscreen in Android Jelly Bean.
Foto: JR Raphael | IDG

Android 4.4 KitKat

Mit Version 4.4 kam das Zeitalter der dunklen Farbgebung bei Android zu einem Ende. KitKat brachte Ende 2013 frischere, hellere Farben für Googles Betriebssystem und sorgte damit für eine umfassende, optische Modernisierung. Premiere feierte mit Android 4.4 außerdem das allseits bekannte “OK, Google”-Freihand-Feature (das damals nur funktionierte, wenn der Startbildschirm oder die Google-App bereits geöffnet war).

Der Kitkat-Homescreen und das dedizierte Google-Now-Panel.
Foto: JR Raphael | IDG

Die Nutzer von Google-eigenen (Nexus-)Smartphones durften sich zudem erstmals an einem Startbildschirm-Panel erfreuen, das exklusiv für Google-Dienste reserviert war.

Android 5.0/5.1 Lollipop

Mit Lollipop führte Google im Herbst 2014 den bis heute gültigen Material-Design-Standard bei Android ein, der sich nicht nur auf das Betriebssystem selbst, sondern auch auf Apps und andere Google-Produkte auswirkte. Das kartenbasierte User Interface, das bislang punktuell in Android eingesetzt wurde, wurde mit Android 5.0 zum zentralen Designaspekt.

Davon abgesehen, brachte Android Lollipop auch einige neue Funktionen in die Android-Welt – unter anderem den weiterentwickelten “Ok, Google”-Befehl, Multi-User-Support für Mobiltelefone sowie ein optimiertes Benachrichtigungsmanagement. Leider flossen mit Lollipop auch diverse Bugs ein, die in weiten Teilen erst mit der Android-Version 5.1 ab 2015 vollständig behoben werden konnten.

Mit Lollipop nahm Androids Material Design seinen Anfang.
Foto: JR Raphael | IDG

Android 6.0 Marshmallow

Im Großen und Ganzen war Marshmallow – ebenfalls im Jahr 2015 veröffentlicht – eine eher unbedeutende Android-Version, die mehr wie ein Point-Update wirkte. Allerdings setzte Marshmallow den Startpunkt dafür, dass Google jährlich eine große neue Android-Version veröffentlicht.

Android Marshmallow und “Now on Tap” (RIP).
Foto: JR Raphael | IDG

Das auffälligste Marshmallow-Feature war die vielversprechende Bildschirmsuchfunktion “Now On Tap” – die leider nie weiterentwickelt und 2016 still und heimlich beerdigt wurde. Android 6.0 enthielt jedoch auch einige subtilere Neuerungen, etwa granularere App-Berechtigungen sowie Support für Fingerabdruckscanner und USB-C.

Android 7.0/7.1 Nougat

Die Android-Versionen mit dem Codenamen Nougat wurden 2016 veröffentlicht und ergänzten Googles Mobile OS um einen nativen Split-Screen-Modus, ein neues System, um Benachrichtigungen zu managen, und eine Data-Saver-Funktion. Darüber hinaus hatte Android 7.0 bis 7.1 auch einige kleinere, aber dennoch wichtige Features an Bord – beispielsweise einen Shortcut, um zwischen Apps zu wechseln.

Der mit Nougat neu eingeführte, native Split-Screen-Modus.
Foto: JR Raphael | IDG

Die vielleicht wichtigste Neuerung von Android Nougat war jedoch die Möglichkeit, den Google Assistant zu integrieren, der etwa zwei Monate nach dem Nougat-Debüt (zusammen mit Google erstem Pixel-Smartphone) vorgestellt wurde. Der Assistant entwickelte sich in den kommenden Jahren zu einer wichtigen Android-Komponente (und den meisten anderen Google-Produkten).

Android 8.0/8.1 Oreo

Mit Version 8.0 und 8.1 – veröffentlicht im Jahr 2017 unter dem Codenamen Oreo – erhielt Android weitere Annehmlichkeiten. Unter anderem einen nativen Bild-in-Bild-Modus, eine Schlummerfunktion für Notifications sowie tiefgehendere Möglichkeiten, App-Benachrichtigungen zu kontrollieren.

Darüber hinaus war diese Android-Version auch ein Versuch von Google, Android und Chrome OS näher zusammenzubringen und die Nutzung von Android-Apps auf Chromebooks zu optimieren. Davon abgesehen war Android 8 auch vom ehrgeizigen Bestreben geprägt, mit “Project Treble” eine modulare Basis für den Android-Quellcode zu schaffen. Die Hoffnung: Es den Geräteherstellern einfacher zu machen, zeitnah Software-Updates bereitzustellen.

Android Oreo erweiterte Googles mobiles Betriebssystem um diverse bedeutende Funktionen.
Foto: JR Raphael | IDG

Android 9 Pie

Android-Version 9, auch bekannt unter dem Codenamen Pie, brachte im August 2018 frischen Wind in Googles Mobile-Ökosystem. Die wesentlichste Änderung war dabei ein hybrides Gesten-Button-Navigationssystem, das die traditionellen Navigationstasten mit einem großen, multifunktionalen “Home Button” ersetzte.

Alles neu machte Android 9 – zumindest in Sachen Bedienung.
Foto: JR Raphael | IDG

Android Pie enthielt allerdings auch einige bemerkenswerte neue Productivity-Funktionen, beispielsweise ein universelles System, um mit vorgeschlagenen Antworten auf Nachrichten zu reagieren oder ein intelligenteres Energiemanagement. Erwähnenswert sind bei dieser Android-Version zudem zahlreiche Optimierungen in Sachen Datenschutz und Sicherheit.

Android Version 10

Im September 2019 ereilte der nächste Umschwung auch die Backwerk-affine Nomenklatur: Android 10 war die erste Version, die ausschließlich mit einer Zahl bezeichnet wird. Dazu passend brachte die Betriebssystem-Software auch eine völlig neu gestaltete Oberfläche mit sich, die ab diesem Zeitpunkt vollständig auf Wischbewegungen ausgelegt war.

Zu den wichtigen Verbesserungen, die Android 10 darüber hinaus an Bord hatte, gehörten ein aktualisiertes App-Berechtigungssystem mit tioefergehenden Kontrollmöglichkeiten, eine “Darkmode”-Option, ein Fokusmodus sowie die Möglichkeit, abzuspielende Mediendateien automatisch mit Untertiteln zu versehen.

Speziell in Sachen Standortdaten brachte Android 10 eine dringend nötige Nuancierung.
Foto: JR Raphael | IDG

Android Version 11

Mit Android Version 11 veröffentlichte Google im September 2020 ein umfassendes Software-Update, das zahlreiche Neuerungen brachte. Die wichtigste Änderung drehte sich um das Thema Datenschutz: Das mit Android 10 eingeführte Berechtigungssystem wurde um die Möglichkeit erweitert, Apps einmaligen Zugriff auf Standortdaten, Kamera oder Mikrofon zu gewähren.

Mit Android 11 erschwerte Google außerdem, dass Apps den Standort der Nutzer im Hintergrund ermitteln können und führte eine Funktion ein, die Apps automatisch Berechtigungen entzieht, wenn diese für längere Zeit nicht genutzt wurden. Auf Interface-Ebene bot Android 11 außerdem einen vereinheitlichten Media Player, eine Benachrichtigungshistorie, die Möglichkeit, alle verbundenen Geräte in einer Übersicht anzuzeigen sowie eine native Screen-Recording-Funktion.

Der neue Einheits-Media-Player in Android 11.
Foto: JR Raphael | IDG

Android Version 12

Die finale Version von Android 12 präsentierte Google pünktlich zur Markteinführung seiner Smartphones Pixel 6 und Pixel 6 Pro im Oktober 2021. Die wesentlichen Fortschritte waren bei dieser Android-Version direkt sichtbar: Sie bot die wohl größte Interface-Überarbeitung bei Android seit Lollipop und führte einen aktualisierten Design-Standard namens “Material You” ein. Das fußt auf der Idee, das Erscheinungsbild des Betriebssystems mit dynamisch generierten Themes an die individuelle “Farbwelt” des Benutzers anzupassen.

Android 12 brachte einen völlig neuen frischen Look mit – dem “Material You”-Designstandard sei Dank.
Foto: JR Raphael | IDG

Davon abgesehen hatte Android 12 auch ein (lange überfälliges) neues Widget-System sowie eine Reihe grundlegender Verbesserungen in den Bereichen Leistung, Sicherheit und Datenschutz zu bieten. In diesem Zuge erweiterte Google sein Betriebssystem auch um einen isolierten Bereich, der KI-Funktionen auch ohne Netzwerkzugriff und Datenexposition ermöglicht.

Android Version 13

Mit Android 13 veröffentlichte Google im August 2022 eine der bislang ungewöhnlichsten Android-Versionen: Sie ist eines der ehrgeizigsten Android-Updates überhaupt – beinhaltet gleichzeitig aber auch vornehmlich subtile Änderungen. Für das Nutzererlebnis spielte dabei auch eine tragende Rolle, auf welchem Device Android 13 installiert wurde. Für Tablets und faltbare Smartphones führte Android 13 ein gänzlich neues Interface-Design ein – mit dem Ziel, ein verbessertes Benutzererlebnis auf größeren Bildschirmen zu realisieren. Das schlug sich auch in einem auf Multitasking ausgelegten, aktualisierten Split-Screen-Modus und einer Taskbar im Chrome-OS-Stil nieder. Darüber hinaus schuf Android 13 auch die Vorraussetzung dafür, dass Pixel-Tablets als stationäres Smart Display fungieren konnten.

Mit Blick auf Smartphones war der Release von Android 13 weit weniger bedeutsam. Neben einigen kleineren visuellen Optimierungen führte diese Android-Version ein erweitertes System für die Zwischenablage ein, eine native Funktion, um QR-Codes zu scannen, sowie weitere Optimierungen in den Bereichen Datenschutz, Sicherheit und Leistung.

Android Version 14

Nach achtmonatiger Entwicklungsphase präsentierte Google Anfang Oktober 2023 Android 14 – zeitgleich zur Vorstellung seiner Pixel-8-Smartphones. Auch diese Android-Version kam eher subtil um die Ecke: Sie brachte zum Beispiel ein neues System zum Einsatz, um Text zwischen Apps im Drag-und-Drop-Verfahren auszutauschen, sowie native Anpassungsmöglichkeiten für den Android-Sperrbildschirm. Zudem durften die Nutzer mit Android 14 auf ein integriertes Dashboard zugreifen, um sämtliche ihrer Gesundheits- und Fitness-Daten zu managen.

Darüber hinaus enthält diese Android-Version eine Reihe wichtiger Erweiterungen für die Barrierefreiheit – etwa eine On-Demand-Lupe, verbesserten Support für Hörgeräte sowie die Möglichkeit, eingehende Nachrichten über den Kamerablitz zu visualisieren. Die Benutzer von Pixel 8 und Pixel 8 Pro durften mit Android 14 auch erstmals und exklusiv Googles KI-basierten Wallpaper Creator austesten.

Der KI-basierte Wallpaper Generator in Android 14 liefert interessante Ergebnisse.
Foto: JR Raphael | IDG

Android Version 15

Technisch betrachtet hat Google Android 15 bereits im September 2024 veröffentlicht – allerdings tauchte die neue Android-Version erst ab Mitte Oktober auf den hauseigenen Pixel-Geräten auf.

Mit Android 15 hält eine ganze eine Reihe bemerkenswerter neuer Funktionen Einzug. Darunter eine „Private Space“-Option, die es ermöglicht, sensible Applikationen beziehungsweise Inhalte mit einer zusätzlichen Authentifizierungsebene auszustatten. Davon abgesehen verbessert Version 15 auch die mit Android 13 eingeführten Multitasking-Systeme weiter: Die Android Taskbar ist jetzt optional dauerhaft präsent. Außerdem lassen sich bestimmte App-Kombinationen ab Version 15 mit einem Fingertipp im Split-Screen-Modus aufrufen.

Mit „Private Space“ sind bestimmte Apps ausschließlich über einen geschützten (und optional auch versteckten) Bereich abrufbar.JR Raphael / Foundry

Weitere nennenswerte Neuerungen von Android 15 sind ein neu designtes Lautstärkeregelungs-Panel sowie ein (Pixel-exklusives) „Adaptive Vibration“-Feature, dass die Vibrationsintensität an der jeweils aktuellen Umgebung ausrichtet.

Android Version 16 (Beta)

Mit dem Jahr 2025 hat Google beschlossen, seinen bisherigen Android-Upgrade-Zyklus aufzubrechen: Beginnend mit der Veröffentlichung von Version 16 sollen künftig pro Jahr zwei Android-Versionen erscheinen. Den ersten Teil dieses Versprechens hat Google bereits mit der Veröffentlichung der Android-16-Beta Ende Januar 2025 umgesetzt. Die Vorabversion wird seitdem zielstrebig mit Updates auf ihren finalen Rollout – voraussichtlich im Frühjahr 2025 – vorbereitet.

Zu den wichtigsten neuen Funktionen von Android 16 zählen (bislang) Live-Updates – eine neue Art von Benachrichtigungen, die ähnlich funktionieren wie die Live-Aktivitäten bei iOS. Darüber hinaus verspricht Version 16 des Google-Mobile-Betriebssystems auch eine Reihe von Verbesserungen für die Benutzeroberfläche, ein besseres Desktop-Erlebnis sowie Support für striktere Netzwerksicherheitsregeln.   

Mit Android 16 sollen Android-Apps sich endlich auch im Großformat ordentlich präsentieren – statt etwa auf Tablets ein Smartphone zu „simulieren“.Google

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Alle Android-Versionen im Überblick​ Weiterlesen »

An der Beförderung arbeiten: Wie Sie den nächsten Karriereschritt machen​

Allgemein

Eine erfolgreiche Karriere erfordert eine gezielte Planung und Strategie sowie die richtige Einstellung und Motivation. Dazu gehört auch, sich regelmäßig weiterzubilden und das Netzwerk auszubauen. Mit den richtigen Werkzeugen und der entsprechenden Motivation können Sie Ihre Karriereziele erreichen und sich die nächste Beförderung sichern. Dazu sollten Sie folgende Tipps beachten: Wer eine höhere Position und mehr Verantwortung im Berufsleben anstrebt, kann mit viel Eigeninitiative dazubeitragen, die Weichen in Richtung Beförderung zu stellen. Foto: eamesBot – shutterstock.comTipp 1: Selbstreflexion und ZielsetzungBevor man sich auf den Weg macht, die nächste Beförderung zu erreichen, ist es wichtig, sich selbst zu reflektieren und sich klare Ziele zu setzen. Denn ohne Kenntnis, was man eigentlich will, wird man auch nicht wissen, wie man dorthin gelangt. Eine erfolgreiche Karriere erfordert ein gewisses Maß an Planung und Strategie.Daher empfiehlt es sich, sich folgende Fragen zu stellen: Was sind meine Stärken und Schwächen? Was sind meine Ziele im Beruf? Wo sehe ich mich in fünf Jahren? Eine ehrliche Selbstreflexion ermöglicht es, die eigenen Potenziale und Entwicklungsbereiche zu erkennen und gezielt daran zu arbeiten.Außerdem ist es wichtig, sich klare Ziele zu setzen. Was genau möchte man erreichen und in welchem Zeitrahmen? Die Ziele sollten bestenfalls spezifisch, messbar, attraktiv, relevant und terminiert beziehungsweise zeitgebunden sein – kurz gesagt: SMART. Eine klare Zielsetzung hilft dabei, den Fokus zu behalten und sich auf das Wesentliche zu konzentrieren.Tipp 2: Fachliche Kompetenz und WeiterbildungNatürlich spielt auch die fachliche Kompetenz eine wichtige Rolle bei der nächsten Beförderung. Wer sich für eine höhere Position empfehlen möchte, sollte in seinem Bereich über ein fundiertes Fachwissen verfügen. Hierzu gehört auch, sich regelmäßig weiterzubilden und auf dem aktuellen Stand zu bleiben. Das zeigt nicht nur, dass man sich für seinen Job engagiert, sondern auch, dass man bereit ist, Verantwortung zu übernehmen und neue Herausforderungen anzunehmen.Tipp 3: Netzwerken und Beziehungen pflegenEin weiterer wichtiger Faktor bei der Karriereentwicklung sind das Netzwerken und das Pflegen von Beziehungen. Dabei geht es nicht darum, sich anzubiedern oder zu schmeicheln, sondern um den Aufbau von gegenseitigem Vertrauen und Respekt. Wer ein gutes Netzwerk hat, kann von den Erfahrungen und dem Wissen anderer profitieren und wird schneller über interessante Stellenangebote informiert.Tipp 4: Sichtbarkeit erhöhenEine höhere Position bedeutet auch, dass man eine größere Sichtbarkeit im Unternehmen hat. Daher ist es wichtig, sich zu zeigen und sich aktiv einzubringen. Eine Möglichkeit dazu ist, sich an Projekten und Arbeitsgruppen zu beteiligen, Verantwortung zu übernehmen und Initiative zu zeigen. Wer sich engagiert und erfolgreich arbeitet, wird von Vorgesetzten und Kollegen wahrgenommen und hat bessere Chancen auf eine Beförderung.Dabei können sich eine gute Selbstreflexion und Kenntnis der eigenen Talente, Fähigkeiten, Werte und Überzeugungen als äußerst wertvoll erweisen. Indem man sich bewusst macht, was man kann, was einem wichtig ist und wofür man steht, kann man selbstbewusster und zielgerichteter auftreten. Gleichzeitig ermöglicht dies eine bessere Abstimmung mit dem Unternehmen, den Vorgesetzten und dem Team. Tipp 5: Kommunikation und Präsentation Neben der fachlichen Kompetenz spielt auch die Kommunikation und Präsentation eine wichtige Rolle. Wer seine Ideen und Visionen überzeugend präsentieren kann, wird eher Gehör finden und die Aufmerksamkeit der Entscheidungsträger auf sich ziehen. Auch hier gilt: Übung macht den Meister. Wer unsicher ist, kann sich in entsprechenden Kursen oder Trainings weiterbilden und seine Fähigkeiten verbessern.Tipp 6: Die richtige EinstellungEine positive Einstellung und eine hohe Motivation sind unerlässlich für eine erfolgreiche Karriere. Wer sich selbst und seinen Fähigkeiten vertraut, strahlt Selbstbewusstsein und Durchsetzungskraft aus. Das macht einen aufstrebenden Mitarbeiter für Vorgesetzte und Entscheidungsträger attraktiv und erhöht die Chancen auf eine Beförderung.Um die richtige Einstellung zu entwickeln, ist es hilfreich, sich an positiven Vorbildern zu orientieren und sich von deren Erfolgen inspirieren zu lassen. Auch eine positive Grundeinstellung gegenüber Veränderungen und Herausforderungen kann helfen, eine erfolgreiche Karriere zu gestalten.Tipp 7: Gesunder Lebensstil und Work-Life-BalanceLast but not least spielt neben den genannten Faktoren auch ein gesunder Lebensstil und eine ausgeglichene Work-Life-Balance eine wichtige Rolle bei der Karriereentwicklung. Denn wer sich körperlich und mental fit hält, kann auch im Job besser performen und seine Aufgaben erfolgreich meistern. Dazu gehört auch, sich ausreichend Zeit für Erholung und Entspannung zu gönnen. Denn nur wer auch mal abschalten und die Akkus aufladen kann, bleibt auf Dauer leistungsfähig und motiviert.Erfolgsfaktoren Motivation und KarriereplanungEine Beförderung ist für viele Arbeitnehmer ein wichtiger Schritt auf der Karriereleiter. Doch um sich erfolgreich durchzusetzen und die nächste Stufe zu erreichen, sind einige Faktoren entscheidend. Dazu gehören eine ehrliche Selbstreflexion und klare Zielsetzung, fachliche Kompetenz und Weiterbildung, Netzwerken und Beziehungen pflegen, Sichtbarkeit im Unternehmen, Kommunikations- und Präsentationsfähigkeiten, die richtige Einstellung sowie ein gesunder Lebensstil und eine ausgeglichene Work-Life-Balance.Ein Karriere-Coaching kann dabei helfen, die eigenen Potenziale zu erkennen, die Karriereziele zu definieren und eine erfolgreiche Strategie zu entwickeln. Mit den richtigen Werkzeugen und der entsprechenden Motivation können Arbeitnehmer Ihre Karriereziele erreichen und sich die nächste Beförderung sichern. (pg) Fachkarrieren als Erfolgsprojekt zur MitarbeiterbindungPraxistipps: Wie Sie Karrierekonzepte für Fachkräfte umsetzen Foto: Sergey Nivens – shutterstock.comFachkräfte sind für den Unternehmenserfolg unverzichtbar. Für Arbeitgeber ist es deshalb besonders sinnvoll, diesen Spezialisten von vorneherein Karrierechancen aufzuzeigen, ohne ihr Potenzial zwangsläufig in Führungspositionen zu vergeuden. HR- und Organisationsexpertin Regina Bergdolt gibt Tipps, wie der Projekte für Fachkarrieren erfolgreich geplant und umgesetzt werden. Projektplan festlegen Foto: Robert Kneschke – shutterstock.comDefinieren Sie klar verständliche Ziele und einen Projektplan mit Meilensteinen. Gerade Vorstände brauchen Systematik, um Fachkarrieren zu unterstützen und Ressourcen freizumachen.Stakeholder definieren Foto: Robert Kneschke – shutterstock.comKlären Sie in einer Stakeholderanalyse: Wer treibt die Fachkarriere mit Ihnen, ein Machtpromotor, Führungskräfte, Mitarbeiter, Bewerber?Projektleitung auswählen Foto: Matej Kastelic – shutterstock.comWählen Sie eine Projektleitung mit HR-Erfahrung und Standing. Nicht alle HR-Abteilungen sind schon erfahren im Projektmanagement; das können Sie ändern. Expertise sicherstellen Foto: Jacek Dudzinski – shutterstock.comHolen Sie sich die Expertise ins Projekt, die Sie benötigen, anstatt an kritischen Punkten hängen zu bleiben.Fachkarriere aktiv bewerben Foto: Andrey_Popov – shutterstock.comNutzen Sie die Fachkarriere schon im Projektstadium aktiv als Angebot des Unternehmens: auf der Karriereseite und im Gespräch mit Bewerbern. 

An der Beförderung arbeiten: Wie Sie den nächsten Karriereschritt machen​ Eine erfolgreiche Karriere erfordert eine gezielte Planung und Strategie sowie die richtige Einstellung und Motivation. Dazu gehört auch, sich regelmäßig weiterzubilden und das Netzwerk auszubauen. Mit den richtigen Werkzeugen und der entsprechenden Motivation können Sie Ihre Karriereziele erreichen und sich die nächste Beförderung sichern. Dazu sollten Sie folgende Tipps beachten: Wer eine höhere Position und mehr Verantwortung im Berufsleben anstrebt, kann mit viel Eigeninitiative dazubeitragen, die Weichen in Richtung Beförderung zu stellen.
Foto: eamesBot – shutterstock.comTipp 1: Selbstreflexion und ZielsetzungBevor man sich auf den Weg macht, die nächste Beförderung zu erreichen, ist es wichtig, sich selbst zu reflektieren und sich klare Ziele zu setzen. Denn ohne Kenntnis, was man eigentlich will, wird man auch nicht wissen, wie man dorthin gelangt. Eine erfolgreiche Karriere erfordert ein gewisses Maß an Planung und Strategie.Daher empfiehlt es sich, sich folgende Fragen zu stellen: Was sind meine Stärken und Schwächen? Was sind meine Ziele im Beruf? Wo sehe ich mich in fünf Jahren? Eine ehrliche Selbstreflexion ermöglicht es, die eigenen Potenziale und Entwicklungsbereiche zu erkennen und gezielt daran zu arbeiten.Außerdem ist es wichtig, sich klare Ziele zu setzen. Was genau möchte man erreichen und in welchem Zeitrahmen? Die Ziele sollten bestenfalls spezifisch, messbar, attraktiv, relevant und terminiert beziehungsweise zeitgebunden sein – kurz gesagt: SMART. Eine klare Zielsetzung hilft dabei, den Fokus zu behalten und sich auf das Wesentliche zu konzentrieren.Tipp 2: Fachliche Kompetenz und WeiterbildungNatürlich spielt auch die fachliche Kompetenz eine wichtige Rolle bei der nächsten Beförderung. Wer sich für eine höhere Position empfehlen möchte, sollte in seinem Bereich über ein fundiertes Fachwissen verfügen. Hierzu gehört auch, sich regelmäßig weiterzubilden und auf dem aktuellen Stand zu bleiben. Das zeigt nicht nur, dass man sich für seinen Job engagiert, sondern auch, dass man bereit ist, Verantwortung zu übernehmen und neue Herausforderungen anzunehmen.Tipp 3: Netzwerken und Beziehungen pflegenEin weiterer wichtiger Faktor bei der Karriereentwicklung sind das Netzwerken und das Pflegen von Beziehungen. Dabei geht es nicht darum, sich anzubiedern oder zu schmeicheln, sondern um den Aufbau von gegenseitigem Vertrauen und Respekt. Wer ein gutes Netzwerk hat, kann von den Erfahrungen und dem Wissen anderer profitieren und wird schneller über interessante Stellenangebote informiert.Tipp 4: Sichtbarkeit erhöhenEine höhere Position bedeutet auch, dass man eine größere Sichtbarkeit im Unternehmen hat. Daher ist es wichtig, sich zu zeigen und sich aktiv einzubringen. Eine Möglichkeit dazu ist, sich an Projekten und Arbeitsgruppen zu beteiligen, Verantwortung zu übernehmen und Initiative zu zeigen. Wer sich engagiert und erfolgreich arbeitet, wird von Vorgesetzten und Kollegen wahrgenommen und hat bessere Chancen auf eine Beförderung.Dabei können sich eine gute Selbstreflexion und Kenntnis der eigenen Talente, Fähigkeiten, Werte und Überzeugungen als äußerst wertvoll erweisen. Indem man sich bewusst macht, was man kann, was einem wichtig ist und wofür man steht, kann man selbstbewusster und zielgerichteter auftreten. Gleichzeitig ermöglicht dies eine bessere Abstimmung mit dem Unternehmen, den Vorgesetzten und dem Team. Tipp 5: Kommunikation und Präsentation Neben der fachlichen Kompetenz spielt auch die Kommunikation und Präsentation eine wichtige Rolle. Wer seine Ideen und Visionen überzeugend präsentieren kann, wird eher Gehör finden und die Aufmerksamkeit der Entscheidungsträger auf sich ziehen. Auch hier gilt: Übung macht den Meister. Wer unsicher ist, kann sich in entsprechenden Kursen oder Trainings weiterbilden und seine Fähigkeiten verbessern.Tipp 6: Die richtige EinstellungEine positive Einstellung und eine hohe Motivation sind unerlässlich für eine erfolgreiche Karriere. Wer sich selbst und seinen Fähigkeiten vertraut, strahlt Selbstbewusstsein und Durchsetzungskraft aus. Das macht einen aufstrebenden Mitarbeiter für Vorgesetzte und Entscheidungsträger attraktiv und erhöht die Chancen auf eine Beförderung.Um die richtige Einstellung zu entwickeln, ist es hilfreich, sich an positiven Vorbildern zu orientieren und sich von deren Erfolgen inspirieren zu lassen. Auch eine positive Grundeinstellung gegenüber Veränderungen und Herausforderungen kann helfen, eine erfolgreiche Karriere zu gestalten.Tipp 7: Gesunder Lebensstil und Work-Life-BalanceLast but not least spielt neben den genannten Faktoren auch ein gesunder Lebensstil und eine ausgeglichene Work-Life-Balance eine wichtige Rolle bei der Karriereentwicklung. Denn wer sich körperlich und mental fit hält, kann auch im Job besser performen und seine Aufgaben erfolgreich meistern. Dazu gehört auch, sich ausreichend Zeit für Erholung und Entspannung zu gönnen. Denn nur wer auch mal abschalten und die Akkus aufladen kann, bleibt auf Dauer leistungsfähig und motiviert.Erfolgsfaktoren Motivation und KarriereplanungEine Beförderung ist für viele Arbeitnehmer ein wichtiger Schritt auf der Karriereleiter. Doch um sich erfolgreich durchzusetzen und die nächste Stufe zu erreichen, sind einige Faktoren entscheidend. Dazu gehören eine ehrliche Selbstreflexion und klare Zielsetzung, fachliche Kompetenz und Weiterbildung, Netzwerken und Beziehungen pflegen, Sichtbarkeit im Unternehmen, Kommunikations- und Präsentationsfähigkeiten, die richtige Einstellung sowie ein gesunder Lebensstil und eine ausgeglichene Work-Life-Balance.Ein Karriere-Coaching kann dabei helfen, die eigenen Potenziale zu erkennen, die Karriereziele zu definieren und eine erfolgreiche Strategie zu entwickeln. Mit den richtigen Werkzeugen und der entsprechenden Motivation können Arbeitnehmer Ihre Karriereziele erreichen und sich die nächste Beförderung sichern. (pg)

Fachkarrieren als Erfolgsprojekt zur MitarbeiterbindungPraxistipps: Wie Sie Karrierekonzepte für Fachkräfte umsetzen
Foto: Sergey Nivens – shutterstock.comFachkräfte sind für den Unternehmenserfolg unverzichtbar. Für Arbeitgeber ist es deshalb besonders sinnvoll, diesen Spezialisten von vorneherein Karrierechancen aufzuzeigen, ohne ihr Potenzial zwangsläufig in Führungspositionen zu vergeuden. HR- und Organisationsexpertin Regina Bergdolt gibt Tipps, wie der Projekte für Fachkarrieren erfolgreich geplant und umgesetzt werden. Projektplan festlegen
Foto: Robert Kneschke – shutterstock.comDefinieren Sie klar verständliche Ziele und einen Projektplan mit Meilensteinen. Gerade Vorstände brauchen Systematik, um Fachkarrieren zu unterstützen und Ressourcen freizumachen.Stakeholder definieren
Foto: Robert Kneschke – shutterstock.comKlären Sie in einer Stakeholderanalyse: Wer treibt die Fachkarriere mit Ihnen, ein Machtpromotor, Führungskräfte, Mitarbeiter, Bewerber?Projektleitung auswählen
Foto: Matej Kastelic – shutterstock.comWählen Sie eine Projektleitung mit HR-Erfahrung und Standing. Nicht alle HR-Abteilungen sind schon erfahren im Projektmanagement; das können Sie ändern. Expertise sicherstellen
Foto: Jacek Dudzinski – shutterstock.comHolen Sie sich die Expertise ins Projekt, die Sie benötigen, anstatt an kritischen Punkten hängen zu bleiben.Fachkarriere aktiv bewerben
Foto: Andrey_Popov – shutterstock.comNutzen Sie die Fachkarriere schon im Projektstadium aktiv als Angebot des Unternehmens: auf der Karriereseite und im Gespräch mit Bewerbern.

An der Beförderung arbeiten: Wie Sie den nächsten Karriereschritt machen​ Weiterlesen »

PyScript-Einführung: Python im Browser ausführen​

Allgemein

PyScript bringt Python-Skripte direkt in den Browser – und erschließt Interaktionsmöglichkeiten zwischen Code und Webseite. Foto: VectorV | shutterstock.com PyScript wurde von einem Team um Peter Wang bei Anaconda Inc. entwickelt und im April 2022 veröffentlicht. Die Technologie macht die Python Runtime als Skriptsprache in WebAssembly-fähigen Browsern verfügbar. Dabei zielt das Framework darauf ab, eine vollständige Browser-Umgebung bereitzustellen, um Python als Web-Skriptsprache auszuführen. Zwar handelt es sich bei PyScript um ein experimentelles Projekt, das (noch) nicht für Produktionszwecke geeignet ist – allerdings lohnt es sich für Interessierte, mit den bislang verfügbaren Komponenten erste Python-trifft-JavaScript-im-Browser-Experimente zu realisieren. In diesem Artikel lesen Sie, wie das geht. Mit PyScript programmieren Im Kern besteht PyScript aus einem einzigen JavaScript-Include, das zu einer Webseite hinzugefügt wird. Dieser Include lädt die Basis-Runtime von PyScript und fügt automatisch Support für benutzerdefinierte Tags hinzu. Im Folgenden ein einfaches Beispiel für ein Hello-World-Projekt in PyScript: href=”https://pyscript.net/releases/2023.11.2/core.css” />from pyscript import displaydisplay(“Hello World!”)print(“Hello terminal!”) Das script-Tag im head des Dokuments lädt die Kernfunktionalität von PyScript. Das .css-Stylesheet ist optional, aber praktisch, weil es den Benutzern beim Laden der Seite unter anderem mitteilt, was gerade passiert. Über das Attribut type=”py” wird Python-Code in den script-Tag inkludiert. Dabei sollten Sie beachten, den Code gemäß den Python-Namenskonventionen zu formatieren. Ansonsten besteht die Gefahr, dass er nicht richtig ausgeführt werden kann. Insbesondere wenn Sie einen Editor verwenden, der HTML automatisch umformatiert, ist das relevant. Der Inhalt des script-Blocks könnte verfälscht werden. Sie können auch auf ein .py-File referieren, was sich einfacher gestalten kann, als das Script inline zu inkludieren. Sobald die PyScript-Komponenten fertig geladen sind, wird der Python-Code evaluiert. Dabei können Sie wählen, ob der Output an das DOM (mit pyscript.display) oder ein eingebettetes Terminal gesendet werden soll. Wenn Sie Letzteres verwenden wollen, müssen Sie terminal als Attribut in das script-Tag aufnehmen (dazu später mehr). Wenn das Skript in den Tags nach stdout schreibt (wie bei einem print-Statement), können Sie bestimmen, wo der Output auf der Seite angezeigt werden soll, indem Sie eine Property für output definieren. Im obenstehenden Beispiel wird stdout für das Skript an das div mit der ID von “out” weitergeleitet. Wenn Sie diesen Code in einer Datei speichern und erstmals im Webbrowser öffnen, sehen Sie zunächst einen “Lade”-Indikator. Der Browser ruft zunächst die PyScript-Laufzeit ab und richtet diese ein. Zukünftige Ladevorgänge sollten dank Zwischenspeicherung flotter ablaufen. Anschließend sollte Hello world zweifach auf der Seite erscheinen – einmal oben in HTML und einmal in einem schwarzen Fenster, dem Embedded Terminal. Von Standard-Bibliotheken importieren Skripte, die ausschließlich Python-Builtins verwenden, sind nur bedingt nützlich. Die Standardbibliothek von Python lässt sich in PyScript auf identische Weise wie bei “normalem” Python nutzen: Ein import-Befehl genügt. Entsprechend sollten Importe aus der Standardbibliothek einfach funktionieren. Wenn Sie den obigen Skriptblock ändern wollten, um die aktuelle Zeit anzuzeigen, würden Sie das wie von Python gewohnt erledigen: import datetimeprint (“Current date and time:”,datetime.datetime.now().strftime(“%Y/%m/%d %H:%M:%S”)) Bibliotheken über PyPI verwenden Mit PyScript können Sie Projektkonfigurationen, die von PyPI installiert werden sollen – einschließlich aller Drittanbieter-Packages – über eine .toml– oder .json-Datei im Projektverzeichnis angeben. Im Folgenden betrachten wir, wie das mit .toml funktioniert. Um die Projektkonfigurationsdatei zu verwenden, müssen Sie die config-Direktive in Ihr Skript-Tag einfügen: In der Datei pyscript.toml sind alle benötigten Packages aufgeführt: packages = [“package”,”another-package”] Dabei gilt es zu beachten, dass nicht alle Packages von PyPI installiert und ausgeführt werden können. Die meisten “reinen” Python-Pakete (etwa humanize) sollten problemlos laufen, genauso wie numpy, pandas, bokeh oder matplotlib. Anders sieht es bei Packages aus, die Netzwerkzugriff benötigen oder mit plattformspezifischen Elementen wie GUIs arbeiten. Sie werden höchstwahrscheinlich nicht funktionieren. Lokal importieren Ein weiteres gängiges Szenario: Andere Python-Skripte importieren, die sich im selben Verzeichnisbaum wie Ihre Webseite befinden. Importe zu verwenden, macht es einfacher mehr Python-Logik von der Webseite selbst auszulagern. Denn dort ist sie mit Ihrer Präsentation “vermischt”, was es schwierig machen könnte, damit zu arbeiten. Normalerweise nutzt Python andere, vorhandene .py-Files im Dateisystem, um anzuzeigen, was es importieren kann. PyScript arbeitet nicht auf diese Weise. Deswegen müssen Sie angeben, welche Dateien als importierbare Module verfügbar sein sollen. Dazu listen Sie die entsprechenden URLs in der Konfigurationsdatei Ihrer Anwendung in einem [files]-Block auf und definieren, wie Sie dem emulierten Dateisystem von PyScript zugeordnet werden sollen. Zum Beispiel: [files]”/module.py” = “./libs/module.py””https://mydata.com/data.csv” = “./data.csv” Jede Datei, die über die URL auf der linken Seite zugänglich ist, wird dem emulierten Dateisystem des Python-Interpreters über den Pfad auf der rechten Seite zur Verfügung gestellt. In diesem Fall ist die Datei, die Sie sehen würden, wenn Sie /module.py aufrufen würden, für Python als libs.module verfügbar. Zudem ist die Datei unter der URL https://mydata.com/data.csv im emulierten, aktuellen Arbeitsverzeichnis verfügbar. Das In-Browser-Terminal Python-Benutzer sollten mit REPL, der Konsolenschnittstelle zur Python-Laufzeitumgebung, vertraut sein. In PyScript können Sie diese in ein Live-Terminal in den Browser einbetten – oder einfach nur den Konsolen-Output Ihres Python-Programms. Um ein Terminal einzubetten, verwenden Sie ein Skript-Tag, das terminal als Attribut ausweist: Für Interaktivität müssen Sie das Attribut worker verwenden: name = input(“What is your name? “)print(f”Hello, {name}”) Der worker führt Ihr Programm in einem Web Worker aus, bei dem es sich im Wesentlichen um einen Unterprozess handelt. Zu beachten ist an dieser Stelle, dass Web Worker nicht für eine lokal geladene HTML-Datei verwendet werden können – Sie müssen sie von einem Webserver laden, der bestimmte Header bereitstellt. Wie das im Detail funktioniert, lesen Sie in der PyScript-Dokumentation. In einem PyScript-Terminal haben Sie größtenteils dieselben Möglichkeiten, wie in einer herkömmlichen Konsole – inklusive Farbgebung und Unicode. Mit DOM und JavaScript interagieren Weil PyScript auf Browser-Technologie basiert, verfügt es über Mechanismen zur DOM-Interaktion. Wenn Sie etwa den Wert eines Eingabefeldes auf einer Webseite abrufen und in Ihrem Python-Code verwenden möchten, gehen Sie folgendermaßen vor: from pyscript import window, documentinputbox = document.querySelector(“#my-input”)print(“Value of input:”, inputbox.value) PyScript enthält auch ein Modul namens pydom, das ermöglicht, Objekte auf der Seite dynamisch zu erstellen: from pyweb import pydomnew_div = pydom.create(“div”)new_div.content = “Hello World” Das erzeugt ein neues div-Element auf der Seite und befüllt es mit Text. Mit der pydom-Bibliothek sind die meisten Anpassungen, die mit DOM in JavaScript möglich sind, durchführbar. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

PyScript-Einführung: Python im Browser ausführen​ PyScript bringt Python-Skripte direkt in den Browser – und erschließt Interaktionsmöglichkeiten zwischen Code und Webseite.
Foto: VectorV | shutterstock.com

PyScript wurde von einem Team um Peter Wang bei Anaconda Inc. entwickelt und im April 2022 veröffentlicht. Die Technologie macht die Python Runtime als Skriptsprache in WebAssembly-fähigen Browsern verfügbar. Dabei zielt das Framework darauf ab, eine vollständige Browser-Umgebung bereitzustellen, um Python als Web-Skriptsprache auszuführen.

Zwar handelt es sich bei PyScript um ein experimentelles Projekt, das (noch) nicht für Produktionszwecke geeignet ist – allerdings lohnt es sich für Interessierte, mit den bislang verfügbaren Komponenten erste Python-trifft-JavaScript-im-Browser-Experimente zu realisieren.

In diesem Artikel lesen Sie, wie das geht.

Mit PyScript programmieren

Im Kern besteht PyScript aus einem einzigen JavaScript-Include, das zu einer Webseite hinzugefügt wird. Dieser Include lädt die Basis-Runtime von PyScript und fügt automatisch Support für benutzerdefinierte Tags hinzu. Im Folgenden ein einfaches Beispiel für ein Hello-World-Projekt in PyScript:

href=”https://pyscript.net/releases/2023.11.2/core.css” />from pyscript import displaydisplay(“Hello World!”)print(“Hello terminal!”)

Das script-Tag im head des Dokuments lädt die Kernfunktionalität von PyScript. Das .css-Stylesheet ist optional, aber praktisch, weil es den Benutzern beim Laden der Seite unter anderem mitteilt, was gerade passiert.

Über das Attribut type=”py” wird Python-Code in den script-Tag inkludiert. Dabei sollten Sie beachten, den Code gemäß den Python-Namenskonventionen zu formatieren. Ansonsten besteht die Gefahr, dass er nicht richtig ausgeführt werden kann. Insbesondere wenn Sie einen Editor verwenden, der HTML automatisch umformatiert, ist das relevant. Der Inhalt des script-Blocks könnte verfälscht werden. Sie können auch auf ein .py-File referieren, was sich einfacher gestalten kann, als das Script inline zu inkludieren.

Sobald die PyScript-Komponenten fertig geladen sind, wird der Python-Code evaluiert. Dabei können Sie wählen, ob der Output an das DOM (mit pyscript.display) oder ein eingebettetes Terminal gesendet werden soll. Wenn Sie Letzteres verwenden wollen, müssen Sie terminal als Attribut in das script-Tag aufnehmen (dazu später mehr).

Wenn das Skript in den Tags nach stdout schreibt (wie bei einem print-Statement), können Sie bestimmen, wo der Output auf der Seite angezeigt werden soll, indem Sie eine Property für output definieren. Im obenstehenden Beispiel wird stdout für das Skript an das div mit der ID von “out” weitergeleitet.

Wenn Sie diesen Code in einer Datei speichern und erstmals im Webbrowser öffnen, sehen Sie zunächst einen “Lade”-Indikator. Der Browser ruft zunächst die PyScript-Laufzeit ab und richtet diese ein. Zukünftige Ladevorgänge sollten dank Zwischenspeicherung flotter ablaufen. Anschließend sollte Hello world zweifach auf der Seite erscheinen – einmal oben in HTML und einmal in einem schwarzen Fenster, dem Embedded Terminal.

Von Standard-Bibliotheken importieren

Skripte, die ausschließlich Python-Builtins verwenden, sind nur bedingt nützlich. Die Standardbibliothek von Python lässt sich in PyScript auf identische Weise wie bei “normalem” Python nutzen: Ein import-Befehl genügt. Entsprechend sollten Importe aus der Standardbibliothek einfach funktionieren.

Wenn Sie den obigen Skriptblock ändern wollten, um die aktuelle Zeit anzuzeigen, würden Sie das wie von Python gewohnt erledigen:

import datetimeprint (“Current date and time:”,datetime.datetime.now().strftime(“%Y/%m/%d %H:%M:%S”))

Bibliotheken über PyPI verwenden

Mit PyScript können Sie Projektkonfigurationen, die von PyPI installiert werden sollen – einschließlich aller Drittanbieter-Packages – über eine .toml– oder .json-Datei im Projektverzeichnis angeben. Im Folgenden betrachten wir, wie das mit .toml funktioniert. Um die Projektkonfigurationsdatei zu verwenden, müssen Sie die config-Direktive in Ihr Skript-Tag einfügen:

In der Datei pyscript.toml sind alle benötigten Packages aufgeführt:

packages = [“package”,”another-package”]

Dabei gilt es zu beachten, dass nicht alle Packages von PyPI installiert und ausgeführt werden können. Die meisten “reinen” Python-Pakete (etwa humanize) sollten problemlos laufen, genauso wie numpy, pandas, bokeh oder matplotlib. Anders sieht es bei Packages aus, die Netzwerkzugriff benötigen oder mit plattformspezifischen Elementen wie GUIs arbeiten. Sie werden höchstwahrscheinlich nicht funktionieren.

Lokal importieren

Ein weiteres gängiges Szenario: Andere Python-Skripte importieren, die sich im selben Verzeichnisbaum wie Ihre Webseite befinden. Importe zu verwenden, macht es einfacher mehr Python-Logik von der Webseite selbst auszulagern. Denn dort ist sie mit Ihrer Präsentation “vermischt”, was es schwierig machen könnte, damit zu arbeiten.

Normalerweise nutzt Python andere, vorhandene .py-Files im Dateisystem, um anzuzeigen, was es importieren kann. PyScript arbeitet nicht auf diese Weise. Deswegen müssen Sie angeben, welche Dateien als importierbare Module verfügbar sein sollen.

Dazu listen Sie die entsprechenden URLs in der Konfigurationsdatei Ihrer Anwendung in einem [files]-Block auf und definieren, wie Sie dem emulierten Dateisystem von PyScript zugeordnet werden sollen. Zum Beispiel:

[files]”/module.py” = “./libs/module.py””https://mydata.com/data.csv” = “./data.csv”

Jede Datei, die über die URL auf der linken Seite zugänglich ist, wird dem emulierten Dateisystem des Python-Interpreters über den Pfad auf der rechten Seite zur Verfügung gestellt. In diesem Fall ist die Datei, die Sie sehen würden, wenn Sie /module.py aufrufen würden, für Python als libs.module verfügbar. Zudem ist die Datei unter der URL https://mydata.com/data.csv im emulierten, aktuellen Arbeitsverzeichnis verfügbar.

Das In-Browser-Terminal

Python-Benutzer sollten mit REPL, der Konsolenschnittstelle zur Python-Laufzeitumgebung, vertraut sein. In PyScript können Sie diese in ein Live-Terminal in den Browser einbetten – oder einfach nur den Konsolen-Output Ihres Python-Programms.

Um ein Terminal einzubetten, verwenden Sie ein Skript-Tag, das terminal als Attribut ausweist:

Für Interaktivität müssen Sie das Attribut worker verwenden:

name = input(“What is your name? “)print(f”Hello, {name}”)

Der worker führt Ihr Programm in einem Web Worker aus, bei dem es sich im Wesentlichen um einen Unterprozess handelt. Zu beachten ist an dieser Stelle, dass Web Worker nicht für eine lokal geladene HTML-Datei verwendet werden können – Sie müssen sie von einem Webserver laden, der bestimmte Header bereitstellt. Wie das im Detail funktioniert, lesen Sie in der PyScript-Dokumentation.

In einem PyScript-Terminal haben Sie größtenteils dieselben Möglichkeiten, wie in einer herkömmlichen Konsole – inklusive Farbgebung und Unicode.

Mit DOM und JavaScript interagieren

Weil PyScript auf Browser-Technologie basiert, verfügt es über Mechanismen zur DOM-Interaktion. Wenn Sie etwa den Wert eines Eingabefeldes auf einer Webseite abrufen und in Ihrem Python-Code verwenden möchten, gehen Sie folgendermaßen vor:

from pyscript import window, documentinputbox = document.querySelector(“#my-input”)print(“Value of input:”, inputbox.value)

PyScript enthält auch ein Modul namens pydom, das ermöglicht, Objekte auf der Seite dynamisch zu erstellen:

from pyweb import pydomnew_div = pydom.create(“div”)new_div.content = “Hello World”

Das erzeugt ein neues div-Element auf der Seite und befüllt es mit Text. Mit der pydom-Bibliothek sind die meisten Anpassungen, die mit DOM in JavaScript möglich sind, durchführbar. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

PyScript-Einführung: Python im Browser ausführen​ Weiterlesen »

Nutanix erweitert sein Ökosystem​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/05/NUTANIX-802-keynote_16.jpg?quality=50&strip=all 8256w, https://b2b-contenthub.com/wp-content/uploads/2025/05/NUTANIX-802-keynote_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/05/NUTANIX-802-keynote_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/05/NUTANIX-802-keynote_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/05/NUTANIX-802-keynote_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/05/NUTANIX-802-keynote_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/05/NUTANIX-802-keynote_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/05/NUTANIX-802-keynote_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/05/NUTANIX-802-keynote_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/05/NUTANIX-802-keynote_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/05/NUTANIX-802-keynote_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Rajiv Ramaswami, President & CEO Nutanix, stellt in seiner Keynote die neuen Anforderungen an die Cloud-Infrastruktur vor.Nutanix Nutanix konnte zu seiner NEXT Konferenz in Washington, D.C., mehr als 5.000 Teilnehmer begrüßen. Eine der wichtigsten Neuigkeiten, die Nutanix Kubernetes Platform (NKP) hat dabei sogar deutsche Wurzeln. „Die Nutanix Kubernetes Platform (NKP) ist zwar neu, beruht aber auf unserer ausgereiften Technologie“, erklärt Tobi Knaup, VP und General Manager Cloud Native Nutanix stolz. Er begann seine berufliche Laufbahn als Assistent an der TU München, 2013 gründete er dann das Hamburger Start–up Mesosphere, das 2019 zu D2IQ umfirmierte und 2023 von Nutanix übernommen wurde. Mit der Umbenennung ging eine Abwendung von Apache Mesos und die volle Konzentration auf Kubernetes einher.   Nutanix Kubernetes Platform erhält neue Funktionen   Version 2.14 (März 2025) der Lösung erweitert die Anzahl der validierten und von NKP verwalteten Kubernetes-Services auf 13, indem es eine von Harbor betriebene, produktionsbereite Image-Registry hinzufügt, die es Kunden erlaubt, Kubernetes-Cluster in Unternehmensqualität zu betreiben. Darüber hinaus wurde die Integration mit der Nutanix- Objects- Storage-Lösung hinzugefügt, um ein breiteres Portfolio an Datendiensten für Kubernetes auf der Nutanix Cloud Platform (NCP) zu ermöglichen.  Außerdem bietet NKP jetzt einen Container Object Storage Interface (COSI)-Treiber für Nutanix Objects Storage, mit dem Benutzer deklarativ Nutanix- Objects- Storage-Buckets unter Verwendung von Kubernetes Custom Resource Definitions (CRDs) erstellen und verwalten können. Mit dieser Integration müssen Betreiber Storage-Buckets nicht mehr manuell erstellen und verwalten, was es viel einfacher macht, den Objektspeicher für Cloud-native Anwendungen zu nutzen.  Läuft NKP auf Nutanix Cloud Clusters (NC2), kann dies bei Anwendungen helfen, die in virtuellen Maschinen (VMs) laufen, und ebenso containerisierten Anwendungen auf Kubernetes. So unterstützen Kubernetes-Cluster standardmäßig nur 110 Pods pro Knoten. Beim Skalieren besteht die Gefahr, dass größere Knoten Ressourcen verschwenden. Es ist zwar möglich, die maximal unterstützte Anzahl von Pods pro Knoten zu ändern, doch erfordert dies Fachwissen, um sicherzustellen, dass es in der Produktion funktioniert. Außerdem kann eine Änderung der Pod-Obergrenze die Rückwärtskompatibilität und den Betrieb anderer Open-Source-Projekte beeinträchtigen.  Mit dem lokalen NVMe/SSD-Speicher auf NC2-Bare-Metal-Knoten kann NC2 für eine konsistente Leistung sorgen. Wenn containerisierte Anwendungen viele persistente Volumes mit garantiertem Durchsatz und IOPS benötigen, müssen Kunden mehr für Ihren Hyperscaler bezahlen.   Außerdem erhalten Worker Nodes die gleichen Leistungsvorteile, wenn sie Pods ausführen. Dies reduziert auch die Konfiguration für  containerisierte Anwendungen, da NC2 die Gesamtleistung des NC2-Clusters gemeinsam nutzen kann, anstatt sie auf Cloud-basierte Volumes aufzuteilen. Nutanix-Storage bietet darüber hinaus Enterprise-Funktionen wie Komprimierung und Erasure Encoding, die die Bare-Metal-Kosten vermindern.  Cloud Native AOS  Die auf der Nutanix NEXT vorgestellte Nutanix Cloud Native AOS (CN-AOS)-Lösung wird die im März 2024 veröffentlichte Lösung „Nutanix Data Services for Kubernetes“ (NDK) erweitern. Cloud Native AOS” baut auf NDK auf und adressiert zusätzlich containerisierte Workloads, ohne dass ein Hypervisor erforderlich ist. Es stellt Nutanix AOS Storage als eine Reihe von Microservices bereit, die innerhalb von Kubernetes laufen. Dadurch wird die Integration von Datendiensten in Anwendungen ermöglicht, die durch ein vollwertiges Enterprise-Storage-System unterstützt werden.  CN-AOS containerisiert Nutanix-Speicher und integriert so Enterprise Resiliency, Day-2-Operations und Sicherheit in heterogene Kubernetes-Cluster, die in öffentlichen Clouds oder auf Bare-Metal-Servern bereitgestellt werden.  Die Integration von persistenten Datendiensten in Cloud-Native-Anwendungsumgebungen kann nun auch ohne Hypervisor erfolgen. Dadurch wird eine nahtlose Verwaltung und Portabilität von containerisierten Anwendungen und deren Daten mit herkömmlichen virtualisierten Rechenzentren ermöglicht.  Datenpersistenz für Kubernetes  Containerisierte Anwendungen bestehen aus einer Sammlung von Microservices, die zusammenarbeiten und von Kubernetes orchestriert werden. Cloud-native Microservices sind in der Regel zustandslos und werden in kontrollierten, monolithischen Hyperscaler-Umgebungen mit einer separaten Datenpersistenzschicht bereitgestellt, die von jedem Hyperscaler bereitgestellt wird.  Die Bereitstellung von Containern in der Hybrid-Cloud, einschließlich Bare-Metal-Instanzen, erfordert einen neuen Ansatz für die Verwaltung persistenter Daten in verschiedenen Kubernetes-Umgebungen.  Anwendungen, die mit einem PaaS-Datenservice erstellt wurden, können in der Regel nur in der öffentlichen Cloud des jeweiligen Anbieters bereitgestellt werden. Wenn eine Anwendung aufgrund eines Ausfalls auf Ebene der Availability Zone (AZ), der Region oder sogar der Public Cloud nicht mehr verfügbar ist, muss die Datenpersistenzschicht auch am Zielstandort vorhanden sein, damit die Anwendung wiederhergestellt werden kann. Dies muss getrennt von der Kubernetes-Anwendung verwaltet werden, was das Risiko beim Failover im Katastrophenfall erhöhen kann.  Die Speicherung persistenter Daten innerhalb der Kubernetes-Anwendung selbst löst diese beiden Herausforderungen. Dadurch wird einer der Hauptvorteile von Microservices und Kubernetes erreicht: eine flexible Bereitstellung mit reduziertem Risiko.  Erweitertes Ökosystem  Nutanix vertieft seine Partnerschaft mit anderen Technologieanbietern. Dazu schließt sich das Unternehmen mit zahlreichen Cybersecurity-Partnern zusammen und passt sich an das NIST Cybersecurity Framework 2.0 an.   Besonderes Gewicht hat die neue Allianz mit Pure Storage: Im Rahmen dieser Zusammenarbeit wird die Nutanix Cloud Infrastructure, die auf dem Nutanix AHV Hypervisor und Nutanix Flow Virtual Networking und Security basiert, mit Pure Storage FlashArray über NVMe/TCP kombiniert. Die Lösung soll im Sommer als Early Access bereitstehen und bis Jahresende generell verfügbar sein.   Die Kooperation folgt einer ähnlichen Partnerschaft mit Dell Technologies: Im vergangenen Jahr angekündigt, ist die Integration der Dell PowerFlex mit der Nutanix Cloud Platform (NCP) jetzt allgemein verfügbar. Weitere Kooperationen sind in naher Zukunft zu erwarten, da Nutanix allgemein die Strategie verfolgt, mit den Anbietern von externer Storage zusammenzuarbeiten.  Nutanix bewährt sich als VMware-Alternative  Angesichts der Turbulenzen rund um Broadcom/VMware, das die Preise stark erhöht hat, positioniert sich Nutanix als attraktive und kostengünstige Alternative. Zwar greifen in ähnlicher Weise auch Red Hat mit Open Shift und Suse mit Rancher VMware an. Laut deutschen Nutanix-Partnern kann Nutanix einige entscheidende Vorteile in die Waagschale werfen. So räumt Hamza Nadi, Head of Solution Sales bei SVA, ein, dass Broadcom mit über 1.000 Kunden zwar ein wichtiger Partner für sein Unternehmen bleibe. Gleichzeitig habe man aber auch bereits über 200 Kunden erfolgreich zu Nutanix migriert und verfüge über mehr als 50 Spezialisten für den Anbieter. Die Stärken von Nutanix liegen laut Nadi in der Plattform und im Ökosystem. So habe SVA erst vor kurzem in einer Woche ein kleines Unternehmen mit 150 VMs migriert. „Bei größeren Kunden dauert es etwas länger, denn diese benötigen ein Wartungsfenster. Die Migration selbst ist hoch automatisiert mit Nutanix Move, das sehr stabil und umfangreich ist“, erklärt Nadi.   „Wir haben rund 70 Nutanix- Kunden und verabschieden uns gerade von VMware“, berichtet Martin Schor, CEO der Schweizer Axians Amanox AG. Es gebe am Markt ein großes Interesse an einer Migration weg von VMware, wobei die Kosten allein nicht der Grund seien, konstatiert er: „Der Mehrwert der Technologie ist der Schlüssel und hier hat Nutanix viel zu bieten. Wir sind auch Red-Hat-Partner, aber sehen es eher als Ergänzung.“  Johannes Hotz, Niederlassungsleiter Donau/ Iller bei Kramer & Crew, dem ältesten deutschen Partner von Nutanix, sieht das ähnlich: „Die Kunden wollen eine Alternative zu VMware und da ist einzig Nutanix sinnvoll. Es ist von der Handhabung einfacher zu installieren als die Linux Alternativen. Von einigen Softwareherstellern gibt es noch keine Freigaben, sonst gibt es keine technischen Probleme.“  Die manchmal erwähnten, langen Migrationszeiten kann Hotz nicht nachvollziehen. „Das Move Tool funktioniert sehr gut“, erklärt er. „Beispielsweise haben wir 150 VMs an einem Wochenende migriert, sonst dauert es oft mehrere Wochen.“  Aus Sicht von Michael Hillewaert, CEO der Metsi Group aus Belgien, ist die wichtigste Herausforderung, dass sich der Kunde auf eine andere Mentalität von Nutanix einlässt. Die Migration selbst sei leicht, die Änderung der Gewohnheiten jedoch schwieriger. Gleichzeitig weist er darauf hin, dass die Akzeptanz von Nutanix unterschätzt werde: „Die Motivation zum Umstieg ist zunächst finanziell. Aber wenn die Kunden das Werkzeug sehen, erkennen sie den Wert.“  Gute Bewertungen für Nutanix Cloud Platform (NCP)   Auch die Marktforscher von IDC geben Nutanix gute Noten. In einer Studie hat IDC untersucht, welche Vorteile der Einsatz der Nutanix Cloud Platform für Unternehmen bringt. Das Ergebnis: Den Analysten zufolge ermöglicht NCP ihnen eine verbesserte Skalierbarkeit, Zuverlässigkeit und Leistung, während die Unternehmen gleichzeitig Kosteneinsparungen durch eine bessere Ressourcennutzung und eine höhere Personaleffizienz erreichen.   So konnten die Unternehmen ihre Betriebskosten im Schnitt um 41 Prozent reduzieren, während sich der Return on Investment (ROI) über drei Jahre auf 391 Prozent belief. Die Investitionen in die Technologie zahlten sich laut IDC bereits nach sieben Monaten aus.   

Nutanix erweitert sein Ökosystem​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/05/NUTANIX-802-keynote_16.jpg?quality=50&strip=all 8256w, https://b2b-contenthub.com/wp-content/uploads/2025/05/NUTANIX-802-keynote_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/05/NUTANIX-802-keynote_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/05/NUTANIX-802-keynote_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/05/NUTANIX-802-keynote_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/05/NUTANIX-802-keynote_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/05/NUTANIX-802-keynote_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/05/NUTANIX-802-keynote_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/05/NUTANIX-802-keynote_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/05/NUTANIX-802-keynote_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/05/NUTANIX-802-keynote_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Rajiv Ramaswami, President & CEO Nutanix, stellt in seiner Keynote die neuen Anforderungen an die Cloud-Infrastruktur vor.Nutanix

Nutanix konnte zu seiner NEXT Konferenz in Washington, D.C., mehr als 5.000 Teilnehmer begrüßen. Eine der wichtigsten Neuigkeiten, die Nutanix Kubernetes Platform (NKP) hat dabei sogar deutsche Wurzeln. „Die Nutanix Kubernetes Platform (NKP) ist zwar neu, beruht aber auf unserer ausgereiften Technologie“, erklärt Tobi Knaup, VP und General Manager Cloud Native Nutanix stolz. Er begann seine berufliche Laufbahn als Assistent an der TU München, 2013 gründete er dann das Hamburger Start–up Mesosphere, das 2019 zu D2IQ umfirmierte und 2023 von Nutanix übernommen wurde. Mit der Umbenennung ging eine Abwendung von Apache Mesos und die volle Konzentration auf Kubernetes einher.  

Nutanix Kubernetes Platform erhält neue Funktionen  

Version 2.14 (März 2025) der Lösung erweitert die Anzahl der validierten und von NKP verwalteten Kubernetes-Services auf 13, indem es eine von Harbor betriebene, produktionsbereite Image-Registry hinzufügt, die es Kunden erlaubt, Kubernetes-Cluster in Unternehmensqualität zu betreiben. Darüber hinaus wurde die Integration mit der Nutanix- Objects- Storage-Lösung hinzugefügt, um ein breiteres Portfolio an Datendiensten für Kubernetes auf der Nutanix Cloud Platform (NCP) zu ermöglichen. 

Außerdem bietet NKP jetzt einen Container Object Storage Interface (COSI)-Treiber für Nutanix Objects Storage, mit dem Benutzer deklarativ Nutanix- Objects- Storage-Buckets unter Verwendung von Kubernetes Custom Resource Definitions (CRDs) erstellen und verwalten können. Mit dieser Integration müssen Betreiber Storage-Buckets nicht mehr manuell erstellen und verwalten, was es viel einfacher macht, den Objektspeicher für Cloud-native Anwendungen zu nutzen. 

Läuft NKP auf Nutanix Cloud Clusters (NC2), kann dies bei Anwendungen helfen, die in virtuellen Maschinen (VMs) laufen, und ebenso containerisierten Anwendungen auf Kubernetes. So unterstützen Kubernetes-Cluster standardmäßig nur 110 Pods pro Knoten. Beim Skalieren besteht die Gefahr, dass größere Knoten Ressourcen verschwenden. Es ist zwar möglich, die maximal unterstützte Anzahl von Pods pro Knoten zu ändern, doch erfordert dies Fachwissen, um sicherzustellen, dass es in der Produktion funktioniert. Außerdem kann eine Änderung der Pod-Obergrenze die Rückwärtskompatibilität und den Betrieb anderer Open-Source-Projekte beeinträchtigen. 

Mit dem lokalen NVMe/SSD-Speicher auf NC2-Bare-Metal-Knoten kann NC2 für eine konsistente Leistung sorgen. Wenn containerisierte Anwendungen viele persistente Volumes mit garantiertem Durchsatz und IOPS benötigen, müssen Kunden mehr für Ihren Hyperscaler bezahlen.  

Außerdem erhalten Worker Nodes die gleichen Leistungsvorteile, wenn sie Pods ausführen. Dies reduziert auch die Konfiguration für  containerisierte Anwendungen, da NC2 die Gesamtleistung des NC2-Clusters gemeinsam nutzen kann, anstatt sie auf Cloud-basierte Volumes aufzuteilen. Nutanix-Storage bietet darüber hinaus Enterprise-Funktionen wie Komprimierung und Erasure Encoding, die die Bare-Metal-Kosten vermindern. 

Cloud Native AOS 

Die auf der Nutanix NEXT vorgestellte Nutanix Cloud Native AOS (CN-AOS)-Lösung wird die im März 2024 veröffentlichte Lösung „Nutanix Data Services for Kubernetes“ (NDK) erweitern. Cloud Native AOS” baut auf NDK auf und adressiert zusätzlich containerisierte Workloads, ohne dass ein Hypervisor erforderlich ist. Es stellt Nutanix AOS Storage als eine Reihe von Microservices bereit, die innerhalb von Kubernetes laufen. Dadurch wird die Integration von Datendiensten in Anwendungen ermöglicht, die durch ein vollwertiges Enterprise-Storage-System unterstützt werden. 

CN-AOS containerisiert Nutanix-Speicher und integriert so Enterprise Resiliency, Day-2-Operations und Sicherheit in heterogene Kubernetes-Cluster, die in öffentlichen Clouds oder auf Bare-Metal-Servern bereitgestellt werden. 

Die Integration von persistenten Datendiensten in Cloud-Native-Anwendungsumgebungen kann nun auch ohne Hypervisor erfolgen. Dadurch wird eine nahtlose Verwaltung und Portabilität von containerisierten Anwendungen und deren Daten mit herkömmlichen virtualisierten Rechenzentren ermöglicht. 

Datenpersistenz für Kubernetes 

Containerisierte Anwendungen bestehen aus einer Sammlung von Microservices, die zusammenarbeiten und von Kubernetes orchestriert werden. Cloud-native Microservices sind in der Regel zustandslos und werden in kontrollierten, monolithischen Hyperscaler-Umgebungen mit einer separaten Datenpersistenzschicht bereitgestellt, die von jedem Hyperscaler bereitgestellt wird. 

Die Bereitstellung von Containern in der Hybrid-Cloud, einschließlich Bare-Metal-Instanzen, erfordert einen neuen Ansatz für die Verwaltung persistenter Daten in verschiedenen Kubernetes-Umgebungen. 

Anwendungen, die mit einem PaaS-Datenservice erstellt wurden, können in der Regel nur in der öffentlichen Cloud des jeweiligen Anbieters bereitgestellt werden. Wenn eine Anwendung aufgrund eines Ausfalls auf Ebene der Availability Zone (AZ), der Region oder sogar der Public Cloud nicht mehr verfügbar ist, muss die Datenpersistenzschicht auch am Zielstandort vorhanden sein, damit die Anwendung wiederhergestellt werden kann. Dies muss getrennt von der Kubernetes-Anwendung verwaltet werden, was das Risiko beim Failover im Katastrophenfall erhöhen kann. 

Die Speicherung persistenter Daten innerhalb der Kubernetes-Anwendung selbst löst diese beiden Herausforderungen. Dadurch wird einer der Hauptvorteile von Microservices und Kubernetes erreicht: eine flexible Bereitstellung mit reduziertem Risiko. 

Erweitertes Ökosystem 

Nutanix vertieft seine Partnerschaft mit anderen Technologieanbietern. Dazu schließt sich das Unternehmen mit zahlreichen Cybersecurity-Partnern zusammen und passt sich an das NIST Cybersecurity Framework 2.0 an.  

Besonderes Gewicht hat die neue Allianz mit Pure Storage: Im Rahmen dieser Zusammenarbeit wird die Nutanix Cloud Infrastructure, die auf dem Nutanix AHV Hypervisor und Nutanix Flow Virtual Networking und Security basiert, mit Pure Storage FlashArray über NVMe/TCP kombiniert. Die Lösung soll im Sommer als Early Access bereitstehen und bis Jahresende generell verfügbar sein.  

Die Kooperation folgt einer ähnlichen Partnerschaft mit Dell Technologies: Im vergangenen Jahr angekündigt, ist die Integration der Dell PowerFlex mit der Nutanix Cloud Platform (NCP) jetzt allgemein verfügbar. Weitere Kooperationen sind in naher Zukunft zu erwarten, da Nutanix allgemein die Strategie verfolgt, mit den Anbietern von externer Storage zusammenzuarbeiten. 

Nutanix bewährt sich als VMware-Alternative 

Angesichts der Turbulenzen rund um Broadcom/VMware, das die Preise stark erhöht hat, positioniert sich Nutanix als attraktive und kostengünstige Alternative. Zwar greifen in ähnlicher Weise auch Red Hat mit Open Shift und Suse mit Rancher VMware an.

Laut deutschen Nutanix-Partnern kann Nutanix einige entscheidende Vorteile in die Waagschale werfen. So räumt Hamza Nadi, Head of Solution Sales bei SVA, ein, dass Broadcom mit über 1.000 Kunden zwar ein wichtiger Partner für sein Unternehmen bleibe. Gleichzeitig habe man aber auch bereits über 200 Kunden erfolgreich zu Nutanix migriert und verfüge über mehr als 50 Spezialisten für den Anbieter. Die Stärken von Nutanix liegen laut Nadi in der Plattform und im Ökosystem. So habe SVA erst vor kurzem in einer Woche ein kleines Unternehmen mit 150 VMs migriert. „Bei größeren Kunden dauert es etwas länger, denn diese benötigen ein Wartungsfenster. Die Migration selbst ist hoch automatisiert mit Nutanix Move, das sehr stabil und umfangreich ist“, erklärt Nadi.  

„Wir haben rund 70 Nutanix- Kunden und verabschieden uns gerade von VMware“, berichtet Martin Schor, CEO der Schweizer Axians Amanox AG. Es gebe am Markt ein großes Interesse an einer Migration weg von VMware, wobei die Kosten allein nicht der Grund seien, konstatiert er: „Der Mehrwert der Technologie ist der Schlüssel und hier hat Nutanix viel zu bieten. Wir sind auch Red-Hat-Partner, aber sehen es eher als Ergänzung.“ 

Johannes Hotz, Niederlassungsleiter Donau/ Iller bei Kramer & Crew, dem ältesten deutschen Partner von Nutanix, sieht das ähnlich: „Die Kunden wollen eine Alternative zu VMware und da ist einzig Nutanix sinnvoll. Es ist von der Handhabung einfacher zu installieren als die Linux Alternativen. Von einigen Softwareherstellern gibt es noch keine Freigaben, sonst gibt es keine technischen Probleme.“ 

Die manchmal erwähnten, langen Migrationszeiten kann Hotz nicht nachvollziehen. „Das Move Tool funktioniert sehr gut“, erklärt er. „Beispielsweise haben wir 150 VMs an einem Wochenende migriert, sonst dauert es oft mehrere Wochen.“ 

Aus Sicht von Michael Hillewaert, CEO der Metsi Group aus Belgien, ist die wichtigste Herausforderung, dass sich der Kunde auf eine andere Mentalität von Nutanix einlässt. Die Migration selbst sei leicht, die Änderung der Gewohnheiten jedoch schwieriger. Gleichzeitig weist er darauf hin, dass die Akzeptanz von Nutanix unterschätzt werde: „Die Motivation zum Umstieg ist zunächst finanziell. Aber wenn die Kunden das Werkzeug sehen, erkennen sie den Wert.“ 

Gute Bewertungen für Nutanix Cloud Platform (NCP)  

Auch die Marktforscher von IDC geben Nutanix gute Noten. In einer Studie hat IDC untersucht, welche Vorteile der Einsatz der Nutanix Cloud Platform für Unternehmen bringt. Das Ergebnis: Den Analysten zufolge ermöglicht NCP ihnen eine verbesserte Skalierbarkeit, Zuverlässigkeit und Leistung, während die Unternehmen gleichzeitig Kosteneinsparungen durch eine bessere Ressourcennutzung und eine höhere Personaleffizienz erreichen.  

So konnten die Unternehmen ihre Betriebskosten im Schnitt um 41 Prozent reduzieren, während sich der Return on Investment (ROI) über drei Jahre auf 391 Prozent belief. Die Investitionen in die Technologie zahlten sich laut IDC bereits nach sieben Monaten aus.  

Nutanix erweitert sein Ökosystem​ Weiterlesen »

Digitale Souveränität: KI-Chip Made in München​

Allgemein

Der neue KI-Chip AI Pro wird auf einer Leiterplatte montiert. Andreas Heddergott/TU Muenchen Digitale Souveränität in Sachen KI-Chips und die Dominanz von Nvidia und Co. brechen? Das lässt sich eventuell mit dem von Hussam Amrouch entwickelten Chip AI Pro realisieren. Der Professor der Technischen Universität München (TUM) hat einen KI-Chip entworfen, der über eine neuromorphe Architektur verfügt. Dies ermöglicht AI Pro, Berechnungen vor Ort und damit Cyber-sicher auszuführen. Zudem verbraucht er bis zu zehnmal weniger Energie als ein herkömmlicher KI-Chip. Anders als bei klassischen Chips liegen Rechen- und Speichereinheit beim AI Pro zusammen. Das ist möglich, da der Chip nach dem Prinzip des „hyperdimensional computing“ arbeitet: Das bedeutet, dass er Ähnlichkeiten und Muster erkennt, aber nicht Millionen von Datensätzen zum Lernen benötigt. KI-Chip kombiniert Informationen Statt unzählige Bilder von Autos gezeigt zu bekommen, wie beim Deep Learning, das bei herkömmlichen KI-Chips zum Einsatz kommt, kombiniert dieser Chip diverse Informationen. Etwa, dass ein Auto vier Räder hat, in der Regel auf der Straße fährt und unterschiedliche Formen haben kann. „Auch Menschen abstrahieren und lernen durch Ähnlichkeiten“, erläutert Amrouch. „Während Nvidia eine Plattform gebaut hat, die auf Cloud-Daten angewiesen ist und verspricht, jedes Problem zu lösen, haben wir einen KI-Chip entwickelt, der kundenspezifische Lösungen ermöglicht“, beschreibt der Professor das Potenzial des Chips. „Hier schlummert ein enormer Markt.“ Allerdings verfügt sein Chip lediglich über rund zehn Millionen Transistoren und ist damit nicht ganz so dicht gepackt und auch nicht ganz so leistungsfähig wie Nvidia-Chips mit 200 Milliarden Transistoren. Daten vor Ort verarbeiten Doch darauf kommt es Amrouch nicht primär an. Er und sein Team haben sich auf KI-Chips spezialisiert, die Daten direkt vor Ort verarbeiten. Damit müssen die Informationen nicht erst in die Cloud geschickt und dort zusammen mit Millionen anderen Datensätzen verarbeitet sowie wieder zurückgeschickt werden. Das spart nach Darstellung der Münchner Zeit, Rechenkapazitäten von Servern und reduziert den CO₂-Fußabdruck von KI. Erste Prototypen hat der Professor für KI-Prozessor-Design bereits beim Halbleiterhersteller Global Foundries in Dresden fertigen lassen. Derzeit kostet ein AI-Pro-Chip noch 30.000 Euro. 

Digitale Souveränität: KI-Chip Made in München​ Der neue KI-Chip AI Pro wird auf einer Leiterplatte montiert.
Andreas Heddergott/TU Muenchen

Digitale Souveränität in Sachen KI-Chips und die Dominanz von Nvidia und Co. brechen? Das lässt sich eventuell mit dem von Hussam Amrouch entwickelten Chip AI Pro realisieren. Der Professor der Technischen Universität München (TUM) hat einen KI-Chip entworfen, der über eine neuromorphe Architektur verfügt.

Dies ermöglicht AI Pro, Berechnungen vor Ort und damit Cyber-sicher auszuführen. Zudem verbraucht er bis zu zehnmal weniger Energie als ein herkömmlicher KI-Chip. Anders als bei klassischen Chips liegen Rechen- und Speichereinheit beim AI Pro zusammen. Das ist möglich, da der Chip nach dem Prinzip des „hyperdimensional computing“ arbeitet: Das bedeutet, dass er Ähnlichkeiten und Muster erkennt, aber nicht Millionen von Datensätzen zum Lernen benötigt.

KI-Chip kombiniert Informationen

Statt unzählige Bilder von Autos gezeigt zu bekommen, wie beim Deep Learning, das bei herkömmlichen KI-Chips zum Einsatz kommt, kombiniert dieser Chip diverse Informationen. Etwa, dass ein Auto vier Räder hat, in der Regel auf der Straße fährt und unterschiedliche Formen haben kann. „Auch Menschen abstrahieren und lernen durch Ähnlichkeiten“, erläutert Amrouch.

„Während Nvidia eine Plattform gebaut hat, die auf Cloud-Daten angewiesen ist und verspricht, jedes Problem zu lösen, haben wir einen KI-Chip entwickelt, der kundenspezifische Lösungen ermöglicht“, beschreibt der Professor das Potenzial des Chips. „Hier schlummert ein enormer Markt.“ Allerdings verfügt sein Chip lediglich über rund zehn Millionen Transistoren und ist damit nicht ganz so dicht gepackt und auch nicht ganz so leistungsfähig wie Nvidia-Chips mit 200 Milliarden Transistoren.

Daten vor Ort verarbeiten

Doch darauf kommt es Amrouch nicht primär an. Er und sein Team haben sich auf KI-Chips spezialisiert, die Daten direkt vor Ort verarbeiten. Damit müssen die Informationen nicht erst in die Cloud geschickt und dort zusammen mit Millionen anderen Datensätzen verarbeitet sowie wieder zurückgeschickt werden. Das spart nach Darstellung der Münchner Zeit, Rechenkapazitäten von Servern und reduziert den CO₂-Fußabdruck von KI.

Erste Prototypen hat der Professor für KI-Prozessor-Design bereits beim Halbleiterhersteller Global Foundries in Dresden fertigen lassen. Derzeit kostet ein AI-Pro-Chip noch 30.000 Euro.

Digitale Souveränität: KI-Chip Made in München​ Weiterlesen »

Cisco zapft OpenAIs Codex an​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/05/Codex_Blog_Header_V5.jpg?quality=50&strip=all 1920w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Codex_Blog_Header_V5.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Codex_Blog_Header_V5.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Codex_Blog_Header_V5.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Codex_Blog_Header_V5.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Codex_Blog_Header_V5.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Codex_Blog_Header_V5.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Codex_Blog_Header_V5.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Codex_Blog_Header_V5.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Codex_Blog_Header_V5.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>OpenAIs KI-Assistent Codex soll Entwicklern von repetitiven Aufgaben befreien.OpenAI Um Netzwerkingenieuren Zugang zu besseren Tools zu ermöglichen, um Code zu schreiben und zu testen, arbeitet Cisco mit OpenAI zusammen und nutzt in diesem Rahmen dessen gerade frisch veröffentlichten Software-Engineering-Agenten.  „Wir untersuchen, wie Codex unseren Entwicklungsteams dabei helfen kann, anspruchsvolle Ideen schneller umzusetzen“, schreibt Jeetu Patel, Chief Product Officer bei Cisco, in einem Blogbeitrag. „Als Entwicklungspartner der ersten Stunde trägt Cisco dazu bei, die Zukunft von Codex zu gestalten, indem wir ihn für reale Anwendungsfälle in unserem Produktportfolio evaluieren und dem OpenAI-Team Feedback geben.“  Laut OpenAI könnte Codex in Ciscos Management-Tools eingebettet werden, um automatisch Konfigurationsskripte für Router, Switches und Firewalls zu generieren und um Probleme mit der Netzwerksicherheit und -leistung zu beheben.  OpenAI beschreibt Codex als einen Cloud-basierten Software-Engineering-Agenten, der in der Lage ist, viele Aufgaben parallel zu bearbeiten. „Codex kann zahlreiche Tasks für Sie erledigen, beispielsweise Funktionen schreiben, Fragen zu Ihrer Codebasis beantworten, Fehler beheben und Pull Requests vorschlagen, die überprüft werden sollen. Jede Aufgabe läuft in einer eigenen Cloud-Sandbox-Umgebung, die mit Ihrem Repository vorgeladen ist“, so OpenAI in einem Blogbeitrag über den Agenten.  Wie Codex funktioniert  Nachdem Codex über die Seitenleiste in ChatGPT aufgerufen wird, können Benutzer ihm neue Programmieraufgaben zuweisen, indem sie einen Prompt eingeben und auf „Code“ klicken. Laut OpenAI wird dabei jede Aufgabe unabhängig in einer separaten, isolierten Umgebung bearbeitet, die mit der Codebasis vorgeladen ist.   Sobald Codex eine Aufgabe abgeschlossen hat, was je nach Komplexität zwischen einer und 30 Minuten dauert, überträgt er seine Änderungen in seine Umgebung, heißt es. Dabei liefere Codex nachprüfbare Beweise für seine Aktionen, in dem er Terminal-Logs und Test-Outputs „zitiert“. „Sie können dann die Ergebnisse überprüfen, weitere Überarbeitungen anfordern, einen GitHub Pull Request öffnen oder die Änderungen direkt in Ihre lokale Umgebung integrieren. Im Produkt können Sie die Codex-Umgebung so konfigurieren, dass sie Ihrer realen Entwicklungsumgebung so weit wie möglich entspricht“, schreibt OpenAI.  Auch intern haben die technischen Teams von OpenAI begonnen, das als Research Preview verfügbare Codex zu verwenden. „Am häufigsten wird er von OpenAI-Entwicklern verwendet, um sich wiederholende, gut eingeteilte Aufgaben wie Refactoring, Umbenennungen und das Schreiben von Tests auszulagern, die sonst den Fokus zerstören würden. Codex ist auch nützlich, um neue Funktionen zu entwickeln, Komponenten zu verdrahten, Fehler zu beheben und Dokumentationen zu verfassen“, so OpenAI.  Ciscos Auffassung von agentenbasierter KI  Cisco-CPO Patel sieht Codex als Teil der sich entwickelnden KI-Agentenwelt, in der Milliarden von KI-Agenten zusammenarbeiten. Ihre Aufgabe ist es dabei, die architektonischen Annahmen, auf die sich die Branche bisher verlassen hat, zu verändern und neu zu definieren. „Agenten werden innerhalb und zwischen Rechenzentren und überall dort kommunizieren, wo wir leben, arbeiten und mit Kunden in Kontakt treten – und das alles mit unglaublicher Geschwindigkeit, Skalierung und Effizienz“, so der Cisco-Manager. (mb)  

Cisco zapft OpenAIs Codex an​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/05/Codex_Blog_Header_V5.jpg?quality=50&strip=all 1920w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Codex_Blog_Header_V5.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Codex_Blog_Header_V5.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Codex_Blog_Header_V5.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Codex_Blog_Header_V5.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Codex_Blog_Header_V5.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Codex_Blog_Header_V5.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Codex_Blog_Header_V5.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Codex_Blog_Header_V5.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Codex_Blog_Header_V5.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>OpenAIs KI-Assistent Codex soll Entwicklern von repetitiven Aufgaben befreien.OpenAI

Um Netzwerkingenieuren Zugang zu besseren Tools zu ermöglichen, um Code zu schreiben und zu testen, arbeitet Cisco mit OpenAI zusammen und nutzt in diesem Rahmen dessen gerade frisch veröffentlichten Software-Engineering-Agenten. 

„Wir untersuchen, wie Codex unseren Entwicklungsteams dabei helfen kann, anspruchsvolle Ideen schneller umzusetzen“, schreibt Jeetu Patel, Chief Product Officer bei Cisco, in einem Blogbeitrag. „Als Entwicklungspartner der ersten Stunde trägt Cisco dazu bei, die Zukunft von Codex zu gestalten, indem wir ihn für reale Anwendungsfälle in unserem Produktportfolio evaluieren und dem OpenAI-Team Feedback geben.“ 

Laut OpenAI könnte Codex in Ciscos Management-Tools eingebettet werden, um automatisch Konfigurationsskripte für Router, Switches und Firewalls zu generieren und um Probleme mit der Netzwerksicherheit und -leistung zu beheben. 

OpenAI beschreibt Codex als einen Cloud-basierten Software-Engineering-Agenten, der in der Lage ist, viele Aufgaben parallel zu bearbeiten. „Codex kann zahlreiche Tasks für Sie erledigen, beispielsweise Funktionen schreiben, Fragen zu Ihrer Codebasis beantworten, Fehler beheben und Pull Requests vorschlagen, die überprüft werden sollen. Jede Aufgabe läuft in einer eigenen Cloud-Sandbox-Umgebung, die mit Ihrem Repository vorgeladen ist“, so OpenAI in einem Blogbeitrag über den Agenten. 

Wie Codex funktioniert 

Nachdem Codex über die Seitenleiste in ChatGPT aufgerufen wird, können Benutzer ihm neue Programmieraufgaben zuweisen, indem sie einen Prompt eingeben und auf „Code“ klicken. Laut OpenAI wird dabei jede Aufgabe unabhängig in einer separaten, isolierten Umgebung bearbeitet, die mit der Codebasis vorgeladen ist.  

Sobald Codex eine Aufgabe abgeschlossen hat, was je nach Komplexität zwischen einer und 30 Minuten dauert, überträgt er seine Änderungen in seine Umgebung, heißt es. Dabei liefere Codex nachprüfbare Beweise für seine Aktionen, in dem er Terminal-Logs und Test-Outputs „zitiert“. „Sie können dann die Ergebnisse überprüfen, weitere Überarbeitungen anfordern, einen GitHub Pull Request öffnen oder die Änderungen direkt in Ihre lokale Umgebung integrieren. Im Produkt können Sie die Codex-Umgebung so konfigurieren, dass sie Ihrer realen Entwicklungsumgebung so weit wie möglich entspricht“, schreibt OpenAI. 

Auch intern haben die technischen Teams von OpenAI begonnen, das als Research Preview verfügbare Codex zu verwenden. „Am häufigsten wird er von OpenAI-Entwicklern verwendet, um sich wiederholende, gut eingeteilte Aufgaben wie Refactoring, Umbenennungen und das Schreiben von Tests auszulagern, die sonst den Fokus zerstören würden. Codex ist auch nützlich, um neue Funktionen zu entwickeln, Komponenten zu verdrahten, Fehler zu beheben und Dokumentationen zu verfassen“, so OpenAI. 

Ciscos Auffassung von agentenbasierter KI 

Cisco-CPO Patel sieht Codex als Teil der sich entwickelnden KI-Agentenwelt, in der Milliarden von KI-Agenten zusammenarbeiten. Ihre Aufgabe ist es dabei, die architektonischen Annahmen, auf die sich die Branche bisher verlassen hat, zu verändern und neu zu definieren. „Agenten werden innerhalb und zwischen Rechenzentren und überall dort kommunizieren, wo wir leben, arbeiten und mit Kunden in Kontakt treten – und das alles mit unglaublicher Geschwindigkeit, Skalierung und Effizienz“, so der Cisco-Manager. (mb) 

Cisco zapft OpenAIs Codex an​ Weiterlesen »

KI in der Produktion: Großes Potenzial, zögerliche Umsetzung​

Allgemein

loading=”lazy” width=”400px”>Nur wenige Unternehmen sind instande, die potenziellen Vorteile von KI in der Produktion auszureizen.Gorodenkoff – shutterstock.com Egal, ob Qualitätskontrolle, Automatisierung, Energieeinsparung oder Steuerung von Robotern: Das Potenzial von (generativer) künstlicher Intelligenz in der Produktion wurde bereits in zahlreichen Anwendungsfällen demonstriert. Trotzdem gelingt es nur knapp einem Viertel (24 Prozent) der Industrieunternehmen in Deutschland nach eigener Einschätzung bereits gut, die Möglichkeiten der Technologie zu nutzen. Der Großteil (72 Prozent) sieht sich dazu dagegen nicht imstande. Das sind die Ergebnisse einer repräsentativen Befragung des Bitkom unter 552 Fertigungsunternehmen (ab 100 Beschäftigten) in Deutschland.  Potenzial in zahlreichen Bereichen Interessant ist dabei, dass die Unternehmen laut Bitkom-Studie durchaus das große Potenzial von künstlicher Intelligenz erkannt haben. Als besonders vielversprechend wird dabei der Einsatz von KI im Bereich Energiemanagement (85 Prozent) gesehen, gefolgt von Robotik (74 Prozent), Analytik (73 Prozent) und Lagermanagement (72 Prozent).   Für die Konfiguration von Maschinen sehen sieben von zehn Unternehmen (70 Prozent) Potenzial für den KI-Einsatz, im Qualitätsmanagement versprechen sich 58 Prozent mögliche Vorteile. Auch in der Programmierung (52 Prozent), der Konstruktion (52 Prozent) und der Projektplanung, beziehungsweise dem technischen Management (51 Prozent) erkennt jeweils über die Hälfte der Unternehmen KI-Einsatzchancen für die eigene Branche.  Als Gründe für den bislang zögerlichen Einsatz von KI in der deutschen Industrie, nannten die Teilnehmer neben fehlender Zeit und Kompetenz vor allem eine komplexe Regulierung und daraus entstehende rechtliche Unsicherheiten. Darüber hinaus sind laut Umfrage neun von zehn Unternehmen (88 Prozent) – wie der Bitkom – der Ansicht, dass die Politik KI-Innovationen nicht durch Überregulierung ersticken darf.  Auch aus Sicht von Christoph Kull, President Business Applications bei Proalpha, ist es ein Alarmzeichen, wenn zu komplexe Regulatorik die Industrie beim Einsatz von AI hemmt. „Nur wer über erste Pilotprojekte hinausgeht und KI gezielt dort einsetzt, wo sie echten Mehrwert stiftet, wird langfristig profitieren“, erklärt er. Statt ausgebremst zu werden, könnten Unternehmen bereits heute mittels Industrial-AI-Lösungen ihre Datenintelligenz mit operativer Exzellenz verknüpfen – von der Lieferkette über die Produktion bis hin zur Nachhaltigkeit.  

KI in der Produktion: Großes Potenzial, zögerliche Umsetzung​ loading=”lazy” width=”400px”>Nur wenige Unternehmen sind instande, die potenziellen Vorteile von KI in der Produktion auszureizen.Gorodenkoff – shutterstock.com

Egal, ob Qualitätskontrolle, Automatisierung, Energieeinsparung oder Steuerung von Robotern: Das Potenzial von (generativer) künstlicher Intelligenz in der Produktion wurde bereits in zahlreichen Anwendungsfällen demonstriert. Trotzdem gelingt es nur knapp einem Viertel (24 Prozent) der Industrieunternehmen in Deutschland nach eigener Einschätzung bereits gut, die Möglichkeiten der Technologie zu nutzen. Der Großteil (72 Prozent) sieht sich dazu dagegen nicht imstande. Das sind die Ergebnisse einer repräsentativen Befragung des Bitkom unter 552 Fertigungsunternehmen (ab 100 Beschäftigten) in Deutschland. 

Potenzial in zahlreichen Bereichen

Interessant ist dabei, dass die Unternehmen laut Bitkom-Studie durchaus das große Potenzial von künstlicher Intelligenz erkannt haben. Als besonders vielversprechend wird dabei der Einsatz von KI im Bereich Energiemanagement (85 Prozent) gesehen, gefolgt von Robotik (74 Prozent), Analytik (73 Prozent) und Lagermanagement (72 Prozent).  

Für die Konfiguration von Maschinen sehen sieben von zehn Unternehmen (70 Prozent) Potenzial für den KI-Einsatz, im Qualitätsmanagement versprechen sich 58 Prozent mögliche Vorteile. Auch in der Programmierung (52 Prozent), der Konstruktion (52 Prozent) und der Projektplanung, beziehungsweise dem technischen Management (51 Prozent) erkennt jeweils über die Hälfte der Unternehmen KI-Einsatzchancen für die eigene Branche. 

Als Gründe für den bislang zögerlichen Einsatz von KI in der deutschen Industrie, nannten die Teilnehmer neben fehlender Zeit und Kompetenz vor allem eine komplexe Regulierung und daraus entstehende rechtliche Unsicherheiten. Darüber hinaus sind laut Umfrage neun von zehn Unternehmen (88 Prozent) – wie der Bitkom – der Ansicht, dass die Politik KI-Innovationen nicht durch Überregulierung ersticken darf. 

Auch aus Sicht von Christoph Kull, President Business Applications bei Proalpha, ist es ein Alarmzeichen, wenn zu komplexe Regulatorik die Industrie beim Einsatz von AI hemmt. „Nur wer über erste Pilotprojekte hinausgeht und KI gezielt dort einsetzt, wo sie echten Mehrwert stiftet, wird langfristig profitieren“, erklärt er. Statt ausgebremst zu werden, könnten Unternehmen bereits heute mittels Industrial-AI-Lösungen ihre Datenintelligenz mit operativer Exzellenz verknüpfen – von der Lieferkette über die Produktion bis hin zur Nachhaltigkeit. 

KI in der Produktion: Großes Potenzial, zögerliche Umsetzung​ Weiterlesen »

Trump befiehlt – Microsoft sperrt E-Mail-Account?​

Allgemein

Wen US-Präsident Donald Trump einmal aufs Korn nimmt, hat nichts zu lachen.Jonah Elkowitz/Shutterstock Donald Trump geht massiv gegen den Internationalen Strafgerichtshof (IStGH) vor und Microsoft muss den US-Präsidenten dabei unterstützen. Der weltgrößte Softwarekonzern hat das E-Mail-Konto des Chefanklägers Karim Khan gesperrt, wie verschiedene Nachrichtenagenturen und US-News-Sites berichten. Grundlage dafür bildet offenbar Trumps Executive Order 14203 vom 6. Februar 2025. Darin hatte Trump Sanktionen gegen den IStGH und die dort beschäftigten Mitarbeitenden verhängt. Ihnen wurde mitgeteilt, dass sie verhaftet werden könnten, wenn sie in die USA einreisten. Insbesondere Chefankläger Khan nimmt Trump aufs Korn. Allen Personen, Organisationen und Firmen drohten Strafzahlungen oder gar Gefängnis, sollten sie Khan finanziell, materiell oder technologisch unterstützen, heißt es in dem Erlass. Wird Deutschland nach dem Trump-Sieg digital erpressbar? Grund für die von Trump angeordneten Sanktionen sind wohl die von den IStGH-Richtern im November 2024 angeordneten Haftbefehle gegen den israelischen Premierminister Benjamin Netanjahu und seinen ehemaligen Verteidigungsminister Yoav Gallant. Beiden Politikern werden Kriegsverbrechen des israelischen Militärs beim Vorgehen gegen die palästinensische Terrormiliz Hamas im Gazastreifen zur Last gelegt.  Internationaler Strafgerichtshof kann nur noch eingeschränkt arbeiten Die Sanktionen Trumps zeigen Wirkung und behindern massiv die Arbeit des Internationalen Strafgerichtshof, der Kriegsverbrechen auf der ganzen Welt untersucht und die dafür Verantwortlichen zur Rechenschaft zieht. Weder die USA noch Israel erkennen den IStGH an. Einem Bericht der Nachrichtenagentur Associated Press (AP) zufolge ist die Arbeit bereits eingeschränkt, weil etliche Mitarbeitende das Gericht wegen Bedenken hinsichtlich der US-Sanktionen verlassen haben. Donald Trump 2.0: Europa muss sich emanzipieren  Dazu kommen Vorwürfe gegen Khan wegen sexueller Belästigung einer Mitarbeiterin. Der Chefankläger hat die Anschuldigungen, die bereits im Oktober 2024 bekannt geworden waren, zurückgewiesen. Am 16. Mai 2025 teilte das Gericht mit, Khan werde bis zum Ende einer externen Untersuchung sein Amt ruhen und sich freistellen lassen. Trump könnte vielen Unternehmen den digitalen Stecker ziehen Neben den politischen Querelen wirft das Vorgehen Trumps und die Reaktion Microsofts allerdings auch viele besorgniserregende technische Fragen bei Unternehmen und Behörden in Europa auf. „Das Vorgehen von Microsoft ist in diesem Kontext und dieser Auswirkung beispiellos“, heißt es in einer Mitteilung der Open Source Business Alliance (OSBA) – Bundesverband für digitale Souveränität e.V. Die Verantwortlichen sprechen von einem warnenden Beispiel. Zieht Trump den Deutschen den Stecker?  Durch die politische und rechtliche Lage in den USA habe Microsoft hier gar nicht anders handeln können, hieß es. In der Konsequenz könnten allerdings nicht nur E-Mail-Konten, sondern auch Cloud-Dienste und Software-as-a-Service-Produkte (SaaS) gesperrt werden. „Der amerikanische Präsident kann per Dekret jede Organisation, die von US-Technologie abhängig ist, digital abschalten“, warnt die Vereinigung. “Die von den USA angeordneten und von Microsoft mit umgesetzten Sanktionen gegen den internationalen Strafgerichtshof in Den Haag müssen ein Weckruf für alle sein, die für die sichere Verfügbarkeit staatlicher und privater IT- und Kommunikationsinfrastrukturen verantwortlich sind“, mahnt Peter Ganten, Vorstandsvorsitzender der Open Source Business Alliance. Man könne sich nicht auf Unternehmen verlassen, die nicht unter der eigenen Jurisdiktion stünden. „Deswegen brauchen wir dringend Alternativen, die wir kontrollieren und gestalten können. Die neue Bundesregierung ist gefordert, dies nun mit Hochdruck umzusetzen.“  Microsoft dementiert Microsoft dementiert indes, dass Khan der E-Mail Account gesperrt wurde. „Seit Februar standen wir während des gesamten Prozesses, der zur Trennung des sanktionierten Beamten von den Microsoft-Diensten führte, in Kontakt mit der ICC”, erklärte ein Sprecher des Unternehmens auf Anfrage der Computerwoche. “Zu keinem Zeitpunkt hat Microsoft seine Dienste für den ICC eingestellt oder suspendiert.” width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/2Ciddz1Wx8K0m7mBbhzApR?utm_source=oembed”> 

Trump befiehlt – Microsoft sperrt E-Mail-Account?​ Wen US-Präsident Donald Trump einmal aufs Korn nimmt, hat nichts zu lachen.Jonah Elkowitz/Shutterstock

Donald Trump geht massiv gegen den Internationalen Strafgerichtshof (IStGH) vor und Microsoft muss den US-Präsidenten dabei unterstützen. Der weltgrößte Softwarekonzern hat das E-Mail-Konto des Chefanklägers Karim Khan gesperrt, wie verschiedene Nachrichtenagenturen und US-News-Sites berichten.

Grundlage dafür bildet offenbar Trumps Executive Order 14203 vom 6. Februar 2025. Darin hatte Trump Sanktionen gegen den IStGH und die dort beschäftigten Mitarbeitenden verhängt. Ihnen wurde mitgeteilt, dass sie verhaftet werden könnten, wenn sie in die USA einreisten. Insbesondere Chefankläger Khan nimmt Trump aufs Korn. Allen Personen, Organisationen und Firmen drohten Strafzahlungen oder gar Gefängnis, sollten sie Khan finanziell, materiell oder technologisch unterstützen, heißt es in dem Erlass.

Wird Deutschland nach dem Trump-Sieg digital erpressbar?

Grund für die von Trump angeordneten Sanktionen sind wohl die von den IStGH-Richtern im November 2024 angeordneten Haftbefehle gegen den israelischen Premierminister Benjamin Netanjahu und seinen ehemaligen Verteidigungsminister Yoav Gallant. Beiden Politikern werden Kriegsverbrechen des israelischen Militärs beim Vorgehen gegen die palästinensische Terrormiliz Hamas im Gazastreifen zur Last gelegt. 

Internationaler Strafgerichtshof kann nur noch eingeschränkt arbeiten

Die Sanktionen Trumps zeigen Wirkung und behindern massiv die Arbeit des Internationalen Strafgerichtshof, der Kriegsverbrechen auf der ganzen Welt untersucht und die dafür Verantwortlichen zur Rechenschaft zieht. Weder die USA noch Israel erkennen den IStGH an. Einem Bericht der Nachrichtenagentur Associated Press (AP) zufolge ist die Arbeit bereits eingeschränkt, weil etliche Mitarbeitende das Gericht wegen Bedenken hinsichtlich der US-Sanktionen verlassen haben.

Donald Trump 2.0: Europa muss sich emanzipieren 

Dazu kommen Vorwürfe gegen Khan wegen sexueller Belästigung einer Mitarbeiterin. Der Chefankläger hat die Anschuldigungen, die bereits im Oktober 2024 bekannt geworden waren, zurückgewiesen. Am 16. Mai 2025 teilte das Gericht mit, Khan werde bis zum Ende einer externen Untersuchung sein Amt ruhen und sich freistellen lassen.

Trump könnte vielen Unternehmen den digitalen Stecker ziehen

Neben den politischen Querelen wirft das Vorgehen Trumps und die Reaktion Microsofts allerdings auch viele besorgniserregende technische Fragen bei Unternehmen und Behörden in Europa auf. „Das Vorgehen von Microsoft ist in diesem Kontext und dieser Auswirkung beispiellos“, heißt es in einer Mitteilung der Open Source Business Alliance (OSBA) – Bundesverband für digitale Souveränität e.V. Die Verantwortlichen sprechen von einem warnenden Beispiel.

Zieht Trump den Deutschen den Stecker? 

Durch die politische und rechtliche Lage in den USA habe Microsoft hier gar nicht anders handeln können, hieß es. In der Konsequenz könnten allerdings nicht nur E-Mail-Konten, sondern auch Cloud-Dienste und Software-as-a-Service-Produkte (SaaS) gesperrt werden. „Der amerikanische Präsident kann per Dekret jede Organisation, die von US-Technologie abhängig ist, digital abschalten“, warnt die Vereinigung.

“Die von den USA angeordneten und von Microsoft mit umgesetzten Sanktionen gegen den internationalen Strafgerichtshof in Den Haag müssen ein Weckruf für alle sein, die für die sichere Verfügbarkeit staatlicher und privater IT- und Kommunikationsinfrastrukturen verantwortlich sind“, mahnt Peter Ganten, Vorstandsvorsitzender der Open Source Business Alliance. Man könne sich nicht auf Unternehmen verlassen, die nicht unter der eigenen Jurisdiktion stünden. „Deswegen brauchen wir dringend Alternativen, die wir kontrollieren und gestalten können. Die neue Bundesregierung ist gefordert, dies nun mit Hochdruck umzusetzen.“ 

Microsoft dementiert

Microsoft dementiert indes, dass Khan der E-Mail Account gesperrt wurde. „Seit Februar standen wir während des gesamten Prozesses, der zur Trennung des sanktionierten Beamten von den Microsoft-Diensten führte, in Kontakt mit der ICC”, erklärte ein Sprecher des Unternehmens auf Anfrage der Computerwoche. “Zu keinem Zeitpunkt hat Microsoft seine Dienste für den ICC eingestellt oder suspendiert.”

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/2Ciddz1Wx8K0m7mBbhzApR?utm_source=oembed”>

Trump befiehlt – Microsoft sperrt E-Mail-Account?​ Weiterlesen »

T-Systems-CEO im Interview: Digitale Fähigkeiten auch selbst nutzen​

Allgemein

T-Systems-CEO und Telekom-Vorstandsmitglied Ferri Abolhassan diskutiert im COMPUTERWOCHE-Interview über die Themen digitale Souveränität in Europa sowie KI. Deutsche Telekom Angesichts der veränderten geopolitischen Rahmenbedingungen ist die Digitale Souveränität derzeit ein heißes Thema – gerade in Deutschland. Wie positioniert sich T-Systems in diesem relevanten Feld? Ferri Abolhassan: Unser Konzernchef Tim Höttges betont immer wieder, dass wir mit unserem einzigartigen KI- und Cloud-Know-how ein sehr wichtiger Differenzierer für die Telekom sind. Denn diese Zukunftstechnologien gewinnen mehr und mehr an Bedeutung. Damit steigt auch unsere Bedeutung für den Konzern kontinuierlich. Digitale Souveränität spielt dabei eine große Rolle. Unsere Kunden verlangen inzwischen verstärkt danach. Angesichts der Diskussionen um KI-Rechenzentren sind wir mit unserem Angebot also genau richtig positioniert. Und das heißt konkret? Ferri Abolhassan: Wir waren einer der Pioniere im Bereich Cloud und Rechenzentren und verfügen daher auch über eine langjährige, branchenumfassende Expertise. Jetzt, wo die Anwender großen Wert auf die Hoheit über ihre eigenen Daten legen, sind wir bestens darauf vorbereitet und sehen hier einen wachsenden Markt für uns. Unsere Open Telekom Cloud (OTC) und die darauf entwickelte Open Sovereign Cloud (OSC) sind Beispiele für souveräne Angebote. Mit unserer Future Cloud Infrastructure (FCI) bieten wir darüber hinaus eine sichere Lösung mit Zero Downtime. Wir sind ein Verfechter souveräner Lösungen. Allerdings glaube ich auch an die Vielfalt und die Wahlmöglichkeiten, die man den Kunden bieten sollte. Deshalb bin ich auch Fürsprecher eines Multi-Cloud-Ansatzes, solange dieser souverän, sicher und qualitativ hochwertig ist. Datenhoheit und Souveränität gewinnen an Bedeutung Ja, aber neben ihren eigenen souveränen Cloud-Diensten bieten Sie auch die Lösungen der US-Hyperscaler an. Wie passt das zusammen? Ferri Abolhassan: Uns ist es heute zu wenig, nur ein Treuhänder für die Angebote anderer zu sein. Wir wollen den Anwendern ganzheitliche Lösungen anbieten, die ihre Geschäftsprozesse sicher und umfassend unterstützen. Wenn die Kunden dies wünschen, bieten wir auch die Lösungen von Hyperscalern an. Der Weg führt daher mittelfristig über hybride und Multi-Cloud-Modelle. Dann liegen unkritische Workloads bei Hyperscalern, die sensiblen Daten und Workloads hingegen in souveränen europäischen Clouds. Wir als T-Systems glauben aber, dass Datenhoheit und Souveränität zunehmend an Bedeutung gewinnen. Und hier kommen unsere eigenen Plattformen wie OTC (Open Telekom Cloud), OSC (Open Sovereign Cloud) und FCI (Future Cloud Infrastructure) mit all ihren Dimensionen ins Spiel: Vom Rechenzentrum über die Hardware und das Betriebsmodell bis hin zur Software. Zudem helfen wir den Anwendern beim Wechsel zwischen verschiedenen Cloud-Welten. Milliarden für neue Data Center Von Ihnen ist der Satz überliefert, dass Sie bei den Themen, bei denen Sie sich engagieren, die Nummer Eins sein wollen. Wie wollen Sie hierzulande die Dominanz der Hyperscaler in Sachen Rechenzentren brechen? Ferri Abolhassan: Darüber, dass wir mehr Data-Center-Kapazität brauchen, sind wir uns beide vollkommen einig. Das ist überhaupt kein Thema. Die Frage ist nur, wie schnell können wir liefern. Auch wenn aktuell noch ein Großteil der Rechenleistung von US-Hyperscalern bereitgestellt wird, das wird sich verändern. Dazu muss man allerdings anfangen, Kapazitäten aufzubauen, sonst kann man nicht liefern. Wir betreiben das Geschäft seit 20 Jahren und investieren seitdem kontinuierlich in Data Center. Und wir planen weitere hohe Investitionen in Rechenzentren. Bereits jetzt haben wir 400 Megawatt an Rechenleistung im Netz. Die geplanten Ausbauten und Neubauten werden uns in den Gigawattbereich führen. Das ist ein fortlaufender Prozess, bei dem wir nicht bei null anfangen. Ferri Abolhassan: Wir entwickeln unsere digitalen Fähigkeiten nur, wenn wir diese auch selbst nutzen. Deutsche Telekom Der Staat ist als Ankerkunde gefordert Welche Rahmenbedingungen oder regulatorischen Maßnahmen wünschen Sie sich, um diesen Ausbau weiter voranzutreiben? Ferri Abolhassan: Ein wichtiger Faktor sind sicherlich die Energiekosten. Unterstützung braucht die Branche zudem bei den Genehmigungsprozessen, auch wenn wir beispielsweise die Genehmigung bekommen haben, unseren RZ-Standort Biere weiterauszubauen. Noch entscheidender ist jedoch, dass sich die politisch Verantwortlichen in Deutschland auch zur Nachfrage nach nationaler, souveräner Rechenleistung bekennen. Es kann nicht sein, dass ich als Staat mit Hinweis auf die digitale Souveränität, Data-Center-Investitionen fordere, mich dieser aber nicht bediene. Stichwort “Verwaltungsdigitalisierung und Staatsmodernisierung”. Hier sehe ich den Staat unter dem Stichwort Ankerkunde gefordert. Wir entwickeln unsere digitalen Fähigkeiten nur, wenn wir diese auch selbst nutzen. Noch fehlt die Denke Und kommt der Staat diesem Ansinnen nach? Ferri Abolhassan: Wir führen hierzu gute Gespräche. Aber es ist noch nicht die Denke vorhanden, die es bräuchte. Andere Länder, insbesondere die USA tun sich hier leichter, die sagen einfach „America first“. Verstehen Sie mich nicht falsch, ich bin nicht derjenige, der sagt „Germany first“. Aber Europa darf hier zur Stärkung des Binnenmarktes auch an sich denken, wenn es um die öffentliche, also steuerfinanzierte Vergabe von IT-Diensten geht. In Brüssel und auch in der neuen Bundesregierung nehme ich Verständnis hierfür wahr. Cloud und Rechenzentren sind ja nur zwei Aspekte der Digitalen Souveränität. Noch viel größer ist doch unsere Abhängigkeit beim Zukunftsthema KI? Ferri Abolhassan: Nein, denken Sie nur an das Projekt OpenGPT-X als deutschen Beitrag zur Digitalen Souveränität Europas in Sachen GenAI-Modelle. So entstand etwa mit dem Opensource-LLM Teuken-7B eine Alternative zu den US-amerikanischen KI-Sprachmodellen. GenAI Made in Germany Wir offerieren dieses Modell im Rahmen unserer AI Foundation Services. Teuken-7B wurde unter anderem mit den 24 Amtssprachen der EU trainiert und richtet sich an Unternehmen und Behörden. Wir sehen uns hier als erster Anbieter für solche europäischen KI-Sprachmodelle mit über sieben Milliarden Parametern. Daher auch der Zusatz 7B für 7 Billions. Sie erwähnen das KI-Angebot von T-Systems. Wie gehen Sie intern mit dem Thema KI um? Ferri Abolhassan: „Use what you sell“ lautet eines unserer Prinzipien. Wir haben eine umfangreiche KI-Expertise aufgebaut und setzen KI intern in verschiedenen Bereichen ein. Dazu gehören intelligente Chatbots, Frontend-Assistenten und Predictive Analytics im Kundenservice. Auch das lernende Netz der Telekom nutzt KI zur Optimierung der Netzkapazität. Zudem haben wir ein Kompetenzcenter im Konzern etabliert, das alle KI-Aktivitäten bündelt. Ein konkretes Produkt ist unser AI Engineer, der zeigt, wie KI bei der Code-Erstellung, -Modernisierung und im Testing unterstützen kann. Unser AI Engineer verkürzt den Entwicklungsprozess von 6 Monaten auf wenige Minuten – Testing und Bereitstellung inklusive. Ein kurzer Prompt in natürlicher Sprache genügt. Auch der AI Engineer ist Bestandteil unserer AI Foundation Services. Use what you sell Ferner fördern wir sowohl dedizierte Schulungen als auch das experimentelle Ausprobieren neuer KI-Tools durch unsere Mitarbeitenden. Unser Ziel ist es, dass alle unsere Beschäftigten KI als ein nützliches Werkzeug verstehen und es aktiv in ihrer Arbeit einsetzen können. Apropos KI und Mitarbeiter. Wie sehen Sie das Verhältnis zwischen Mensch und KI in Zukunft? Wird der Mensch in vielen Bereichen ersetzt werden? Ferri Abolhassan: KI verändert gerade unsere Welt und ist aus keinem Bereich mehr wegzudenken. Das Potenzial von Künstlicher Intelligenz ist riesig. Richtig eingesetzt sorgt sie branchenübergreifend für mehr Kreativität, Produktivität und Effizienz. Darum ist es so wichtig, dass alle schnellstmöglich lernen, mit dieser disruptiven Technologie umzugehen. KI eröffnet uns Menschen neue Möglichkeiten, um besser zu forschen, zu entwickeln, zu dokumentieren und zu administrieren. Ich bin überzeugt: Der Mensch wird weiterhin den Unterschied machen, aber KI kann uns in vielen Bereichen einen erheblichen Mehrwert biete – wenn wir sie sinnvoll und verantwortungsbewusst einsetzen. KI kann uns erheblichen Mehrwert bieten Wenn ich den aktuellen Stand der KI-Adaption in Deutschland betrachte, dann scheint sich diese Erkenntnis noch nicht weit durchgesetzt zu haben. Wie schätzen Sie die aktuelle Nutzung von KI in deutschen Unternehmen ein und wo sehen Sie die größten Chancen? Ferri Abolhassan: Es ist richtig, ältere Zahlen sprachen von einer eher geringen Nutzung. Allerdings zeigt eine aktuellere Bitkom-Studie, dass bereits 42 Prozent der Unternehmen KI in der Produktion einsetzen. Ein weiteres Drittel hat entsprechende Planungen. Beispiele hierfür sind die Überwachung von Maschinen, die intelligente Steuerung von Robotern und die Optimierung des Energieverbrauchs. Trotz dieser positiven Entwicklung sehen wir weiterhin erhebliches Potenzial und Chancen für den Einsatz von KI in Unternehmen. Unser Ansatz ist es, Unternehmen konkrete Anwendungsfälle aufzuzeigen, wie sie KI gewinnbringend einsetzen können und Ihnen bei Bedarf auch beim Einsatz zu helfen. Auch im KI-Zeitalter, so ist Ferri Abolhassan überzeugt, wird der Mensch wird weiterhin den Unterschied machen, auch wenn die KI in vielen Bereichen einen erheblichen Mehrwert bietet. Deutsche Telekom Fokus auf den Nutzen legen Könnten Sie uns einige konkrete Beispiele für diese Anwendungsfälle nennen? Ferri Abolhassan: Ja, unser Fokus liegt auf dem konkreten Nutzen für die Anwender. Wir sehen Möglichkeiten in der verbesserten Patientenversorgung im Krankenhaus, in Fortschritten in der Krebsforschung. Ein anderes Feld ist die Optimierung von Logistikprozessen in der Automobilindustrie. Es geht darum, praktische Arbeits- und Problemstellungen von Unternehmen mit Automatisierung und KI zu lösen. Zum Beispiel können wir in einem Krankenhaus die Wundversorgung verbessern, indem die Nachdokumentation und Vorbereitung direkt am Patientenbett mit KI-Unterstützung erfolgt. In der Automobilindustrie können wir beispielsweise helfen, die Logistik ganzer Flotten zu optimieren oder die Qualitätskontrolle in der Produktion durch KI-gestützte Anomalie-Erkennung zu verbessern. Weg des Machens einschlagen Das klingt durchaus vielversprechend, aber sind uns andere Länder wie China nicht weit voraus? Ferri Abolhassan: China ist in der Tat ein ernstzunehmender Wettbewerber. Um hier aufzuholen, ist es wichtig, dass wir unsere Aversion gegenüber neuen Technologien ablegen. Wir haben immer noch eine Menge Ideen “Made in Germany”. Aber wir müssen einen Weg des “Machens” einschlagen. Es bedarf konkreter Angebote und der Unterstützung der Unternehmen bei der Implementierung von KI-Lösungen. Wir müssen weg von der reinen Theorie hin zur praktischen Anwendung. Dazu zählt für mich auch, den Unternehmen einen konkreten Nutzen zu bieten. Ein ganz anderes Thema. Sie sind jetzt seit fast anderthalb Jahren CEO der T-Systems. Wo steht das Unternehmen heute, es war ja lange Zeit ein Sorgenkind der Telekom? Ferri Abolhassan: Ab Ende 2023 haben wir als Team die richtigen Prioritäten gesetzt: Den Kunden in den Mittelpunkt. Fokus auf Qualität und Resilienz. Ein wettbewerbsfähiges Portfolio. Einen integrierten Marktangang. So haben wir unseren Wachstumskurs erfolgreich ausgebaut. Heute sind wir, das kann man schon sagen, in stabilem Fahrwasser. Unter der Führung von Ferri Abolhassan wächst die T-Systems profitabel. Deutsche Telekom T-Systems ist auf Wachstumskurs Woran machen Sie das fest, dass Sie sich in stabilen Fahrwassern befinden? Ferri Abolhassan: Wir haben alle wichtigen Kennzahlen weiterentwickelt und wachsen inzwischen profitabel. Unseren Auftragseingang haben wir zuletzt um elf Prozent gesteigert. Das ist ein wichtiger Indikator für zukünftiges Geschäft. Unser Umsatz ist um 2,8 Prozent gestiegen. Und in dieser Größenordnung wollen wir weiterwachsen. Das EBITDA, sprich, unser Ergebnis vor Zinsen, Steuern und Abschreibungen, haben wir sogar überproportional um 14,8 Prozent verbessert. Aber damit stehen wir erst am Anfang unserer Reise. Wir ruhen uns aus diesen Erfolgen nicht aus. Wir wollen unsere Zahlen Monat für Monat hinstellen und auch in unserem Jubiläumsjahr – wir feiern 25 Jahre T-Systems – weiter profitabel wachsen. Die Nummer Eins in DACH Und wie ist es um das Standing einer T-Systems im Markt bestellt? Ferri Abolhassan: Wir haben eine ganze Menge an Vertriebserfolgen erzielt. Im Moment sind wir im B2B-Markt in Europa die Nummer Zwei, in der DACH-Region die Nummer Eins. Kunden wie AOK, KMD oder Daimler Truck schenken uns ihr Vertrauen, um nur einige zu nennen. Letztlich kommen unsere Kunden aus allen Branchen, aus Automotive, Public, Health, Finance, Transport & Logistics und Manufacturing. Als wir beide vor einem Jahr miteinander sprachen, sagte ich Ihnen, dass wir ganz klar auf das Thema Qualität setzen werden. Dazu sind wir noch mal den Dreiklang von People, Process, Platform angegangen – der Grundlage von Zero Outage. Wir haben unsere Mitarbeitenden weiter geschult und sensibilisiert, bessere, stabilere Prozesse eingeführt, und unsere Plattformen noch ausfallsicherer gemacht. Damit sind wir jetzt in Sachen Stabilität und Ausfallsicherheit gut unterwegs und konnten das auch gegenüber unseren Kunden beweisen.  

T-Systems-CEO im Interview: Digitale Fähigkeiten auch selbst nutzen​ T-Systems-CEO und Telekom-Vorstandsmitglied Ferri Abolhassan diskutiert im COMPUTERWOCHE-Interview über die Themen digitale Souveränität in Europa sowie KI.
Deutsche Telekom

Angesichts der veränderten geopolitischen Rahmenbedingungen ist die Digitale Souveränität derzeit ein heißes Thema – gerade in Deutschland. Wie positioniert sich T-Systems in diesem relevanten Feld?

Ferri Abolhassan: Unser Konzernchef Tim Höttges betont immer wieder, dass wir mit unserem einzigartigen KI- und Cloud-Know-how ein sehr wichtiger Differenzierer für die Telekom sind. Denn diese Zukunftstechnologien gewinnen mehr und mehr an Bedeutung. Damit steigt auch unsere Bedeutung für den Konzern kontinuierlich. Digitale Souveränität spielt dabei eine große Rolle. Unsere Kunden verlangen inzwischen verstärkt danach. Angesichts der Diskussionen um KI-Rechenzentren sind wir mit unserem Angebot also genau richtig positioniert.

Und das heißt konkret?

Ferri Abolhassan: Wir waren einer der Pioniere im Bereich Cloud und Rechenzentren und verfügen daher auch über eine langjährige, branchenumfassende Expertise. Jetzt, wo die Anwender großen Wert auf die Hoheit über ihre eigenen Daten legen, sind wir bestens darauf vorbereitet und sehen hier einen wachsenden Markt für uns.

Unsere Open Telekom Cloud (OTC) und die darauf entwickelte Open Sovereign Cloud (OSC) sind Beispiele für souveräne Angebote. Mit unserer Future Cloud Infrastructure (FCI) bieten wir darüber hinaus eine sichere Lösung mit Zero Downtime. Wir sind ein Verfechter souveräner Lösungen. Allerdings glaube ich auch an die Vielfalt und die Wahlmöglichkeiten, die man den Kunden bieten sollte. Deshalb bin ich auch Fürsprecher eines Multi-Cloud-Ansatzes, solange dieser souverän, sicher und qualitativ hochwertig ist.

Datenhoheit und Souveränität gewinnen an Bedeutung

Ja, aber neben ihren eigenen souveränen Cloud-Diensten bieten Sie auch die Lösungen der US-Hyperscaler an. Wie passt das zusammen?

Ferri Abolhassan: Uns ist es heute zu wenig, nur ein Treuhänder für die Angebote anderer zu sein. Wir wollen den Anwendern ganzheitliche Lösungen anbieten, die ihre Geschäftsprozesse sicher und umfassend unterstützen. Wenn die Kunden dies wünschen, bieten wir auch die Lösungen von Hyperscalern an. Der Weg führt daher mittelfristig über hybride und Multi-Cloud-Modelle. Dann liegen unkritische Workloads bei Hyperscalern, die sensiblen Daten und Workloads hingegen in souveränen europäischen Clouds. Wir als T-Systems glauben aber, dass Datenhoheit und Souveränität zunehmend an Bedeutung gewinnen. Und hier kommen unsere eigenen Plattformen wie OTC (Open Telekom Cloud), OSC (Open Sovereign Cloud) und FCI (Future Cloud Infrastructure) mit all ihren Dimensionen ins Spiel: Vom Rechenzentrum über die Hardware und das Betriebsmodell bis hin zur Software. Zudem helfen wir den Anwendern beim Wechsel zwischen verschiedenen Cloud-Welten.

Milliarden für neue Data Center

Von Ihnen ist der Satz überliefert, dass Sie bei den Themen, bei denen Sie sich engagieren, die Nummer Eins sein wollen. Wie wollen Sie hierzulande die Dominanz der Hyperscaler in Sachen Rechenzentren brechen?

Ferri Abolhassan: Darüber, dass wir mehr Data-Center-Kapazität brauchen, sind wir uns beide vollkommen einig. Das ist überhaupt kein Thema. Die Frage ist nur, wie schnell können wir liefern. Auch wenn aktuell noch ein Großteil der Rechenleistung von US-Hyperscalern bereitgestellt wird, das wird sich verändern.

Dazu muss man allerdings anfangen, Kapazitäten aufzubauen, sonst kann man nicht liefern. Wir betreiben das Geschäft seit 20 Jahren und investieren seitdem kontinuierlich in Data Center. Und wir planen weitere hohe Investitionen in Rechenzentren.

Bereits jetzt haben wir 400 Megawatt an Rechenleistung im Netz. Die geplanten Ausbauten und Neubauten werden uns in den Gigawattbereich führen. Das ist ein fortlaufender Prozess, bei dem wir nicht bei null anfangen.

Ferri Abolhassan: Wir entwickeln unsere digitalen Fähigkeiten nur, wenn wir diese auch selbst nutzen.
Deutsche Telekom

Der Staat ist als Ankerkunde gefordert

Welche Rahmenbedingungen oder regulatorischen Maßnahmen wünschen Sie sich, um diesen Ausbau weiter voranzutreiben?

Ferri Abolhassan: Ein wichtiger Faktor sind sicherlich die Energiekosten. Unterstützung braucht die Branche zudem bei den Genehmigungsprozessen, auch wenn wir beispielsweise die Genehmigung bekommen haben, unseren RZ-Standort Biere weiterauszubauen.

Noch entscheidender ist jedoch, dass sich die politisch Verantwortlichen in Deutschland auch zur Nachfrage nach nationaler, souveräner Rechenleistung bekennen. Es kann nicht sein, dass ich als Staat mit Hinweis auf die digitale Souveränität, Data-Center-Investitionen fordere, mich dieser aber nicht bediene. Stichwort “Verwaltungsdigitalisierung und Staatsmodernisierung”. Hier sehe ich den Staat unter dem Stichwort Ankerkunde gefordert. Wir entwickeln unsere digitalen Fähigkeiten nur, wenn wir diese auch selbst nutzen.

Noch fehlt die Denke

Und kommt der Staat diesem Ansinnen nach?

Ferri Abolhassan: Wir führen hierzu gute Gespräche. Aber es ist noch nicht die Denke vorhanden, die es bräuchte. Andere Länder, insbesondere die USA tun sich hier leichter, die sagen einfach „America first“. Verstehen Sie mich nicht falsch, ich bin nicht derjenige, der sagt „Germany first“. Aber Europa darf hier zur Stärkung des Binnenmarktes auch an sich denken, wenn es um die öffentliche, also steuerfinanzierte Vergabe von IT-Diensten geht. In Brüssel und auch in der neuen Bundesregierung nehme ich Verständnis hierfür wahr.

Cloud und Rechenzentren sind ja nur zwei Aspekte der Digitalen Souveränität. Noch viel größer ist doch unsere Abhängigkeit beim Zukunftsthema KI?

Ferri Abolhassan: Nein, denken Sie nur an das Projekt OpenGPT-X als deutschen Beitrag zur Digitalen Souveränität Europas in Sachen GenAI-Modelle. So entstand etwa mit dem Opensource-LLM Teuken-7B eine Alternative zu den US-amerikanischen KI-Sprachmodellen.

GenAI Made in Germany

Wir offerieren dieses Modell im Rahmen unserer AI Foundation Services. Teuken-7B wurde unter anderem mit den 24 Amtssprachen der EU trainiert und richtet sich an Unternehmen und Behörden. Wir sehen uns hier als erster Anbieter für solche europäischen KI-Sprachmodelle mit über sieben Milliarden Parametern. Daher auch der Zusatz 7B für 7 Billions.

Sie erwähnen das KI-Angebot von T-Systems. Wie gehen Sie intern mit dem Thema KI um?

Ferri Abolhassan: „Use what you sell“ lautet eines unserer Prinzipien. Wir haben eine umfangreiche KI-Expertise aufgebaut und setzen KI intern in verschiedenen Bereichen ein. Dazu gehören intelligente Chatbots, Frontend-Assistenten und Predictive Analytics im Kundenservice. Auch das lernende Netz der Telekom nutzt KI zur Optimierung der Netzkapazität. Zudem haben wir ein Kompetenzcenter im Konzern etabliert, das alle KI-Aktivitäten bündelt. Ein konkretes Produkt ist unser AI Engineer, der zeigt, wie KI bei der Code-Erstellung, -Modernisierung und im Testing unterstützen kann. Unser AI Engineer verkürzt den Entwicklungsprozess von 6 Monaten auf wenige Minuten – Testing und Bereitstellung inklusive. Ein kurzer Prompt in natürlicher Sprache genügt. Auch der AI Engineer ist Bestandteil unserer AI Foundation Services.

Use what you sell

Ferner fördern wir sowohl dedizierte Schulungen als auch das experimentelle Ausprobieren neuer KI-Tools durch unsere Mitarbeitenden. Unser Ziel ist es, dass alle unsere Beschäftigten KI als ein nützliches Werkzeug verstehen und es aktiv in ihrer Arbeit einsetzen können.

Apropos KI und Mitarbeiter. Wie sehen Sie das Verhältnis zwischen Mensch und KI in Zukunft? Wird der Mensch in vielen Bereichen ersetzt werden?

Ferri Abolhassan: KI verändert gerade unsere Welt und ist aus keinem Bereich mehr wegzudenken. Das Potenzial von Künstlicher Intelligenz ist riesig. Richtig eingesetzt sorgt sie branchenübergreifend für mehr Kreativität, Produktivität und Effizienz. Darum ist es so wichtig, dass alle schnellstmöglich lernen, mit dieser disruptiven Technologie umzugehen. KI eröffnet uns Menschen neue Möglichkeiten, um besser zu forschen, zu entwickeln, zu dokumentieren und zu administrieren. Ich bin überzeugt: Der Mensch wird weiterhin den Unterschied machen, aber KI kann uns in vielen Bereichen einen erheblichen Mehrwert biete – wenn wir sie sinnvoll und verantwortungsbewusst einsetzen.

KI kann uns erheblichen Mehrwert bieten

Wenn ich den aktuellen Stand der KI-Adaption in Deutschland betrachte, dann scheint sich diese Erkenntnis noch nicht weit durchgesetzt zu haben. Wie schätzen Sie die aktuelle Nutzung von KI in deutschen Unternehmen ein und wo sehen Sie die größten Chancen?

Ferri Abolhassan: Es ist richtig, ältere Zahlen sprachen von einer eher geringen Nutzung. Allerdings zeigt eine aktuellere Bitkom-Studie, dass bereits 42 Prozent der Unternehmen KI in der Produktion einsetzen. Ein weiteres Drittel hat entsprechende Planungen. Beispiele hierfür sind die Überwachung von Maschinen, die intelligente Steuerung von Robotern und die Optimierung des Energieverbrauchs.

Trotz dieser positiven Entwicklung sehen wir weiterhin erhebliches Potenzial und Chancen für den Einsatz von KI in Unternehmen. Unser Ansatz ist es, Unternehmen konkrete Anwendungsfälle aufzuzeigen, wie sie KI gewinnbringend einsetzen können und Ihnen bei Bedarf auch beim Einsatz zu helfen.

Auch im KI-Zeitalter, so ist Ferri Abolhassan überzeugt, wird der Mensch wird weiterhin den Unterschied machen, auch wenn die KI in vielen Bereichen einen erheblichen Mehrwert bietet.
Deutsche Telekom

Fokus auf den Nutzen legen

Könnten Sie uns einige konkrete Beispiele für diese Anwendungsfälle nennen?

Ferri Abolhassan: Ja, unser Fokus liegt auf dem konkreten Nutzen für die Anwender. Wir sehen Möglichkeiten in der verbesserten Patientenversorgung im Krankenhaus, in Fortschritten in der Krebsforschung. Ein anderes Feld ist die Optimierung von Logistikprozessen in der Automobilindustrie. Es geht darum, praktische Arbeits- und Problemstellungen von Unternehmen mit Automatisierung und KI zu lösen.

Zum Beispiel können wir in einem Krankenhaus die Wundversorgung verbessern, indem die Nachdokumentation und Vorbereitung direkt am Patientenbett mit KI-Unterstützung erfolgt. In der Automobilindustrie können wir beispielsweise helfen, die Logistik ganzer Flotten zu optimieren oder die Qualitätskontrolle in der Produktion durch KI-gestützte Anomalie-Erkennung zu verbessern.

Weg des Machens einschlagen

Das klingt durchaus vielversprechend, aber sind uns andere Länder wie China nicht weit voraus?

Ferri Abolhassan: China ist in der Tat ein ernstzunehmender Wettbewerber. Um hier aufzuholen, ist es wichtig, dass wir unsere Aversion gegenüber neuen Technologien ablegen. Wir haben immer noch eine Menge Ideen “Made in Germany”. Aber wir müssen einen Weg des “Machens” einschlagen.

Es bedarf konkreter Angebote und der Unterstützung der Unternehmen bei der Implementierung von KI-Lösungen. Wir müssen weg von der reinen Theorie hin zur praktischen Anwendung. Dazu zählt für mich auch, den Unternehmen einen konkreten Nutzen zu bieten.

Ein ganz anderes Thema. Sie sind jetzt seit fast anderthalb Jahren CEO der T-Systems. Wo steht das Unternehmen heute, es war ja lange Zeit ein Sorgenkind der Telekom?

Ferri Abolhassan: Ab Ende 2023 haben wir als Team die richtigen Prioritäten gesetzt: Den Kunden in den Mittelpunkt. Fokus auf Qualität und Resilienz. Ein wettbewerbsfähiges Portfolio. Einen integrierten Marktangang. So haben wir unseren Wachstumskurs erfolgreich ausgebaut. Heute sind wir, das kann man schon sagen, in stabilem Fahrwasser.

Unter der Führung von Ferri Abolhassan wächst die T-Systems profitabel.
Deutsche Telekom

T-Systems ist auf Wachstumskurs

Woran machen Sie das fest, dass Sie sich in stabilen Fahrwassern befinden?

Ferri Abolhassan: Wir haben alle wichtigen Kennzahlen weiterentwickelt und wachsen inzwischen profitabel. Unseren Auftragseingang haben wir zuletzt um elf Prozent gesteigert. Das ist ein wichtiger Indikator für zukünftiges Geschäft. Unser Umsatz ist um 2,8 Prozent gestiegen. Und in dieser Größenordnung wollen wir weiterwachsen. Das EBITDA, sprich, unser Ergebnis vor Zinsen, Steuern und Abschreibungen, haben wir sogar überproportional um 14,8 Prozent verbessert. Aber damit stehen wir erst am Anfang unserer Reise. Wir ruhen uns aus diesen Erfolgen nicht aus. Wir wollen unsere Zahlen Monat für Monat hinstellen und auch in unserem Jubiläumsjahr – wir feiern 25 Jahre T-Systems – weiter profitabel wachsen.

Die Nummer Eins in DACH

Und wie ist es um das Standing einer T-Systems im Markt bestellt?

Ferri Abolhassan: Wir haben eine ganze Menge an Vertriebserfolgen erzielt. Im Moment sind wir im B2B-Markt in Europa die Nummer Zwei, in der DACH-Region die Nummer Eins. Kunden wie AOK, KMD oder Daimler Truck schenken uns ihr Vertrauen, um nur einige zu nennen. Letztlich kommen unsere Kunden aus allen Branchen, aus Automotive, Public, Health, Finance, Transport & Logistics und Manufacturing.

Als wir beide vor einem Jahr miteinander sprachen, sagte ich Ihnen, dass wir ganz klar auf das Thema Qualität setzen werden. Dazu sind wir noch mal den Dreiklang von People, Process, Platform angegangen – der Grundlage von Zero Outage. Wir haben unsere Mitarbeitenden weiter geschult und sensibilisiert, bessere, stabilere Prozesse eingeführt, und unsere Plattformen noch ausfallsicherer gemacht. Damit sind wir jetzt in Sachen Stabilität und Ausfallsicherheit gut unterwegs und konnten das auch gegenüber unseren Kunden beweisen. 

T-Systems-CEO im Interview: Digitale Fähigkeiten auch selbst nutzen​ Weiterlesen »

Content-Management-Modernisierung: Sukzessive sticht radikal​

Allgemein

Modernes Content-Management geht über reine Datensilos hinaus.kadir tezel – shutterstock.com Die Idee einer allumfassenden, zentralen Plattform ist ein Wunschbild, das in der Realität bislang kaum verwirklicht wurde. Stattdessen sind wachsende Mengen unstrukturierter Daten schon heute auf unzählige Repositories und verschiedene ECM-Systeme verteilt. Die wahre Herausforderung liegt dabei nicht in der Verteilung der Daten selbst, sondern in fehlenden Schnittstellen, mangelnder Integration und fehlendem Mehrwert für die Nutzer. Datensilos, ineffiziente Prozesse sowie Governance– und Compliance-Herausforderungen sind die unvermeidbaren Folgen.  Angesichts rasant steigender Datenmengen, sich wandelnder Marktbedingungen und neuer regulatorischer Anforderungen ist ein Umdenken gefragt. Unternehmen benötigen Systeme, die nicht nur stabil, sondern zugleich flexibel und erweiterbar sind. Die Modernisierung sollte nicht als Hindernis, sondern als Chance verstanden werden: Eine Möglichkeit, von monolithischen Strukturen zu einem modularen, Cloud-basierten und zukunftssicheren Ökosystem überzugehen.  Die Kraft der schrittweisen Transformation  Ein „Big Bang“-Ansatz, bei dem ein bestehendes System vollständig ersetzt wird, mag verlockend erscheinen, ist jedoch für die meisten Unternehmen mit hohen Risiken verbunden. Ein abrupter Wechsel bringt vielfach Betriebsunterbrechungen und hohe Kosten mit sich, weshalb notwendige Modernisierungen häufig so lange hinausgezögert werden, bis sie zum Problem werden.   Ein iterativer Ansatz hingegen gleicht einer sanften Gewebeerneuerung: Veraltete Strukturen werden schrittweise durch moderne Module ersetzt. So bleibt das System flexibel und entwickelt sich organisch weiter, während zentrale Geschäftsprozesse reibungslos weiterlaufen. Unternehmen, die auf eine regelmäßige, schrittweise Modernisierung setzen, profitieren von einer agilen IT-Architektur, die Veränderungen als natürlichen Bestandteil begreift. Neue Funktionen lassen sich so deutlich schneller und mit einem klar messbaren Return on Investment (RoI) implementieren. So konnte beispielsweise Twitter Ads durch diesen Ansatz innerhalb weniger Monate die Deployment-Geschwindigkeit um das Sechsfache steigern. Diese Form der Transformation sorgt für Planbarkeit, nachhaltige Effizienzsteigerungen und kontinuierlichen, geschäftlichen Mehrwert.  Der erste Schritt: Klare Bestandsaufnahme  Eine unstrukturierte Migration gleicht einem „Last-Minute-Packen“ für den Urlaub, bei dem wahllos Dinge aus dem Kleiderschrank gegriffen und in den Koffer geworfen werden. Damit der Übergang gelingt, braucht es eine sorgfältige Analyse: Welche Systeme sind geschäftskritisch? Wo gibt es Redundanzen? Welche Prozesse lassen sich optimieren?  Ein Content-Audit hilft, bestehende Datenbestände zu bewerten – von Dokumenten aller Art und E-Mails über Bild- und Videoinhalte bis hin zu Kundenkommunikation. Auf dieser Basis können Unternehmen ihre Migration strategisch priorisieren. Moderne KI-gestützte Technologien analysieren semantische Strukturen, aktualisieren Metadaten und filtern irrelevante Informationen heraus, um die Grundlage für ein effizienteres System zu schaffen.  Modularisierung und KI: Der Schlüssel zu einer smarten Transformation  Statt ein altes System einfach durch ein neues zu ersetzen, ist eine flexible, modulare Architektur gefragt. Ein API-first-Ansatz bildet eine Brücke zwischen Altsystemen und modernen Cloud-Plattformen, sodass Unternehmen schrittweise migrieren können, ohne den laufenden Betrieb zu gefährden.  Technologisch basiert dieser Ansatz auf zwei Säulen: Modularisierung und Automatisierung. Legacy-Systeme werden in kleinere, unabhängig funktionierende Module überführt, was eine agile Weiterentwicklung ermöglicht. Container-Technologien und Microservices gewährleisten dabei eine schrittweise Migration: Zunächst werden bestehende Systeme in isolierte Umgebungen überführt, anschließend in hybride Architekturen integriert und schließlich vollständig in Cloud-basierte Lösungen und Microservices transformiert.  Zudem sorgen herstellerunabhängige Architekturen für langfristige Flexibilität: Unternehmen können dann ihre ECM-, ERP- und CRM-Systeme vernetzen, ohne sich an proprietäre Systeme zu binden. So ermöglichen spezielle Plattformen mit offenen Schnittstellen eine nahtlose Integration in bestehende Ökosysteme. Diese Offenheit schützt bestehende Investitionen und erleichtert es, auf neue Trends zu reagieren und schnell technologische Anpassungen vorzunehmen.  Hyperautomation: Vom passiven Repository zum intelligenten System  Moderne Content-Management-Systeme müssen weit über die reine Datenspeicherung hinausgehen. Hier kommt Hyperautomation ins Spiel: Künstliche Intelligenz (KI) verwandelt statische Repositories in intelligente Systeme, die sich selbst optimieren. KI kann Metadaten automatisch aktualisieren, Inhalte semantisch klassifizieren und Migrationsprozesse beschleunigen. Smarte Workflows und selbstlernende Compliance-Mechanismen minimieren Fehler und steigern die Governance-Qualität.  Besonders performant sind semantische Remapping-Techniken. Diese harmonisieren bestehende Inhalte und übersetzen sie automatisch in neue Taxonomien. So werden Daten nicht nur archiviert, sondern aktiv genutzt und in geschäftsrelevante Prozesse integriert.  Change-Management: Der Mensch als Erfolgsfaktor  Technologische Innovation ist nicht der alleinige Heilsbringer – der Erfolg einer Modernisierung hängt maßgeblich von den Menschen ab, die mit den neuen Systemen arbeiten. Eine frühzeitige Einbindung der Mitarbeitenden durch Co-Creation-Ansätze, interaktive Schulungen oder KI-gestützte Lernplattformen steigert die Akzeptanz und das Engagement.  Gleichzeitig ist eine transparente Kommunikation entscheidend: Mitarbeitende müssen verstehen, warum Veränderungen notwendig sind und welche Vorteile sie bieten. Eine Unternehmenskultur, die Fehler als Lernchance begreift, fördert zudem die Offenheit und Innovationsbereitschaft.  Kontinuierliche Evolution statt abrupter Revolution  Die Modernisierung von Content-Management-Systemen ist keine einmalige Aufgabe, sondern eine kontinuierliche Entwicklung. Unternehmen, die auf eine schrittweise Transformation setzen, minimieren Risiken, steigern ihre Agilität und schaffen nachhaltige Wettbewerbsvorteile.  Der Schlüssel zum Erfolg liegt in einer evolutionären Architektur, die sich kontinuierlich an neue Anforderungen anpasst – ein lebendiges System, das mit der Dynamik des digitalen Zeitalters wächst. (mb) 

Content-Management-Modernisierung: Sukzessive sticht radikal​ Modernes Content-Management geht über reine Datensilos hinaus.kadir tezel – shutterstock.com

Die Idee einer allumfassenden, zentralen Plattform ist ein Wunschbild, das in der Realität bislang kaum verwirklicht wurde. Stattdessen sind wachsende Mengen unstrukturierter Daten schon heute auf unzählige Repositories und verschiedene ECM-Systeme verteilt. Die wahre Herausforderung liegt dabei nicht in der Verteilung der Daten selbst, sondern in fehlenden Schnittstellen, mangelnder Integration und fehlendem Mehrwert für die Nutzer. Datensilos, ineffiziente Prozesse sowie Governance– und Compliance-Herausforderungen sind die unvermeidbaren Folgen. 

Angesichts rasant steigender Datenmengen, sich wandelnder Marktbedingungen und neuer regulatorischer Anforderungen ist ein Umdenken gefragt. Unternehmen benötigen Systeme, die nicht nur stabil, sondern zugleich flexibel und erweiterbar sind. Die Modernisierung sollte nicht als Hindernis, sondern als Chance verstanden werden: Eine Möglichkeit, von monolithischen Strukturen zu einem modularen, Cloud-basierten und zukunftssicheren Ökosystem überzugehen. 

Die Kraft der schrittweisen Transformation 

Ein „Big Bang“-Ansatz, bei dem ein bestehendes System vollständig ersetzt wird, mag verlockend erscheinen, ist jedoch für die meisten Unternehmen mit hohen Risiken verbunden. Ein abrupter Wechsel bringt vielfach Betriebsunterbrechungen und hohe Kosten mit sich, weshalb notwendige Modernisierungen häufig so lange hinausgezögert werden, bis sie zum Problem werden.  

Ein iterativer Ansatz hingegen gleicht einer sanften Gewebeerneuerung: Veraltete Strukturen werden schrittweise durch moderne Module ersetzt. So bleibt das System flexibel und entwickelt sich organisch weiter, während zentrale Geschäftsprozesse reibungslos weiterlaufen. Unternehmen, die auf eine regelmäßige, schrittweise Modernisierung setzen, profitieren von einer agilen IT-Architektur, die Veränderungen als natürlichen Bestandteil begreift. Neue Funktionen lassen sich so deutlich schneller und mit einem klar messbaren Return on Investment (RoI) implementieren. So konnte beispielsweise Twitter Ads durch diesen Ansatz innerhalb weniger Monate die Deployment-Geschwindigkeit um das Sechsfache steigern. Diese Form der Transformation sorgt für Planbarkeit, nachhaltige Effizienzsteigerungen und kontinuierlichen, geschäftlichen Mehrwert. 

Der erste Schritt: Klare Bestandsaufnahme 

Eine unstrukturierte Migration gleicht einem „Last-Minute-Packen“ für den Urlaub, bei dem wahllos Dinge aus dem Kleiderschrank gegriffen und in den Koffer geworfen werden. Damit der Übergang gelingt, braucht es eine sorgfältige Analyse: Welche Systeme sind geschäftskritisch? Wo gibt es Redundanzen? Welche Prozesse lassen sich optimieren? 

Ein Content-Audit hilft, bestehende Datenbestände zu bewerten – von Dokumenten aller Art und E-Mails über Bild- und Videoinhalte bis hin zu Kundenkommunikation. Auf dieser Basis können Unternehmen ihre Migration strategisch priorisieren. Moderne KI-gestützte Technologien analysieren semantische Strukturen, aktualisieren Metadaten und filtern irrelevante Informationen heraus, um die Grundlage für ein effizienteres System zu schaffen. 

Modularisierung und KI: Der Schlüssel zu einer smarten Transformation 

Statt ein altes System einfach durch ein neues zu ersetzen, ist eine flexible, modulare Architektur gefragt. Ein API-first-Ansatz bildet eine Brücke zwischen Altsystemen und modernen Cloud-Plattformen, sodass Unternehmen schrittweise migrieren können, ohne den laufenden Betrieb zu gefährden. 

Technologisch basiert dieser Ansatz auf zwei Säulen: Modularisierung und Automatisierung. Legacy-Systeme werden in kleinere, unabhängig funktionierende Module überführt, was eine agile Weiterentwicklung ermöglicht. Container-Technologien und Microservices gewährleisten dabei eine schrittweise Migration: Zunächst werden bestehende Systeme in isolierte Umgebungen überführt, anschließend in hybride Architekturen integriert und schließlich vollständig in Cloud-basierte Lösungen und Microservices transformiert. 

Zudem sorgen herstellerunabhängige Architekturen für langfristige Flexibilität: Unternehmen können dann ihre ECM-, ERP- und CRM-Systeme vernetzen, ohne sich an proprietäre Systeme zu binden. So ermöglichen spezielle Plattformen mit offenen Schnittstellen eine nahtlose Integration in bestehende Ökosysteme. Diese Offenheit schützt bestehende Investitionen und erleichtert es, auf neue Trends zu reagieren und schnell technologische Anpassungen vorzunehmen. 

Hyperautomation: Vom passiven Repository zum intelligenten System 

Moderne Content-Management-Systeme müssen weit über die reine Datenspeicherung hinausgehen. Hier kommt Hyperautomation ins Spiel: Künstliche Intelligenz (KI) verwandelt statische Repositories in intelligente Systeme, die sich selbst optimieren. KI kann Metadaten automatisch aktualisieren, Inhalte semantisch klassifizieren und Migrationsprozesse beschleunigen. Smarte Workflows und selbstlernende Compliance-Mechanismen minimieren Fehler und steigern die Governance-Qualität. 

Besonders performant sind semantische Remapping-Techniken. Diese harmonisieren bestehende Inhalte und übersetzen sie automatisch in neue Taxonomien. So werden Daten nicht nur archiviert, sondern aktiv genutzt und in geschäftsrelevante Prozesse integriert. 

Change-Management: Der Mensch als Erfolgsfaktor 

Technologische Innovation ist nicht der alleinige Heilsbringer – der Erfolg einer Modernisierung hängt maßgeblich von den Menschen ab, die mit den neuen Systemen arbeiten. Eine frühzeitige Einbindung der Mitarbeitenden durch Co-Creation-Ansätze, interaktive Schulungen oder KI-gestützte Lernplattformen steigert die Akzeptanz und das Engagement. 

Gleichzeitig ist eine transparente Kommunikation entscheidend: Mitarbeitende müssen verstehen, warum Veränderungen notwendig sind und welche Vorteile sie bieten. Eine Unternehmenskultur, die Fehler als Lernchance begreift, fördert zudem die Offenheit und Innovationsbereitschaft. 

Kontinuierliche Evolution statt abrupter Revolution 

Die Modernisierung von Content-Management-Systemen ist keine einmalige Aufgabe, sondern eine kontinuierliche Entwicklung. Unternehmen, die auf eine schrittweise Transformation setzen, minimieren Risiken, steigern ihre Agilität und schaffen nachhaltige Wettbewerbsvorteile. 

Der Schlüssel zum Erfolg liegt in einer evolutionären Architektur, die sich kontinuierlich an neue Anforderungen anpasst – ein lebendiges System, das mit der Dynamik des digitalen Zeitalters wächst. (mb)

Content-Management-Modernisierung: Sukzessive sticht radikal​ Weiterlesen »

Nach oben scrollen
×