Computerhaus Quickborn

Mai 2025

Microsoft ändert Plan zum MS365-App-Support​

Allgemein

Microsoft rät Nutzern aktiv zum Umstieg auf Windows 11, während Windows 10 noch eingeschränkt Updates erhält. putrakurniawan78 – shutterstock.com Die Microsoft 365-Apps für Windows 10 werden bis zum 10. Oktober 2028 weiterhin Sicherheitsupdates erhalten, so Microsoft in einem Blogpost. Der Support für Windows 10 als Betriebssystem soll allerdings weiterhin wie geplant im Oktober 2025 eingestellt werden. Upgrade auf Windows 11 als empfohlene Lösung Gleichzeitig wies das Unternehmen darauf hin, dass es im Laufe der Zeit zu Leistungsproblemen bei der Ausführung von Anwendungen unter Windows 10 kommen kann. Wenn ein Kunde den Support wegen eines Problems mit einer M365-App für Windows 10 kontaktiert, das unter Windows 11 nicht auftritt, wird der Kunde aufgefordert, ein Upgrade auf Windows 11 durchzuführen. Ist dies nicht möglich, hilft der Support nur bei der Behebung des Problems. Technische Lösungen sind möglicherweise nur begrenzt oder gar nicht verfügbar. Und es wird nicht möglich sein, Fehler zu melden oder andere Produktaktualisierungen anzufordern. Die Verlängerung des M365-Supports weicht von Microsofts Plänen aus dem Januar 2025 ab, als es hieß, der Support würde im Oktober 2025 enden. 

Microsoft ändert Plan zum MS365-App-Support​ Microsoft rät Nutzern aktiv zum Umstieg auf Windows 11, während Windows 10 noch eingeschränkt Updates erhält.
putrakurniawan78 – shutterstock.com

Die Microsoft 365-Apps für Windows 10 werden bis zum 10. Oktober 2028 weiterhin Sicherheitsupdates erhalten, so Microsoft in einem Blogpost. Der Support für Windows 10 als Betriebssystem soll allerdings weiterhin wie geplant im Oktober 2025 eingestellt werden.

Upgrade auf Windows 11 als empfohlene Lösung

Gleichzeitig wies das Unternehmen darauf hin, dass es im Laufe der Zeit zu Leistungsproblemen bei der Ausführung von Anwendungen unter Windows 10 kommen kann. Wenn ein Kunde den Support wegen eines Problems mit einer M365-App für Windows 10 kontaktiert, das unter Windows 11 nicht auftritt, wird der Kunde aufgefordert, ein Upgrade auf Windows 11 durchzuführen.

Ist dies nicht möglich, hilft der Support nur bei der Behebung des Problems. Technische Lösungen sind möglicherweise nur begrenzt oder gar nicht verfügbar. Und es wird nicht möglich sein, Fehler zu melden oder andere Produktaktualisierungen anzufordern.

Die Verlängerung des M365-Supports weicht von Microsofts Plänen aus dem Januar 2025 ab, als es hieß, der Support würde im Oktober 2025 enden.

Microsoft ändert Plan zum MS365-App-Support​ Weiterlesen »

IBM setzt auf KI-Agenten und Orchestrierung​

Allgemein

Mit KI-Agenten sollen Frontend-Systeme zu Backend-Systemen werden. Wanan Wanan – shutterstock.com Die Ära der reinen KI-Experimente neigt sich dem Ende zu. Das ist die zentrale Botschaft, die von der jüngsten IBM-Think-Konferenz ausgeht. Wie Rolf Löwisch, Director & Head of AI (DACH) bei IBM, betont, trifft das Zitat von Arvind Krishna, dem CEO von IBM, “Die Ära der KI-Experimente ist vorbei”, genau den Nerv der Zeit. So herrsche auf dem Markt Konsens: Nach einer Phase breiter KI-Experimente gehe es nun darum, KI in Systemanwendungen und Prozesse zu integrieren, um einen echten Mehrwert zu generieren und einen Wettbewerbsvorteil zu schaffen. Die Notwendigkeit dieses Paradigmenwechsels unterstrichen nüchterne Zahlen, so Löwisch. So zeige die jüngste CIO-Studie von IBM, dass lediglich 25 Prozent der KI-Projekte erfolgreich im Sinne des erwarteten ROIs waren und die Erwartungen erfüllten. Laut dem IBM-AI-in-Action-Report befinden sich noch 85 Prozent der Unternehmen in der Experimentierphase, oft mit einfachen Anwendungsfällen. Agentic AI als nächster Evolutionsschritt Demgegenüber stehen 15 Prozent der Unternehmen, die bereits tiefer in die Integration eingestiegen sind und signifikant zusätzliche Werte durch die vertiefte Nutzung von KI generieren. Löwisch zufolge zeigen KI-Erfolgsgeschichten wie von Phoenix Technologies, L’Oréal oder Ferrari, wie Unternehmen mit KI ihr Geschäft neu definieren können. Noch befinden sich 85 Prozent der Unternehmen in einer Lernphase mit einfachen Anwendungsfällen. IBM AI in Action Report Eine Technologie, die diesen Wandel vorantreiben soll, ist die agentische KI. Agentic AI, so der KI-Experte, hat das Potenzial, die heutigen Frontend-Systeme, über die Mitarbeiter, Kunden und Partner interagieren, zu Backend-Systemen zu machen. Dies sei eine logische Fortsetzung der KI-Entwicklung: von Vorhersagen (klassischem Machine Learning) über Generierung (generative KI) und dem Chatten mit Dokumenten hin zu Agenten, die tatsächlich eine Wertschöpfung leisten, indem sie automatisierte Transaktionen in Systemen ausführen. Neue IBM-Angebote Auf diesem Weg will IBM die Unternehmen künftig in dreifacher Hinsicht unterstützen: Watsonx Orchestrate, Agent Builder, Tracing und Governance. Watsonx Orchestrate Mit der zunehmenden Verbreitung von Agenten stellt sich die Frage, wer diese integriert. Genau dieses Thema will IBM mit Watsonx Orchestrate als Multi-Agent-Orchestrator adressieren. Er ermöglicht laut Löwisch die Integration von Agenten unterschiedlicher Hersteller. Dabei agiert er als Integrator für verschiedene User Interfaces und steuert den Kontext von Transaktionen über verschiedene Agenten hinweg. Ziel von IBM ist es, Unternehmen zu ermöglichen, Investitionen in verschiedene KI-Projekte zu schützen und gleichzeitig zu skalieren, indem Agenten breiter verfügbar gemacht werden. Agent Builder Der Agent Builder soll Fachbereichen ermöglichen, ohne Coding-Kenntnisse in kurzer Zeit – oft nur wenigen Minuten – eigene Agenten zu erstellen und einzusetzen. Löwisch, der dies als eine Demokratisierung von AI Agents bezeichnet, geht davon aus, dass künftig weniger als fünf Minuten erforderlich sind, um einen vorgefertigten Agenten in der Produktion einzusetzen. Die Oberfläche des Agent Builders ist eine No-Code-Oberfläche, auf der man einen Agenten “from Scratch” aufbauen kann, beispielsweise zur Bearbeitung von Retouren. Der User beginnt quasi mit einer leeren Hülle und fügt Kontextwissen hinzu, indem er Dokumente wie Stornierungs- oder Rückgaberichtlinien hochlädt. Dann werden die Backendsysteme über APIs integriert, die aus einem Katalog vordefinierter Integrationen (etwa für Bestellstatus oder Kundendetails) ausgewählt und hinzugefügt. Der so kreierte Agent kann dann im Testszenario direkt mit konkreten Daten aus den Backend-Systemen interagieren. Anpassungen können, so Löwisch, jederzeit, vorgenommen werden, und die Bereitstellung erfolgt einfach per Klick. Nach der Bereitstellung sei der Agent sofort produktiv nutzbar und könne in Webseiten oder Unternehmensprozesse eingebunden werden. Tools zur Nachverfolgung des Nutzungsverhaltens und der Anfragen ermöglichten ein kontinuierliches Lernen und Optimierung des Agents. Tracing und Governance Auf die Mitarbeiter kommt im Zeitalter der autonom handelnden Agenten eine neue Rolle zu: Statt als reine Genehmiger agieren sie künftig als Kontrolleure. Dies erfordert ein Tracing und Governance von Agenten. Tracing, um zu sehen, welche Entscheidungen wann getroffen wurden und die Aktionen nachzuvollziehen zu können. Die Governance-Komponente wiederum stellt sicher, dass ein Agent tut, was er soll. Sie erkennt Drifts, dokumentiert Abläufe, macht Risiken sichtbar, sichert KPIs und gewährleistet die Compliance mit regulatorischen Anforderungen. Hierzu stellt IBM etwa den Compliance Accelerator with Credo AI bereit – eine Bibliothek mit regulatorischen Inhalten und Verpflichtungen. Ready-to-use-Agenten Neben Tools zum Erstellen und Verwalten eigener Agenten offeriert IBM auch vorgefertigte, “Ready to use Agents”. Sie basieren auf IBMs eigenen KI-Agenten in Bereichen wie HR, Sales und Procurement. Sie werden laut Löwisch als Produkte angeboten und beinhalten einen umfangreichen Katalog von über 80 Integrationen zu namhaften Anbietern wie Workday, SAP SuccessFactors (für HR), Salesforce (für Sales) etc. Dies soll die Anbindung an bestehende IT-Landschaften zu erleichtern. Zudem würden solche Querschnittsfunktionen ein Potenzial für einen signifikanten ROI bieten und eine schnelle produktive Nutzung ermöglichen. 

IBM setzt auf KI-Agenten und Orchestrierung​ Mit KI-Agenten sollen Frontend-Systeme zu Backend-Systemen werden.
Wanan Wanan – shutterstock.com

Die Ära der reinen KI-Experimente neigt sich dem Ende zu. Das ist die zentrale Botschaft, die von der jüngsten IBM-Think-Konferenz ausgeht. Wie Rolf Löwisch, Director & Head of AI (DACH) bei IBM, betont, trifft das Zitat von Arvind Krishna, dem CEO von IBM, “Die Ära der KI-Experimente ist vorbei”, genau den Nerv der Zeit. So herrsche auf dem Markt Konsens: Nach einer Phase breiter KI-Experimente gehe es nun darum, KI in Systemanwendungen und Prozesse zu integrieren, um einen echten Mehrwert zu generieren und einen Wettbewerbsvorteil zu schaffen.

Die Notwendigkeit dieses Paradigmenwechsels unterstrichen nüchterne Zahlen, so Löwisch. So zeige die jüngste CIO-Studie von IBM, dass lediglich 25 Prozent der KI-Projekte erfolgreich im Sinne des erwarteten ROIs waren und die Erwartungen erfüllten. Laut dem IBM-AI-in-Action-Report befinden sich noch 85 Prozent der Unternehmen in der Experimentierphase, oft mit einfachen Anwendungsfällen.

Agentic AI als nächster Evolutionsschritt

Demgegenüber stehen 15 Prozent der Unternehmen, die bereits tiefer in die Integration eingestiegen sind und signifikant zusätzliche Werte durch die vertiefte Nutzung von KI generieren. Löwisch zufolge zeigen KI-Erfolgsgeschichten wie von Phoenix Technologies, L’Oréal oder Ferrari, wie Unternehmen mit KI ihr Geschäft neu definieren können.

Noch befinden sich 85 Prozent der Unternehmen in einer Lernphase mit einfachen Anwendungsfällen.
IBM AI in Action Report

Eine Technologie, die diesen Wandel vorantreiben soll, ist die agentische KI. Agentic AI, so der KI-Experte, hat das Potenzial, die heutigen Frontend-Systeme, über die Mitarbeiter, Kunden und Partner interagieren, zu Backend-Systemen zu machen. Dies sei eine logische Fortsetzung der KI-Entwicklung: von Vorhersagen (klassischem Machine Learning) über Generierung (generative KI) und dem Chatten mit Dokumenten hin zu Agenten, die tatsächlich eine Wertschöpfung leisten, indem sie automatisierte Transaktionen in Systemen ausführen.

Neue IBM-Angebote

Auf diesem Weg will IBM die Unternehmen künftig in dreifacher Hinsicht unterstützen:

Watsonx Orchestrate,

Agent Builder,

Tracing und Governance.

Watsonx Orchestrate

Mit der zunehmenden Verbreitung von Agenten stellt sich die Frage, wer diese integriert. Genau dieses Thema will IBM mit Watsonx Orchestrate als Multi-Agent-Orchestrator adressieren. Er ermöglicht laut Löwisch die Integration von Agenten unterschiedlicher Hersteller. Dabei agiert er als Integrator für verschiedene User Interfaces und steuert den Kontext von Transaktionen über verschiedene Agenten hinweg. Ziel von IBM ist es, Unternehmen zu ermöglichen, Investitionen in verschiedene KI-Projekte zu schützen und gleichzeitig zu skalieren, indem Agenten breiter verfügbar gemacht werden.

Agent Builder

Der Agent Builder soll Fachbereichen ermöglichen, ohne Coding-Kenntnisse in kurzer Zeit – oft nur wenigen Minuten – eigene Agenten zu erstellen und einzusetzen. Löwisch, der dies als eine Demokratisierung von AI Agents bezeichnet, geht davon aus, dass künftig weniger als fünf Minuten erforderlich sind, um einen vorgefertigten Agenten in der Produktion einzusetzen.

Die Oberfläche des Agent Builders ist eine No-Code-Oberfläche, auf der man einen Agenten “from Scratch” aufbauen kann, beispielsweise zur Bearbeitung von Retouren. Der User beginnt quasi mit einer leeren Hülle und fügt Kontextwissen hinzu, indem er Dokumente wie Stornierungs- oder Rückgaberichtlinien hochlädt. Dann werden die Backendsysteme über APIs integriert, die aus einem Katalog vordefinierter Integrationen (etwa für Bestellstatus oder Kundendetails) ausgewählt und hinzugefügt.

Der so kreierte Agent kann dann im Testszenario direkt mit konkreten Daten aus den Backend-Systemen interagieren. Anpassungen können, so Löwisch, jederzeit, vorgenommen werden, und die Bereitstellung erfolgt einfach per Klick. Nach der Bereitstellung sei der Agent sofort produktiv nutzbar und könne in Webseiten oder Unternehmensprozesse eingebunden werden. Tools zur Nachverfolgung des Nutzungsverhaltens und der Anfragen ermöglichten ein kontinuierliches Lernen und Optimierung des Agents.

Tracing und Governance

Auf die Mitarbeiter kommt im Zeitalter der autonom handelnden Agenten eine neue Rolle zu: Statt als reine Genehmiger agieren sie künftig als Kontrolleure. Dies erfordert ein Tracing und Governance von Agenten. Tracing, um zu sehen, welche Entscheidungen wann getroffen wurden und die Aktionen nachzuvollziehen zu können. Die Governance-Komponente wiederum stellt sicher, dass ein Agent tut, was er soll. Sie erkennt Drifts, dokumentiert Abläufe, macht Risiken sichtbar, sichert KPIs und gewährleistet die Compliance mit regulatorischen Anforderungen. Hierzu stellt IBM etwa den Compliance Accelerator with Credo AI bereit – eine Bibliothek mit regulatorischen Inhalten und Verpflichtungen.

Ready-to-use-Agenten

Neben Tools zum Erstellen und Verwalten eigener Agenten offeriert IBM auch vorgefertigte, “Ready to use Agents”. Sie basieren auf IBMs eigenen KI-Agenten in Bereichen wie HR, Sales und Procurement. Sie werden laut Löwisch als Produkte angeboten und beinhalten einen umfangreichen Katalog von über 80 Integrationen zu namhaften Anbietern wie Workday, SAP SuccessFactors (für HR), Salesforce (für Sales) etc. Dies soll die Anbindung an bestehende IT-Landschaften zu erleichtern. Zudem würden solche Querschnittsfunktionen ein Potenzial für einen signifikanten ROI bieten und eine schnelle produktive Nutzung ermöglichen.

IBM setzt auf KI-Agenten und Orchestrierung​ Weiterlesen »

Databricks kauft DB-Startup Neon​

Allgemein

Mit der Übernahme von Neon will sich Databricks für die Agentic-AI-Zukunft positionieren.Databricks Databricks hat angekündigt, das Datenbank-Startup Neon für rund eine Milliarde Dollar übernehmen zu wollen. Die quelloffene Plattform von Neon ist in der Lage, Datenbankinstanzen in weniger als einer Sekunde hochzufahren – und damit ideal geeignet, um Agentic-AI-Workflows zu unterstützen. Denn diverse Aufgaben, die KI-Agenten übernehmen, erfordern eine Datenbank, um Informationen abzufragen. Je schneller das vonstatten geht, desto besser. Entsprechend soll Neons Serverless-Postgres-Architektur nach Abschluss der Übernahme in die Data Intelligence Platform von Databricks integriert werden. Im Ergebnis sollen Entwickler KI-Agenten wesentlich schneller erstellen und bereitstellen können, ohne parallel Rechenleistung und Speicherplatz skalieren zu müssen – verspricht Databricks. Demnach könne dieser Ansatz künftig: Bottlenecks verhindern, die Infrastruktur vereinfachen, sowie Kosten senken. We’re excited to announce that we have agreed to acquire @neondatabase, a developer-first serverless Postgres company. The Neon team engineered a new database architecture that offers speed, elastic scaling, and branching and forking. The capabilities that make Neon great for… pic.twitter.com/ppViZ2amBb— Databricks (@databricks) May 14, 2025 Der große Agenten-Coup? Die Plattform von Neon wurde 2022 eingeführt und entwickelte sich in der Folge zu einer der am schnellsten wachsenden Datenbanklösungen für Entwickler am Markt. Das Jungunternehmen selbst gibt an, dass seine Lösung eine vollständig isolierte Postgres-Instanz in nur 500 Millisekunden (oder weniger) hochfahren kann und dabei auch unterstützt, Datenbankschemata und Daten direkt zu verzweigen und aufzuspalten. Die Open-Source-Plattform ermöglicht KI-Agenten jedoch nicht nur, schneller zu reagieren: Es ist auch möglich, für jeden einzelnen Agenten separate Kopien der Datenbankinhalte zu erstellen. Das soll gewährleisten, dass DBs nicht mit Agenten-Requests überflutet werden. Zu den Kunden des Startups zählen unter anderem: Replit, die Boston Consulting Group, Vercel, Cloudera und Cloudflare. Databricks hat bereits zuvor strategische Akquisitionen getätigt, um sich als führende Plattform für KI-Lösungen zu positionieren: Im Jahr 2023 akquirierte Databricks die quelloffene LLM-Trainingsplattform MosaicML für 1,3 Milliarden Dollar. 2024 investierte das Unternehmen erneut mehr als eine Milliarde Dollar in das Storage-Unternehmen Tabular. Nach Ansicht von Analysten könnte Databricks mit der Übernahme von Neon nun ein (weiterer) großer Wurf gelungen sein. So ist etwa Scott Bickley, Advisory Fellow bei der Info-Tech Research Group, davon überzeugt, dass Databricks mit der Übernahme seine KI-Infrastrukturkapazitäten stärken kann: „Insbesondere, wenn es darum geht, Datenbanken KI-gesteuert bereitzustellen und KI-Agenten zu entwickeln, könnte sich diese Akquisition auszahlen. Databricks strebt danach, diese Lücken zu schließen, auch weil der Konkurrent Snowflake in diesem Bereich bislang nichts zu bieten hat“, ordnet der Analyst ein. „Herkömmliche Datenbanksysteme können mit der Größe und Variabilität agentenbasierter Architekturen nicht Schritt halten: In diesen gilt es, Tausende temporärer Datenbanken schnell zu starten und wieder zu schließen“, erklärt Robert Kramer, Chefanalyst bei Moor Insights & Strategy. Das Serverless-Postgres-Modell von Neon biete in Verbindung mit der Databricks-Plattform die Möglichkeit, Lösungen sofort bereitzustellen, Rechenleistung und Speicher voneinander zu trennen, sowie API-First-Management umzusetzen, so Kramer. Er fügt hinzu: „Ob die Kunden die neuen Funktionen der Neon-Plattform nach der Integration dann auch effektiv in großem Maßstab nutzen können, ohne dass dabei zusätzliche Komplexität Einzug hält, wird die erste echte Bewährungsprobe sein.“   Was IT-Einkäufer beachten sollten Analyst Bickley mahnt IT-Einkäufer schon vorab zur Vorsicht, wenn es um die künftige Preisgestaltung geht und weist darauf hin, dass Neon bislang mit einer Scale-to-Zero-Funktion ein effizientes Mittel zur Kostenkontrolle biete. Darüber hinaus rät Bickely Unternehmensanwendern, ein Auge auf die Lizenzierung zu werfen (bislang läuft die Neon-Plattform unter der Apache-2.0-Lizenz): „Es ist zu erwarten, dass Databricks einige proprietäre kostenpflichtige Produkte – etwa verwaltete Neon-Instanzen – auf den Markt bringen wird. Wahrscheinlich ist auch, dass Funktionen von Mosaic und Tabular integriert werden“, prophezeit Bickley.   Alles in allem stärke die Übernahme von Neon die umfassenden Datenmanagement-Fähigkeiten der Databricks-Plattform weiter, so der Branchenkenner: „Einkäufern bietet sich dadurch die Möglichkeit, ihre Data-Management-Anbieter zu konsolidieren. Die Integration erstklassiger Serverless-Datenbankfunktionen und deren Erweiterung durch Agentic AI hebt Databricks derzeit von seiner Konkurrenz ab.“ (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Databricks kauft DB-Startup Neon​ Mit der Übernahme von Neon will sich Databricks für die Agentic-AI-Zukunft positionieren.Databricks

Databricks hat angekündigt, das Datenbank-Startup Neon für rund eine Milliarde Dollar übernehmen zu wollen. Die quelloffene Plattform von Neon ist in der Lage, Datenbankinstanzen in weniger als einer Sekunde hochzufahren – und damit ideal geeignet, um Agentic-AI-Workflows zu unterstützen. Denn diverse Aufgaben, die KI-Agenten übernehmen, erfordern eine Datenbank, um Informationen abzufragen. Je schneller das vonstatten geht, desto besser.

Entsprechend soll Neons Serverless-Postgres-Architektur nach Abschluss der Übernahme in die Data Intelligence Platform von Databricks integriert werden. Im Ergebnis sollen Entwickler KI-Agenten wesentlich schneller erstellen und bereitstellen können, ohne parallel Rechenleistung und Speicherplatz skalieren zu müssen – verspricht Databricks. Demnach könne dieser Ansatz künftig:

Bottlenecks verhindern,

die Infrastruktur vereinfachen, sowie

Kosten senken.

We’re excited to announce that we have agreed to acquire @neondatabase, a developer-first serverless Postgres company. The Neon team engineered a new database architecture that offers speed, elastic scaling, and branching and forking. The capabilities that make Neon great for… pic.twitter.com/ppViZ2amBb— Databricks (@databricks) May 14, 2025

Der große Agenten-Coup?

Die Plattform von Neon wurde 2022 eingeführt und entwickelte sich in der Folge zu einer der am schnellsten wachsenden Datenbanklösungen für Entwickler am Markt. Das Jungunternehmen selbst gibt an, dass seine Lösung eine vollständig isolierte Postgres-Instanz in nur 500 Millisekunden (oder weniger) hochfahren kann und dabei auch unterstützt, Datenbankschemata und Daten direkt zu verzweigen und aufzuspalten. Die Open-Source-Plattform ermöglicht KI-Agenten jedoch nicht nur, schneller zu reagieren: Es ist auch möglich, für jeden einzelnen Agenten separate Kopien der Datenbankinhalte zu erstellen. Das soll gewährleisten, dass DBs nicht mit Agenten-Requests überflutet werden.

Zu den Kunden des Startups zählen unter anderem:

Replit,

die Boston Consulting Group,

Vercel,

Cloudera und

Cloudflare.

Databricks hat bereits zuvor strategische Akquisitionen getätigt, um sich als führende Plattform für KI-Lösungen zu positionieren:

Im Jahr 2023 akquirierte Databricks die quelloffene LLM-Trainingsplattform MosaicML für 1,3 Milliarden Dollar.

2024 investierte das Unternehmen erneut mehr als eine Milliarde Dollar in das Storage-Unternehmen Tabular.

Nach Ansicht von Analysten könnte Databricks mit der Übernahme von Neon nun ein (weiterer) großer Wurf gelungen sein. So ist etwa Scott Bickley, Advisory Fellow bei der Info-Tech Research Group, davon überzeugt, dass Databricks mit der Übernahme seine KI-Infrastrukturkapazitäten stärken kann: „Insbesondere, wenn es darum geht, Datenbanken KI-gesteuert bereitzustellen und KI-Agenten zu entwickeln, könnte sich diese Akquisition auszahlen. Databricks strebt danach, diese Lücken zu schließen, auch weil der Konkurrent Snowflake in diesem Bereich bislang nichts zu bieten hat“, ordnet der Analyst ein.

„Herkömmliche Datenbanksysteme können mit der Größe und Variabilität agentenbasierter Architekturen nicht Schritt halten: In diesen gilt es, Tausende temporärer Datenbanken schnell zu starten und wieder zu schließen“, erklärt Robert Kramer, Chefanalyst bei Moor Insights & Strategy. Das Serverless-Postgres-Modell von Neon biete in Verbindung mit der Databricks-Plattform die Möglichkeit, Lösungen sofort bereitzustellen, Rechenleistung und Speicher voneinander zu trennen, sowie API-First-Management umzusetzen, so Kramer. Er fügt hinzu: „Ob die Kunden die neuen Funktionen der Neon-Plattform nach der Integration dann auch effektiv in großem Maßstab nutzen können, ohne dass dabei zusätzliche Komplexität Einzug hält, wird die erste echte Bewährungsprobe sein.“  

Was IT-Einkäufer beachten sollten

Analyst Bickley mahnt IT-Einkäufer schon vorab zur Vorsicht, wenn es um die künftige Preisgestaltung geht und weist darauf hin, dass Neon bislang mit einer Scale-to-Zero-Funktion ein effizientes Mittel zur Kostenkontrolle biete. Darüber hinaus rät Bickely Unternehmensanwendern, ein Auge auf die Lizenzierung zu werfen (bislang läuft die Neon-Plattform unter der Apache-2.0-Lizenz): „Es ist zu erwarten, dass Databricks einige proprietäre kostenpflichtige Produkte – etwa verwaltete Neon-Instanzen – auf den Markt bringen wird. Wahrscheinlich ist auch, dass Funktionen von Mosaic und Tabular integriert werden“, prophezeit Bickley.  

Alles in allem stärke die Übernahme von Neon die umfassenden Datenmanagement-Fähigkeiten der Databricks-Plattform weiter, so der Branchenkenner: „Einkäufern bietet sich dadurch die Möglichkeit, ihre Data-Management-Anbieter zu konsolidieren. Die Integration erstklassiger Serverless-Datenbankfunktionen und deren Erweiterung durch Agentic AI hebt Databricks derzeit von seiner Konkurrenz ab.“ (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Databricks kauft DB-Startup Neon​ Weiterlesen »

Ist Ihre Enterprise Architecture einfach nur IT?​

Allgemein

Transformative Enterprise Architecture – oder nur imposant von außen?Felix Lipov | shutterstock.com Enterprise Architecture (EA) hat sich längst über Governance und Dokumentation hinaus zu einem Business Accelerator entwickelt. Wird EA strategisch umgesetzt, kann sie: Kosten durch optimierte IT-Investitionen senken, die Transformation durch bessere Entscheidungsfindung beschleunigen, sowie Wettbewerbsvorteile realisieren, indem sie Business und Technologie aufeinander abstimmt. Allerdings haben viele Unternehmen Probleme, ihre EA-Teams so zu strukturieren, dass sie maximale Wirkung erzielen. Fehlt ein klarer Fahrplan, kann Enterprise Architecture zu einer reaktiven IT-Funktion verkommen. Der Schlüssel, um das Potenzial von EA voll auszuschöpfen, ist ein strukturierter, phasenweiser Ansatz, der messbare Business-Vorteile bringt. Wie das Konzept der EA-Benefit-Leiter, das ich Ihnen in diesem Artikel näherbringen möchte. Es handelt sich um ein Framework, mit dem Unternehmen ihre Enterprise-Architecture-Reife in drei Stufen vorantreiben können: Foundational EA schafft Stabilität und Transparenz, Operational EA fördert die Umsetzung und Effizienz, und Strategic EA realisiert Wettbewerbsvorteile. Dieses Modell ist in der Lage, sukzessive Mehrwert zu liefern und parallel Komplexität und Risiken zu minimieren.  Stufe 1: Foundational Enterprise Architecture Viele Unternehmen stürzen sich in fortgeschrittene EA-Initiativen, bevor sie eine solide Grundlage geschaffen haben. Das führt zu: uneinheitlichen Prioritäten zwischen IT- und Business-Teams, redundanten Technologieinvestitionen, sowie mangelndem Vertrauen der Führungskräfte in den strategischen Wert von EA. Eine gut strukturierte EA-Grundlage bringt hingegen die Governance und Transparenz, die für eine nachhaltige, langfristige Wirkung erforderlich sind. Wichtige Initiativen der Foundational EA: Das richtige Team: Definieren Sie klare Rollen und Verantwortlichkeiten für ein interdisziplinäres Team aus Business-, Anwendungs-, Daten- und Technologiearchitekten. Die richtigen Tools: Ein zentrales EA-Repository ermöglicht unternehmensweite Transparenz über Systeme, Abhängigkeiten und Risiken. Die richtigen Maßnahmen: Governance stellt sicher, dass EA-Strategien nicht nur Modelle auf dem Papier bleiben, sondern zu umsetzbaren Rahmenwerken werden, die Ergebnisse liefern. Business Impact: beseitigt Ineffizienzen, indem redundante IT-Investitionen minimiert werden; schafft Transparenz in der Technologielandschaft, um bessere Entscheidungen treffen können; optimiert die Abstimmung zwischen IT und Business und stellt damit sicher, dass Technologie auf die Unternehmensstrategie einzahlt. Kevin Donovan ist Chief Architect bei der Technologieberatung WVE. Zuvor hatte er leitende Positionen bei diversen Technologieunternehmen inne, darunter EPAM Systems und IBM.Silas Eriksen Stufe 2: Operational Enterprise Architecture Ist die grundlegende Struktur etabliert, kann Enterprise Architecture von statischer Dokumentation zur aktiven Umsetzung übergehen. In der operativen Phase spielt EA eine Schlüsselrolle bei Transformationsinitiativen und ermöglicht Business Agility, Kostenoptimierungen und eine verkürzte Time-to-Market. Leider verharren viele Unternehmen jedoch in der Foundational-Phase und betrachten EA als passive Support-Funktion statt als Wegbereiter für die Umsetzung. Das führt dazu, dass: EA-Erkenntnisse in Transformationsinitiativen ungenutzt bleiben, sich wegen unzureichendem Lifecycle Management technische Schulden anhäufen, und IT- und Geschäftsstrategien weiterhin voneinander isoliert bleiben. Um das volle Potenzial der operativen EA auszuschöpfen, gilt es, Operational EA direkt in Transformations- und Entscheidungsprozesse einzubetten. Wichtige Initiativen der Operational EA: EA in Transformationsprogramme integrieren: Stellen Sie sicher, dass EA-Insights die Geschäftsstrategie vorantreiben. Technologieportfolios optimieren: Reduzieren Sie Redundanzen, beseitigen Sie technische Schulden und optimieren Sie Kosten. Interoperabilität ermöglichen: Unterstützen Sie einenahtlose Integration über Geschäftsbereiche und IT-Ökosysteme hinweg. Business Impact: beschleunigt die digitale Transformation durch architektonische Echtzeit-Insights; optimiert Kosten durch bessere Ressourcenzuweisung und Technologie-Lifecyle-Management; richtet IT-Investitionen an Geschäftsprioritäten aus und stellt sicher, dass die Technologie die Strategie unterstützt. Stufe 3: Strategic Enterprise Architecture Auf der höchsten Reifegradstufe ist EA nicht mehr nur ein Wegbereiter, sondern nimmt direkten, strategischen Einfluss auf die Unternehmensentscheidungen. In dieser Phase geht es also nicht mehr nur um IT-Architektur, sondern um Business-Architektur, Innovation und strategische Umsetzung. Statt auf Geschäftsanforderungen zu reagieren, gestaltet die strategische EA die Zukunft des Unternehmens und stellt sicher, dass Technologieinvestitionen in Wachstum, Innovation und Agilität münden. Von der operativen unterscheidet sich die strategische EA dadurch, dass sie: aktiv die Entscheidungen von Führungskräfte beeinflusst, statt nur die IT-Umsetzung. Technologie-Roadmaps an Geschäftsmodellen ausrichtet, um sicherzustellen, dass Investitionen Wettbewerbsvorteile bringen. in die Transformation des Unternehmens eingebettet ist und so schnellere Technologiewechsel und Innovationszyklen ermöglicht. Wichtige Initiativen der Strategic EA: EA in die Führungsetage tragen: Stellen Sie sicher, dass EA-Erkenntnisse in Investitionsentscheidungen einfließen. Chancen neuer Technologien identifizieren: Nutzen Sie EA, um Innovationsinitiativen zu steuern. Geschäftsmodelle weiterentwickeln: Agilität und Skalierbarkeit ermöglichen architektonischen Fortschritt. Business Impact: verbessert die Agilität, um sich schnell an Marktveränderungen anpassen zu können. treibt Innovation und positioniert EA als Quelle für Wachstum statt nur als Mittel zur Kostenoptimierung. stärkt den Wettbewerbsvorteil und stellt sicher, dass Technologieinvestitionen einen maximalen Return on Investment (RoI) erzielen. Die goldene Enterprise-Architecture-Zukunft Die Rolle von EA besteht nicht mehr nur darin, IT-Landschaften zu dokumentieren, sondern den Geschäftserfolg zu gestalten. Diejenigen Unternehmen, die EA strategisch einsetzen, profitieren von folgenden Benefits: Sie können sich schneller an Veränderungen anpassen. Sie können Technologie und Geschäftszielen besser aufeinander abstimmen. Sie generieren nachhaltige Innovationen und langfristiges Wachstum. Der Weg zur strategischer EA ist ein langer – und erfordert eine strukturierte Umsetzung, iteratives Lernen und die Abstimmung mit dem Business. Doch das lohnt sich für IT-Entscheider, die Enterprise Architecture nicht mehr nur als IT-Framework, sondern als strategisches Unterscheidungsmerkmal betrachten und einsetzen wollen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Ist Ihre Enterprise Architecture einfach nur IT?​ Transformative Enterprise Architecture – oder nur imposant von außen?Felix Lipov | shutterstock.com

Enterprise Architecture (EA) hat sich längst über Governance und Dokumentation hinaus zu einem Business Accelerator entwickelt. Wird EA strategisch umgesetzt, kann sie:

Kosten durch optimierte IT-Investitionen senken,

die Transformation durch bessere Entscheidungsfindung beschleunigen, sowie

Wettbewerbsvorteile realisieren, indem sie Business und Technologie aufeinander abstimmt.

Allerdings haben viele Unternehmen Probleme, ihre EA-Teams so zu strukturieren, dass sie maximale Wirkung erzielen. Fehlt ein klarer Fahrplan, kann Enterprise Architecture zu einer reaktiven IT-Funktion verkommen. Der Schlüssel, um das Potenzial von EA voll auszuschöpfen, ist ein strukturierter, phasenweiser Ansatz, der messbare Business-Vorteile bringt.

Wie das Konzept der EA-Benefit-Leiter, das ich Ihnen in diesem Artikel näherbringen möchte. Es handelt sich um ein Framework, mit dem Unternehmen ihre Enterprise-Architecture-Reife in drei Stufen vorantreiben können:

Foundational EA schafft Stabilität und Transparenz,

Operational EA fördert die Umsetzung und Effizienz, und

Strategic EA realisiert Wettbewerbsvorteile.

Dieses Modell ist in der Lage, sukzessive Mehrwert zu liefern und parallel Komplexität und Risiken zu minimieren. 

Stufe 1: Foundational Enterprise Architecture

Viele Unternehmen stürzen sich in fortgeschrittene EA-Initiativen, bevor sie eine solide Grundlage geschaffen haben. Das führt zu:

uneinheitlichen Prioritäten zwischen IT- und Business-Teams,

redundanten Technologieinvestitionen, sowie

mangelndem Vertrauen der Führungskräfte in den strategischen Wert von EA.

Eine gut strukturierte EA-Grundlage bringt hingegen die Governance und Transparenz, die für eine nachhaltige, langfristige Wirkung erforderlich sind.

Wichtige Initiativen der Foundational EA:

Das richtige Team: Definieren Sie klare Rollen und Verantwortlichkeiten für ein interdisziplinäres Team aus Business-, Anwendungs-, Daten- und Technologiearchitekten.

Die richtigen Tools: Ein zentrales EA-Repository ermöglicht unternehmensweite Transparenz über Systeme, Abhängigkeiten und Risiken.

Die richtigen Maßnahmen: Governance stellt sicher, dass EA-Strategien nicht nur Modelle auf dem Papier bleiben, sondern zu umsetzbaren Rahmenwerken werden, die Ergebnisse liefern.

Business Impact:

beseitigt Ineffizienzen, indem redundante IT-Investitionen minimiert werden;

schafft Transparenz in der Technologielandschaft, um bessere Entscheidungen treffen können;

optimiert die Abstimmung zwischen IT und Business und stellt damit sicher, dass Technologie auf die Unternehmensstrategie einzahlt.

Kevin Donovan ist Chief Architect bei der Technologieberatung WVE. Zuvor hatte er leitende Positionen bei diversen Technologieunternehmen inne, darunter EPAM Systems und IBM.Silas Eriksen

Stufe 2: Operational Enterprise Architecture

Ist die grundlegende Struktur etabliert, kann Enterprise Architecture von statischer Dokumentation zur aktiven Umsetzung übergehen. In der operativen Phase spielt EA eine Schlüsselrolle bei Transformationsinitiativen und ermöglicht Business Agility, Kostenoptimierungen und eine verkürzte Time-to-Market. Leider verharren viele Unternehmen jedoch in der Foundational-Phase und betrachten EA als passive Support-Funktion statt als Wegbereiter für die Umsetzung. Das führt dazu, dass:

EA-Erkenntnisse in Transformationsinitiativen ungenutzt bleiben,

sich wegen unzureichendem Lifecycle Management technische Schulden anhäufen, und

IT- und Geschäftsstrategien weiterhin voneinander isoliert bleiben.

Um das volle Potenzial der operativen EA auszuschöpfen, gilt es, Operational EA direkt in Transformations- und Entscheidungsprozesse einzubetten.

Wichtige Initiativen der Operational EA:

EA in Transformationsprogramme integrieren: Stellen Sie sicher, dass EA-Insights die Geschäftsstrategie vorantreiben.

Technologieportfolios optimieren: Reduzieren Sie Redundanzen, beseitigen Sie technische Schulden und optimieren Sie Kosten.

Interoperabilität ermöglichen: Unterstützen Sie einenahtlose Integration über Geschäftsbereiche und IT-Ökosysteme hinweg.

Business Impact:

beschleunigt die digitale Transformation durch architektonische Echtzeit-Insights;

optimiert Kosten durch bessere Ressourcenzuweisung und Technologie-Lifecyle-Management;

richtet IT-Investitionen an Geschäftsprioritäten aus und stellt sicher, dass die Technologie die Strategie unterstützt.

Stufe 3: Strategic Enterprise Architecture

Auf der höchsten Reifegradstufe ist EA nicht mehr nur ein Wegbereiter, sondern nimmt direkten, strategischen Einfluss auf die Unternehmensentscheidungen. In dieser Phase geht es also nicht mehr nur um IT-Architektur, sondern um Business-Architektur, Innovation und strategische Umsetzung.

Statt auf Geschäftsanforderungen zu reagieren, gestaltet die strategische EA die Zukunft des Unternehmens und stellt sicher, dass Technologieinvestitionen in Wachstum, Innovation und Agilität münden. Von der operativen unterscheidet sich die strategische EA dadurch, dass sie:

aktiv die Entscheidungen von Führungskräfte beeinflusst, statt nur die IT-Umsetzung.

Technologie-Roadmaps an Geschäftsmodellen ausrichtet, um sicherzustellen, dass Investitionen Wettbewerbsvorteile bringen.

in die Transformation des Unternehmens eingebettet ist und so schnellere Technologiewechsel und Innovationszyklen ermöglicht.

Wichtige Initiativen der Strategic EA:

EA in die Führungsetage tragen: Stellen Sie sicher, dass EA-Erkenntnisse in Investitionsentscheidungen einfließen.

Chancen neuer Technologien identifizieren: Nutzen Sie EA, um Innovationsinitiativen zu steuern.

Geschäftsmodelle weiterentwickeln: Agilität und Skalierbarkeit ermöglichen architektonischen Fortschritt.

Business Impact:

verbessert die Agilität, um sich schnell an Marktveränderungen anpassen zu können.

treibt Innovation und positioniert EA als Quelle für Wachstum statt nur als Mittel zur Kostenoptimierung.

stärkt den Wettbewerbsvorteil und stellt sicher, dass Technologieinvestitionen einen maximalen Return on Investment (RoI) erzielen.

Die goldene Enterprise-Architecture-Zukunft

Die Rolle von EA besteht nicht mehr nur darin, IT-Landschaften zu dokumentieren, sondern den Geschäftserfolg zu gestalten. Diejenigen Unternehmen, die EA strategisch einsetzen, profitieren von folgenden Benefits:

Sie können sich schneller an Veränderungen anpassen.

Sie können Technologie und Geschäftszielen besser aufeinander abstimmen.

Sie generieren nachhaltige Innovationen und langfristiges Wachstum.

Der Weg zur strategischer EA ist ein langer – und erfordert eine strukturierte Umsetzung, iteratives Lernen und die Abstimmung mit dem Business.

Doch das lohnt sich für IT-Entscheider, die Enterprise Architecture nicht mehr nur als IT-Framework, sondern als strategisches Unterscheidungsmerkmal betrachten und einsetzen wollen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Ist Ihre Enterprise Architecture einfach nur IT?​ Weiterlesen »

Coding-Hassliebe: 8 Sprachen, die Programmierer zur Weißglut treiben​

Allgemein

Als Entwickler ruhig zu bleiben, ist kein leichtes Unterfangen. Diese Programmiersprachen erzürnen die Dev-Gemüter – auch in Zukunft. Foto: Ekaterina Minaeva – shutterstock.com Der gut gemeinte Ratschlag, stets die Ruhe zu bewahren, geht sicher nicht auf einen Menschen zurück, der sich beruflich mit Computern herumschlagen musste. Denn wer sich eine Zeit lang mit der diabolischen Logik von Programmiersprachen befasst, weiß, wie es in der Hölle aussieht: Die vermeintlich logischen Mechanismen verwirren allzu oft – oder lassen verzweifeln. Es kann gut sein, dass der jeweilige Mensch daran Schuld trägt, weil er die Sprache falsch benutzt oder unzureichend programmiert hat. Doch zum Unglück gehören meistens zwei: Wenn eine Programmiersprache ihren Benutzern Gehirnakrobatik abverlangt, darf man sie guten Gewissens für das Übel mitverantwortlich machen. Allzu oft kann man sich schließlich auch einfach nicht wehren – etwa, wenn die Installationsbasis zu umfassend ist, um eine Sprache “mal schnell” über Bord zu werfen. Die grausame Wahrheit: Es gibt in den meisten Fällen sehr wahrscheinlich keine bessere Option. Im Folgenden haben wir acht Programmiersprachen zusammengestellt, mit denen Entwickler eine Hassliebe verbindet: Es geht kaum mit – aber auch nicht ohne sie. C C sollte man eher als portablen Assembler denn als vollständige Computersprache sehen. Oder schreibt irgendjemand gerne separate Header Files? Und die viel wichtigere Frage: Hat schon mal irgendjemand den Preprocessor für etwas Sinnvolles genutzt, ohne dabei durchzudrehen? Theoretisch sollten wir in der Lage sein, die Macht der Pointer-Arithmetik zu nutzen, um superclevere Dinge zu tun. In der Realität wagt es kaum jemand, mehr zu tun, als Datenstrukturen zuzuweisen. Ist es überhaupt eine gute Idee, zu versuchen clever zu sein, wenn es um Pointer geht? Das Ding mit cleveren Ideen ist auch: Die Cleverness zu dokumentieren, frisst sämtliche Zeit, die man zuvor dadurch gespart hat. Darüber hinaus dürfte es kaum jemanden geben, der alle Regeln für das Coden in C im Kopf hat und so alle möglichen Sicherheitslücken vermeiden kann. Dennoch bleibt keine andere Wahl: Unix ist in C geschrieben – worauf wiederum die meisten Smartphones und weite Teile der Cloud basieren. Nicht jeder, der Code für diese Plattformen schreibt, muss C verwenden – aber irgendjemand muss diesbezüglich auf dem Laufenden bleiben, sonst fällt alles auseinander. Inzwischen wenden sich sogar die Unix-Entwickler langsam von C ab: In den letzten Jahren wurden einige der Patches für den Linux-Kernel in Rust veröffentlicht. Die Entwickler sind der Meinung, dass die strengere Struktur der Sprache einige der Sicherheitslücken von C verhindert. Diese Umstellung wird jedoch noch Jahre dauern. JavaScript Die Schöpfer von JavaScript haben versucht, etwas Modernes zu erschaffen. Leider haben sie uns mit ihrer Cleverness dazu verdammt, geschweifte, eckige Klammern und herkömmliche Klammern zu zählen – und dabei sicherzustellen, dass diese richtig verschachtelt sind. Zwischen den anonymen Funktionen, den Closures und den JSON-Datenstrukturen ist das echtes Fingertraining. Hinzu kommen weitere, seltsame Details: Wenn x eine Zeichenkette ist, die das Zeichen für 1 enthält, dann ergibt x+1 die Zeichenkette 11, und x-1 ergibt die Zahl Null. Erinnert sich noch jemand an den Unterschied zwischen false, null, NaN und undefined? Sie hören sich ähnlich an – die Frage ist nur, warum es in JavaScript alle vier gibt und sie sich nicht einheitlich verhalten. Zu den seltsamen Details gesellt sich ein abrupter Wandel: Dank neuerer Funktionen zum Packen und Entpacken von Objekten und Arrays sieht neues JavaScript oft nicht mehr so aus wie altes JavaScript. Das führt zu Code, der einem Meer aus doppelten und dreifachen Anführungszeichen, Fragezeichen und Punkten ähnelt. An dieser Stelle sei auch daran erinnert, dass => ein Pfeil ist, der eine Funktion aufruft, während >= eine Möglichkeit darstellt, Zahlen zu vergleichen. Die neuen Funktionen sind toll (wenn man sie mag), sorgen aber bei der Mehrheit der Benutzer für Verwirrung und dafür, mit ECMAScript-Versionsnummern jonglieren zu müssen. Das Gejammer nützt allerdings nichts: Das Internet, das World Wide Web und zahllose Browser werden nicht mehr verschwinden. Das clevere Node.js-Team baute dann noch eine Plattform auf, um JavaScript auf Servern zum Laufen zu bringen. Inzwischen ist das eine der populärsten Arten, progressive Web Apps zu erstellen. JavaScript wird uns also noch über Jahrzehnte auf Trab halten. PHP PHP ist nicht wirklich eine Computersprache – vielmehr ein Tool, um statischem HTML ein bisschen Intelligenz zu verleihen: Sie können Informationen in einer Datenbank speichern und sie mit statischen Tags verknüpfen. Vielleicht gibt es noch ein paar weitere Funktionen, aber im Grunde ist alles, was mit PHP erledigt wird, Strings aus einer Datenbank zusammenzufügen Zumindest war das für lange Zeit so. Einige PHP-Entwickler haben sich das User Feedback zu Herzen genommen und Features wie ein stärkeres Type-System, smartere Strings und eine bessere Integration mit MySQL hinzugefügt. Das klingt zwar erst einmal gut, allerdings altern die vorhandenen Funktionen, während neue hinzugefügt werden. Es ist also nur eine Frage der Zeit, bis der alte Code nicht mehr funktioniert. Mit WordPress, Joomla und Drupal wird der größte Teil der Inhalte im Web über PHP-Code bereitgestellt. Und dann gibt es noch ein kleines Ding namens Facebook, das in PHP geschrieben wurde. Man kann aber froh sein, dass Facebook die HipHop Virtual Machine entwickelt hat, die Zend zur Entwicklung von PHP 8.2 inspiriert hat. Diese neuen PHP-Engines sind oft doppelt so schnell, was am Ende Energiekosten in Millionenhöhe spart – und sicherstellt, dass uns PHP noch eine lange Zeit erhalten bleibt. Cobol Cobol wurde im Jahr 1959 entwickelt und sollte – auch wegen seiner komplexen Syntax, die Hunderte von ‘Restricted Words’ enthält – inzwischen längst beerdigt sein. Dennoch entwickeln Cobol-Connaisseure immer neue Versionen, leihen sich Ideen aus anderen Sprachen und spannen sie auf einen 60 Jahre alten Rahmen. Eine neue Version namens Cobol 2014 enthält dynamische Tabellen, ein Feature, das für die Sprache schon seit 2002 im Gespräch war. Und dann wäre da noch Visual Cobol 8.0, das Cobol mit Java oder .NET Code verlinkt und es einfacher denn je macht, alten Code neben modernen Stacks am Laufen zu halten. Es gibt zwar bessere Werkzeuge um eine Geschäftslogik für die Bearbeitung von Datenbanken zu erstellen. Aber die Mühe scheint sich kaum jemand zu machen – es ist schlicht einfacher, einen größeren Rechner anzuschaffen und den Cobol-Code weiterlaufen zu lassen. Ein Blick auf den Arbeitsmarkt zeigt, dass Cobol alles andere als tot ist. Entwickler mit Knowhow sind branchenübergreifend gefragt. Während Computerwissenschaftler sich in Grauen abwenden, gilt bei den Entscheidern die Devise: “Kauft einfach einen größeren Mainframe.” R R wurde für die Datenwissenschaft entwickelt und wird immer noch von vielen Data Scientists verwendet – auch wenn einige zu Python gewechselt sind, weil sie R zu undurchsichtig finden. Einige traditionelle Programmierer hat die interaktive Natur von R abgeschreckt, die nicht ohne Grund manchmal als “Scratchpad-Modus” bezeichnet wird. Jeder, der ein paar Zahlen addieren oder die Standardabweichung eines Datensatzes berechnen muss, kann einfach ein paar Zeichen in die Eingabeaufforderung eingeben und erhält sofort die Antwort. R ist genauso ein Werkzeug, das man benutzt wie eine Programmiersprache, mit der man etwas bauen kann. Die Sprache selbst kann leider ein wenig seltsam anmuten und verwirren. Viele Befehle sind auf Schnelligkeit und Prägnanz ausgelegt – was gut ist, wenn man im Labor mit Reagenzgläsern jongliert und R nebenbei eine Zahl berechnen soll. Interpunktionen sind dabei unglaublich mächtig: Ein fehlendes Komma kann für stundenlanges Kopfzerbrechen sorgen. Die Syntax-Rätsel und Datenstruktur-Herausforderungen von R frustrieren Datenwissenschaftler – und werden das auch in den kommenden Jahren tun, angesichts der Installationsbasis und dem weiter wachsenden Ökosystem von R. Immerhin: Es ist besser sich an den Doppelklammern in R die Zähne auszubeißen, als endlos Pakete in einer anderen Sprache neu zu schreiben. Java Die Virtual Machine und die Bibliotheken von Java entstammen zwar den 1990er Jahren, seine Syntax steckt jedoch in den 1970er Jahren fest. Automatisches Memory Management klingt erst einmal nach einem großen Fortschritt – bis sich Ihr Code dazu entscheidet, abzutreten, während die Garbage Collection die Kontrolle übernimmt. Java-Programmierer beschweren sich seit langem über diverse Probleme, von denen einige inzwischen behoben oder zumindest von Oracle in Angriff genommen worden sind. Das schafft allerdings auch neue Probleme: Einige der neueren Codes und Bibliotheken sind nicht mit den alten VMs kompatibel. Es scheint beinahe so, als ob jede Version von Java nach 1.4 eine andere Sprache wäre. Dazu kommt, dass sich das Release-Zyklus-Rad bei Java schneller denn je dreht. Das ist mit Blick auf neue Funktionen positiv, bedeutet aber auch, dass es komplexer wird, Code stabil und lauffähig zu halten. Dennoch ist und bleibt Java die Grundlage für Internet und Mobiltelefone. Die Bibliotheken-Sammlung ist so umfangreich und wertvoll wie bei kaum einer anderen Programmiersprache. Und nicht nur das: Viele neue Sprachen basieren auf Java, weil sie zu Java-Bytecode kompilieren. Java wird also immer einen Platz im Stack haben. Akzeptieren Sie es einfach. Python Python ist eine moderne Sprache, die vor allem jüngere Entwickler anspricht. Die Zeichensetzung ist spärlich und der Code sieht sauberer aus. Was es daran auszusetzen gibt? Statt geschweifte Klammern zählen Sie hier Leerzeichen und achten darauf, dass die Spalten richtig ausgerichtet sind. Dabei empfiehlt sich dringend, eine Monospace-Schriftart zu verwenden. Eines der größten Probleme von Python sind auch die Lücken zwischen den Versionen. Insbesondere neuere Versionen enthalten Aktualisierungen, die unter Umständen Code beschädigen können. So geben Funktionen, die früher 0 oder 1 zurückgaben, in Python 3.6 plötzlich Boolesche Werte zurück. Wörter wie “async” und “await” wurden mit Version 3.7 zu reservierten Keywords. Natürlich hat das Entwicklungsteam keine Wahl, wenn es Python weiterentwickeln und optimieren will. Für Nutzer, die in größeren Projekten mit älteren Bibliotheken arbeiten, bedeutet das jedoch, immer wieder überprüfen zu müssen, welche Version installiert ist. Noch komplizierter wird die Sache durch den Umstand, dass viele der gängigen Linux-Distributionen Python für Systemaufgaben verwenden. Selbst wenn Sie die Versionen für Ihren Code aufrechterhalten können, kann es deshalb sein, dass die Distribution eine andere Version verwendet. Ein Upgrade im Hintergrund kann so unter Umständen Ihren Code lahmlegen. Dennoch: Auch Python werden wir nicht mehr so schnell los. Swift Es stimmt nicht ganz, dass Swift eine Apple-exklusive Sprache ist: Eine kleine Gruppe von Enthusiasten feiert die Verwendung von Swift auf einem Server. Aber zum größten Teil ist es nur eine spezielle, nicht ganz so geheime Handshake-Sprache, die nur innerhalb der Apple-Festung verwendet werden kann. Dabei ist Swift ohne Zweifel besser als sein Vorgänger Objective C: Die Zeichensetzung ist sauberer, die Typisierung besser. Header-Dateien gibt es nicht mehr und die Speicherverwaltung läuft automatisiert. Aber für Entwickler ist das Leben trotz all dieser Verbesserungen nicht leichter: Swift ist umfangreich, was es schwierig macht, sie zu durchdringen. Mit all den ausgefallenen, neuen Funktionen, die ständig hinzukommen, lassen sich Hunderte Bücher füllen. Das ist ein ganz anderer Ansatz, als ihn beispielsweise Google mit Go fährt: Go ist so einfach wie möglich gestaltet, damit der Code einfacher zu lesen und zu verstehen ist. Die unzähligen cleveren Funktionen von Swift können gelegentlich Zeit sparen, wenn die Programmierer wissen, wie man sie richtig nutzt. Dabei ist die Chance allerdings hoch, dass der nächste Entwickler, der den Code lesen muss, nicht gleichermaßen damit vertraut ist. Doch Apple liebt seine Sprache und wird daran festhalten. Die beste Lösung ist also, sich mit Swift auseinanderzusetzen und sich eventuell auf einen Teilbereich seiner Funktionen zu beschränken. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Coding-Hassliebe: 8 Sprachen, die Programmierer zur Weißglut treiben​ Als Entwickler ruhig zu bleiben, ist kein leichtes Unterfangen. Diese Programmiersprachen erzürnen die Dev-Gemüter – auch in Zukunft.
Foto: Ekaterina Minaeva – shutterstock.com

Der gut gemeinte Ratschlag, stets die Ruhe zu bewahren, geht sicher nicht auf einen Menschen zurück, der sich beruflich mit Computern herumschlagen musste. Denn wer sich eine Zeit lang mit der diabolischen Logik von Programmiersprachen befasst, weiß, wie es in der Hölle aussieht: Die vermeintlich logischen Mechanismen verwirren allzu oft – oder lassen verzweifeln.

Es kann gut sein, dass der jeweilige Mensch daran Schuld trägt, weil er die Sprache falsch benutzt oder unzureichend programmiert hat. Doch zum Unglück gehören meistens zwei: Wenn eine Programmiersprache ihren Benutzern Gehirnakrobatik abverlangt, darf man sie guten Gewissens für das Übel mitverantwortlich machen. Allzu oft kann man sich schließlich auch einfach nicht wehren – etwa, wenn die Installationsbasis zu umfassend ist, um eine Sprache “mal schnell” über Bord zu werfen.

Die grausame Wahrheit: Es gibt in den meisten Fällen sehr wahrscheinlich keine bessere Option. Im Folgenden haben wir acht Programmiersprachen zusammengestellt, mit denen Entwickler eine Hassliebe verbindet: Es geht kaum mit – aber auch nicht ohne sie.

C

C sollte man eher als portablen Assembler denn als vollständige Computersprache sehen. Oder schreibt irgendjemand gerne separate Header Files? Und die viel wichtigere Frage: Hat schon mal irgendjemand den Preprocessor für etwas Sinnvolles genutzt, ohne dabei durchzudrehen?

Theoretisch sollten wir in der Lage sein, die Macht der Pointer-Arithmetik zu nutzen, um superclevere Dinge zu tun. In der Realität wagt es kaum jemand, mehr zu tun, als Datenstrukturen zuzuweisen. Ist es überhaupt eine gute Idee, zu versuchen clever zu sein, wenn es um Pointer geht? Das Ding mit cleveren Ideen ist auch: Die Cleverness zu dokumentieren, frisst sämtliche Zeit, die man zuvor dadurch gespart hat. Darüber hinaus dürfte es kaum jemanden geben, der alle Regeln für das Coden in C im Kopf hat und so alle möglichen Sicherheitslücken vermeiden kann.

Dennoch bleibt keine andere Wahl: Unix ist in C geschrieben – worauf wiederum die meisten Smartphones und weite Teile der Cloud basieren. Nicht jeder, der Code für diese Plattformen schreibt, muss C verwenden – aber irgendjemand muss diesbezüglich auf dem Laufenden bleiben, sonst fällt alles auseinander.

Inzwischen wenden sich sogar die Unix-Entwickler langsam von C ab: In den letzten Jahren wurden einige der Patches für den Linux-Kernel in Rust veröffentlicht. Die Entwickler sind der Meinung, dass die strengere Struktur der Sprache einige der Sicherheitslücken von C verhindert. Diese Umstellung wird jedoch noch Jahre dauern.

JavaScript

Die Schöpfer von JavaScript haben versucht, etwas Modernes zu erschaffen. Leider haben sie uns mit ihrer Cleverness dazu verdammt, geschweifte, eckige Klammern und herkömmliche Klammern zu zählen – und dabei sicherzustellen, dass diese richtig verschachtelt sind. Zwischen den anonymen Funktionen, den Closures und den JSON-Datenstrukturen ist das echtes Fingertraining.

Hinzu kommen weitere, seltsame Details: Wenn x eine Zeichenkette ist, die das Zeichen für 1 enthält, dann ergibt x+1 die Zeichenkette 11, und x-1 ergibt die Zahl Null. Erinnert sich noch jemand an den Unterschied zwischen false, null, NaN und undefined? Sie hören sich ähnlich an – die Frage ist nur, warum es in JavaScript alle vier gibt und sie sich nicht einheitlich verhalten.

Zu den seltsamen Details gesellt sich ein abrupter Wandel: Dank neuerer Funktionen zum Packen und Entpacken von Objekten und Arrays sieht neues JavaScript oft nicht mehr so aus wie altes JavaScript. Das führt zu Code, der einem Meer aus doppelten und dreifachen Anführungszeichen, Fragezeichen und Punkten ähnelt. An dieser Stelle sei auch daran erinnert, dass => ein Pfeil ist, der eine Funktion aufruft, während >= eine Möglichkeit darstellt, Zahlen zu vergleichen. Die neuen Funktionen sind toll (wenn man sie mag), sorgen aber bei der Mehrheit der Benutzer für Verwirrung und dafür, mit ECMAScript-Versionsnummern jonglieren zu müssen. Das Gejammer nützt allerdings nichts: Das Internet, das World Wide Web und zahllose Browser werden nicht mehr verschwinden.

Das clevere Node.js-Team baute dann noch eine Plattform auf, um JavaScript auf Servern zum Laufen zu bringen. Inzwischen ist das eine der populärsten Arten, progressive Web Apps zu erstellen. JavaScript wird uns also noch über Jahrzehnte auf Trab halten.

PHP

PHP ist nicht wirklich eine Computersprache – vielmehr ein Tool, um statischem HTML ein bisschen Intelligenz zu verleihen: Sie können Informationen in einer Datenbank speichern und sie mit statischen Tags verknüpfen. Vielleicht gibt es noch ein paar weitere Funktionen, aber im Grunde ist alles, was mit PHP erledigt wird, Strings aus einer Datenbank zusammenzufügen

Zumindest war das für lange Zeit so. Einige PHP-Entwickler haben sich das User Feedback zu Herzen genommen und Features wie ein stärkeres Type-System, smartere Strings und eine bessere Integration mit MySQL hinzugefügt. Das klingt zwar erst einmal gut, allerdings altern die vorhandenen Funktionen, während neue hinzugefügt werden. Es ist also nur eine Frage der Zeit, bis der alte Code nicht mehr funktioniert.

Mit WordPress, Joomla und Drupal wird der größte Teil der Inhalte im Web über PHP-Code bereitgestellt. Und dann gibt es noch ein kleines Ding namens Facebook, das in PHP geschrieben wurde. Man kann aber froh sein, dass Facebook die HipHop Virtual Machine entwickelt hat, die Zend zur Entwicklung von PHP 8.2 inspiriert hat. Diese neuen PHP-Engines sind oft doppelt so schnell, was am Ende Energiekosten in Millionenhöhe spart – und sicherstellt, dass uns PHP noch eine lange Zeit erhalten bleibt.

Cobol

Cobol wurde im Jahr 1959 entwickelt und sollte – auch wegen seiner komplexen Syntax, die Hunderte von ‘Restricted Words’ enthält – inzwischen längst beerdigt sein. Dennoch entwickeln Cobol-Connaisseure immer neue Versionen, leihen sich Ideen aus anderen Sprachen und spannen sie auf einen 60 Jahre alten Rahmen. Eine neue Version namens Cobol 2014 enthält dynamische Tabellen, ein Feature, das für die Sprache schon seit 2002 im Gespräch war. Und dann wäre da noch Visual Cobol 8.0, das Cobol mit Java oder .NET Code verlinkt und es einfacher denn je macht, alten Code neben modernen Stacks am Laufen zu halten.

Es gibt zwar bessere Werkzeuge um eine Geschäftslogik für die Bearbeitung von Datenbanken zu erstellen. Aber die Mühe scheint sich kaum jemand zu machen – es ist schlicht einfacher, einen größeren Rechner anzuschaffen und den Cobol-Code weiterlaufen zu lassen. Ein Blick auf den Arbeitsmarkt zeigt, dass Cobol alles andere als tot ist. Entwickler mit Knowhow sind branchenübergreifend gefragt. Während Computerwissenschaftler sich in Grauen abwenden, gilt bei den Entscheidern die Devise: “Kauft einfach einen größeren Mainframe.”

R

R wurde für die Datenwissenschaft entwickelt und wird immer noch von vielen Data Scientists verwendet – auch wenn einige zu Python gewechselt sind, weil sie R zu undurchsichtig finden. Einige traditionelle Programmierer hat die interaktive Natur von R abgeschreckt, die nicht ohne Grund manchmal als “Scratchpad-Modus” bezeichnet wird. Jeder, der ein paar Zahlen addieren oder die Standardabweichung eines Datensatzes berechnen muss, kann einfach ein paar Zeichen in die Eingabeaufforderung eingeben und erhält sofort die Antwort. R ist genauso ein Werkzeug, das man benutzt wie eine Programmiersprache, mit der man etwas bauen kann.

Die Sprache selbst kann leider ein wenig seltsam anmuten und verwirren. Viele Befehle sind auf Schnelligkeit und Prägnanz ausgelegt – was gut ist, wenn man im Labor mit Reagenzgläsern jongliert und R nebenbei eine Zahl berechnen soll. Interpunktionen sind dabei unglaublich mächtig: Ein fehlendes Komma kann für stundenlanges Kopfzerbrechen sorgen.

Die Syntax-Rätsel und Datenstruktur-Herausforderungen von R frustrieren Datenwissenschaftler – und werden das auch in den kommenden Jahren tun, angesichts der Installationsbasis und dem weiter wachsenden Ökosystem von R. Immerhin: Es ist besser sich an den Doppelklammern in R die Zähne auszubeißen, als endlos Pakete in einer anderen Sprache neu zu schreiben.

Java

Die Virtual Machine und die Bibliotheken von Java entstammen zwar den 1990er Jahren, seine Syntax steckt jedoch in den 1970er Jahren fest. Automatisches Memory Management klingt erst einmal nach einem großen Fortschritt – bis sich Ihr Code dazu entscheidet, abzutreten, während die Garbage Collection die Kontrolle übernimmt.

Java-Programmierer beschweren sich seit langem über diverse Probleme, von denen einige inzwischen behoben oder zumindest von Oracle in Angriff genommen worden sind. Das schafft allerdings auch neue Probleme: Einige der neueren Codes und Bibliotheken sind nicht mit den alten VMs kompatibel. Es scheint beinahe so, als ob jede Version von Java nach 1.4 eine andere Sprache wäre. Dazu kommt, dass sich das Release-Zyklus-Rad bei Java schneller denn je dreht. Das ist mit Blick auf neue Funktionen positiv, bedeutet aber auch, dass es komplexer wird, Code stabil und lauffähig zu halten.

Dennoch ist und bleibt Java die Grundlage für Internet und Mobiltelefone. Die Bibliotheken-Sammlung ist so umfangreich und wertvoll wie bei kaum einer anderen Programmiersprache. Und nicht nur das: Viele neue Sprachen basieren auf Java, weil sie zu Java-Bytecode kompilieren. Java wird also immer einen Platz im Stack haben. Akzeptieren Sie es einfach.

Python

Python ist eine moderne Sprache, die vor allem jüngere Entwickler anspricht. Die Zeichensetzung ist spärlich und der Code sieht sauberer aus. Was es daran auszusetzen gibt? Statt geschweifte Klammern zählen Sie hier Leerzeichen und achten darauf, dass die Spalten richtig ausgerichtet sind. Dabei empfiehlt sich dringend, eine Monospace-Schriftart zu verwenden.

Eines der größten Probleme von Python sind auch die Lücken zwischen den Versionen. Insbesondere neuere Versionen enthalten Aktualisierungen, die unter Umständen Code beschädigen können. So geben Funktionen, die früher 0 oder 1 zurückgaben, in Python 3.6 plötzlich Boolesche Werte zurück. Wörter wie “async” und “await” wurden mit Version 3.7 zu reservierten Keywords. Natürlich hat das Entwicklungsteam keine Wahl, wenn es Python weiterentwickeln und optimieren will. Für Nutzer, die in größeren Projekten mit älteren Bibliotheken arbeiten, bedeutet das jedoch, immer wieder überprüfen zu müssen, welche Version installiert ist.

Noch komplizierter wird die Sache durch den Umstand, dass viele der gängigen Linux-Distributionen Python für Systemaufgaben verwenden. Selbst wenn Sie die Versionen für Ihren Code aufrechterhalten können, kann es deshalb sein, dass die Distribution eine andere Version verwendet. Ein Upgrade im Hintergrund kann so unter Umständen Ihren Code lahmlegen. Dennoch: Auch Python werden wir nicht mehr so schnell los.

Swift

Es stimmt nicht ganz, dass Swift eine Apple-exklusive Sprache ist: Eine kleine Gruppe von Enthusiasten feiert die Verwendung von Swift auf einem Server. Aber zum größten Teil ist es nur eine spezielle, nicht ganz so geheime Handshake-Sprache, die nur innerhalb der Apple-Festung verwendet werden kann. Dabei ist Swift ohne Zweifel besser als sein Vorgänger Objective C: Die Zeichensetzung ist sauberer, die Typisierung besser. Header-Dateien gibt es nicht mehr und die Speicherverwaltung läuft automatisiert.

Aber für Entwickler ist das Leben trotz all dieser Verbesserungen nicht leichter: Swift ist umfangreich, was es schwierig macht, sie zu durchdringen. Mit all den ausgefallenen, neuen Funktionen, die ständig hinzukommen, lassen sich Hunderte Bücher füllen. Das ist ein ganz anderer Ansatz, als ihn beispielsweise Google mit Go fährt: Go ist so einfach wie möglich gestaltet, damit der Code einfacher zu lesen und zu verstehen ist. Die unzähligen cleveren Funktionen von Swift können gelegentlich Zeit sparen, wenn die Programmierer wissen, wie man sie richtig nutzt. Dabei ist die Chance allerdings hoch, dass der nächste Entwickler, der den Code lesen muss, nicht gleichermaßen damit vertraut ist.

Doch Apple liebt seine Sprache und wird daran festhalten. Die beste Lösung ist also, sich mit Swift auseinanderzusetzen und sich eventuell auf einen Teilbereich seiner Funktionen zu beschränken. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Coding-Hassliebe: 8 Sprachen, die Programmierer zur Weißglut treiben​ Weiterlesen »

Outlook Add-Ins: 7 Booster für die Teamarbeit​

Allgemein

Mammutprojekte stemmt man am besten gemeinsam. Mit diesen Outlook Add-Ins für Collaboration-Zwecke sparen Sie Zeit und verbessern Ihre Effizienz. Foto: zairiazmal – shutterstock.com Die Vielzahl der Plattformen und Tools für Collaboration-Zwecke kann überfordern. Wie viel Zeit verbringen Sie damit, zwischen Apps wie Dropbox, Slack und anderen hin und her zu springen? Wenn Sie Microsoft Outlook nutzen, können Sie Ihren Zeitaufwand deutlich reduzieren – dazu brauchen Sie nur auf folgende Add-Ins zurückgreifen, die sich direkt in Outlook einbinden lassen. So können Sie mit andere zusammenarbeiten, ohne dafür den Posteingang zu verlassen. Anmerkung: Die Screenshots in diesem Artikel entstammen der Online-Version von Outlook (OWA). Die gezeigten Add-Ins funktionieren aber ebenso mit den Desktop Apps von Outlook für Windows und Mac. Boomerang Boomerang fügt Outlook mehrere Funktionen hinzu. So können Sie beispielsweise Ihren Posteingang für einen definierten Zeitraum filtern, so dass nur E-Mails, die unter bestimmten Kriterien gesendet wurden, zugestellt werden. Außerdem können Sie Benachrichtigungen über Mail-Öffnungen erhalten und den Versand Ihrer E-Mails zeitversetzt planen. In Sachen Collaboration kann Boomerang Sie dabei unterstützen, Besprechungen mit den Kollegen zu planen – ohne das übliche Hin und Her, weil kein Termin für alle passt. Mit dem Add-In markieren Sie die Zeiten, zu denen Sie verfügbar sind, in einem Kalender, der in eine E-Mail eingebettet ist. Jeder Teilnehmer wählt dort einen Zeitpunkt an dem er verfügbar ist – anschließend sendet der Boomerang-Server automatisch eine Einladung an alle Teilnehmer. Boomerang hilft Ihnen dabei, schneller Meeting-Termine zu ermitteln, die für alle passen. Foto: IDG Funktioniert mit: Outlook 2013 oder höher (Windows), Outlook für Microsoft 365 (Windows und Mac), OWA; Preise: Basic (kostenlos), Personal (5 Dollar pro Monat), Pro (15 Dollar pro Monat), Teams-Tarif für Unternehmen mit zentralisierter Abrechnung (Preis auf Anfrage); DocuSign für Outlook Das DocuSign Add-In macht es einfach, Dokumente zu versenden, die eine digitale Unterschrift benötigen. Während Sie eine E-Mail verfassen, klicken Sie dazu nur auf die Schaltfläche in der unteren Symbolleiste, um die DocuSign-Seitenleiste zu öffnen. Diese führt Sie durch die nächsten Schritte und startet dann eine Web-App über die Outlook-Hauptseite. Hier erhalten Sie eine Vorschau des Dokuments und können darüber hinaus markieren, wo der Empfänger digital unterschreiben soll. Funktioniert mit: Outlook 2013 oder höher (Windows), Outlook für Microsoft 365 (Windows und Mac), OWA; Preise: Kostenlose Testversion für 30 Tage; Preise ab 9 Euro pro User monatlich; Dropbox für Outlook Wenn Sie und Ihre Kollegen Dropbox zum Freigeben von Dateien verwenden, dürfte das offizielle Dropbox Add-In für Outlook allen Beteiligten das Leben erleichtern. Anstatt eine Datei anzuhängen, die auf Ihrem PC gespeichert ist, können Sie diese an Ihr Dropbox-Konto “anhängen” (Link zu Ihrer Dropbox-Datei wird in die E-Mail eingebettet). Wenn der Empfänger der E-Mail über ein eigenes Dropbox-Konto verfügt, kann er sofort auf die gesendete Datei zugreifen. So lassen sich auch extrem große Dateien komfortabel über Microsoft Outlook teilen, ohne sie zuvor hochladen zu müssen, um sie als E-Mail-Anhang zu versenden. Mit dem Dropbox Add-In für Outlook spielt die Größe des Dateianhangs keine Rolle mehr. Foto: IDG Funktioniert mit: Outlook 2013 oder höher (Windows), Outlook für Microsoft 365 (Windows und Mac), OWA; Preise: Basic (kostenlos, 2 GB Speicherplatz), Professional (17 Euro pro Monat, 3TB), Standard (10 Euro pro Nutzer pro Monat, 5TB), Advanced (15 Euro pro Nutzer pro Monat, unbegrenzter Speicherplatz); Google Meet Add-In Wenn Sie Outlook verwenden, ist die Chance groß, dass Sie für Videokonferenzen Microsoft Teams einsetzen. Eine beliebte Alternative dazu ist Google Meet. Das Add-In für Outlook können Sie dazu verwenden, Google-Meet-Termine direkt über Microsofts E-Mail-Programm zu erstellen. Sobald das Add-In installiert ist, klicken Sie einfach auf das Symbol am oberen Bildschirmrand, ähnlich wie Sie ein Meeting in Outlook erstellen. Die Einladung wird als Link in einer E-Mail gesendet und in Ihrem Outlook-Kalender festgehalten. Die Empfänger können auf den Link klicken, um zum geplanten Termin an der Besprechung teilzunehmen. Google-Meet-Videokonferenzen lassen sich mit dem Add-In direkt über Outlook aufsetzen. Foto: IDG Funktioniert mit: Outlook 2016 oder höher (Windows und Mac), Outlook für Microsoft 365 (Windows und Mac), OWA; Preise: kostenlos, einige Funktionen nur mit einer kostenpflichtigen Google-Workspace-Lizenz verfügbar; Microsoft Polls Microsofts Polls Add-In arbeitet mit der Web-App Microsoft Forms, die Teil von Microsoft 365 ist und bettet Umfragen in Ihre E-Mails ein. Die sind auf ein Multiple-Choice-Format festgelegt, bei dem die Empfänger eine Frage lesen und dann auf eine oder mehrere Antwortmöglichkeiten klicken können. Die Ergebnisse der Abstimmung werden als Balkendiagramm visualisiert. Das funktioniert denkbar einfach: Wenn Sie eine E-Mail verfassen, klicken Sie auf das Drei-Punkte-Symbol in der unteren Symbolleiste und wählen im Menü die Option Schnellumfrage, um die Seitenleiste des Add-Ins zu öffnen. Geben Sie dann in der Seitenleiste Frage und Antworten ein, fertig. Das Polls Add-In reichert Ihre E-Mails mit Umfragen an. Foto: IDG Funktioniert mit: Outlook 2016 oder höher (Windows und Mac), Outlook für Microsoft 365 (Windows und Mac), OWA; Preise: kostenlos, Microsoft-365-Konto erforderlich; Slack für Outlook Wenn Sie und Ihr Team über Slack zusammenarbeiten, können Sie mit dem offiziellen Add-In eine E-Mail oder einen E-Mail-Thread aus Outlook an Ihr Slack-Team weiterleiten. Alles, was Sie dazu tun müssen, ist, die entsprechende Nachricht zu öffnen und auf das Slack-Symbol rechts neben der Kopfzeile zu klicken. In der Seitenleiste können Sie im ersten Feld wählen, ob die E-Mail an einen Slack-Kanal oder einzelne Teammitglieder weitergeleitet werden soll. Wenn die E-Mail Dateianhänge enthält, können Sie diese optional ebenfalls weitergeleiten. In Ihrem Slack-Team wird die E-Mail unter Ihrem Benutzernamen dann als Nachricht an den Kanal oder als direkte Nachricht an das Teammitglied gepostet. Einige Klicks genügen, um eine Outlook-E-Mail mit Ihrem Slack Channel zu teilen. Foto: IDG Funktioniert mit: Outlook 2013 oder höher (Windows), Outlook für Microsoft 365 (Windows und Mac), OWA, Outlook Mobile App (Android und iOS); Preise: Microsoft 365/Microsoft 365 Business oder Enterprise sowie Slack-Konto erforderlich; Slack kostenlos oder ab 6,25 Euro pro Monat; Zoom für Outlook Zoom ist eine weitere beliebte Videokonferenzplattform, die in vielen Unternehmen – meist neben Microsoft Teams – eingesetzt wird. Das Zoom Add-In funktioniert ähnlich wie sein Google-Meet-Pendant: Klicken Sie einfach auf das Zoom-Symbol oben im Meeting-Planungsfenster von Outlook, um es in ein Zoom-Meeting zu verwandeln. Die Teilnehmer erhalten eine E-Mail mit einem Link, auf den sie klicken können, um dem Meeting beizutreten. Auch Zoom-Videocalls lassen sich direkt über Outlook initiieren. Foto: IDG Funktioniert mit: Outlook 2016 oder höher (Windows und Mac), Outlook für Microsoft 365 (Windows und Mac), OWA, Outlook Mobile App (Android); Preise: kostenlos; für Unternehmen ab 140 Euro pro Nutzer pro Jahr; Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Outlook Add-Ins: 7 Booster für die Teamarbeit​ Mammutprojekte stemmt man am besten gemeinsam. Mit diesen Outlook Add-Ins für Collaboration-Zwecke sparen Sie Zeit und verbessern Ihre Effizienz.
Foto: zairiazmal – shutterstock.com

Die Vielzahl der Plattformen und Tools für Collaboration-Zwecke kann überfordern. Wie viel Zeit verbringen Sie damit, zwischen Apps wie Dropbox, Slack und anderen hin und her zu springen? Wenn Sie Microsoft Outlook nutzen, können Sie Ihren Zeitaufwand deutlich reduzieren – dazu brauchen Sie nur auf folgende Add-Ins zurückgreifen, die sich direkt in Outlook einbinden lassen. So können Sie mit andere zusammenarbeiten, ohne dafür den Posteingang zu verlassen.

Anmerkung: Die Screenshots in diesem Artikel entstammen der Online-Version von Outlook (OWA). Die gezeigten Add-Ins funktionieren aber ebenso mit den Desktop Apps von Outlook für Windows und Mac.

Boomerang

Boomerang fügt Outlook mehrere Funktionen hinzu. So können Sie beispielsweise Ihren Posteingang für einen definierten Zeitraum filtern, so dass nur E-Mails, die unter bestimmten Kriterien gesendet wurden, zugestellt werden. Außerdem können Sie Benachrichtigungen über Mail-Öffnungen erhalten und den Versand Ihrer E-Mails zeitversetzt planen.

In Sachen Collaboration kann Boomerang Sie dabei unterstützen, Besprechungen mit den Kollegen zu planen – ohne das übliche Hin und Her, weil kein Termin für alle passt. Mit dem Add-In markieren Sie die Zeiten, zu denen Sie verfügbar sind, in einem Kalender, der in eine E-Mail eingebettet ist. Jeder Teilnehmer wählt dort einen Zeitpunkt an dem er verfügbar ist – anschließend sendet der Boomerang-Server automatisch eine Einladung an alle Teilnehmer.

Boomerang hilft Ihnen dabei, schneller Meeting-Termine zu ermitteln, die für alle passen.
Foto: IDG

Funktioniert mit: Outlook 2013 oder höher (Windows), Outlook für Microsoft 365 (Windows und Mac), OWA;

Preise: Basic (kostenlos), Personal (5 Dollar pro Monat), Pro (15 Dollar pro Monat), Teams-Tarif für Unternehmen mit zentralisierter Abrechnung (Preis auf Anfrage);

DocuSign für Outlook

Das DocuSign Add-In macht es einfach, Dokumente zu versenden, die eine digitale Unterschrift benötigen. Während Sie eine E-Mail verfassen, klicken Sie dazu nur auf die Schaltfläche in der unteren Symbolleiste, um die DocuSign-Seitenleiste zu öffnen. Diese führt Sie durch die nächsten Schritte und startet dann eine Web-App über die Outlook-Hauptseite. Hier erhalten Sie eine Vorschau des Dokuments und können darüber hinaus markieren, wo der Empfänger digital unterschreiben soll.

Funktioniert mit: Outlook 2013 oder höher (Windows), Outlook für Microsoft 365 (Windows und Mac), OWA;

Preise: Kostenlose Testversion für 30 Tage; Preise ab 9 Euro pro User monatlich;

Dropbox für Outlook

Wenn Sie und Ihre Kollegen Dropbox zum Freigeben von Dateien verwenden, dürfte das offizielle Dropbox Add-In für Outlook allen Beteiligten das Leben erleichtern. Anstatt eine Datei anzuhängen, die auf Ihrem PC gespeichert ist, können Sie diese an Ihr Dropbox-Konto “anhängen” (Link zu Ihrer Dropbox-Datei wird in die E-Mail eingebettet). Wenn der Empfänger der E-Mail über ein eigenes Dropbox-Konto verfügt, kann er sofort auf die gesendete Datei zugreifen. So lassen sich auch extrem große Dateien komfortabel über Microsoft Outlook teilen, ohne sie zuvor hochladen zu müssen, um sie als E-Mail-Anhang zu versenden.

Mit dem Dropbox Add-In für Outlook spielt die Größe des Dateianhangs keine Rolle mehr.
Foto: IDG

Funktioniert mit: Outlook 2013 oder höher (Windows), Outlook für Microsoft 365 (Windows und Mac), OWA;

Preise: Basic (kostenlos, 2 GB Speicherplatz), Professional (17 Euro pro Monat, 3TB), Standard (10 Euro pro Nutzer pro Monat, 5TB), Advanced (15 Euro pro Nutzer pro Monat, unbegrenzter Speicherplatz);

Google Meet Add-In

Wenn Sie Outlook verwenden, ist die Chance groß, dass Sie für Videokonferenzen Microsoft Teams einsetzen. Eine beliebte Alternative dazu ist Google Meet. Das Add-In für Outlook können Sie dazu verwenden, Google-Meet-Termine direkt über Microsofts E-Mail-Programm zu erstellen.

Sobald das Add-In installiert ist, klicken Sie einfach auf das Symbol am oberen Bildschirmrand, ähnlich wie Sie ein Meeting in Outlook erstellen. Die Einladung wird als Link in einer E-Mail gesendet und in Ihrem Outlook-Kalender festgehalten. Die Empfänger können auf den Link klicken, um zum geplanten Termin an der Besprechung teilzunehmen.

Google-Meet-Videokonferenzen lassen sich mit dem Add-In direkt über Outlook aufsetzen.
Foto: IDG

Funktioniert mit: Outlook 2016 oder höher (Windows und Mac), Outlook für Microsoft 365 (Windows und Mac), OWA;

Preise: kostenlos, einige Funktionen nur mit einer kostenpflichtigen Google-Workspace-Lizenz verfügbar;

Microsoft Polls

Microsofts Polls Add-In arbeitet mit der Web-App Microsoft Forms, die Teil von Microsoft 365 ist und bettet Umfragen in Ihre E-Mails ein. Die sind auf ein Multiple-Choice-Format festgelegt, bei dem die Empfänger eine Frage lesen und dann auf eine oder mehrere Antwortmöglichkeiten klicken können. Die Ergebnisse der Abstimmung werden als Balkendiagramm visualisiert.

Das funktioniert denkbar einfach: Wenn Sie eine E-Mail verfassen, klicken Sie auf das Drei-Punkte-Symbol in der unteren Symbolleiste und wählen im Menü die Option Schnellumfrage, um die Seitenleiste des Add-Ins zu öffnen. Geben Sie dann in der Seitenleiste Frage und Antworten ein, fertig.

Das Polls Add-In reichert Ihre E-Mails mit Umfragen an.
Foto: IDG

Funktioniert mit: Outlook 2016 oder höher (Windows und Mac), Outlook für Microsoft 365 (Windows und Mac), OWA;

Preise: kostenlos, Microsoft-365-Konto erforderlich;

Slack für Outlook

Wenn Sie und Ihr Team über Slack zusammenarbeiten, können Sie mit dem offiziellen Add-In eine E-Mail oder einen E-Mail-Thread aus Outlook an Ihr Slack-Team weiterleiten.

Alles, was Sie dazu tun müssen, ist, die entsprechende Nachricht zu öffnen und auf das Slack-Symbol rechts neben der Kopfzeile zu klicken. In der Seitenleiste können Sie im ersten Feld wählen, ob die E-Mail an einen Slack-Kanal oder einzelne Teammitglieder weitergeleitet werden soll. Wenn die E-Mail Dateianhänge enthält, können Sie diese optional ebenfalls weitergeleiten. In Ihrem Slack-Team wird die E-Mail unter Ihrem Benutzernamen dann als Nachricht an den Kanal oder als direkte Nachricht an das Teammitglied gepostet.

Einige Klicks genügen, um eine Outlook-E-Mail mit Ihrem Slack Channel zu teilen.
Foto: IDG

Funktioniert mit: Outlook 2013 oder höher (Windows), Outlook für Microsoft 365 (Windows und Mac), OWA, Outlook Mobile App (Android und iOS);

Preise: Microsoft 365/Microsoft 365 Business oder Enterprise sowie Slack-Konto erforderlich; Slack kostenlos oder ab 6,25 Euro pro Monat;

Zoom für Outlook

Zoom ist eine weitere beliebte Videokonferenzplattform, die in vielen Unternehmen – meist neben Microsoft Teams – eingesetzt wird. Das Zoom Add-In funktioniert ähnlich wie sein Google-Meet-Pendant: Klicken Sie einfach auf das Zoom-Symbol oben im Meeting-Planungsfenster von Outlook, um es in ein Zoom-Meeting zu verwandeln. Die Teilnehmer erhalten eine E-Mail mit einem Link, auf den sie klicken können, um dem Meeting beizutreten.

Auch Zoom-Videocalls lassen sich direkt über Outlook initiieren.
Foto: IDG

Funktioniert mit: Outlook 2016 oder höher (Windows und Mac), Outlook für Microsoft 365 (Windows und Mac), OWA, Outlook Mobile App (Android);

Preise: kostenlos; für Unternehmen ab 140 Euro pro Nutzer pro Jahr;

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Outlook Add-Ins: 7 Booster für die Teamarbeit​ Weiterlesen »

Schatten-KI reißt Löcher in die IT-Security​

Allgemein

width=”2500″ height=”1406″ sizes=”(max-width: 2500px) 100vw, 2500px”>Nur wer weiß, welche Tools sich in den eigenen Systemen herumtreiben, behält die Kontrolle und kann die Sicherheit gewährleisten.Toma Stepunina – shutterstock.com Der Einsatz von KI-Tools scheint viele deutsche Unternehmen zu überfordern. Laut dem aktuellen „CyberArk 2025 Identity Security Landscape Report“ räumen zwei Drittel aller Betriebe hierzulande ein, nicht in der Lage zu sein, alle verwendeten Schatten-KI-Tools zu sichern und zu verwalten. Vier von zehn befragten Firmen gaben zu, dass in der eigenen Organisation nicht nur freigegebene Werkzeuge genutzt würden, sondern auch nicht autorisierte Tools.  Die unsichtbare Gefahr durch GenAI Der Report, den Sicherheitsanbieter CyberArk beim Marktforschungsunternehmen Vanson Bourne in Auftrag gegeben hat, wirft ein besonderes Schlaglicht auf den KI-Einsatz in Unternehmen weltweit. Befragt wurden 2.600 Cybersecurity-Entscheider in Deutschland, Frankreich, Großbritannien, Italien, den Niederlanden, Spanien, Australien, Brasilien, Hongkong, Indien, Israel, Japan, Kanada, Mexiko, Saudi-Arabien, Singapur, Südafrika, Taiwan sowie den USA und den Vereinigten Arabischen Emiraten. Mehr maschinelle Identitäten – mehr Security-Probleme Mit dem verstärkten KI-Einsatz ist ein neuer, bedeutender Angriffsvektor entstanden, lautet das Fazit der Studienautoren. 94 Prozent der befragten Unternehmen in Deutschland nutzen inzwischen KI und große Sprachmodelle (LLMs). 82 Prozent bestätigte, dass der KI- und LLM-Zugriff auf große Mengen sensibler Daten erhebliche Security-Risiken mit sich bringt. Wie Schatten-KI den Tech-Stack bereichert Das liegt in erster Linie an den dazugehörigen Zugriffsprivilegien. Die Studie hat gezeigt, dass die Zahl der maschinellen Identitäten in den Betrieben hierzulande deutlich wächst. Im Durchschnitt kämen auf eine menschliche Identität in den IT-Systemen mittlerweile mehr als 80 Maschinenidentitäten. Dieses Wachstum berge ein hohes Sicherheitsrisiko, hieß es. Denn 42 Prozent dieser maschinellen Identitäten haben Zugriff auf sensible geschäftskritische Systeme. Die damit verbundenen Gefahren würden indes oft verkannt, mahnen die Security-Experten. Nur jedes zehnte Unternehmen stufe Maschinenidentitäten als privilegierte User ein. Wer bringt die KI-Agenten unter Kontrolle? Das Problem könnte mit dem Boom von KI-Agenten eine neue Dimension erreichen. Immer mehr Anbieter von Business-Software bauen entsprechende Features in ihre Suite ein. Salesforce-Chef Marc Benioff fabulierte erst vor wenigen Monaten, dass sich schon bald eine Milliarde solcher KI-Agenten im Salesforce-Universum tummeln könnten.  Für die IT-Security-Verantwortlichen möglicherweise ein Albtraum. Wenn diese KI-Agenten selbstständig Aufgaben übernehmen und abarbeiten sollen, brauchen sie Zugriff auf Systeme und Daten. An dieser Stelle eine funktionierende Rechte- und Identitätenverwaltung aufzubauen und vor allem in einem sich ständig verändernden Gesamtsystem aufrecht zu erhalten, dürfte alles andere als einfach werden.   Weitere Untersuchungsergebnisse aus dem „CyberArk 2025 Identity Security Landscape Report“ zu deutschen Unternehmen im Überblick:  Zwar verwenden 94 Prozent der hiesigen Unternehmen Tools, um Cloud-Sessions zu überwachen und abzusichern. Allerdings bestätigt fast die Hälfte (49 Prozent), keinen vollständigen Überblick über die Berechtigungen und Zugriffsrechte in ihren Cloud-Umgebungen zu haben.  Die zunehmende Abhängigkeit von Cloud-Plattformen und -Entwicklungstools hat die Angriffsfläche vergrößert: So nennen 36 Prozent der deutschen Unternehmen die Cloud-Infrastruktur und -Workloads als die anfälligsten IT-Umgebungen, gefolgt von DevOps und CI/CD-Pipelines (34 Prozent) sowie Quellcode-Repositories (34 Prozent).  Phishing- und Vishing-Angriffe zählen nach wie vor zu den Hauptbedrohungen: 79 Prozent der identitätsbezogenen Sicherheitsverletzungen wurden bei den deutschen Unternehmen durch Phishing verursacht, einschließlich Deepfake-Betrug. Mehr als die Hälfte (51 Prozent) der Unternehmen fielen diesen Angriffen mehrfach zum Opfer und 90 Prozent waren im letzten Jahr von einer Attacke betroffen.  Schwachstellen von Anwendungen und der Diebstahl von Anmeldedaten bleiben große Risiken: 68 Prozent der Sicherheitsverletzungen sind auf gestohlene Anmeldedaten zurückzuführen. 64 Prozent berichten dabei von Sicherheitsvorfällen durch Identitätskompromittierungen durch Dritte und Angriffen auf, respektive über die Lieferkette.  79 Prozent der Sicherheitsexperten beklagen, dass in ihrer Organisation die betriebliche Effizienz Vorrang vor einer robusten Cybersicherheit hat.  87 Prozent der Befragten hierzulande geben an, dass Identitätssilos Cyberrisiken in Unternehmen verursachen. Die Hauptursache für Identitätssilos sind Schatten-IT und nicht autorisierte KI-Anwendungen, die Abhängigkeit von Identitäts-Stacks der Cloud-Plattformen und das Fehlen eines zentralisierten Identitätsmanagements.   Versicherer fordern verbesserte Kontrollen von Privilegien: 86 Prozent geben an, dass Cyberversicherer im Rahmen ihrer Policies strengere Sicherheitsanforderungen durchsetzen, insbesondere im Hinblick auf die Kontrolle von Berechtigungen.  

Schatten-KI reißt Löcher in die IT-Security​ width=”2500″ height=”1406″ sizes=”(max-width: 2500px) 100vw, 2500px”>Nur wer weiß, welche Tools sich in den eigenen Systemen herumtreiben, behält die Kontrolle und kann die Sicherheit gewährleisten.Toma Stepunina – shutterstock.com

Der Einsatz von KI-Tools scheint viele deutsche Unternehmen zu überfordern. Laut dem aktuellen „CyberArk 2025 Identity Security Landscape Report“ räumen zwei Drittel aller Betriebe hierzulande ein, nicht in der Lage zu sein, alle verwendeten Schatten-KI-Tools zu sichern und zu verwalten. Vier von zehn befragten Firmen gaben zu, dass in der eigenen Organisation nicht nur freigegebene Werkzeuge genutzt würden, sondern auch nicht autorisierte Tools. 

Die unsichtbare Gefahr durch GenAI

Der Report, den Sicherheitsanbieter CyberArk beim Marktforschungsunternehmen Vanson Bourne in Auftrag gegeben hat, wirft ein besonderes Schlaglicht auf den KI-Einsatz in Unternehmen weltweit. Befragt wurden 2.600 Cybersecurity-Entscheider in Deutschland, Frankreich, Großbritannien, Italien, den Niederlanden, Spanien, Australien, Brasilien, Hongkong, Indien, Israel, Japan, Kanada, Mexiko, Saudi-Arabien, Singapur, Südafrika, Taiwan sowie den USA und den Vereinigten Arabischen Emiraten.

Mehr maschinelle Identitäten – mehr Security-Probleme

Mit dem verstärkten KI-Einsatz ist ein neuer, bedeutender Angriffsvektor entstanden, lautet das Fazit der Studienautoren. 94 Prozent der befragten Unternehmen in Deutschland nutzen inzwischen KI und große Sprachmodelle (LLMs). 82 Prozent bestätigte, dass der KI- und LLM-Zugriff auf große Mengen sensibler Daten erhebliche Security-Risiken mit sich bringt.

Wie Schatten-KI den Tech-Stack bereichert

Das liegt in erster Linie an den dazugehörigen Zugriffsprivilegien. Die Studie hat gezeigt, dass die Zahl der maschinellen Identitäten in den Betrieben hierzulande deutlich wächst. Im Durchschnitt kämen auf eine menschliche Identität in den IT-Systemen mittlerweile mehr als 80 Maschinenidentitäten. Dieses Wachstum berge ein hohes Sicherheitsrisiko, hieß es. Denn 42 Prozent dieser maschinellen Identitäten haben Zugriff auf sensible geschäftskritische Systeme. Die damit verbundenen Gefahren würden indes oft verkannt, mahnen die Security-Experten. Nur jedes zehnte Unternehmen stufe Maschinenidentitäten als privilegierte User ein.

Wer bringt die KI-Agenten unter Kontrolle?

Das Problem könnte mit dem Boom von KI-Agenten eine neue Dimension erreichen. Immer mehr Anbieter von Business-Software bauen entsprechende Features in ihre Suite ein. Salesforce-Chef Marc Benioff fabulierte erst vor wenigen Monaten, dass sich schon bald eine Milliarde solcher KI-Agenten im Salesforce-Universum tummeln könnten. 

Für die IT-Security-Verantwortlichen möglicherweise ein Albtraum. Wenn diese KI-Agenten selbstständig Aufgaben übernehmen und abarbeiten sollen, brauchen sie Zugriff auf Systeme und Daten. An dieser Stelle eine funktionierende Rechte- und Identitätenverwaltung aufzubauen und vor allem in einem sich ständig verändernden Gesamtsystem aufrecht zu erhalten, dürfte alles andere als einfach werden.  

Weitere Untersuchungsergebnisse aus dem „CyberArk 2025 Identity Security Landscape Report“ zu deutschen Unternehmen im Überblick: 

Zwar verwenden 94 Prozent der hiesigen Unternehmen Tools, um Cloud-Sessions zu überwachen und abzusichern. Allerdings bestätigt fast die Hälfte (49 Prozent), keinen vollständigen Überblick über die Berechtigungen und Zugriffsrechte in ihren Cloud-Umgebungen zu haben. 

Die zunehmende Abhängigkeit von Cloud-Plattformen und -Entwicklungstools hat die Angriffsfläche vergrößert: So nennen 36 Prozent der deutschen Unternehmen die Cloud-Infrastruktur und -Workloads als die anfälligsten IT-Umgebungen, gefolgt von DevOps und CI/CD-Pipelines (34 Prozent) sowie Quellcode-Repositories (34 Prozent). 

Phishing- und Vishing-Angriffe zählen nach wie vor zu den Hauptbedrohungen: 79 Prozent der identitätsbezogenen Sicherheitsverletzungen wurden bei den deutschen Unternehmen durch Phishing verursacht, einschließlich Deepfake-Betrug. Mehr als die Hälfte (51 Prozent) der Unternehmen fielen diesen Angriffen mehrfach zum Opfer und 90 Prozent waren im letzten Jahr von einer Attacke betroffen. 

Schwachstellen von Anwendungen und der Diebstahl von Anmeldedaten bleiben große Risiken: 68 Prozent der Sicherheitsverletzungen sind auf gestohlene Anmeldedaten zurückzuführen. 64 Prozent berichten dabei von Sicherheitsvorfällen durch Identitätskompromittierungen durch Dritte und Angriffen auf, respektive über die Lieferkette. 

79 Prozent der Sicherheitsexperten beklagen, dass in ihrer Organisation die betriebliche Effizienz Vorrang vor einer robusten Cybersicherheit hat. 

87 Prozent der Befragten hierzulande geben an, dass Identitätssilos Cyberrisiken in Unternehmen verursachen. Die Hauptursache für Identitätssilos sind Schatten-IT und nicht autorisierte KI-Anwendungen, die Abhängigkeit von Identitäts-Stacks der Cloud-Plattformen und das Fehlen eines zentralisierten Identitätsmanagements.  

Versicherer fordern verbesserte Kontrollen von Privilegien: 86 Prozent geben an, dass Cyberversicherer im Rahmen ihrer Policies strengere Sicherheitsanforderungen durchsetzen, insbesondere im Hinblick auf die Kontrolle von Berechtigungen. 

Schatten-KI reißt Löcher in die IT-Security​ Weiterlesen »

Saudi-Arabien baut KI-Fabriken mit 500 Megawatt Leistung​

Allgemein

Saudi-Arabien will zu einem der weltweit führenden KI-Player aufsteigen und investiert dazu Milliarden. Q world – shutterstock.com Nach den USA und China droht Deutschland und den Europäern neue Konkurrenz in Sachen KI. Das Ende des Ölzeitalters vor Augen, investiert Saudi-Arabien kräftig in KI. Bis 2030 wollen die Scheichs zu einem der großen globalen KI-Playern aufsteigen. Während die Europäer über hehre Ziele und Absichtserklärungen in Sachen KI diskutieren, machen die Saudis Nägel mit Köpfen. Kurz vor dem Staatsbesuch von US-Präsident Trump gründete der Public Investment Fund (PIF) Saudi-Arabiens – einer der größten Staatsfonds der Welt – ein eigenes KI-Start-up: Humain.ai. Ehrgeizige KI-Ziele „Wir gestalten die Zukunft der KI – von führender KI-Infrastruktur bis hin zu fortschrittlicher Intelligenz“ proklamiert Humain.ai dabei ganz unbescheiden für sich auf LinkedIn. Ziel des Unternehmens ist es, eine skalierbare Infrastruktur, multimodale Basismodelle und angewandte Intelligenz zu vereinen. Dazu will man die gesamte KI-Wertschöpfungskette abdecken – von KI-Rechenzentren der nächsten Generation, fortschrittlicher KI-Infrastruktur und Cloud über modernste Daten-KI-Modelle bis hin zu führenden KI-Anwendungen und -Lösungen. Dabei ist Klotzen statt Kleckern angesagt. In wenigen Jahren wollen die Saudis KI-Fabriken mit Rechenleistungen von 500 Megawatt bauen. Und diese ehrgeizigen Pläne lassen sich die Scheichs etwas kosten: Die Rede ist von zweistelligen Milliardenbeträgen. Big Tech als Partner Schützenhilfe bei seinen Ambitionen erhält Humain.ai dabei vom Who is who der US-amerikanischen Tech-Industrie. Mit dabei sind etwa: AWS, AMD, Qualcomm, Nvidia und Cisco. Mit AMD hat Humian.ai etwa eine Kooperationsvereinbarung im Wert von zehn Milliarden Dollar unterzeichnet. Bestandteil der Vereinbarung ist das ist das komplette AMD-KI-Portfolio an CPUs, GPUs, Netzwerken, NPUs und die offene AMD-ROCm-Software. AWS unterstützt In Zusammenarbeit mit AWS will man in den nächsten Jahren eine dedizierte AWS-KI-Infrastruktur sowie UltraCluster-Netzwerke aufbauen. Ebenso sollen AWS-Services wie SageMaker und Bedrock sowie KI-Anwendungsservices wie Amazon Q genutzt werden. Beide Partner sprechen von einem Investitionsvolumen von über fünf Milliarden Dollar. Im Rahmen einer Partnerschaft mit Nvidia wird Humain mehrere hunderttausend GPUs des Herstellers einsetzen. In der ersten Phase der Bereitstellung wird es sich um einen Nvidia GB300 Grace Blackwell KI-Supercomputer mit 18.000 GB300-Chips und Nvidia-InfiniBand-Netzwerk handeln. Ferner will man die Omniverse-Plattform von Nvidia als mandantenfähiges System einsetzen, um die Beschleunigung der neuen Ära der physischen KI und Robotik durch Simulation, Optimierung und Betrieb physischer Umgebungen voranzutreiben. Auf diese Weise sollen vollständig integrierte digitale Zwillinge entstehen und der Weg des Königreichs zur Industrie 4.0 zu beschleunigt werden. Hybrid-KI von Qualcomm Auf Basis der Edge- und Rechenzentrumslösungen von Qualcomm ist eine skalierbare Cloud-to-Edge-Hybrid-KI-Inferenzlösungen für lokale und internationale Kunden geplant. Ferner ist angedacht, die Humain-Familie arabischer Sprachmodelle (ALLaM, gemeinsam mit SDAIA entwickelt) in das Ökosystem von KI-Edge-Geräten mit Prozessoren von Qualcomm zu integrieren. Mit von der Partie ist zudem Cisco. Die Netzwerker werden das neu KI-Unternehmen beim Aufbau einer offenen, skalierbaren, widerstandsfähigen und kosteneffizienten KI-Infrastruktur unterstützen. Dies soll das Land dabei unterstützen, sich als weltweit führender Standort für digitale Innovationen zu positionieren. 

Saudi-Arabien baut KI-Fabriken mit 500 Megawatt Leistung​ Saudi-Arabien will zu einem der weltweit führenden KI-Player aufsteigen und investiert dazu Milliarden.
Q world – shutterstock.com

Nach den USA und China droht Deutschland und den Europäern neue Konkurrenz in Sachen KI. Das Ende des Ölzeitalters vor Augen, investiert Saudi-Arabien kräftig in KI. Bis 2030 wollen die Scheichs zu einem der großen globalen KI-Playern aufsteigen.

Während die Europäer über hehre Ziele und Absichtserklärungen in Sachen KI diskutieren, machen die Saudis Nägel mit Köpfen. Kurz vor dem Staatsbesuch von US-Präsident Trump gründete der Public Investment Fund (PIF) Saudi-Arabiens – einer der größten Staatsfonds der Welt – ein eigenes KI-Start-up: Humain.ai.

Ehrgeizige KI-Ziele

„Wir gestalten die Zukunft der KI – von führender KI-Infrastruktur bis hin zu fortschrittlicher Intelligenz“ proklamiert Humain.ai dabei ganz unbescheiden für sich auf LinkedIn. Ziel des Unternehmens ist es, eine skalierbare Infrastruktur, multimodale Basismodelle und angewandte Intelligenz zu vereinen. Dazu will man die gesamte KI-Wertschöpfungskette abdecken – von KI-Rechenzentren der nächsten Generation, fortschrittlicher KI-Infrastruktur und Cloud über modernste Daten-KI-Modelle bis hin zu führenden KI-Anwendungen und -Lösungen.

Dabei ist Klotzen statt Kleckern angesagt. In wenigen Jahren wollen die Saudis KI-Fabriken mit Rechenleistungen von 500 Megawatt bauen. Und diese ehrgeizigen Pläne lassen sich die Scheichs etwas kosten: Die Rede ist von zweistelligen Milliardenbeträgen.

Big Tech als Partner

Schützenhilfe bei seinen Ambitionen erhält Humain.ai dabei vom Who is who der US-amerikanischen Tech-Industrie. Mit dabei sind etwa:

AWS,

AMD,

Qualcomm,

Nvidia

und Cisco.

Mit AMD hat Humian.ai etwa eine Kooperationsvereinbarung im Wert von zehn Milliarden Dollar unterzeichnet. Bestandteil der Vereinbarung ist das ist das komplette AMD-KI-Portfolio an CPUs, GPUs, Netzwerken, NPUs und die offene AMD-ROCm-Software.

AWS unterstützt

In Zusammenarbeit mit AWS will man in den nächsten Jahren eine dedizierte AWS-KI-Infrastruktur sowie UltraCluster-Netzwerke aufbauen. Ebenso sollen AWS-Services wie SageMaker und Bedrock sowie KI-Anwendungsservices wie Amazon Q genutzt werden. Beide Partner sprechen von einem Investitionsvolumen von über fünf Milliarden Dollar.

Im Rahmen einer Partnerschaft mit Nvidia wird Humain mehrere hunderttausend GPUs des Herstellers einsetzen. In der ersten Phase der Bereitstellung wird es sich um einen Nvidia GB300 Grace Blackwell KI-Supercomputer mit 18.000 GB300-Chips und Nvidia-InfiniBand-Netzwerk handeln.

Ferner will man die Omniverse-Plattform von Nvidia als mandantenfähiges System einsetzen, um die Beschleunigung der neuen Ära der physischen KI und Robotik durch Simulation, Optimierung und Betrieb physischer Umgebungen voranzutreiben. Auf diese Weise sollen vollständig integrierte digitale Zwillinge entstehen und der Weg des Königreichs zur Industrie 4.0 zu beschleunigt werden.

Hybrid-KI von Qualcomm

Auf Basis der Edge- und Rechenzentrumslösungen von Qualcomm ist eine skalierbare Cloud-to-Edge-Hybrid-KI-Inferenzlösungen für lokale und internationale Kunden geplant. Ferner ist angedacht, die Humain-Familie arabischer Sprachmodelle (ALLaM, gemeinsam mit SDAIA entwickelt) in das Ökosystem von KI-Edge-Geräten mit Prozessoren von Qualcomm zu integrieren.

Mit von der Partie ist zudem Cisco. Die Netzwerker werden das neu KI-Unternehmen beim Aufbau einer offenen, skalierbaren, widerstandsfähigen und kosteneffizienten KI-Infrastruktur unterstützen. Dies soll das Land dabei unterstützen, sich als weltweit führender Standort für digitale Innovationen zu positionieren.

Saudi-Arabien baut KI-Fabriken mit 500 Megawatt Leistung​ Weiterlesen »

Jamf will künftig auch Android-Geräte verwalten​

Allgemein

Trotz der angekündigen Android-Unterstützung sieht Jamf seinen Fokus weiterhin bei Apple-Geräten. Piotr Swat – Shutterstock.com Jamf will es für Apple-basierte Unternehmen künftig einfacher machen, neben ihren iPhone-, iPad- und Mac-Flotten auch Android-Geräte zu verwalten. Zu diesem Zweck plant der MDM-Spezialist, ab Juli in die Verwaltung von Android Devices zu expandieren. Die neue Unterstützung soll in die Lösung „Jamf for Mobile“ integriert werden.  Zur Not auch Android Devices …  Durch die Verknüpfung sollen Unternehmen in der Lage sein, Apple- und Android-Plattformen über dieselbe Jamf-Konsole zu verwalten, die sie bereits verwenden. „Seit Jahren helfen wir Unternehmen, mehr mit mobilen Geräten zu erreichen, indem wir uns auf die beste Plattform für die Arbeit konzentrieren: Apple“, erklärte Henry Patel, Chief Strategy Officer bei Jamf. „Indem wir ‚Jamf for Mobile‘ um eine grundlegende Android-Anmeldung erweitern, ermöglichen wir Apple-affinen Unternehmen, Reibungsverluste zu beseitigen – so dass ein paar Android-Geräte nicht im Weg stehen, wenn es darum geht, außergewöhnliche Apple-Experience in großem Maßstab bereitzustellen.“  Patel betonte, dass die bevorstehende Android-Unterstützung als positive Ergänzung zum bestehenden Apple-Fokus des Unternehmens zu sehen ist – nicht als Ausdruck einer nachlassenden Begeisterung für die Computing-Plattformen des Unternehmens. „Diese Ergänzung hilft uns, Kunden zu unterstützen, die in erster Linie Apple nutzen, aber auch Android in ihrer Umgebung haben – ohne sie in eine einheitliche UEM-Plattform zu zwingen. Das Engagement von Jamf für Apple bleibt ungebrochen“, fügte Patel hinzu.  Apple MDM ist ein vielfältiger Markt geworden  Es ist natürlich auch nicht von der Hand zu weisen, dass der Markt für das Management von Apple-Geräten immer wettbewerbsintensiver wird und viele neue Anbieter auf den Markt drängen. Hexnode, Fleet und andere wollen sich mit einer klaren Produktpositionierung von anderen Anbietern abheben. Und während der Markt für Apple-Geräte in Unternehmen schnell genug wächst, um mehrere Anbieter zu unterstützen, hat Jamf natürlich auch erkannt, dass einige Wettbewerber jetzt Unterstützung für mehrere Plattformen anbieten.  Mit Blick auf die Geschäftszahlen scheint diese Tatsache Jamf bislang allerdings nicht sonderlich beeindruckt zu haben. Im ersten Quartal 2025 konnte die Company ihren Umsatz um zehn Prozent auf 167,6 Millionen Dollar steigern und damit die Schätzungen der Analysten übertreffen. Der bereinigte operative Gewinn (Non-GAAP) belief sich auf 37,6 Millionen Dollar. Zu den Highlights in diesem Quartal gehörten die Übernahme von Identity Automation und ein internationales Umsatzwachstum von 16 Prozent. Das Unternehmen erwartet für das Geschäftsjahr 2025 einen Umsatzanstieg von zehn bis elf Prozent gegenüber dem Vorjahr.  Aus der Sicht der Apple-MDM-Branche scheint Jamf demnach nicht unter Druck zu stehen – noch nicht. Als einer der führenden Apple-MDM-Dienste muss das Unternehmen jedoch weiter an seinem Angebot feilen, um seine Führungsposition zu behaupten. (mb)  

Jamf will künftig auch Android-Geräte verwalten​ Trotz der angekündigen Android-Unterstützung sieht Jamf seinen Fokus weiterhin bei Apple-Geräten. Piotr Swat – Shutterstock.com

Jamf will es für Apple-basierte Unternehmen künftig einfacher machen, neben ihren iPhone-, iPad- und Mac-Flotten auch Android-Geräte zu verwalten. Zu diesem Zweck plant der MDM-Spezialist, ab Juli in die Verwaltung von Android Devices zu expandieren. Die neue Unterstützung soll in die Lösung „Jamf for Mobile“ integriert werden. 

Zur Not auch Android Devices … 

Durch die Verknüpfung sollen Unternehmen in der Lage sein, Apple- und Android-Plattformen über dieselbe Jamf-Konsole zu verwalten, die sie bereits verwenden. „Seit Jahren helfen wir Unternehmen, mehr mit mobilen Geräten zu erreichen, indem wir uns auf die beste Plattform für die Arbeit konzentrieren: Apple“, erklärte Henry Patel, Chief Strategy Officer bei Jamf. „Indem wir ‚Jamf for Mobile‘ um eine grundlegende Android-Anmeldung erweitern, ermöglichen wir Apple-affinen Unternehmen, Reibungsverluste zu beseitigen – so dass ein paar Android-Geräte nicht im Weg stehen, wenn es darum geht, außergewöhnliche Apple-Experience in großem Maßstab bereitzustellen.“ 

Patel betonte, dass die bevorstehende Android-Unterstützung als positive Ergänzung zum bestehenden Apple-Fokus des Unternehmens zu sehen ist – nicht als Ausdruck einer nachlassenden Begeisterung für die Computing-Plattformen des Unternehmens. „Diese Ergänzung hilft uns, Kunden zu unterstützen, die in erster Linie Apple nutzen, aber auch Android in ihrer Umgebung haben – ohne sie in eine einheitliche UEM-Plattform zu zwingen. Das Engagement von Jamf für Apple bleibt ungebrochen“, fügte Patel hinzu. 

Apple MDM ist ein vielfältiger Markt geworden 

Es ist natürlich auch nicht von der Hand zu weisen, dass der Markt für das Management von Apple-Geräten immer wettbewerbsintensiver wird und viele neue Anbieter auf den Markt drängen. Hexnode, Fleet und andere wollen sich mit einer klaren Produktpositionierung von anderen Anbietern abheben. Und während der Markt für Apple-Geräte in Unternehmen schnell genug wächst, um mehrere Anbieter zu unterstützen, hat Jamf natürlich auch erkannt, dass einige Wettbewerber jetzt Unterstützung für mehrere Plattformen anbieten. 

Mit Blick auf die Geschäftszahlen scheint diese Tatsache Jamf bislang allerdings nicht sonderlich beeindruckt zu haben. Im ersten Quartal 2025 konnte die Company ihren Umsatz um zehn Prozent auf 167,6 Millionen Dollar steigern und damit die Schätzungen der Analysten übertreffen. Der bereinigte operative Gewinn (Non-GAAP) belief sich auf 37,6 Millionen Dollar. Zu den Highlights in diesem Quartal gehörten die Übernahme von Identity Automation und ein internationales Umsatzwachstum von 16 Prozent. Das Unternehmen erwartet für das Geschäftsjahr 2025 einen Umsatzanstieg von zehn bis elf Prozent gegenüber dem Vorjahr. 

Aus der Sicht der Apple-MDM-Branche scheint Jamf demnach nicht unter Druck zu stehen – noch nicht. Als einer der führenden Apple-MDM-Dienste muss das Unternehmen jedoch weiter an seinem Angebot feilen, um seine Führungsposition zu behaupten. (mb) 

Jamf will künftig auch Android-Geräte verwalten​ Weiterlesen »

KI schadet Ihrer Karriere​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?quality=50&strip=all 5760w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Wie die Studie belegt, wird die Nutzung von KI-Tools noch immer kritisch beäugt. Nestor Rizhniak – Shutterstock.com Schon seit Jahrhunderten beschäftigen sich Menschen mit der Frage, ob sich der Einsatz von technischen Hilfsmitteln nachteilig auf die geistigen Fähigkeiten auswirkt. Nach Schreibwerkzeugen in der Antike sowie Taschenrechnern und PCs in der jüngeren Vergangenheit schüren nun auch KI-Tools am Arbeitsplatz diesen Verdacht – und das nicht ohne Folgen.   Die sozialen Kosten der KI-Nutzung  In einer aktuellen Studie hat die Duke University festgestellt, dass Mitarbeiter, die KI-Tools wie ChatGPT, Claude und Gemini bei der Arbeit verwenden, von Kollegen und Managern negativ in Hinblick auf ihre Kompetenz und Motivation beurteilt werden. Außerdem gibt es Hinweise darauf, dass diese sozialen Bewertungen die Beurteilung von Bewerbern auf offene Stellen beeinflussen.  „Unsere Ergebnisse offenbaren ein Dilemma für Menschen, die den Einsatz von KI-Tools in Erwägung ziehen: Obwohl KI die Produktivität steigern kann, ist ihr Einsatz mit sozialen Kosten verbunden“, schreiben die Forscher von der Duke’s Fuqua School of Business im Fachblatt PNAS.  Grundlage der Erkenntnisse waren vier Experimente mit insgesamt über 4.400 Teilnehmern. Im ersten Versuch untersuchte das Forscherteam, ob Mitarbeiter eher zögern würden, die Verwendung eines KI-Tools bei der Arbeit offenzulegen als die eines anderen (Nicht-KI-)Tools. Gleichzeitig wurden sie nach ihrer Einschätzung gefragt, wie sie extern für die Verwendung des jeweiligen Tools wahrgenommen werden.  Das Ergebnis: Die (fiktiven) KI-Tool-Nutzer gingen davon aus, als fauler, ersetzbarer, weniger kompetent und weniger fleißig wahrgenommen zu werden als die Teilnehmer ohne KI-Tools.   In einem zweiten Experiment wurde dann anhand von Beschreibungen überprüft, inwieweit sich die Außenwahrnehmung von KI- und Nicht-KI-Nutzern tatsächlich unterscheidet. Hier zeigte sich, dass die Teilnehmer diejenigen, die KI-Hilfe erhielten, durchweg als fauler, weniger kompetent, weniger fleißig, weniger unabhängig und weniger selbstbewusst bewerteten als diejenigen, die ähnliche Hilfe von Nicht-KI-Quellen oder überhaupt keine Hilfe erhielten.  Im dritten Experiment stellten die Forscher eine Einstellungssituation nach. Dabei wurde festgestellt, dass Manager, die selbst seltener KI nutzen, den Kandidaten bevorzugten, der überhaupt keine KI nutzt. Manager, die häufiger KI nutzen, zogen hingegen den Kandidaten vor, der täglich KI nutzt – eventuell, weil sie sich der damit verbundenen möglichen Produktivitätsgewinne bewusst sind.  Immerhin: Wie das abschließende Experiment ergab, sind die negativen Bewertungen der KI-Nutzer nicht in Stein gemeißelt, sondern situationsabhängig. Wenn KI nämlich als nützlich für die Aufgabe beschrieben wird, werden Kandidaten, die KI einsetzen, als für die Aufgabe besser geeignet wahrgenommen. Wenn KI für die Aufgabe jedoch nicht nützlich ist, werden Kandidaten, die KI verwenden, im Vergleich zu denen, die keine KI verwenden, bei der Aufgabenanpassung benachteiligt.  KI-Diskriminierung nicht in Stein gemeißelt  Die Forscher weisen allerdings darauf hin, dass die Verwendung von KI-Tools in ihrer Studie bewusst sehr allgemein gehalten wurde. Entsprechend könne sich die Wahrnehmung von Menschen, die KI nutzen, beispielsweise ändern, wenn das Werkzeug bestehende Arbeitsprozesse ergänze oder ganze Aufgaben automatisiere. Ebenso könnten Menschen weniger geneigt sein, diejenigen, die KI verwenden, negativ zu bewerten, wenn das KI-System in eine vertrautere Technologie eingebettet ist, etwa einem Textverarbeitungsprogramm.  Außerdem schließen die Autoren nicht aus, dass sich die Wahrnehmung mit der Zeit ändert, wenn KI-Tools alltäglicher werden und sich die organisatorischen Normen für ihre Nutzung weiterentwickeln.  

KI schadet Ihrer Karriere​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?quality=50&strip=all 5760w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Wie die Studie belegt, wird die Nutzung von KI-Tools noch immer kritisch beäugt. Nestor Rizhniak – Shutterstock.com

Schon seit Jahrhunderten beschäftigen sich Menschen mit der Frage, ob sich der Einsatz von technischen Hilfsmitteln nachteilig auf die geistigen Fähigkeiten auswirkt. Nach Schreibwerkzeugen in der Antike sowie Taschenrechnern und PCs in der jüngeren Vergangenheit schüren nun auch KI-Tools am Arbeitsplatz diesen Verdacht – und das nicht ohne Folgen.  

Die sozialen Kosten der KI-Nutzung 

In einer aktuellen Studie hat die Duke University festgestellt, dass Mitarbeiter, die KI-Tools wie ChatGPT, Claude und Gemini bei der Arbeit verwenden, von Kollegen und Managern negativ in Hinblick auf ihre Kompetenz und Motivation beurteilt werden. Außerdem gibt es Hinweise darauf, dass diese sozialen Bewertungen die Beurteilung von Bewerbern auf offene Stellen beeinflussen. 

„Unsere Ergebnisse offenbaren ein Dilemma für Menschen, die den Einsatz von KI-Tools in Erwägung ziehen: Obwohl KI die Produktivität steigern kann, ist ihr Einsatz mit sozialen Kosten verbunden“, schreiben die Forscher von der Duke’s Fuqua School of Business im Fachblatt PNAS. 

Grundlage der Erkenntnisse waren vier Experimente mit insgesamt über 4.400 Teilnehmern. Im ersten Versuch untersuchte das Forscherteam, ob Mitarbeiter eher zögern würden, die Verwendung eines KI-Tools bei der Arbeit offenzulegen als die eines anderen (Nicht-KI-)Tools. Gleichzeitig wurden sie nach ihrer Einschätzung gefragt, wie sie extern für die Verwendung des jeweiligen Tools wahrgenommen werden.  Das Ergebnis: Die (fiktiven) KI-Tool-Nutzer gingen davon aus, als fauler, ersetzbarer, weniger kompetent und weniger fleißig wahrgenommen zu werden als die Teilnehmer ohne KI-Tools.  

In einem zweiten Experiment wurde dann anhand von Beschreibungen überprüft, inwieweit sich die Außenwahrnehmung von KI- und Nicht-KI-Nutzern tatsächlich unterscheidet. Hier zeigte sich, dass die Teilnehmer diejenigen, die KI-Hilfe erhielten, durchweg als fauler, weniger kompetent, weniger fleißig, weniger unabhängig und weniger selbstbewusst bewerteten als diejenigen, die ähnliche Hilfe von Nicht-KI-Quellen oder überhaupt keine Hilfe erhielten. 

Im dritten Experiment stellten die Forscher eine Einstellungssituation nach. Dabei wurde festgestellt, dass Manager, die selbst seltener KI nutzen, den Kandidaten bevorzugten, der überhaupt keine KI nutzt. Manager, die häufiger KI nutzen, zogen hingegen den Kandidaten vor, der täglich KI nutzt – eventuell, weil sie sich der damit verbundenen möglichen Produktivitätsgewinne bewusst sind. 

Immerhin: Wie das abschließende Experiment ergab, sind die negativen Bewertungen der KI-Nutzer nicht in Stein gemeißelt, sondern situationsabhängig. Wenn KI nämlich als nützlich für die Aufgabe beschrieben wird, werden Kandidaten, die KI einsetzen, als für die Aufgabe besser geeignet wahrgenommen. Wenn KI für die Aufgabe jedoch nicht nützlich ist, werden Kandidaten, die KI verwenden, im Vergleich zu denen, die keine KI verwenden, bei der Aufgabenanpassung benachteiligt. 

KI-Diskriminierung nicht in Stein gemeißelt 

Die Forscher weisen allerdings darauf hin, dass die Verwendung von KI-Tools in ihrer Studie bewusst sehr allgemein gehalten wurde. Entsprechend könne sich die Wahrnehmung von Menschen, die KI nutzen, beispielsweise ändern, wenn das Werkzeug bestehende Arbeitsprozesse ergänze oder ganze Aufgaben automatisiere. Ebenso könnten Menschen weniger geneigt sein, diejenigen, die KI verwenden, negativ zu bewerten, wenn das KI-System in eine vertrautere Technologie eingebettet ist, etwa einem Textverarbeitungsprogramm. 

Außerdem schließen die Autoren nicht aus, dass sich die Wahrnehmung mit der Zeit ändert, wenn KI-Tools alltäglicher werden und sich die organisatorischen Normen für ihre Nutzung weiterentwickeln. 

KI schadet Ihrer Karriere​ Weiterlesen »

Microsoft streicht über 6.000 Stellen​

Allgemein

width=”6000″ height=”3375″ sizes=”(max-width: 6000px) 100vw, 6000px”>Microsoft will drei Prozent seiner Belegschaft vor die Tür setzen.HJBC – shutterstock.com Microsoft plant Medienberichten zufolge, drei Prozent seiner Mitarbeiter weltweit zu entlassen – was circa 6.800 Stellen entspricht. Potenziell ist dabei kaum ein Mitarbeiter sicher: Betroffen sind demnach sämtliche Ebenen/Rollen, Teams und Regionen weltweit. Im Gegensatz zur letzten, kleineren Layoff-Runde bei Microsoft im Januar 2025 sollen die nun angestrebten Entlassungen nicht auf der Grundlage der individuellen Mitarbeiterleistung erfolgen. Wie ein Bericht von Business Insider nahelegt, gehe es Microsoft bei den Entlassungen auch darum, aus seiner Sicht unnötige Management-Ebenen aufzulösen und den Anteil von Mitarbeitern zu reduzieren, die nicht programmieren. Auf Anfrage erklärte ein Microsoft-Sprecher: “Wir setzen weiterhin organisatorische Veränderungen um, die notwendig sind, um das Unternehmen für den Erfolg in einem dynamischen Markt optimal zu positionieren.” “Reine Routine” Patrick Moorhead, Gründer von Moor Insights & Strategy, “übersetzt”: “Technologieunternehmen wie Microsoft passen ihre Belegschaft an, um sich auf die AI Delivery und den internen Einsatz von KI-Tools auszurichten. KI-Tools bereitzustellen, erfordert unterschiedliche Entwickler- und Datenkompetenzen und die KI-Tools von Microsoft sorgen für effizientere Mitarbeiter.” “Ein regelmäßiger Personalabbau von drei bis fünf Prozent ist für Unternehmen wie Microsoft, Cisco, Meta, Salesforce oder IBM oft reine Routine”, gibt John Annand, Practice Lead bei der Info-Tech Research Group, zu bedenken. Zwar sei die Situation für die Betroffenen verheerend – die Kunden würden davon in der Regel jedoch nichts spüren, so lange keine ganzen Abteilungen oder Produktteams geschlossen würden. Der Analyst fügt hinzu: „Für die Aktionäre könnte sich das sogar positiv auswirken, schließlich belohnt der Markt Rentabilitätssteigerungen.“ Laut Melody Brue, Chefanalystin bei Moor Insights, könnten die geplanten Entlassungen mit Blick auf Microsofts KI-Portfolio auch als eine Art “Leistungsnachweis” verstanden werden: “Wenn Unternehmen, die KI-Tools verkaufen, die die Effizienz steigern sollen, Mitarbeiter entlassen können, liefert das einen konkreten Beweis dafür, dass ihre Technologie hält, was sie verspricht.” Gartner-Analyst Jason Wong nimmt hingegen mit Blick auf die angekündigten Layoffs bei Microsoft eine langfristige Perspektive ein: “Microsoft hat in den letzten zwei Jahren einige bedeutende organisatorische und operative Veränderungen vorgenommen. Beispielsweise hat man die Investitionen in Hololens eingestellt, eine neue CoreAI-Engineering-Abteilung auf die Beine gestellt und die KI-Bemühungen unter der Ägide von Mustafa Suleyman zusammengeführt.” Diese Veränderungen seien wahrscheinlich der Grund für die angekündigten Personalveränderungen. Microsoft passe seine Talente und Ressourcen neu an, um neue Produkte und Dienstleistungen liefern zu können, so der Gartner-Mann. Jason Andersen, auch Analyst bei Moor Insights, erkennt in den angekündigten Entlassungen bei Microsoft ebenfalls in erster Linie eine KI-getriebene Neuausrichtung von Ressourcen: “Methoden wie Scrum oder andere agile Ansätze können mit KI-Tools und entsprechend fähigen Mitarbeitern erheblich optimiert werden. Das führt zu einem geringeren Reporting- und Datenerfassungsaufwand, sodass eine Reduzierung in dieser Größenordnung sinnvoll ist.” Für Unternehmenskunden sei das positiv, weil mehr Geld in die Entwicklung besserer Produkte fließe – statt in interne Prozesse bei Microsoft. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Microsoft streicht über 6.000 Stellen​ width=”6000″ height=”3375″ sizes=”(max-width: 6000px) 100vw, 6000px”>Microsoft will drei Prozent seiner Belegschaft vor die Tür setzen.HJBC – shutterstock.com

Microsoft plant Medienberichten zufolge, drei Prozent seiner Mitarbeiter weltweit zu entlassen – was circa 6.800 Stellen entspricht. Potenziell ist dabei kaum ein Mitarbeiter sicher: Betroffen sind demnach sämtliche Ebenen/Rollen, Teams und Regionen weltweit. Im Gegensatz zur letzten, kleineren Layoff-Runde bei Microsoft im Januar 2025 sollen die nun angestrebten Entlassungen nicht auf der Grundlage der individuellen Mitarbeiterleistung erfolgen.

Wie ein Bericht von Business Insider nahelegt, gehe es Microsoft bei den Entlassungen auch darum, aus seiner Sicht unnötige Management-Ebenen aufzulösen und den Anteil von Mitarbeitern zu reduzieren, die nicht programmieren.

Auf Anfrage erklärte ein Microsoft-Sprecher: “Wir setzen weiterhin organisatorische Veränderungen um, die notwendig sind, um das Unternehmen für den Erfolg in einem dynamischen Markt optimal zu positionieren.”

“Reine Routine”

Patrick Moorhead, Gründer von Moor Insights & Strategy, “übersetzt”: “Technologieunternehmen wie Microsoft passen ihre Belegschaft an, um sich auf die AI Delivery und den internen Einsatz von KI-Tools auszurichten. KI-Tools bereitzustellen, erfordert unterschiedliche Entwickler- und Datenkompetenzen und die KI-Tools von Microsoft sorgen für effizientere Mitarbeiter.”

“Ein regelmäßiger Personalabbau von drei bis fünf Prozent ist für Unternehmen wie Microsoft, Cisco, Meta, Salesforce oder IBM oft reine Routine”, gibt John Annand, Practice Lead bei der Info-Tech Research Group, zu bedenken. Zwar sei die Situation für die Betroffenen verheerend – die Kunden würden davon in der Regel jedoch nichts spüren, so lange keine ganzen Abteilungen oder Produktteams geschlossen würden. Der Analyst fügt hinzu: „Für die Aktionäre könnte sich das sogar positiv auswirken, schließlich belohnt der Markt Rentabilitätssteigerungen.“

Laut Melody Brue, Chefanalystin bei Moor Insights, könnten die geplanten Entlassungen mit Blick auf Microsofts KI-Portfolio auch als eine Art “Leistungsnachweis” verstanden werden: “Wenn Unternehmen, die KI-Tools verkaufen, die die Effizienz steigern sollen, Mitarbeiter entlassen können, liefert das einen konkreten Beweis dafür, dass ihre Technologie hält, was sie verspricht.”

Gartner-Analyst Jason Wong nimmt hingegen mit Blick auf die angekündigten Layoffs bei Microsoft eine langfristige Perspektive ein: “Microsoft hat in den letzten zwei Jahren einige bedeutende organisatorische und operative Veränderungen vorgenommen. Beispielsweise hat man die Investitionen in Hololens eingestellt, eine neue CoreAI-Engineering-Abteilung auf die Beine gestellt und die KI-Bemühungen unter der Ägide von Mustafa Suleyman zusammengeführt.”

Diese Veränderungen seien wahrscheinlich der Grund für die angekündigten Personalveränderungen. Microsoft passe seine Talente und Ressourcen neu an, um neue Produkte und Dienstleistungen liefern zu können, so der Gartner-Mann.

Jason Andersen, auch Analyst bei Moor Insights, erkennt in den angekündigten Entlassungen bei Microsoft ebenfalls in erster Linie eine KI-getriebene Neuausrichtung von Ressourcen: “Methoden wie Scrum oder andere agile Ansätze können mit KI-Tools und entsprechend fähigen Mitarbeitern erheblich optimiert werden. Das führt zu einem geringeren Reporting- und Datenerfassungsaufwand, sodass eine Reduzierung in dieser Größenordnung sinnvoll ist.”

Für Unternehmenskunden sei das positiv, weil mehr Geld in die Entwicklung besserer Produkte fließe – statt in interne Prozesse bei Microsoft. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Microsoft streicht über 6.000 Stellen​ Weiterlesen »

Was ist ein Target Operating Model?​

Allgemein

Mit Hilfe des Target Operating Models lassen sich Visionen in der Unternehmenspraxis umsetzen. Foto: kan_chana – shutterstock.comDie Digitalisierung ist allgegenwärtig. Um immer “up to date” und wettbewerbsfähig zu bleiben, müssen sich Unternehmen ständig neu erfinden: Systeme optimieren, Prozesse verschlanken und Kosten reduzieren. Unternehmensvisionen und deren Umsetzung liegen jedoch oft weit auseinander. Als Verbindungsstück entstand so das Target Operating Model.Target Operating Model – DefinitionDas Target Operating Model oder zu Deutsch “Zielbetriebsmodell” hilft Unternehmen, zukünftige Optimierungsstrategien zu definieren und umzusetzen. Die Strategien variieren dabei in Komplexität und Detailgrad. Das Zielbetriebsmodell bildet die Brücke zwischen einer Entwicklungsidee und der Implementierung in die bestehenden Organisationsstrukturen (Mitarbeiter, Prozesse und Technologie) eines Unternehmens.Die Idee des Modells besteht darin, durch die Analyse des aktuellen Zustands (“as is”), Lücken zu schließen und Vorgänge zu optimieren, um so den festgelegten Zielzustand (“to be”) zu erreichen. Die einzelnen Schritte (Milestones) auf dem Weg zum Ziel werden in einer sogenannten Roadmap festgehalten. Das Motto lautet: Der Weg ist das Ziel. Zielbetriebsmodell – VorteileDurch die Digitalisierung ist es für Unternehmen weltweit heute unverzichtbar, schnell auf unterschiedliche Marktveränderungen reagieren zu können. Festgefahrene Prozesse und Strukturen können Firmen dabei jedoch im Weg stehen. Hier kann das Target Operating Model helfen:Mit Hilfe des Target Operating Models wird statt der aufgezwungenen Veränderung ein gemeinsames Ziel in den Vordergrund gestellt.Durch seine Transparenz und detaillierte Beschreibung wird der Transformationsprozess für jeden Mitarbeiter klar und nachvollziehbar. Die Anpassungen am Unternehmen können mit Hilfe der Roadmap organisiert und strukturiert durchgeführt werden. Der Erfolg der Umsetzung lässt sich anhand der in Zahlen übersetzten Milestones messen.Target Operating Model – ErfolgskriterienDamit der Einsatz eines Target Operating Models auch wirklich erfolgreich ist, müssen einige Schritte beachtet werden. Klare Zielsetzung: Die Erwartungen an ein neu aufgestelltes Unternehmen sind von Mitarbeiter zu Mitarbeiter unterschiedlich. Ein umfassender Austausch über Prioritäten und Ziele des Target Operating Models ist dementsprechend für eine effektive sowie effiziente Umsetzung des Models unverzichtbar.“Leading by example”: Damit das Target Operating Model so erfolgreich wie möglich ablaufen kann, ist es wichtig, dass CEOs und andere Führungskräfte an der Entwicklung der Roadmap sowie des Zielzustandes beteiligt sind. Wenn engagiertes Führungspersonal hinter dem Wandlungsprozess steht, können so mehr Mitarbeiter für den Umschwung begeistert werden. Dies erleichtert außerdem die Implementierung von neuen Prozessen in alten und oft festgefahrenen Strukturen.Analyse des Istzustands: Es gibt kein Ziel ohne Start. Das bedeutet, dass die Ausgangs-Basis erst ausführlich analysiert werden muss, bevor man das Zielszenario definieren kann. Eine SWOT-Analyse (Strengths, Weaknesses, Opportunities and Threats) hilft dabei, die größten Stärken sowie Schwächen eines Unternehmens zu erfassen. Auch ein direkter Vergleich zu Konkurrenzfirmen ist dabei sehr wichtig. Außerdem sollte sich das Unternehmen als “Großes Ganzes” sehen, so dass jede Mitarbeiterin und jeder Mitarbeiter in allen Abteilungen sich schlussendlich im Target Ooperating Model und Zielszenario wiederfinden kann.Ausarbeitung der Roadmap: Beim Erstellen der Roadmap geht es ganz bewusst darum, den Finger in die Wunde zu legen und Schwachstellen sowie Fehler im eigenen System zu erkennen. Nur wenn ein Unternehmen diese Punkte benennt, können die richtigen Anpassungen vorgenommen und in messbare Teilziele übersetzt werden. Diese Milestones sind Anhaltspunkte und beschreiben, wie die Transformation ablaufen sollte.Wenn all diese Schritte befolgt werden, sollte einer Umsetzung der Unternehmensziele nichts mehr im Weg stehen. (kf) 

Was ist ein Target Operating Model?​ Mit Hilfe des Target Operating Models lassen sich Visionen in der Unternehmenspraxis umsetzen.
Foto: kan_chana – shutterstock.comDie Digitalisierung ist allgegenwärtig. Um immer “up to date” und wettbewerbsfähig zu bleiben, müssen sich Unternehmen ständig neu erfinden: Systeme optimieren, Prozesse verschlanken und Kosten reduzieren. Unternehmensvisionen und deren Umsetzung liegen jedoch oft weit auseinander. Als Verbindungsstück entstand so das Target Operating Model.Target Operating Model – DefinitionDas Target Operating Model oder zu Deutsch “Zielbetriebsmodell” hilft Unternehmen, zukünftige Optimierungsstrategien zu definieren und umzusetzen. Die Strategien variieren dabei in Komplexität und Detailgrad. Das Zielbetriebsmodell bildet die Brücke zwischen einer Entwicklungsidee und der Implementierung in die bestehenden Organisationsstrukturen (Mitarbeiter, Prozesse und Technologie) eines Unternehmens.Die Idee des Modells besteht darin, durch die Analyse des aktuellen Zustands (“as is”), Lücken zu schließen und Vorgänge zu optimieren, um so den festgelegten Zielzustand (“to be”) zu erreichen. Die einzelnen Schritte (Milestones) auf dem Weg zum Ziel werden in einer sogenannten Roadmap festgehalten. Das Motto lautet: Der Weg ist das Ziel.

Zielbetriebsmodell – VorteileDurch die Digitalisierung ist es für Unternehmen weltweit heute unverzichtbar, schnell auf unterschiedliche Marktveränderungen reagieren zu können. Festgefahrene Prozesse und Strukturen können Firmen dabei jedoch im Weg stehen. Hier kann das Target Operating Model helfen:Mit Hilfe des Target Operating Models wird statt der aufgezwungenen Veränderung ein gemeinsames Ziel in den Vordergrund gestellt.Durch seine Transparenz und detaillierte Beschreibung wird der Transformationsprozess für jeden Mitarbeiter klar und nachvollziehbar. Die Anpassungen am Unternehmen können mit Hilfe der Roadmap organisiert und strukturiert durchgeführt werden. Der Erfolg der Umsetzung lässt sich anhand der in Zahlen übersetzten Milestones messen.Target Operating Model – ErfolgskriterienDamit der Einsatz eines Target Operating Models auch wirklich erfolgreich ist, müssen einige Schritte beachtet werden. Klare Zielsetzung: Die Erwartungen an ein neu aufgestelltes Unternehmen sind von Mitarbeiter zu Mitarbeiter unterschiedlich. Ein umfassender Austausch über Prioritäten und Ziele des Target Operating Models ist dementsprechend für eine effektive sowie effiziente Umsetzung des Models unverzichtbar.“Leading by example”: Damit das Target Operating Model so erfolgreich wie möglich ablaufen kann, ist es wichtig, dass CEOs und andere Führungskräfte an der Entwicklung der Roadmap sowie des Zielzustandes beteiligt sind. Wenn engagiertes Führungspersonal hinter dem Wandlungsprozess steht, können so mehr Mitarbeiter für den Umschwung begeistert werden. Dies erleichtert außerdem die Implementierung von neuen Prozessen in alten und oft festgefahrenen Strukturen.Analyse des Istzustands: Es gibt kein Ziel ohne Start. Das bedeutet, dass die Ausgangs-Basis erst ausführlich analysiert werden muss, bevor man das Zielszenario definieren kann. Eine SWOT-Analyse (Strengths, Weaknesses, Opportunities and Threats) hilft dabei, die größten Stärken sowie Schwächen eines Unternehmens zu erfassen. Auch ein direkter Vergleich zu Konkurrenzfirmen ist dabei sehr wichtig. Außerdem sollte sich das Unternehmen als “Großes Ganzes” sehen, so dass jede Mitarbeiterin und jeder Mitarbeiter in allen Abteilungen sich schlussendlich im Target Ooperating Model und Zielszenario wiederfinden kann.Ausarbeitung der Roadmap: Beim Erstellen der Roadmap geht es ganz bewusst darum, den Finger in die Wunde zu legen und Schwachstellen sowie Fehler im eigenen System zu erkennen. Nur wenn ein Unternehmen diese Punkte benennt, können die richtigen Anpassungen vorgenommen und in messbare Teilziele übersetzt werden. Diese Milestones sind Anhaltspunkte und beschreiben, wie die Transformation ablaufen sollte.Wenn all diese Schritte befolgt werden, sollte einer Umsetzung der Unternehmensziele nichts mehr im Weg stehen. (kf)

Was ist ein Target Operating Model?​ Weiterlesen »

Die wichtigsten Network-Observability-Zertifizierungen​

Allgemein

Netzwerkexperten, die Observability-Daten zu nutzen wissen, sind bei Arbeitgebern gefragt(er).ESB Professional | shutterstock.com Weil immer mehr Unternehmen auf hybride Cloud-Infrastrukturen, Edge Computing und KI-gestützte Automatisierung setzen, lösen sich die traditionellen Grenzen des Netzwerkmanagements zunehmend auf: Es reicht nicht mehr, die Verfügbarkeit zu überwachen oder ausgefallene Router anzupingen. Vielmehr brauchen Netzwerk-Praktiker angesichts der heute üblichen, dynamischen und verteilten Umgebungen insbesondere Ende-zu-Ende-Transparenz – sowohl in der Cloud als auch On-Premises. Diesen Überblick über sämtliche bewegliche Teile versprechen Network-Observability-Plattformen. Die Daten, die sie liefern, gewähren Einblicke in die Performance von Netzwerk-, Anwendungs- und Serverkomponenten und geben Warnmeldungen aus, sobald negative Auswirkungen auf die Customer Experience drohen. Allerdings sind auch entsprechend fähige Netzwerk-Profis nötig, um solche Observability-Daten zu analysieren und zu interpretieren – und Fehler zu beheben. Die dafür nötigen Kompetenzen können unter anderem die folgenden Anbieterzertifizierungen vermitteln, beziehungsweise bescheinigen.  Cisco Certified Network Professional (CCNP) Eine Zertifizierung zum Cisco Certified Network Professional (CCNP) ist mit Fokus auf verschiedene IT-Bereiche möglich, darunter etwa Enterprise, Data Center oder Service Provider. Die zugehörigen Kurse versprechen dabei, Network Engineers alle nötigen Skills zu vermitteln, um komplexe Netzwerkinfrastrukturen zu konzipieren, zu implementieren und zu warten. Das beinhaltet auch etliche Aspekte, die mit Blick auf Observability(-Daten) eine zentrale Rolle spielen. Etwa: Netzwerkprotokolle, Security-Konfigurationen und Automatisierung. Zielgruppe: Die CCNP-Zertifizierung richtet sich an Netzwerk-Ingenieure, -Administratoren, -Architekten, sowie System- und Infrastruktur-Ingenieure und IT-Operations-Profis, die ihre Fähigkeiten in einem bestimmten (Cisco-)Technologiebereich verbessern beziehungsweise nachweisen möchten; Vermittelte Schlüsselkompetenzen: Advanced Routing, WAN, (Netzwerk-)Sicherheit, Automatisierung, Virtualisierung, IT-Konnektivität, VPN-Services, Infrastrukturdesign, Wiresless-Netzwerke; Prüfungskosten: Kernprüfung 400 Dollar, Vertiefungsprüfung 300 Dollar; Voraussetzungen: keine formalen Voraussetzungen; Cisco empfiehlt drei bis fünf Jahre praktische Erfahrung mit Enterprise-Netzwerklösungen; Datadog Fundamentals Die grundlegende Zertifizierung für die Datadog-Plattform prüft, respektive bescheinigt Kernkompetenzen, um diese effektiv zu nutzen. Zielgruppe: DevOps-Ingenieure, Systemadministratoren, Site Reliability Engineers (SREs), Cloud-Architekten und technische Führungskräfte, die ihre Datadog-Plattform-Skills sowie Best Practices für Observability und Monitoring unter Beweis stellen möchten; Vermittelte Schlüsselkompetenzen: Observability-Grundprinzipien, Application Performance Monitoring, Log Management, Datenvisualisierung, Tagging, Monitoring, Alerting, Troubleshooting, Datenerfassung, Cloud Monitoring, Netzwerk- und Agenten-Konfiguration; Prüfungskosten: 100 Dollar; Voraussetzungen: keine formalen Voraussetzungen; „Learning Paths“ zur Vorbereitung; Dynatrace Advanced Observability Specialist Die Dynatrace-Zertifizierung zum Advanced Observability Specialist vermittelt Netzwerkexperten fortgeschrittene Konzepte in den Bereichen Cloud Monitoring, Netzwerke, Virtualisierung und Container-Umgebungen. Zielgruppe: SREs, DevOps Engineers, Cloud-Architekten, Performance-Spezialisten und IT-Operations-Fachleute; Vermittelte Schlüsselkompetenzen: Ende-zu-Ende-Observability in Cloud- und Anwendungsumgebungen inklusive Security-Aspekten implementieren; Dynatrace-Komponenten wie ActiveGate, App Engine, Automation Engine, Custom/Dynatrace API, Dynatrace UI, Synthetics, Extensions, Berechtigungen und Richtlinien nutzen; Prüfungskosten: 550 Dollar; Voraussetzungen: praktische Erfahrung mit Dynatrace-Lösungen sowie ein grundlegendes Verständnis von Observability-Konzepten; Elastic Certified Observability Engineer Für Netzwerkprofis, die mit der Open-Source-Toolsuite Elastic Stack arbeiten, um Observability-Pipelines für Infrastruktur, Applikationen und Services zu managen, empfiehlt sich die Zertifizierung zum Elastic Certified Observability Engineer. Zielgruppe: SREs, Datenarchitekten, Softwareentwickler, Systemadministratoren und andere IT-Experten, die Observability-Lösungen implementieren. Vermittelte Schlüsselkompetenzen: Elastic Agent konfigurieren und nutzen, um Daten zu erfassen, Dashboards in Kibana erstellen und managen, Warnmeldungen für kritische Metriken einrichten, Daten mit Ingest-Pipelines strukturieren und verarbeiten, Echtzeitprotokolle, Metriken und App-Performance-Daten überwachen, analysieren und in umsetzbare Erkenntnisse übersetzen; Prüfungskosten: 500 Dollar; Voraussetzungen: keine formalen Voraussetzungen; praktische Erfahrung mit dem Elastic Stack ist empfehlenswert; New Relic Certified Performance Engineer-Professional (PEP) Eine Zertifizierung zum New Relic Certified Performance Engineer-Professional (PEP) bescheinigt mit Blick auf die Produkte und Services des Herstellers fundierte Observability- und Performance-Optimierungs-Kenntnisse. Zielgruppe: Performance Engineers, SREs und DevOps-Experten; Vermittelte Schlüsselkompetenzen: Observability-Strategien mit New Relic entwerfen und implementieren, Telemetriedaten über APM, Infrastruktur, Protokolle und Echtzeit-Monitoring-Quellen integrieren, komplexe Leistungsprobleme beheben, Systemzustand mit Dashboards, Warnmeldungen und synthetischen Daten überwachen,   Best Practices für die Leistungsoptimierung in dynamischen Umgebungen anwenden; Prüfungskosten: 175 Dollar; Voraussetzungen: Interessenten sollten über Vorkenntnisse mit New Relic verfügen und idealerweise bereits eine Zertifizierung auf Associate-Ebene vorweisen können; empfehlenswert sind außerdem mindestens zwei Jahren Erfahrung mit Performance-Analysen, Monitoring- und Management-Tools sowie Kenntnisse in Softwareentwicklung und Infratrukturmanagement; SolarWinds Certified Professional (SCP) Netzwerkprofis, die eine Zertifizierung als SolarWinds Certified Professional (SCP) vorweisen können, wissen wie man die Produkte des IT-Serviceanbieters einsetzt, um Netzwerke zu überwachen, zu analysieren sowie um Anwendungen bereitzustellen, zu konfigurieren und zu managen.  Zielgruppe: Netzwerkingenieure, Systemadministratoren, Managed Service Provider und IT-Operations-Profis, die SolarWinds-Produkte verwenden; Vermittelte Schlüsselkompetenzen: Netzwerkgeräte, Server und Anwendungen mit SolarWinds-Tools überwachen, Performance-Baselines und SLAs entwerfen, effiziente Warnsysteme und Dashboards erstellen, Bottlenecks mit Hilfe von historischen und Echtzeit-Daten identifizieren, verschiedene SolarWinds-Module in die Hybrid-Cloud-Observability-Plattform integrieren; Prüfungskosten: 200 Dollar; Voraussetzungen: keine formalen Voraussetzungen; SolarWinds empfiehlt mindestens ein Jahr praktische Erfahrung in einer technischen Funktion im Bereich Netzwerk-, System- oder Anwendungsmanagement sowie sechs Monaten Erfahrung mit seinen  Produkten; Splunk Core Certified Power User/Admin Die verbriefte Fähigkeit, Splunk-Lösungen für die „Operational Visibilit“ zu nutzen, bescheinigt die Zertifizierung zum Splunk Core Certified Power User/Admin. Zielgruppe: Systemadministratoren, Datenanalysten, IT-Manager, Sicherheitsexperten, DevOps-Praktiker und andere IT-Fachleute, die dafür zuständig sind, Splunk-Deployments zu managen. Vermittelte Schlüsselkompetenzen: Benutzeroberfläche von Splunk navigieren, grundlegender Suchbefehle nutzen, Knowledge-Objekte wie Event-Typen, Tags und Aliasse erstellen und teilen, Daten anreichern mit Fields, Lookups und Workflow Actions, interaktiver Dashboards und Visualisierungen erstellen. Prüfungskosten: 130 Dollar; Voraussetzungen: keine formalen Voraussetzungen; Splunk empfiehlt Interessenten jedoch grundlegende, praktische Erfahrung; ThousandEyes Enterprise Network Assurance (ENNA) Die Zertifizierung zum Enterprise Network Assurance Specialist (ENNA) ist Bestandteil von Ciscos CCNP-Enterprise-Zertifizierung und soll aktuellen Branchenanforderungen mit Blick auf Digital Experience Monitoring und Assurance gerecht werden. Integraler Bestandteil der ENNA-Prüfung ist entsprechend die Assurance-Plattform von Cisco, respektive ThousandEyes. Zielgruppe: Monitoring- und Network-Operations-Engineers, Helpdesk-Administratoren, Network Operations Center Engineers, SREs, Netzwerk- und Cloud-Architekten, sowie Platform Engineers; Vermittelte Schlüsselkompetenzen: Grundlagen der Netzwerkkonfiguration und -integration, Datenerfassungs-Tools einrichten und optimieren, Netzwerkdaten analysieren, um Probleme zu identifizieren und zu beheben, Warnsystemen erstellen, um die Netzwerkintegrität aufrechtzuerhalten; Prüfungskosten: 300 Dollar; Voraussetzungen: Cisco empfiehlt grundlegende Kenntnisse in Skripting oder Automatisierung sowie fundiertes Wissen über grundlegende Netzwerkkonzepte; darüber hinaus sind auch praktische Erfahrungen mit Cisco-Infrastruktur und Plattformen wie ThousandEyes, Cisco Catalyst Center, Cisco SD-WAN oder Meraki empfehlenswert; (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Die wichtigsten Network-Observability-Zertifizierungen​ Netzwerkexperten, die Observability-Daten zu nutzen wissen, sind bei Arbeitgebern gefragt(er).ESB Professional | shutterstock.com

Weil immer mehr Unternehmen auf hybride Cloud-Infrastrukturen, Edge Computing und KI-gestützte Automatisierung setzen, lösen sich die traditionellen Grenzen des Netzwerkmanagements zunehmend auf: Es reicht nicht mehr, die Verfügbarkeit zu überwachen oder ausgefallene Router anzupingen. Vielmehr brauchen Netzwerk-Praktiker angesichts der heute üblichen, dynamischen und verteilten Umgebungen insbesondere Ende-zu-Ende-Transparenz – sowohl in der Cloud als auch On-Premises.

Diesen Überblick über sämtliche bewegliche Teile versprechen Network-Observability-Plattformen. Die Daten, die sie liefern, gewähren Einblicke in die Performance von Netzwerk-, Anwendungs- und Serverkomponenten und geben Warnmeldungen aus, sobald negative Auswirkungen auf die Customer Experience drohen.

Allerdings sind auch entsprechend fähige Netzwerk-Profis nötig, um solche Observability-Daten zu analysieren und zu interpretieren – und Fehler zu beheben. Die dafür nötigen Kompetenzen können unter anderem die folgenden Anbieterzertifizierungen vermitteln, beziehungsweise bescheinigen. 

Cisco Certified Network Professional (CCNP)

Eine Zertifizierung zum Cisco Certified Network Professional (CCNP) ist mit Fokus auf verschiedene IT-Bereiche möglich, darunter etwa Enterprise, Data Center oder Service Provider. Die zugehörigen Kurse versprechen dabei, Network Engineers alle nötigen Skills zu vermitteln, um komplexe Netzwerkinfrastrukturen zu konzipieren, zu implementieren und zu warten. Das beinhaltet auch etliche Aspekte, die mit Blick auf Observability(-Daten) eine zentrale Rolle spielen. Etwa:

Netzwerkprotokolle,

Security-Konfigurationen und

Automatisierung.

Zielgruppe: Die CCNP-Zertifizierung richtet sich an Netzwerk-Ingenieure, -Administratoren, -Architekten, sowie System- und Infrastruktur-Ingenieure und IT-Operations-Profis, die ihre Fähigkeiten in einem bestimmten (Cisco-)Technologiebereich verbessern beziehungsweise nachweisen möchten;

Vermittelte Schlüsselkompetenzen:

Advanced Routing,

WAN,

(Netzwerk-)Sicherheit,

Automatisierung,

Virtualisierung,

IT-Konnektivität,

VPN-Services,

Infrastrukturdesign,

Wiresless-Netzwerke;

Prüfungskosten: Kernprüfung 400 Dollar, Vertiefungsprüfung 300 Dollar;

Voraussetzungen: keine formalen Voraussetzungen; Cisco empfiehlt drei bis fünf Jahre praktische Erfahrung mit Enterprise-Netzwerklösungen;

Datadog Fundamentals

Die grundlegende Zertifizierung für die Datadog-Plattform prüft, respektive bescheinigt Kernkompetenzen, um diese effektiv zu nutzen.

Zielgruppe: DevOps-Ingenieure, Systemadministratoren, Site Reliability Engineers (SREs), Cloud-Architekten und technische Führungskräfte, die ihre Datadog-Plattform-Skills sowie Best Practices für Observability und Monitoring unter Beweis stellen möchten;

Vermittelte Schlüsselkompetenzen:

Observability-Grundprinzipien,

Application Performance Monitoring,

Log Management,

Datenvisualisierung,

Tagging,

Monitoring,

Alerting,

Troubleshooting,

Datenerfassung,

Cloud Monitoring,

Netzwerk- und Agenten-Konfiguration;

Prüfungskosten: 100 Dollar;

Voraussetzungen: keine formalen Voraussetzungen; „Learning Paths“ zur Vorbereitung;

Dynatrace Advanced Observability Specialist

Die Dynatrace-Zertifizierung zum Advanced Observability Specialist vermittelt Netzwerkexperten fortgeschrittene Konzepte in den Bereichen Cloud Monitoring, Netzwerke, Virtualisierung und Container-Umgebungen.

Zielgruppe: SREs, DevOps Engineers, Cloud-Architekten, Performance-Spezialisten und IT-Operations-Fachleute;

Vermittelte Schlüsselkompetenzen:

Ende-zu-Ende-Observability in Cloud- und Anwendungsumgebungen inklusive Security-Aspekten implementieren;

Dynatrace-Komponenten wie ActiveGate, App Engine, Automation Engine, Custom/Dynatrace API, Dynatrace UI, Synthetics, Extensions, Berechtigungen und Richtlinien nutzen;

Prüfungskosten: 550 Dollar;

Voraussetzungen: praktische Erfahrung mit Dynatrace-Lösungen sowie ein grundlegendes Verständnis von Observability-Konzepten;

Elastic Certified Observability Engineer

Für Netzwerkprofis, die mit der Open-Source-Toolsuite Elastic Stack arbeiten, um Observability-Pipelines für Infrastruktur, Applikationen und Services zu managen, empfiehlt sich die Zertifizierung zum Elastic Certified Observability Engineer.

Zielgruppe: SREs, Datenarchitekten, Softwareentwickler, Systemadministratoren und andere IT-Experten, die Observability-Lösungen implementieren.

Vermittelte Schlüsselkompetenzen:

Elastic Agent konfigurieren und nutzen, um Daten zu erfassen,

Dashboards in Kibana erstellen und managen,

Warnmeldungen für kritische Metriken einrichten,

Daten mit Ingest-Pipelines strukturieren und verarbeiten,

Echtzeitprotokolle, Metriken und App-Performance-Daten überwachen, analysieren und in umsetzbare Erkenntnisse übersetzen;

Prüfungskosten: 500 Dollar;

Voraussetzungen: keine formalen Voraussetzungen; praktische Erfahrung mit dem Elastic Stack ist empfehlenswert;

New Relic Certified Performance Engineer-Professional (PEP)

Eine Zertifizierung zum New Relic Certified Performance Engineer-Professional (PEP) bescheinigt mit Blick auf die Produkte und Services des Herstellers fundierte Observability- und Performance-Optimierungs-Kenntnisse.

Zielgruppe: Performance Engineers, SREs und DevOps-Experten;

Vermittelte Schlüsselkompetenzen:

Observability-Strategien mit New Relic entwerfen und implementieren,

Telemetriedaten über APM, Infrastruktur, Protokolle und Echtzeit-Monitoring-Quellen integrieren,

komplexe Leistungsprobleme beheben,

Systemzustand mit Dashboards, Warnmeldungen und synthetischen Daten überwachen,  

Best Practices für die Leistungsoptimierung in dynamischen Umgebungen anwenden;

Prüfungskosten: 175 Dollar;

Voraussetzungen: Interessenten sollten über Vorkenntnisse mit New Relic verfügen und idealerweise bereits eine Zertifizierung auf Associate-Ebene vorweisen können; empfehlenswert sind außerdem mindestens zwei Jahren Erfahrung mit Performance-Analysen, Monitoring- und Management-Tools sowie Kenntnisse in Softwareentwicklung und Infratrukturmanagement;

SolarWinds Certified Professional (SCP)

Netzwerkprofis, die eine Zertifizierung als SolarWinds Certified Professional (SCP) vorweisen können, wissen wie man die Produkte des IT-Serviceanbieters einsetzt, um Netzwerke zu überwachen, zu analysieren sowie um Anwendungen bereitzustellen, zu konfigurieren und zu managen. 

Zielgruppe: Netzwerkingenieure, Systemadministratoren, Managed Service Provider und IT-Operations-Profis, die SolarWinds-Produkte verwenden;

Vermittelte Schlüsselkompetenzen:

Netzwerkgeräte, Server und Anwendungen mit SolarWinds-Tools überwachen,

Performance-Baselines und SLAs entwerfen,

effiziente Warnsysteme und Dashboards erstellen,

Bottlenecks mit Hilfe von historischen und Echtzeit-Daten identifizieren,

verschiedene SolarWinds-Module in die Hybrid-Cloud-Observability-Plattform integrieren;

Prüfungskosten: 200 Dollar;

Voraussetzungen: keine formalen Voraussetzungen; SolarWinds empfiehlt mindestens ein Jahr praktische Erfahrung in einer technischen Funktion im Bereich Netzwerk-, System- oder Anwendungsmanagement sowie sechs Monaten Erfahrung mit seinen  Produkten;

Splunk Core Certified Power User/Admin

Die verbriefte Fähigkeit, Splunk-Lösungen für die „Operational Visibilit“ zu nutzen, bescheinigt die Zertifizierung zum Splunk Core Certified Power User/Admin.

Zielgruppe: Systemadministratoren, Datenanalysten, IT-Manager, Sicherheitsexperten, DevOps-Praktiker und andere IT-Fachleute, die dafür zuständig sind, Splunk-Deployments zu managen.

Vermittelte Schlüsselkompetenzen:

Benutzeroberfläche von Splunk navigieren,

grundlegender Suchbefehle nutzen,

Knowledge-Objekte wie Event-Typen, Tags und Aliasse erstellen und teilen,

Daten anreichern mit Fields, Lookups und Workflow Actions,

interaktiver Dashboards und Visualisierungen erstellen.

Prüfungskosten: 130 Dollar;

Voraussetzungen: keine formalen Voraussetzungen; Splunk empfiehlt Interessenten jedoch grundlegende, praktische Erfahrung;

ThousandEyes Enterprise Network Assurance (ENNA)

Die Zertifizierung zum Enterprise Network Assurance Specialist (ENNA) ist Bestandteil von Ciscos CCNP-Enterprise-Zertifizierung und soll aktuellen Branchenanforderungen mit Blick auf Digital Experience Monitoring und Assurance gerecht werden. Integraler Bestandteil der ENNA-Prüfung ist entsprechend die Assurance-Plattform von Cisco, respektive ThousandEyes.

Zielgruppe: Monitoring- und Network-Operations-Engineers, Helpdesk-Administratoren, Network Operations Center Engineers, SREs, Netzwerk- und Cloud-Architekten, sowie Platform Engineers;

Vermittelte Schlüsselkompetenzen:

Grundlagen der Netzwerkkonfiguration und -integration,

Datenerfassungs-Tools einrichten und optimieren,

Netzwerkdaten analysieren, um Probleme zu identifizieren und zu beheben,

Warnsystemen erstellen, um die Netzwerkintegrität aufrechtzuerhalten;

Prüfungskosten: 300 Dollar;

Voraussetzungen: Cisco empfiehlt grundlegende Kenntnisse in Skripting oder Automatisierung sowie fundiertes Wissen über grundlegende Netzwerkkonzepte; darüber hinaus sind auch praktische Erfahrungen mit Cisco-Infrastruktur und Plattformen wie ThousandEyes, Cisco Catalyst Center, Cisco SD-WAN oder Meraki empfehlenswert; (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Die wichtigsten Network-Observability-Zertifizierungen​ Weiterlesen »

Wo Apple in punkto Enterprise IT versagt​

Allgemein

Wie eine Umfrage zeigt, hat Apple bei den Business-Funktionen weiterhin “room for improvement”. 360b / Shutterstock Weil Apple schon vor Jahren bewusste und konzertierte Anstrengungen unternommen hat, um seine Produkte unternehmensfreundlich zu machen, fügt sich die Company heute gut in die Geschäftswelt ein. Im Großen und Ganzen waren diese Bemühungen äußerst erfolgreich. Das heißt aber nicht, dass das Unternehmen immer ins Schwarze trifft – manchmal scheint das nicht einmal beabsichtigt zu sein.  In seinem jährlichen Business-Report über Apple stellte Six Colors fest, dass Apple bei der Zufriedenheit von IT-Führungskräfte in zwei Dritteln der untersuchten Kategorien sogar zurückfiel. Am schlechtesten schnitten die Bereiche Software-Zuverlässigkeit und -Innovation ab, dicht gefolgt vom Identitätsmanagement von macOS. Auch die Bewertungen der Enterprise-Applikationen im Allgemeinen – und der Zukunft von Apple im Unternehmen – fielen schlechter aus als im Jahr 2024. Ebenso wurden Service und Support kritisiert, die sich als echter Painpoint herausgestellt haben.  Es gibt aber nicht nur schlechte Nachrichten. So verzeichnete Apple in dem Report bescheidene Zuwächse bei der Zuverlässigkeit und Innovation von Hardware, beim Deployment sowie bei seinem MDM-Protokoll und seiner Infrastruktur. Letzteres unterstreicht die Tatsache, dass Apple zumindest die Kernbedürfnisse der Unternehmens-IT erkennt und mithilfe von Drittanbietern in der Lage ist, diese zu erfüllen.  Unzureichende Dokumentation  Laut Umfrage ist die Dokumentation bei Apple ein Totalausfall. Zwar stellt der Anbieter eine breite Palette von Dokumentationen für den Einsatz in Unternehmen zur Verfügung, viele davon sind aber nicht besonders detailliert. Neben den schriftlichen Anleitungen gibt es außerdem nur wenige Videos, Webinare und andere Medien.  Die Suche nach Dokumentationen kann ebenfalls eine Herausforderung sein. Es gibt keine zentrale Stelle, an der alles übersichtlich zu finden ist. Die Informationen befinden sich stattdessen entweder in der Entwicklerdokumentation, auf der Apple-Schulungsseite oder in Hinweisen für den Enterprise-Support. Oft müssen Sie sich an andere Apple-IT-Administratoren oder an AppleCare für Unternehmen wenden, um herauszufinden, wo sich die benötigten Informationen befinden – falls es diese überhaupt als Dokument gibt. Glücklicherweise existieren online eine große und hilfsbereite Apple-IT/Mac-Admin-Community sowie weitere Ressourcen, die Sie zu Rate ziehen können.  Release-Zyklus belastet Software-Zuverlässigkeit  Ein Problem, das nicht nur Business-Anwender betrifft, ist der unerbittliche jährliche Veröffentlichungsrhythmus von Apple. Unter diesem leidet die Software weit mehr als die Hardware. Apple Intelligence ist ein leuchtendes Beispiel dafür, dass sich Apple übernommen hat und nicht in der Lage ist, die Erwartungen zu erfüllen, ebenso wie die Bemühungen, den Stage Manager wirklich nützlich zu machen.  Während Apples scheinbare Eile, jedes Jahr umwerfende neue Funktionen zu veröffentlichen, Auswirkungen auf das Softwaredesign und die Zuverlässigkeit für alle Benutzer hat, trifft es die Unternehmens-IT aus mehreren Gründen besonders hart.  Erstens können Enterprise-Tools in vielerlei Hinsicht als ein Nischenbereich der Software betrachtet werden. Daher wird den Unternehmensfunktionen nicht dieselbe Aufmerksamkeit zuteil wie den Mainstream-Funktionen. Dies wird besonders deutlich, wenn Apple versucht, Features für Endanwender in Business-Anwendungen einzubinden. Beispiele dafür sind etwa Managed-Apple-Accounts und deren beabsichtigte Integration mit Dingen wie Continuity und iCloud. Oder so etwas wie MDM-Kontrollen für neue Funktionen, beispielsweise Apple Intelligence sowie unternehmensspezifische Funktionen auf niedriger Ebene wie Declarative Device Management.  Der zweite Grund liegt auf der Hand: Jede Software, die noch nicht reif für die Markteinführung ist, aber trotzdem in eine allgemeine Version aufgenommen wird, ist ein potenzielles Support-Ticket, wenn ein Business-User auf Probleme stößt.  Sicherheit und Datenschutz – bis zur Ermüdung  Wenn es um die Sicherheit und den Schutz der Privatsphäre geht, schneidet Apple in der Regel gut ab. Aber manchmal übertreibt die Company: Jeder, der einen neuen Mac einrichtet, sieht ein Popup nach dem anderen, in dem Berechtigungen abgefragt und vor möglichen Fallstricken gewarnt wird. Sicher – das zeigt, dass Apple versucht, alles unter Verschluss zu halten und sicher zu machen. Wenn sich die Sicherheitsmeldungen jedoch häufen, werden die Augen der IT-Admins glasig und sie registrieren nicht mehr, was sie sehen – und was sie zulassen.  In einer Business-Umgebung kann das dazu führen, dass Nutzer ohne die richtigen Berechtigungen auf einen Teil von macOS oder dessen Dateisystem nicht zugreifen können – das bedeutet einen weiteren Support-Anruf für die IT-Abteilung.  Einiges davon kann gemildert werden, indem man das Deployment gut plant und Management-Tools wie MDM-Profile verwendet, aber auch diese Ansätze haben ihre Grenzen.  Deployment ist gut, aber ausbaufähig   Apropos Deployment: In dem Report erhält Apple für die Bereitstellungsfunktionen im Allgemeinen gute Noten – und das zu Recht, wenn man bedenkt, wie reibungslos Automated Device Enrollment (ADE), Device Enrollment Program (DEP) und MDM die Dinge machen können. Aber es gibt noch Raum für Verbesserungen, so Six Colors in seinem Bericht.  Zu den Problemen:   Die Zuverlässigkeit von ADE und Patch-Verwaltung ist bei einigen Unternehmen gesunken.   Die Dokumentation der Deployment Workflows bietet nicht genügend Informationen.   Tools wie Apple Configurator erfordern immer noch die Registrierung jedes einzelnen Geräts (für Geräte, die ADE und DEP nicht nutzen können) und   Es gibt keine APIs für die Automatisierung des Apple Business Manager und der damit verbundenen Bereitstellungsprozesse.  Einschränkungen bei der Automatisierung  Am deutlichsten wird der Mangel an Automatisierung vielleicht beim Deployment, aber das Problem zieht sich durch die meisten Aspekte des Onboardings und Managements von Apple-Geräten und -Benutzern. So bietet der Apple Business Manager keine APIs, auf die Anbieter oder IT-Abteilungen zurückgreifen können, um Routineaufgaben zu automatisieren. Dazu kann alles gehören, von der Neuverteilung älterer Geräte über das Onboarding neuer Mitarbeiter bis hin zur Zuweisung von App-Lizenzen oder der Verwaltung von Benutzergruppen und Privilegien.  Apple schwächelt weiter beim Identitätsmanagement  Der Kampf um die Verknüpfung von Netzwerk-Benutzerkonten mit verwalteten Apple-Geräten ist lang und blutig und reicht Jahrzehnte zurück. Dabei ging es vor allem darum, Geräte mit Active Directory und jetzt auch mit Microsoft Entra zu verbinden.  Apple hat in den letzten Jahren einige Fortschritte erzielt, indem veraltete Mechanismen durch sein Platform-SSO-Framework ersetzt wurden (und damit neben Microsoft noch weitere Identitätsmanagement-Anbieter unterstützt werden). Die Funktionalität ist jedoch eher bruchstückhaft und erfordert von vielen IT-Teams einen Patchwork-Ansatz. Außerdem ist Apple bei der Integration von Platform SSO stark auf Identitätsmanagement-Anbieter angewiesen, was die Nützlichkeit einschränken kann.  Auch Managed-Apple-Accounts können von Problemen beim Identity Management betroffen sein. Apple hat sich zwar für ihre Einführung eingesetzt, aber es ist nicht sicher, ob sie mit Netzwerkidentitäten funktionieren.  Es gibt hierfür zwar Tools für das Identity Management – diese sind jedoch nicht von Apple. Jamf und TwoCanoes haben beide Angebote, aber es handelt sich nicht um native Tools, die in Apples Betriebssysteme integriert sind.  Einige MDM-Steuerelemente werden vermisst  Die MDM-Steuerungen und -Befehle von Apple sind zwar ziemlich effektiv, aber das Unternehmen veröffentlicht oft neue Funktionen, ohne entsprechende MDM-Steuerungen bereitzustellen. Oft (aber nicht immer) wird dieses Problem erst nach der Veröffentlichung behoben, sodass Unternehmenskunden diese Funktionen für eine unbestimmte Zeit nicht einschränken oder verwalten können.  Außerdem gibt es das Problem der Granularität. Zwar erlauben viele MDM-Kontrollen die Deaktivierung von Feature Sets als Ganzes, doch kann die IT-Abteilung keine spezifischen Funktionen konfigurieren oder verwalten.  In den letzten Jahren hat Apple im Rahmen seiner Bemühungen um ein deklaratives Gerätemanagement (Declarative Device Management, DDM) eine Reihe von MDM-Kontrollen und -Payloads abgekündigt, entfernt oder geändert – und das nicht immer auf konsistente Weise (oder mit angemessener Vorbereitung/Dokumentation). Im letzten Jahr waren die Änderungen an den MDM-Kontrollen für netzwerkbezogene Funktionen besonders schmerzhaft für Mac-IT-Administratoren.  Eine weitere Herausforderung ist der Umgang mit den Public Betas von Apple und die Frage, wie MDM-Kontrollen und -Befehle auf diese angewendet werden können. Ich bin dafür, dass die Mitarbeiter jedes Jahr die Preview-Software ausprobieren können, denn das hilft der IT-Abteilung bei der Vorbereitung auf die kommende endgültige Version. Sie stellt jedoch eine ständige Herausforderung dar.  DDM braucht mehr Akzeptanz  Apple hat DDM im Jahr 2021 als Modernisierung des veralteten MDM-Protokolls vorgestellt. Es ermöglicht Geräten, sich auf der Grundlage bestimmter Bedingungen selbst zu verwalten, anstatt ständig einen MDM-Server abzufragen. Das ist grundsätzlich positiv und Apple hat in den letzten vier Jahren viel in DDM investiert. Aber in vielen Unternehmen kommen einige dieser Fortschritte zu selten an. Das größte Hindernis besteht darin, die MDM-Anbieter dazu zu bringen, DDM vollständig zu übernehmen und es ihren Kunden anzubieten.  Man könnte argumentieren, dass der Fehler hier weniger bei Apple als vielmehr bei bestimmten Anbietern liegt. Allerdings ist Apple die ultimative Autorität und könnte mehr tun, um die Anbieter dazu zu bewegen, seine Vision auf kohärente Weise zu umzusetzen.  Management-Tools für Apple Intelligence fehlen  Die Markteinführung von Apple Intelligence hat sich alles andere als intelligent angefühlt. Zwar sind einige Funktionen bereits verfügbar, doch die Möglichkeit, sie in Enterprise-Umgebungen zu verwalten, lässt auf sich warten. Alle neuen MDM-Kontrollen, die für Apple Intelligence veröffentlicht wurden, waren nicht besonders granular, vor allem wenn man bedenkt, wohin Apple Intelligence geht (oder gehen sollte).  Es ist klar, dass Apple über OpenAIs ChatGPT hinaus auf zusätzliche Generative-AI-Anbieter setzen wird. Es bleibt jedoch abzuwarten, ob Apple granulare Kontrollen für die Funktionen jeder potenziellen KI anbieten wird (oder sogar die Voreinstellung oder das Erfordernis eines bestimmten LLMs erlaubt). Mit seinen Private-Cloud- Compute-Servern, die als Vermittler zwischen Gerät und LLM fungieren, hat Apple zwar in den Datenschutz investiert. Gleichzeitig wird erwartet, dass das Unternehmen mehr und mehr KI-Aufgaben auf seine Geräte verlagern wird. Bislang gibt es jedoch noch keine Hinweise darauf, ob die IT-Abteilung in der Lage sein wird, die Verwendung von Unternehmensdaten zu kontrollieren – beispielsweise, indem sie nur On-Device-KI zulässt oder vorschreibt, dass die Tools auf den Servern von Apple laufen.  Will Apple überhaupt ein Feedback?  Einer der größten Kritikpunkte von IT-Profis gegenüber Apple ist, dass das Unternehmen sich nicht für ihre Bedürfnisse oder Anliegen zu interessieren scheint. Die App „Feedback Assistant“ ist ein besonders wunder Punkt: Sie funktioniert wie ein schwarzes Loch – Probleme, Bedenken und Anfragen landen darin und verschwinden spurlos. Das Problem liegt jedoch nicht nur bei diesem einen Feedback-Kanal. Selbst die Support-Teams von Apple haben nur begrenzte Möglichkeiten, Probleme zu lösen oder Feedback an das Unternehmen weiterzuleiten.  Man könnte meinen: „Okay, das ist Apple, ein Unternehmen, das immer weiß, was das Beste ist, auch wenn die Kunden das anders sehen.“ Aber während das bei Verbrauchern gut ankommen mag, sieht es bei Unternehmen mit Tausenden von Macs, iPhones, iPads und anderen Apple-Geräten etwas anders aus.  Apple muss Flagge in Sachen Enterprise-Engagement zeigen  In der Six Colors Report Card hat mich überrascht, dass IT-Führungskräfte das Engagement von Apple für Unternehmenskunden weiterhin in Frage stellen.  Ich verfolge den Ansatz von Apple im Bereich Unternehmen und Bildung seit der Jahrtausendwende. Die seitdem getätigten Investitionen zeigen, dass es Apple mit diesem Marktsegment ernst ist. Mit der Einführung von MDM im Jahr 2010 hat Apple bewiesen, dass es ein ernstzunehmender Akteur im Unternehmensbereich sein will und in einigen Fällen sogar führend sein könnte.  Dieses Engagement war jedoch nicht konsequent. Apple hat IT-Fachleuten in Unternehmen den Boden unter den Füßen weggezogen, indem die Company ohne Vorwarnung drastische Änderungen vorgenommen, Funktionen, auf die viele Großkunden angewiesen waren, abgekündigt oder abgeschafft und die Richtung bei bestimmten Technologien radikal geändert hat.   Im Nachhinein ist etwa das Ende des Xserve und von macOS Server zwar logisch, weil die Cloud-Computing-Entwicklung explodiert ist. Es zeigt aber auch, wie Apple jahrelang die Nachfrage von Unternehmen nach einer Lösung aufbauen kann – und dann fast beiläufig alles aus dem Fenster wirft.  Konsistenz ist wahrscheinlich der größte Punkt, an dem Apple arbeiten muss, wenn es um seine Enterprise-Kunden geht. Das Unternehmen hat in den letzten Jahrzehnten große Fortschritte gemacht, aber oft auch einen Schritt zurück, zur Seite oder sogar in eine andere Richtung getan. Damit Apple erfolgreich sein kann, muss der Weg tiefer in das Herz des Unternehmens führen. (mb) 

Wo Apple in punkto Enterprise IT versagt​ Wie eine Umfrage zeigt, hat Apple bei den Business-Funktionen weiterhin “room for improvement”. 360b / Shutterstock

Weil Apple schon vor Jahren bewusste und konzertierte Anstrengungen unternommen hat, um seine Produkte unternehmensfreundlich zu machen, fügt sich die Company heute gut in die Geschäftswelt ein. Im Großen und Ganzen waren diese Bemühungen äußerst erfolgreich. Das heißt aber nicht, dass das Unternehmen immer ins Schwarze trifft – manchmal scheint das nicht einmal beabsichtigt zu sein. 

In seinem jährlichen Business-Report über Apple stellte Six Colors fest, dass Apple bei der Zufriedenheit von IT-Führungskräfte in zwei Dritteln der untersuchten Kategorien sogar zurückfiel. Am schlechtesten schnitten die Bereiche Software-Zuverlässigkeit und -Innovation ab, dicht gefolgt vom Identitätsmanagement von macOS. Auch die Bewertungen der Enterprise-Applikationen im Allgemeinen – und der Zukunft von Apple im Unternehmen – fielen schlechter aus als im Jahr 2024. Ebenso wurden Service und Support kritisiert, die sich als echter Painpoint herausgestellt haben. 

Es gibt aber nicht nur schlechte Nachrichten. So verzeichnete Apple in dem Report bescheidene Zuwächse bei der Zuverlässigkeit und Innovation von Hardware, beim Deployment sowie bei seinem MDM-Protokoll und seiner Infrastruktur. Letzteres unterstreicht die Tatsache, dass Apple zumindest die Kernbedürfnisse der Unternehmens-IT erkennt und mithilfe von Drittanbietern in der Lage ist, diese zu erfüllen. 

Unzureichende Dokumentation 

Laut Umfrage ist die Dokumentation bei Apple ein Totalausfall. Zwar stellt der Anbieter eine breite Palette von Dokumentationen für den Einsatz in Unternehmen zur Verfügung, viele davon sind aber nicht besonders detailliert. Neben den schriftlichen Anleitungen gibt es außerdem nur wenige Videos, Webinare und andere Medien. 

Die Suche nach Dokumentationen kann ebenfalls eine Herausforderung sein. Es gibt keine zentrale Stelle, an der alles übersichtlich zu finden ist. Die Informationen befinden sich stattdessen entweder in der Entwicklerdokumentation, auf der Apple-Schulungsseite oder in Hinweisen für den Enterprise-Support. Oft müssen Sie sich an andere Apple-IT-Administratoren oder an AppleCare für Unternehmen wenden, um herauszufinden, wo sich die benötigten Informationen befinden – falls es diese überhaupt als Dokument gibt. Glücklicherweise existieren online eine große und hilfsbereite Apple-IT/Mac-Admin-Community sowie weitere Ressourcen, die Sie zu Rate ziehen können. 

Release-Zyklus belastet Software-Zuverlässigkeit 

Ein Problem, das nicht nur Business-Anwender betrifft, ist der unerbittliche jährliche Veröffentlichungsrhythmus von Apple. Unter diesem leidet die Software weit mehr als die Hardware. Apple Intelligence ist ein leuchtendes Beispiel dafür, dass sich Apple übernommen hat und nicht in der Lage ist, die Erwartungen zu erfüllen, ebenso wie die Bemühungen, den Stage Manager wirklich nützlich zu machen. 

Während Apples scheinbare Eile, jedes Jahr umwerfende neue Funktionen zu veröffentlichen, Auswirkungen auf das Softwaredesign und die Zuverlässigkeit für alle Benutzer hat, trifft es die Unternehmens-IT aus mehreren Gründen besonders hart. 

Erstens können Enterprise-Tools in vielerlei Hinsicht als ein Nischenbereich der Software betrachtet werden. Daher wird den Unternehmensfunktionen nicht dieselbe Aufmerksamkeit zuteil wie den Mainstream-Funktionen. Dies wird besonders deutlich, wenn Apple versucht, Features für Endanwender in Business-Anwendungen einzubinden. Beispiele dafür sind etwa Managed-Apple-Accounts und deren beabsichtigte Integration mit Dingen wie Continuity und iCloud. Oder so etwas wie MDM-Kontrollen für neue Funktionen, beispielsweise Apple Intelligence sowie unternehmensspezifische Funktionen auf niedriger Ebene wie Declarative Device Management. 

Der zweite Grund liegt auf der Hand: Jede Software, die noch nicht reif für die Markteinführung ist, aber trotzdem in eine allgemeine Version aufgenommen wird, ist ein potenzielles Support-Ticket, wenn ein Business-User auf Probleme stößt. 

Sicherheit und Datenschutz – bis zur Ermüdung 

Wenn es um die Sicherheit und den Schutz der Privatsphäre geht, schneidet Apple in der Regel gut ab. Aber manchmal übertreibt die Company: Jeder, der einen neuen Mac einrichtet, sieht ein Popup nach dem anderen, in dem Berechtigungen abgefragt und vor möglichen Fallstricken gewarnt wird. Sicher – das zeigt, dass Apple versucht, alles unter Verschluss zu halten und sicher zu machen. Wenn sich die Sicherheitsmeldungen jedoch häufen, werden die Augen der IT-Admins glasig und sie registrieren nicht mehr, was sie sehen – und was sie zulassen. 

In einer Business-Umgebung kann das dazu führen, dass Nutzer ohne die richtigen Berechtigungen auf einen Teil von macOS oder dessen Dateisystem nicht zugreifen können – das bedeutet einen weiteren Support-Anruf für die IT-Abteilung. 

Einiges davon kann gemildert werden, indem man das Deployment gut plant und Management-Tools wie MDM-Profile verwendet, aber auch diese Ansätze haben ihre Grenzen. 

Deployment ist gut, aber ausbaufähig  

Apropos Deployment: In dem Report erhält Apple für die Bereitstellungsfunktionen im Allgemeinen gute Noten – und das zu Recht, wenn man bedenkt, wie reibungslos Automated Device Enrollment (ADE), Device Enrollment Program (DEP) und MDM die Dinge machen können. Aber es gibt noch Raum für Verbesserungen, so Six Colors in seinem Bericht. 

Zu den Problemen:  

Die Zuverlässigkeit von ADE und Patch-Verwaltung ist bei einigen Unternehmen gesunken.  

Die Dokumentation der Deployment Workflows bietet nicht genügend Informationen.  

Tools wie Apple Configurator erfordern immer noch die Registrierung jedes einzelnen Geräts (für Geräte, die ADE und DEP nicht nutzen können) und  

Es gibt keine APIs für die Automatisierung des Apple Business Manager und der damit verbundenen Bereitstellungsprozesse. 

Einschränkungen bei der Automatisierung 

Am deutlichsten wird der Mangel an Automatisierung vielleicht beim Deployment, aber das Problem zieht sich durch die meisten Aspekte des Onboardings und Managements von Apple-Geräten und -Benutzern. So bietet der Apple Business Manager keine APIs, auf die Anbieter oder IT-Abteilungen zurückgreifen können, um Routineaufgaben zu automatisieren. Dazu kann alles gehören, von der Neuverteilung älterer Geräte über das Onboarding neuer Mitarbeiter bis hin zur Zuweisung von App-Lizenzen oder der Verwaltung von Benutzergruppen und Privilegien. 

Apple schwächelt weiter beim Identitätsmanagement 

Der Kampf um die Verknüpfung von Netzwerk-Benutzerkonten mit verwalteten Apple-Geräten ist lang und blutig und reicht Jahrzehnte zurück. Dabei ging es vor allem darum, Geräte mit Active Directory und jetzt auch mit Microsoft Entra zu verbinden. 

Apple hat in den letzten Jahren einige Fortschritte erzielt, indem veraltete Mechanismen durch sein Platform-SSO-Framework ersetzt wurden (und damit neben Microsoft noch weitere Identitätsmanagement-Anbieter unterstützt werden). Die Funktionalität ist jedoch eher bruchstückhaft und erfordert von vielen IT-Teams einen Patchwork-Ansatz. Außerdem ist Apple bei der Integration von Platform SSO stark auf Identitätsmanagement-Anbieter angewiesen, was die Nützlichkeit einschränken kann. 

Auch Managed-Apple-Accounts können von Problemen beim Identity Management betroffen sein. Apple hat sich zwar für ihre Einführung eingesetzt, aber es ist nicht sicher, ob sie mit Netzwerkidentitäten funktionieren. 

Es gibt hierfür zwar Tools für das Identity Management – diese sind jedoch nicht von Apple. Jamf und TwoCanoes haben beide Angebote, aber es handelt sich nicht um native Tools, die in Apples Betriebssysteme integriert sind. 

Einige MDM-Steuerelemente werden vermisst 

Die MDM-Steuerungen und -Befehle von Apple sind zwar ziemlich effektiv, aber das Unternehmen veröffentlicht oft neue Funktionen, ohne entsprechende MDM-Steuerungen bereitzustellen. Oft (aber nicht immer) wird dieses Problem erst nach der Veröffentlichung behoben, sodass Unternehmenskunden diese Funktionen für eine unbestimmte Zeit nicht einschränken oder verwalten können. 

Außerdem gibt es das Problem der Granularität. Zwar erlauben viele MDM-Kontrollen die Deaktivierung von Feature Sets als Ganzes, doch kann die IT-Abteilung keine spezifischen Funktionen konfigurieren oder verwalten. 

In den letzten Jahren hat Apple im Rahmen seiner Bemühungen um ein deklaratives Gerätemanagement (Declarative Device Management, DDM) eine Reihe von MDM-Kontrollen und -Payloads abgekündigt, entfernt oder geändert – und das nicht immer auf konsistente Weise (oder mit angemessener Vorbereitung/Dokumentation). Im letzten Jahr waren die Änderungen an den MDM-Kontrollen für netzwerkbezogene Funktionen besonders schmerzhaft für Mac-IT-Administratoren. 

Eine weitere Herausforderung ist der Umgang mit den Public Betas von Apple und die Frage, wie MDM-Kontrollen und -Befehle auf diese angewendet werden können. Ich bin dafür, dass die Mitarbeiter jedes Jahr die Preview-Software ausprobieren können, denn das hilft der IT-Abteilung bei der Vorbereitung auf die kommende endgültige Version. Sie stellt jedoch eine ständige Herausforderung dar. 

DDM braucht mehr Akzeptanz 

Apple hat DDM im Jahr 2021 als Modernisierung des veralteten MDM-Protokolls vorgestellt. Es ermöglicht Geräten, sich auf der Grundlage bestimmter Bedingungen selbst zu verwalten, anstatt ständig einen MDM-Server abzufragen. Das ist grundsätzlich positiv und Apple hat in den letzten vier Jahren viel in DDM investiert. Aber in vielen Unternehmen kommen einige dieser Fortschritte zu selten an. Das größte Hindernis besteht darin, die MDM-Anbieter dazu zu bringen, DDM vollständig zu übernehmen und es ihren Kunden anzubieten. 

Man könnte argumentieren, dass der Fehler hier weniger bei Apple als vielmehr bei bestimmten Anbietern liegt. Allerdings ist Apple die ultimative Autorität und könnte mehr tun, um die Anbieter dazu zu bewegen, seine Vision auf kohärente Weise zu umzusetzen. 

Management-Tools für Apple Intelligence fehlen 

Die Markteinführung von Apple Intelligence hat sich alles andere als intelligent angefühlt. Zwar sind einige Funktionen bereits verfügbar, doch die Möglichkeit, sie in Enterprise-Umgebungen zu verwalten, lässt auf sich warten. Alle neuen MDM-Kontrollen, die für Apple Intelligence veröffentlicht wurden, waren nicht besonders granular, vor allem wenn man bedenkt, wohin Apple Intelligence geht (oder gehen sollte). 

Es ist klar, dass Apple über OpenAIs ChatGPT hinaus auf zusätzliche Generative-AI-Anbieter setzen wird. Es bleibt jedoch abzuwarten, ob Apple granulare Kontrollen für die Funktionen jeder potenziellen KI anbieten wird (oder sogar die Voreinstellung oder das Erfordernis eines bestimmten LLMs erlaubt). Mit seinen Private-Cloud- Compute-Servern, die als Vermittler zwischen Gerät und LLM fungieren, hat Apple zwar in den Datenschutz investiert. Gleichzeitig wird erwartet, dass das Unternehmen mehr und mehr KI-Aufgaben auf seine Geräte verlagern wird. Bislang gibt es jedoch noch keine Hinweise darauf, ob die IT-Abteilung in der Lage sein wird, die Verwendung von Unternehmensdaten zu kontrollieren – beispielsweise, indem sie nur On-Device-KI zulässt oder vorschreibt, dass die Tools auf den Servern von Apple laufen. 

Will Apple überhaupt ein Feedback? 

Einer der größten Kritikpunkte von IT-Profis gegenüber Apple ist, dass das Unternehmen sich nicht für ihre Bedürfnisse oder Anliegen zu interessieren scheint. Die App „Feedback Assistant“ ist ein besonders wunder Punkt: Sie funktioniert wie ein schwarzes Loch – Probleme, Bedenken und Anfragen landen darin und verschwinden spurlos. Das Problem liegt jedoch nicht nur bei diesem einen Feedback-Kanal. Selbst die Support-Teams von Apple haben nur begrenzte Möglichkeiten, Probleme zu lösen oder Feedback an das Unternehmen weiterzuleiten. 

Man könnte meinen: „Okay, das ist Apple, ein Unternehmen, das immer weiß, was das Beste ist, auch wenn die Kunden das anders sehen.“ Aber während das bei Verbrauchern gut ankommen mag, sieht es bei Unternehmen mit Tausenden von Macs, iPhones, iPads und anderen Apple-Geräten etwas anders aus. 

Apple muss Flagge in Sachen Enterprise-Engagement zeigen 

In der Six Colors Report Card hat mich überrascht, dass IT-Führungskräfte das Engagement von Apple für Unternehmenskunden weiterhin in Frage stellen. 

Ich verfolge den Ansatz von Apple im Bereich Unternehmen und Bildung seit der Jahrtausendwende. Die seitdem getätigten Investitionen zeigen, dass es Apple mit diesem Marktsegment ernst ist. Mit der Einführung von MDM im Jahr 2010 hat Apple bewiesen, dass es ein ernstzunehmender Akteur im Unternehmensbereich sein will und in einigen Fällen sogar führend sein könnte. 

Dieses Engagement war jedoch nicht konsequent. Apple hat IT-Fachleuten in Unternehmen den Boden unter den Füßen weggezogen, indem die Company ohne Vorwarnung drastische Änderungen vorgenommen, Funktionen, auf die viele Großkunden angewiesen waren, abgekündigt oder abgeschafft und die Richtung bei bestimmten Technologien radikal geändert hat.  

Im Nachhinein ist etwa das Ende des Xserve und von macOS Server zwar logisch, weil die Cloud-Computing-Entwicklung explodiert ist. Es zeigt aber auch, wie Apple jahrelang die Nachfrage von Unternehmen nach einer Lösung aufbauen kann – und dann fast beiläufig alles aus dem Fenster wirft. 

Konsistenz ist wahrscheinlich der größte Punkt, an dem Apple arbeiten muss, wenn es um seine Enterprise-Kunden geht. Das Unternehmen hat in den letzten Jahrzehnten große Fortschritte gemacht, aber oft auch einen Schritt zurück, zur Seite oder sogar in eine andere Richtung getan. Damit Apple erfolgreich sein kann, muss der Weg tiefer in das Herz des Unternehmens führen. (mb)

Wo Apple in punkto Enterprise IT versagt​ Weiterlesen »

3 gefährliche Responsible-AI-Mythen​

Allgemein

Missverständnisse und Mythen in Zusammenhang mit Responsible AI sind dem Erfolg entsprechender Initiativen nicht zuträglich. Foto: jackie_vfx | shutterstock.com Responsible AI (RAI) wird inzwischen dringender denn je benötigt – um Trust und Akzeptanz zu schaffen, aber auch um die Halluzinationen großer Sprachmodelle (Large Language Models; LLMs) und entsprechend Bias-behaftete Outputs einzudämmen. Unternehmen, die auf effektive Responsible AI setzen: können schneller innovieren, besser transformieren und sind auf künftige KI-Compliance-Erfordernisse besser vorbereitet. Leider herrscht jedoch vielerorts immer noch Verwirrung darüber, was RAI eigentlich ist und wie das zu realisieren ist. Diese Unklarheit kann drastische Folgen nach sich ziehen: Schlecht umgesetzte Responsible-AI-Initiativen können die Innovationskraft hemmen und neue Hürden schaffen, die zwar Zeit und Geld kosten, das Safety-Niveau aber nicht verbessern. Wenn Responsible AI künftig zum Motor der KI-getriebenen Wertschöpfung werden soll – und nicht zu einem kostspieligen, ineffektiven Zeitfresser – sind (Fehl-)Annahmen unbedingt zu vermeiden. Im Folgenden lesen Sie, welche Mindsets nicht geeignet sind, RAI-Initiativen auf einen nachhaltigen Erfolgskurs zu bringen – und wie Sie es besser machen. Mythos #1: “Es geht um Prinzipien” Sämtliche Tech-Giganten tragen ihre Responsible-AI-Prinzipien mit stolz geschwellter Brust nach außen: Explainability, Fairness, Datenschutz, Inklusivität und Transparenz – um nur ein paar Beispiele zu nennen. Diese RAI-Prinzipien sind inzwischen so verbreitet, dass man meinen könnte, sie bildeten den Kern von Responsible AI. Dem ist aber nicht so. Schließlich agieren längst alle Organisationen anhand von Prinzipien, die im Regelfall mit den oben genannten RAI-Beispielen im Einklang stehen. Welche Organisation würde sich schon auf die Fahnen schreiben wollen, gegen Fairness, Transparenz und Inklusivität zu stehen? Davon abgesehen sind Prinzipien im Bereich der künstlichen Intelligenz (KI) ebensowenig geeignet, Vertrauen zu erzeugen, wie im realen Leben: Vertrauen Sie darauf, dass eine Discount-Fluggesellschaft Sie sicher ans Ziel bringt wegen ihrer Prinzipien? Oder doch eher, weil sie geschulte Piloten, Techniker und Fluglotsen einsetzt, die strikt definierten Prozessen folgen und Equipment einsetzen, das regelmäßig überprüft wird? Das Herzstück von Responsible AI sind die Menschen, Prozesse und Technologien, die Prinzipen (und deren Durchsetzung) erst ermöglichen. Die Chancen stehen also gut, dass Sie bereits über die richtigen Leitlinien verfügen. Die Herausforderung besteht darin, diese in der Praxis auch umzusetzen. Mythos #2: “Es geht um Ethik” Natürlich geht es bei Responsible AI auch darum, KI auf ethische Art und Weise einzusetzen. Aber es geht eben auch um so viel mehr. Überlegungen in Zusammenhang mit Ethik und Fairness betreffen tatsächlich nur eine winzige Teilmenge der KI-Anwendungsfälle. Etwa, wenn es um Credit Scoring oder Lebenslauf-Screenings geht. Um sicherzustellen, dass diese Use Cases verantwortungsvoll umgesetzt werden, brauchen wir Responsible AI. Aber auch dafür, alle anderen KI-Lösungen sicher und zuverlässig zu entwickeln, einzusetzen und an individuelle Unternehmensanforderungen anzupassen. Die Tools, die sie nutzen, um Explainability, Bias-Checks und Datenschutz zu realisieren, sind also dieselben, die Genauigkeit und Zuverlässigkeit gewährleisten. Mythos #3: “Es geht um Explainability” Manche behaupten, es bräuchte Explainability (auch bekannt als Interpretability), um KI vertrauen und die Technologie verantwortungsvoll nutzen zu können. Das ist nicht der Fall: Explainability ist für KI-Trust ebenso wenig notwendig, wie das Wissen um die Funktionsweise eines Flugzeugs, um Vertrauen in den Luftverkehr zu haben (um bei diesem Beispiel zu bleiben). Menschliche Entscheidungsprozesse sind ebenfalls ein gutes Beispiel: Wir können unsere Entscheidungen fast immer begründen – allerdings ist wissenschaftlich erwiesen, dass es sich dabei meist um nachträglich erfundene und vorgeschobene Gründe handelt, die mit den tatsächlichen Ursachen oft wenig zu tun haben. Explainability in Zusammenhang mit künstlicher Intelligenz meint vielmehr, leicht verständliche “White-Box”-Modelle und Methoden wie LIME und ShAP einzusetzen. Das ist im Wesentlichen wichtig, um KI-Modelle auf ihre Funktionstüchtigkeit zu testen. Im Rahmen von simplen Anwendungsfällen mit leicht identifizierbaren und erklärbaren Mustern kann das dem Trust zuträglich sein. Fallen diese Muster jedoch hinreichend komplex aus, liefert es bestenfalls Hinweise darauf, wie es zu einer Entscheidungsfindung gekommen ist – und schlimmstenfalls völliges Kauderwelsch. Kurz gesagt: Explainability ist “nice to have”, aber oft unmöglich auf eine Art und Weise auszuliefern, die den Trust der Stakeholder sinnvoll fördert. Responsible AI: Darum geht`s wirklich Letzten Endes ist Responsible AI praktisches Risikomanagement, wenn es darum geht, KI- und Machine-Learning-Modelle zu entwickeln und einzusetzen. Das umfasst: Business-Risiken (Modelle die schlecht performen oder unzuverlässig sind), rechtliche Risiken (Compliance-Verstöße) und auch gesellschaftliche Risiken (Diskriminierung oder Umweltschäden). Um diese Risiken zu managen, ist eine vielschichtige Strategie mit Responsible-AI-Fähigkeiten in Form von Menschen, Prozessen und Technologien nötig. Was die Menschen betrifft, geht es darum, die für RAI verantwortlichen Führungskräfte zu befähigen und Praktiker sowie Anwender darin zu schulen, KI verantwortungsvoll zu entwickeln, zu managen und einzusetzen. In Bezug auf Prozesse geht es darum, den gesamten Lebenszyklus – vom Datenzugriff über das Modelltraining bis hin zu Deployment, Monitoring und Retraining – zu steuern und zu kontrollieren. Was die Technologie angeht, kommt Plattformen eine besondere Bedeutung zu. Sie unterstützen Menschen und ermöglichen Prozesse in großem Umfang und demokratisieren darüber hinaus den Zugang zu Responsible-AI-Methoden. Darüber hinaus setzen sie die Governance für KI-Artefakte durch, sorgen für Track Lineage, automatisieren die Dokumentation, orchestrieren Genehmigungs-Workflows, sichern Daten – und bieten unzählige Funktionen, um RAI-Prozesse zu vereinheitlichen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

3 gefährliche Responsible-AI-Mythen​ Missverständnisse und Mythen in Zusammenhang mit Responsible AI sind dem Erfolg entsprechender Initiativen nicht zuträglich.
Foto: jackie_vfx | shutterstock.com

Responsible AI (RAI) wird inzwischen dringender denn je benötigt – um Trust und Akzeptanz zu schaffen, aber auch um die Halluzinationen großer Sprachmodelle (Large Language Models; LLMs) und entsprechend Bias-behaftete Outputs einzudämmen. Unternehmen, die auf effektive Responsible AI setzen:

können schneller innovieren,

besser transformieren und

sind auf künftige KI-Compliance-Erfordernisse besser vorbereitet.

Leider herrscht jedoch vielerorts immer noch Verwirrung darüber, was RAI eigentlich ist und wie das zu realisieren ist. Diese Unklarheit kann drastische Folgen nach sich ziehen: Schlecht umgesetzte Responsible-AI-Initiativen können die Innovationskraft hemmen und neue Hürden schaffen, die zwar Zeit und Geld kosten, das Safety-Niveau aber nicht verbessern. Wenn Responsible AI künftig zum Motor der KI-getriebenen Wertschöpfung werden soll – und nicht zu einem kostspieligen, ineffektiven Zeitfresser – sind (Fehl-)Annahmen unbedingt zu vermeiden.

Im Folgenden lesen Sie, welche Mindsets nicht geeignet sind, RAI-Initiativen auf einen nachhaltigen Erfolgskurs zu bringen – und wie Sie es besser machen.

Mythos #1: “Es geht um Prinzipien”

Sämtliche Tech-Giganten tragen ihre Responsible-AI-Prinzipien mit stolz geschwellter Brust nach außen: Explainability, Fairness, Datenschutz, Inklusivität und Transparenz – um nur ein paar Beispiele zu nennen. Diese RAI-Prinzipien sind inzwischen so verbreitet, dass man meinen könnte, sie bildeten den Kern von Responsible AI. Dem ist aber nicht so. Schließlich agieren längst alle Organisationen anhand von Prinzipien, die im Regelfall mit den oben genannten RAI-Beispielen im Einklang stehen. Welche Organisation würde sich schon auf die Fahnen schreiben wollen, gegen Fairness, Transparenz und Inklusivität zu stehen?

Davon abgesehen sind Prinzipien im Bereich der künstlichen Intelligenz (KI) ebensowenig geeignet, Vertrauen zu erzeugen, wie im realen Leben: Vertrauen Sie darauf, dass eine Discount-Fluggesellschaft Sie sicher ans Ziel bringt wegen ihrer Prinzipien? Oder doch eher, weil sie geschulte Piloten, Techniker und Fluglotsen einsetzt, die strikt definierten Prozessen folgen und Equipment einsetzen, das regelmäßig überprüft wird? Das Herzstück von Responsible AI sind die Menschen, Prozesse und Technologien, die Prinzipen (und deren Durchsetzung) erst ermöglichen. Die Chancen stehen also gut, dass Sie bereits über die richtigen Leitlinien verfügen. Die Herausforderung besteht darin, diese in der Praxis auch umzusetzen.

Mythos #2: “Es geht um Ethik”

Natürlich geht es bei Responsible AI auch darum, KI auf ethische Art und Weise einzusetzen. Aber es geht eben auch um so viel mehr. Überlegungen in Zusammenhang mit Ethik und Fairness betreffen tatsächlich nur eine winzige Teilmenge der KI-Anwendungsfälle. Etwa, wenn es um Credit Scoring oder Lebenslauf-Screenings geht.

Um sicherzustellen, dass diese Use Cases verantwortungsvoll umgesetzt werden, brauchen wir Responsible AI. Aber auch dafür, alle anderen KI-Lösungen sicher und zuverlässig zu entwickeln, einzusetzen und an individuelle Unternehmensanforderungen anzupassen. Die Tools, die sie nutzen, um Explainability, Bias-Checks und Datenschutz zu realisieren, sind also dieselben, die Genauigkeit und Zuverlässigkeit gewährleisten.

Mythos #3: “Es geht um Explainability”

Manche behaupten, es bräuchte Explainability (auch bekannt als Interpretability), um KI vertrauen und die Technologie verantwortungsvoll nutzen zu können. Das ist nicht der Fall: Explainability ist für KI-Trust ebenso wenig notwendig, wie das Wissen um die Funktionsweise eines Flugzeugs, um Vertrauen in den Luftverkehr zu haben (um bei diesem Beispiel zu bleiben). Menschliche Entscheidungsprozesse sind ebenfalls ein gutes Beispiel: Wir können unsere Entscheidungen fast immer begründen – allerdings ist wissenschaftlich erwiesen, dass es sich dabei meist um nachträglich erfundene und vorgeschobene Gründe handelt, die mit den tatsächlichen Ursachen oft wenig zu tun haben.

Explainability in Zusammenhang mit künstlicher Intelligenz meint vielmehr, leicht verständliche “White-Box”-Modelle und Methoden wie LIME und ShAP einzusetzen. Das ist im Wesentlichen wichtig, um KI-Modelle auf ihre Funktionstüchtigkeit zu testen. Im Rahmen von simplen Anwendungsfällen mit leicht identifizierbaren und erklärbaren Mustern kann das dem Trust zuträglich sein. Fallen diese Muster jedoch hinreichend komplex aus, liefert es bestenfalls Hinweise darauf, wie es zu einer Entscheidungsfindung gekommen ist – und schlimmstenfalls völliges Kauderwelsch. Kurz gesagt: Explainability ist “nice to have”, aber oft unmöglich auf eine Art und Weise auszuliefern, die den Trust der Stakeholder sinnvoll fördert.

Responsible AI: Darum geht`s wirklich

Letzten Endes ist Responsible AI praktisches Risikomanagement, wenn es darum geht, KI- und Machine-Learning-Modelle zu entwickeln und einzusetzen. Das umfasst:

Business-Risiken (Modelle die schlecht performen oder unzuverlässig sind),

rechtliche Risiken (Compliance-Verstöße) und auch

gesellschaftliche Risiken (Diskriminierung oder Umweltschäden).

Um diese Risiken zu managen, ist eine vielschichtige Strategie mit Responsible-AI-Fähigkeiten in Form von Menschen, Prozessen und Technologien nötig.

Was die Menschen betrifft, geht es darum, die für RAI verantwortlichen Führungskräfte zu befähigen und Praktiker sowie Anwender darin zu schulen, KI verantwortungsvoll zu entwickeln, zu managen und einzusetzen.

In Bezug auf Prozesse geht es darum, den gesamten Lebenszyklus – vom Datenzugriff über das Modelltraining bis hin zu Deployment, Monitoring und Retraining – zu steuern und zu kontrollieren.

Was die Technologie angeht, kommt Plattformen eine besondere Bedeutung zu. Sie unterstützen Menschen und ermöglichen Prozesse in großem Umfang und demokratisieren darüber hinaus den Zugang zu Responsible-AI-Methoden. Darüber hinaus setzen sie die Governance für KI-Artefakte durch, sorgen für Track Lineage, automatisieren die Dokumentation, orchestrieren Genehmigungs-Workflows, sichern Daten – und bieten unzählige Funktionen, um RAI-Prozesse zu vereinheitlichen.

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

3 gefährliche Responsible-AI-Mythen​ Weiterlesen »

Roboter können Amazon-Mitarbeiter noch nicht ersetzen​

Allgemein

Roboter übernehmen Kommissionieraufgaben in Amazons Lagern, ersetzen aber keine Menschen vollständig. Summit Art Creations – shutterstock.com Amazon setzt in seinen Fulfillment-Lagern testweise Roboter ein, die Produkte effizient kommissionieren und verstauen können. Die Roboter, die diese Aufgaben in der Lagerlogistik übernehmen sollen, heißen „Stow“ und „Pick“. Der „Stow“-Roboter ist mit einem Greifarm, einem ausziehbaren Brett und einem visuellen System ausgestattet, um Platz in Lagerbehältern zu erkennen. Ein Machine-Learning-Modell hilft ihm, die Erfolgschancen beim Packen vorherzusagen und sich entsprechend anzupassen. Erste Ergebnisse wurden in zwei Forschungspapieren veröffentlicht: Roboter fast so schnell wie Menschen In den Tests lagerte Amazons Stow-Roboter über 500.000 Artikel mit einer Erfolgsquote von 85 Prozent um. Bei neun Prozent der Fehlversuche wurden Artikel beschädigt, oft wurden sie fallengelassen. In 14 Prozent der Fälle beschädigte der Roboter Buchseiten als er sie verstaute. Aufgrund des hohen Buchanteils im Amazon-Lager sollen künftig schonendere Mechanismen entwickelt werden. Die Geschwindigkeit des Roboters lag mit 224 Einheiten pro Stunde (UPH) nahe an der von Menschen (243 UPH). Menschen arbeiteten dabei allerdings variabler – sie handhabten kleine Gegenstände schnell, brauchten aber bei größeren Gegenständen länger. Langsamer wurden die Menschen, wenn sie in die Hocke gehen oder auf eine Leiter steigen mussten, um an die Behälter zu gelangen. Amazon vermutet, dass sich die Effizienz um 4,5 Prozent steigern ließe, wenn Roboter nur höher gelegene Lagerfächer bedienen würden. Bildverarbeitung verhindert mögliche Schäden Der „Pick“-Roboter, der in einem anderen Forschungspapier beschrieben wird, wurde von Oktober 2024 bis März 2025 sechs Stunden pro Tag an Wochenenden eingesetzt. Dabei erzielte er sogar eine Erfolgsquote von 91 Prozent bei 12.000 Entnahmeversuchen. Zugleich lehnte er fast jede fünfte Entnahme-Anfrage ab, nachdem sein Bildverarbeitungssystem den Artikel entweder nicht erkannt hatte oder aus Sorge vor einer Beschädigung des Artikels abgewunken hatte. Trainieren statt nachbessern Amazon setzt bei seinen Robotik-Experimenten auf visuomotorisches Policy Learning (VMP), um den Maschinen Fähigkeiten beizubringen statt sie manuell zu programmieren. Eine Herausforderung ist dabei die schwer nachvollziehbare Fehlerursache, weshalb VMPs bei Problemen neu trainiert werden müssen. Um die Leistung zu steigern, plant Amazon den Einsatz eines Real2Sim-Moduls, das reale Szenen digital nachbildet, um seltene Fehler systematisch zu erkennen und zu beheben. 

Roboter können Amazon-Mitarbeiter noch nicht ersetzen​ Roboter übernehmen Kommissionieraufgaben in Amazons Lagern, ersetzen aber keine Menschen vollständig.
Summit Art Creations – shutterstock.com

Amazon setzt in seinen Fulfillment-Lagern testweise Roboter ein, die Produkte effizient kommissionieren und verstauen können. Die Roboter, die diese Aufgaben in der Lagerlogistik übernehmen sollen, heißen „Stow“ und „Pick“.

Der „Stow“-Roboter ist mit einem Greifarm, einem ausziehbaren Brett und einem visuellen System ausgestattet, um Platz in Lagerbehältern zu erkennen. Ein Machine-Learning-Modell hilft ihm, die Erfolgschancen beim Packen vorherzusagen und sich entsprechend anzupassen. Erste Ergebnisse wurden in zwei Forschungspapieren veröffentlicht:

Roboter fast so schnell wie Menschen

In den Tests lagerte Amazons Stow-Roboter über 500.000 Artikel mit einer Erfolgsquote von 85 Prozent um. Bei neun Prozent der Fehlversuche wurden Artikel beschädigt, oft wurden sie fallengelassen. In 14 Prozent der Fälle beschädigte der Roboter Buchseiten als er sie verstaute. Aufgrund des hohen Buchanteils im Amazon-Lager sollen künftig schonendere Mechanismen entwickelt werden.

Die Geschwindigkeit des Roboters lag mit 224 Einheiten pro Stunde (UPH) nahe an der von Menschen (243 UPH). Menschen arbeiteten dabei allerdings variabler – sie handhabten kleine Gegenstände schnell, brauchten aber bei größeren Gegenständen länger.

Langsamer wurden die Menschen, wenn sie in die Hocke gehen oder auf eine Leiter steigen mussten, um an die Behälter zu gelangen. Amazon vermutet, dass sich die Effizienz um 4,5 Prozent steigern ließe, wenn Roboter nur höher gelegene Lagerfächer bedienen würden.

Bildverarbeitung verhindert mögliche Schäden

Der „Pick“-Roboter, der in einem anderen Forschungspapier beschrieben wird, wurde von Oktober 2024 bis März 2025 sechs Stunden pro Tag an Wochenenden eingesetzt. Dabei erzielte er sogar eine Erfolgsquote von 91 Prozent bei 12.000 Entnahmeversuchen.

Zugleich lehnte er fast jede fünfte Entnahme-Anfrage ab, nachdem sein Bildverarbeitungssystem den Artikel entweder

nicht erkannt hatte oder

aus Sorge vor einer Beschädigung des Artikels abgewunken hatte.

Trainieren statt nachbessern

Amazon setzt bei seinen Robotik-Experimenten auf visuomotorisches Policy Learning (VMP), um den Maschinen Fähigkeiten beizubringen statt sie manuell zu programmieren. Eine Herausforderung ist dabei die schwer nachvollziehbare Fehlerursache, weshalb VMPs bei Problemen neu trainiert werden müssen.

Um die Leistung zu steigern, plant Amazon den Einsatz eines Real2Sim-Moduls, das reale Szenen digital nachbildet, um seltene Fehler systematisch zu erkennen und zu beheben.

Roboter können Amazon-Mitarbeiter noch nicht ersetzen​ Weiterlesen »

Podcast: Wie KI- und Quantentechnik Angriffsvektoren verändert​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/05/Thomas-Schumacher_16.jpg?quality=50&strip=all 4000w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Thomas-Schumacher_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Thomas-Schumacher_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Thomas-Schumacher_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Thomas-Schumacher_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Thomas-Schumacher_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Thomas-Schumacher_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Thomas-Schumacher_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Thomas-Schumacher_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Thomas-Schumacher_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Thomas-Schumacher_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Thomas Schumacher, Cybersecurity Lead bei Accenture, räumt im TechTalk-Podcast mit Security-Mythen auf.Accenture Neue Technologien wie Künstliche Intelligenz und Quantencomputing sorgen in der Art und Weise, wie wir heute Business betrieben, für massive Veränderungen. Das bedeutet allerdings nicht nur Chancen, sondern auch Risiken, erklärt Thomas Schumacher, Cybersecurity Lead bei Accenture. „Die heutigen Technologien werden die Angriffsvektoren, die wir heute kennen, noch einmal deutlich erweitern“, prognostiziert Schumacher. Gleichzeitig gebe es jedoch genug Potenzial, diese Technologien nutzbar zu machen, um Gefahren schneller zu erkennen und abzuwehren. KI hilft Angreifern bei Phishing-Attacken Der Security-Spezialist von Accenture nennt als Beispiel Phishing-Attacken, die mit Hilfe von KI professioneller und individueller auf bestimmte Zielpersonen zugeschnitten werden könnten. „KI erhöht die Qualität, erhöht die Geschwindigkeit und es wird individueller.“ Die Gefahr kompromittiert zu werden, sei viel höher als vorher, weil die Angriffe schwieriger zu erkennen seien. Schumacher plädiert für mehr Awareness und Aufmerksamkeit. Außerdem gebe es keinen Grund, panisch zu werden oder den Kopf zu verlieren. „Es gibt kein IT-Problem, für das es keine Lösung gibt“, zitiert der Sicherheitsexperte einen befreundeten CIO. Wichtig sei es vor allem, eine Strategie zu haben, wie man mit den neuen Themen wie KI umgeht. „Die schlechteste Strategie ist, die Dinge einfach laufen zu lassen.“ Wie sollten die Eckpfeiler einer solchen Security-Strategie aussehen? Warum ist es so wichtig, sich genau zu überlegen, welche Bereiche besonders schützenswert sind, und was nach einem Angriff unbedingt als erstes wieder laufen sollte? Was macht die richtige Balance zwischen dem Schutz der IT-Infrastruktur und der Vorbereitung auf den Fall der Fälle aus? All diesen Fragen beantwortet Schumacher im TechTalk-Podcast von COMPUTERWOCHE, CIO und CSO. width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/2XPzqRLLNZZTLekZ4IHv5M?utm_source=oembed”> 

Podcast: Wie KI- und Quantentechnik Angriffsvektoren verändert​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/05/Thomas-Schumacher_16.jpg?quality=50&strip=all 4000w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Thomas-Schumacher_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Thomas-Schumacher_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Thomas-Schumacher_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Thomas-Schumacher_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Thomas-Schumacher_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Thomas-Schumacher_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Thomas-Schumacher_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Thomas-Schumacher_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Thomas-Schumacher_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Thomas-Schumacher_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Thomas Schumacher, Cybersecurity Lead bei Accenture, räumt im TechTalk-Podcast mit Security-Mythen auf.Accenture

Neue Technologien wie Künstliche Intelligenz und Quantencomputing sorgen in der Art und Weise, wie wir heute Business betrieben, für massive Veränderungen. Das bedeutet allerdings nicht nur Chancen, sondern auch Risiken, erklärt Thomas Schumacher, Cybersecurity Lead bei Accenture.

„Die heutigen Technologien werden die Angriffsvektoren, die wir heute kennen, noch einmal deutlich erweitern“, prognostiziert Schumacher. Gleichzeitig gebe es jedoch genug Potenzial, diese Technologien nutzbar zu machen, um Gefahren schneller zu erkennen und abzuwehren.

KI hilft Angreifern bei Phishing-Attacken

Der Security-Spezialist von Accenture nennt als Beispiel Phishing-Attacken, die mit Hilfe von KI professioneller und individueller auf bestimmte Zielpersonen zugeschnitten werden könnten. „KI erhöht die Qualität, erhöht die Geschwindigkeit und es wird individueller.“ Die Gefahr kompromittiert zu werden, sei viel höher als vorher, weil die Angriffe schwieriger zu erkennen seien.

Schumacher plädiert für mehr Awareness und Aufmerksamkeit. Außerdem gebe es keinen Grund, panisch zu werden oder den Kopf zu verlieren. „Es gibt kein IT-Problem, für das es keine Lösung gibt“, zitiert der Sicherheitsexperte einen befreundeten CIO. Wichtig sei es vor allem, eine Strategie zu haben, wie man mit den neuen Themen wie KI umgeht. „Die schlechteste Strategie ist, die Dinge einfach laufen zu lassen.“

Wie sollten die Eckpfeiler einer solchen Security-Strategie aussehen? Warum ist es so wichtig, sich genau zu überlegen, welche Bereiche besonders schützenswert sind, und was nach einem Angriff unbedingt als erstes wieder laufen sollte? Was macht die richtige Balance zwischen dem Schutz der IT-Infrastruktur und der Vorbereitung auf den Fall der Fälle aus? All diesen Fragen beantwortet Schumacher im TechTalk-Podcast von COMPUTERWOCHE, CIO und CSO.

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/2XPzqRLLNZZTLekZ4IHv5M?utm_source=oembed”>

Podcast: Wie KI- und Quantentechnik Angriffsvektoren verändert​ Weiterlesen »

Mit KI gelingt Unternehmen der transformative Durchbruch​

Allgemein

Trotz hoher Investitionen in die IT-Modernisierung stehen viele Unternehmen still – technische Altlasten bremsen Innovation und Wachstum aus. PeopleImages.com – Yuri A – shutterstock.com Die IT-Landschaft von Unternehmen steht am Scheideweg. Trotz jahrelanger Modernisierungsbemühungen und milliardenschwerer Budgets sind die technischen Schulden bei den Global 2000 auf eine Last von 1,5 bis 2 Billionen Dollar angestiegen. Damit sind sie nach wie vor das größte Hindernis für Innovation, Agilität und Wachstum.  Diese strukturelle Belastung hält Unternehmen in veralteten Betriebsmodellen gefangen, was den Fortschritt hemmt und Ressourcen verschlingt. Zu diesem Schluss kommt ein neuer Bericht von HFS Research in Zusammenarbeit mit Publicis Sapient. Als transformative Lösung für diese Probleme sehen die Studienmacher Künstliche Intelligenz (KI). Große Erwartungen an KI-Potenzial Der Bericht stützt sich hierfür auf eine Umfrage unter 608 IT- und Business-Führungskräften aus Forbes Global-2000-Unternehmen verschiedener Branchen und Umsatzklassen. Die Befragten, größtenteils Entscheidungsträger in Unternehmen, äußerten sich zu Themen wie Modernisierung, KI-Einsatz und technischen Schulden. Die Ergebnisse liefern einen umfassenden Einblick in die Prioritäten und Herausforderungen großer Unternehmen bei der Transformation ihrer IT-Landschaft: 80 Prozent der Befragten glauben zum Beispiel, dass KI die Modernisierungsergebnisse verbessern wird. Vier von fünf der Teilnehmenden wollen sich von arbeitsintensiven Servicemodellen abwenden. 71 Prozent sind bereit, für eine bessere KI-Ausführung den Anbieter zu wechseln. Hohe Ausgaben, geringe Modernisierungserfolge Unternehmen geben zudem fast 30 Prozent ihrer IT-Budgets für die Modernisierung aus, aber nur drei von zehn der Befragten haben ihre Kernanwendungen vollständig modernisiert. Altsysteme, komplexe Zusatzkomponenten und Outsourcing-Modelle haben laut ihren Angaben stattdessen eher zu einer Stagnation geführt als das Problem zu lösen. Die Komplexität veralteter Systeme wird dabei oft durch ineffiziente IT-Dienstleister aufrechterhalten. KI kann laut den Analysten diese Schulden schnell und effektiv abbauen – vorausgesetzt, sie wird strategisch eingesetzt und durchgreifend in Arbeitsprozesse und Betriebsmodelle integriert. Sie kann beispielsweise alten Code lesen und umschreiben, Integration und Tests automatisieren sowie jahrelange Sanierungsarbeiten auf Wochen verkürzen. Allerdings muss KI als grundlegende Kraft behandelt werden – nicht nur als ein weiteres Tool. Unternehmen müssen daher Arbeitsabläufe, Governance und Betriebsmodelle überdenken, um diese Technologie vollständig nutzen zu können. Dienstleister bleiben beim KI-Wandel zurück Der Wandel vom traditionellen IT-Servicemodell hin zu „Services-as-Software“ steht dabei im Fokus: automatisierte, KI-gestützte Plattformen ersetzen manuelle Prozesse und ermöglichen schnellere Innovationen, betriebliche Agilität und eine geringere technische Verschuldung. Allerdings scheitern viele Unternehmen und Dienstleister noch an der Skalierung von KI – aufgrund fehlender Talente, Governance und Innovationsfähigkeit. Nur 20 Prozent der Unternehmen nutzen KI über mehrere Funktionen hinweg. Vielen Unternehmen fehlt es an darüber hinaus an Mitarbeitenden, Governance und Integrationsfähigkeiten, um KI vollständig zu nutzen. Darüber hinaus gelingt es den meisten Dienstleistern nicht, den Übergang zu KI-gestützten Bereitstellungsmodellen anzuführen. Zugleich treibt nur jedes zehnte Unternehmen diesen Wandel proaktiv voran. Betriebsmodelle neu denken Um das volle Potenzial von KI zu nutzen, müssen Unternehmen daher laut den Studienautoren ihr Betriebsmodell grundlegend neu denken: modular, intelligent, ergebnisorientiert und KI-zentriert. HFS Research empfiehlt fünf konkrete Schritte zur Überwindung technischer Schulden: Tech-Schulden wie Finanzschulden behandeln: Unternehmen müssen Prioritäten setzen und diese konsequent tilgen. Systeme umgestalten: Workflows und Governance sind künftig rund um KI statt um veraltete Strukturen zu gestalten. Produktbezogene Fähigkeiten fordern: Firmen sollten zu Anbietern wechseln, die KI-gesteuerte Plattformen anbieten, nicht Personal. Neue Geschäftsmodelle einführen: Modelle wie Abonnements, ergebnisbasierte oder nutzungsabhängige Preise gehören eingeführt. Mit Dringlichkeit führen: Rollen, Governance und die Bereitstellung KI-gestützter Arbeitsweisen gehören neu definiert. 

Mit KI gelingt Unternehmen der transformative Durchbruch​ Trotz hoher Investitionen in die IT-Modernisierung stehen viele Unternehmen still – technische Altlasten bremsen Innovation und Wachstum aus.
PeopleImages.com – Yuri A – shutterstock.com

Die IT-Landschaft von Unternehmen steht am Scheideweg. Trotz jahrelanger Modernisierungsbemühungen und milliardenschwerer Budgets sind die technischen Schulden bei den Global 2000 auf eine Last von 1,5 bis 2 Billionen Dollar angestiegen. Damit sind sie nach wie vor das größte Hindernis für Innovation, Agilität und Wachstum.  Diese strukturelle Belastung hält Unternehmen in veralteten Betriebsmodellen gefangen, was den Fortschritt hemmt und Ressourcen verschlingt.

Zu diesem Schluss kommt ein neuer Bericht von HFS Research in Zusammenarbeit mit Publicis Sapient. Als transformative Lösung für diese Probleme sehen die Studienmacher Künstliche Intelligenz (KI).

Große Erwartungen an KI-Potenzial

Der Bericht stützt sich hierfür auf eine Umfrage unter 608 IT- und Business-Führungskräften aus Forbes Global-2000-Unternehmen verschiedener Branchen und Umsatzklassen. Die Befragten, größtenteils Entscheidungsträger in Unternehmen, äußerten sich zu Themen wie Modernisierung, KI-Einsatz und technischen Schulden.

Die Ergebnisse liefern einen umfassenden Einblick in die Prioritäten und Herausforderungen großer Unternehmen bei der Transformation ihrer IT-Landschaft:

80 Prozent der Befragten glauben zum Beispiel, dass KI die Modernisierungsergebnisse verbessern wird.

Vier von fünf der Teilnehmenden wollen sich von arbeitsintensiven Servicemodellen abwenden.

71 Prozent sind bereit, für eine bessere KI-Ausführung den Anbieter zu wechseln.

Hohe Ausgaben, geringe Modernisierungserfolge

Unternehmen geben zudem fast 30 Prozent ihrer IT-Budgets für die Modernisierung aus, aber nur drei von zehn der Befragten haben ihre Kernanwendungen vollständig modernisiert. Altsysteme, komplexe Zusatzkomponenten und Outsourcing-Modelle haben laut ihren Angaben stattdessen eher zu einer Stagnation geführt als das Problem zu lösen.

Die Komplexität veralteter Systeme wird dabei oft durch ineffiziente IT-Dienstleister aufrechterhalten. KI kann laut den Analysten diese Schulden schnell und effektiv abbauen – vorausgesetzt, sie wird strategisch eingesetzt und durchgreifend in Arbeitsprozesse und Betriebsmodelle integriert.

Sie kann beispielsweise

alten Code lesen und umschreiben,

Integration und Tests automatisieren sowie

jahrelange Sanierungsarbeiten auf Wochen verkürzen.

Allerdings muss KI als grundlegende Kraft behandelt werden – nicht nur als ein weiteres Tool. Unternehmen müssen daher Arbeitsabläufe, Governance und Betriebsmodelle überdenken, um diese Technologie vollständig nutzen zu können.

Dienstleister bleiben beim KI-Wandel zurück

Der Wandel vom traditionellen IT-Servicemodell hin zu „Services-as-Software“ steht dabei im Fokus: automatisierte, KI-gestützte Plattformen ersetzen manuelle Prozesse und ermöglichen

schnellere Innovationen,

betriebliche Agilität und

eine geringere technische Verschuldung.

Allerdings scheitern viele Unternehmen und Dienstleister noch an der Skalierung von KI – aufgrund fehlender Talente, Governance und Innovationsfähigkeit. Nur 20 Prozent der Unternehmen nutzen KI über mehrere Funktionen hinweg. Vielen Unternehmen fehlt es an darüber hinaus an Mitarbeitenden, Governance und Integrationsfähigkeiten, um KI vollständig zu nutzen.

Darüber hinaus gelingt es den meisten Dienstleistern nicht, den Übergang zu KI-gestützten Bereitstellungsmodellen anzuführen. Zugleich treibt nur jedes zehnte Unternehmen diesen Wandel proaktiv voran.

Betriebsmodelle neu denken

Um das volle Potenzial von KI zu nutzen, müssen Unternehmen daher laut den Studienautoren ihr Betriebsmodell grundlegend neu denken:

modular,

intelligent,

ergebnisorientiert und

KI-zentriert.

HFS Research empfiehlt fünf konkrete Schritte zur Überwindung technischer Schulden:

Tech-Schulden wie Finanzschulden behandeln: Unternehmen müssen Prioritäten setzen und diese konsequent tilgen.

Systeme umgestalten: Workflows und Governance sind künftig rund um KI statt um veraltete Strukturen zu gestalten.

Produktbezogene Fähigkeiten fordern: Firmen sollten zu Anbietern wechseln, die KI-gesteuerte Plattformen anbieten, nicht Personal.

Neue Geschäftsmodelle einführen: Modelle wie Abonnements, ergebnisbasierte oder nutzungsabhängige Preise gehören eingeführt.

Mit Dringlichkeit führen: Rollen, Governance und die Bereitstellung KI-gestützter Arbeitsweisen gehören neu definiert.

Mit KI gelingt Unternehmen der transformative Durchbruch​ Weiterlesen »

Die Zukunft der Versicherungsbranche im Zeitalter von KI​

Allgemein

Künstliche Intelligenz verändert die Versicherungswelt – von der Datenanalyse bis zur Kundenbetreuung. PeopleImages.com – Yuri A – shutterstock.com Die Versicherungsbranche steht vor einem tiefgreifenden Wandel, angetrieben durch technologische Innovationen und sich verändernde Marktbedingungen. Davon gehen zumindest Munich Re und ERGO aus. Im „Tech Trend Radar 2025“  beleuchten sie die wichtigsten Trends, die die Branche in den kommenden Jahren prägen werden. Trends im Überblick Insgesamt identifiziert der Bericht 36 Trends, welche fünf Bereichen zugeordnet werden können: Gesundheitstechnologien (Healthy Human), Netz- und Infrastrukturinnovationen (Connected Experience), daten- und KI-basierte Lösungen (Data & AI), sichere Kommunikation und Transaktionen (Cyber & Crypto) sowie technologische Transformation von Branchen, etwa durch erneuerbare Energien (Redefining Industries). Künstliche Intelligenz und Daten Künstliche Intelligenz (KI) wird als entscheidender Faktor für die Versicherungsbranche angesehen. Technologien wie Generative KI (GenAI), KI-Agenten und synthetische Daten ermöglichen effizientere Prozesse. Diese reichen von der Schadensbearbeitung bis zur Risikobewertung. Darüber hinaus transformiert GenAI die Datenanalyse und verbessert die Personalisierung von Versicherungsprodukten, so die Studienmacher. KI-Agenten, die autonom Aufgaben ausführen, könnten zudem die Effizienz in der Kundenbetreuung und Schadensbearbeitung revolutionieren. Gleichzeitig erfordert die zunehmende Nutzung von KI eine robuste Governance. Nur so lassen sich laut den Experten Risiken wie Verzerrungen und Datenschutzverletzungen minimieren. Digitale und personalisierte Medizin Die Integration von KI in die Medizin eröffnet ebenfalls neue Möglichkeiten für Versicherer: Digitale Gesundheitslösungen wie elektronische Gesundheitsakten (EHRs) und KI-gestützte Diagnosen verbessern sowohl die Risikobewertung als auch die Schadensbearbeitung, so die Autoren. Personalisierte Medizin, die auf genetischen Profilen basiert, soll präzisere Behandlungen ermöglichen. Das könnte die Kosten im Gesundheitswesen senken. Trotz der Vorteile bleiben Herausforderungen, wie hohe Kosten und Datenschutzbedenken bestehen. Neue Energiequellen und Klimawandel Neue Aufgaben für die Versicherungsbranche entstehen laut der Studie durch Energiewende und Klimawandel. Erneuerbare Energien wie Solar- und Windkraft erfordern innovative Versicherungsprodukte, um Risiken wie Naturkatastrophen und technische Ausfälle abzudecken. Gleichzeitig wird die Bedeutung von Klimarisikobewertungen immer größer, um Unternehmen und Gemeinden auf extreme Wetterereignisse vorzubereiten. Autonome Mobilität und Elektrofahrzeuge Darüber hinaus verändert die zunehmende Verbreitung von Elektrofahrzeugen (EVs) und autonomen Fahrzeugen (AVs) die Versicherungslandschaft. EVs bringen neue Risiken wie höhere Reparaturkosten und Cyberangriffe mit sich, bieten aber auch Chancen für maßgeschneiderte Versicherungsprodukte. Autonome Fahrzeuge könnten zudem die Unfallhäufigkeit reduzieren, aber die Haftung von den Fahrern auf die Hersteller verlagern. Das würde neue Versicherungsmodelle erfordern, so die Experten. Cyber- und Kryptorisiken Die digitale Transformation bringt laut den Autoren neue Bedrohungen mit sich, da Cyberangriffe und Deepfakes Unternehmen vor große Herausforderungen stellen. Versicherer entwickeln daher Lösungen wie die „Digital-Immune-System“-Technologie, um die Cybersicherheit zu verbessern und Risiken zu minimieren. Gleichzeitig wächst die Nachfrage nach Versicherungen für digitale Vermögenswerte wie Kryptowährungen und tokenisierte Immobilien. IoT und Sensorik als Gamechanger Technologien wie humanoide Roboter, IoT-Sensoren und erweiterte Realität (XR) verändern ebenfalls traditionelle Branchen. Zudem schaffen sie neue Märkte für Versicherer. Laut den Studienmachern könnten humanoide Roboter hier die Schadensbewertung und Kundenbetreuung revolutionieren, während XR immersive Kundenerlebnisse ermöglicht. Die Landwirtschaft profitiert von Remote-Sensing-Technologien, die die Risikobewertung und Schadensbearbeitung verbessern. Governance als Schlüssel Während all diese Innovationen Effizienz und Wachstum versprechen, bringen sie auch Herausforderungen mit sich, wie Bedenken hinsichtlich des Datenschutzes, regulatorische Komplexität und die Notwendigkeit eines robusten Governance-Rahmens. Versicherer müssen daher laut den Autoren der Studie ein Gleichgewicht zwischen technologischer Innovation und Risikomanagement finden. Nur auf diese Art und Weise  ließen sich Vertrauen und Compliance aufrechterhalten. 

Die Zukunft der Versicherungsbranche im Zeitalter von KI​ Künstliche Intelligenz verändert die Versicherungswelt – von der Datenanalyse bis zur Kundenbetreuung.
PeopleImages.com – Yuri A – shutterstock.com

Die Versicherungsbranche steht vor einem tiefgreifenden Wandel, angetrieben durch technologische Innovationen und sich verändernde Marktbedingungen. Davon gehen zumindest Munich Re und ERGO aus. Im „Tech Trend Radar 2025“  beleuchten sie die wichtigsten Trends, die die Branche in den kommenden Jahren prägen werden.

Trends im Überblick

Insgesamt identifiziert der Bericht 36 Trends, welche fünf Bereichen zugeordnet werden können:

Gesundheitstechnologien (Healthy Human),

Netz- und Infrastrukturinnovationen (Connected Experience),

daten- und KI-basierte Lösungen (Data & AI),

sichere Kommunikation und Transaktionen (Cyber & Crypto) sowie

technologische Transformation von Branchen, etwa durch erneuerbare Energien (Redefining Industries).

Künstliche Intelligenz und Daten

Künstliche Intelligenz (KI) wird als entscheidender Faktor für die Versicherungsbranche angesehen. Technologien wie Generative KI (GenAI), KI-Agenten und synthetische Daten ermöglichen effizientere Prozesse. Diese reichen von der Schadensbearbeitung bis zur Risikobewertung. Darüber hinaus transformiert GenAI die Datenanalyse und verbessert die Personalisierung von Versicherungsprodukten, so die Studienmacher.

KI-Agenten, die autonom Aufgaben ausführen, könnten zudem die Effizienz in der Kundenbetreuung und Schadensbearbeitung revolutionieren. Gleichzeitig erfordert die zunehmende Nutzung von KI eine robuste Governance. Nur so lassen sich laut den Experten Risiken wie Verzerrungen und Datenschutzverletzungen minimieren.

Digitale und personalisierte Medizin

Die Integration von KI in die Medizin eröffnet ebenfalls neue Möglichkeiten für Versicherer: Digitale Gesundheitslösungen wie elektronische Gesundheitsakten (EHRs) und KI-gestützte Diagnosen verbessern sowohl die Risikobewertung als auch die Schadensbearbeitung, so die Autoren.

Personalisierte Medizin, die auf genetischen Profilen basiert, soll präzisere Behandlungen ermöglichen. Das könnte die Kosten im Gesundheitswesen senken. Trotz der Vorteile bleiben Herausforderungen, wie hohe Kosten und Datenschutzbedenken bestehen.

Neue Energiequellen und Klimawandel

Neue Aufgaben für die Versicherungsbranche entstehen laut der Studie durch Energiewende und Klimawandel. Erneuerbare Energien wie Solar- und Windkraft erfordern innovative Versicherungsprodukte, um Risiken wie Naturkatastrophen und technische Ausfälle abzudecken.

Gleichzeitig wird die Bedeutung von Klimarisikobewertungen immer größer, um Unternehmen und Gemeinden auf extreme Wetterereignisse vorzubereiten.

Autonome Mobilität und Elektrofahrzeuge

Darüber hinaus verändert die zunehmende Verbreitung von Elektrofahrzeugen (EVs) und autonomen Fahrzeugen (AVs) die Versicherungslandschaft. EVs bringen neue Risiken wie höhere Reparaturkosten und Cyberangriffe mit sich, bieten aber auch Chancen für maßgeschneiderte Versicherungsprodukte.

Autonome Fahrzeuge könnten zudem die Unfallhäufigkeit reduzieren, aber die Haftung von den Fahrern auf die Hersteller verlagern. Das würde neue Versicherungsmodelle erfordern, so die Experten.

Cyber- und Kryptorisiken

Die digitale Transformation bringt laut den Autoren neue Bedrohungen mit sich, da Cyberangriffe und Deepfakes Unternehmen vor große Herausforderungen stellen. Versicherer entwickeln daher Lösungen wie die „Digital-Immune-System“-Technologie, um die Cybersicherheit zu verbessern und Risiken zu minimieren.

Gleichzeitig wächst die Nachfrage nach Versicherungen für digitale Vermögenswerte wie Kryptowährungen und tokenisierte Immobilien.

IoT und Sensorik als Gamechanger

Technologien wie humanoide Roboter, IoT-Sensoren und erweiterte Realität (XR) verändern ebenfalls traditionelle Branchen. Zudem schaffen sie neue Märkte für Versicherer. Laut den Studienmachern könnten humanoide Roboter hier die Schadensbewertung und Kundenbetreuung revolutionieren, während XR immersive Kundenerlebnisse ermöglicht.

Die Landwirtschaft profitiert von Remote-Sensing-Technologien, die die Risikobewertung und Schadensbearbeitung verbessern.

Governance als Schlüssel

Während all diese Innovationen Effizienz und Wachstum versprechen, bringen sie auch Herausforderungen mit sich, wie

Bedenken hinsichtlich des Datenschutzes,

regulatorische Komplexität und

die Notwendigkeit eines robusten Governance-Rahmens.

Versicherer müssen daher laut den Autoren der Studie ein Gleichgewicht zwischen technologischer Innovation und Risikomanagement finden. Nur auf diese Art und Weise  ließen sich Vertrauen und Compliance aufrechterhalten.

Die Zukunft der Versicherungsbranche im Zeitalter von KI​ Weiterlesen »

Model Context Protocol ist revolutionär​

Allgemein

Laut seiner Dokumentation können Sie sich Model Context Protocol als „USB-C-Port für KI-Applikationen“ vorstellen.Skrypnykov Dmytro | shutterstock.com Für DevOps-Teams besteht der wesentliche Vorteil von Generative AI (GenAI) bislang darin, Code schneller und automatisiert zu produzieren. Das reicht aber bei weitem nicht für alle DevOps-Aufgaben aus. Um etwa Cloud-Service-Konfigurationen anzupassen, Applikationen auszuliefern oder Protokolldateien zusammenzuführen, sind GenAI-Workflows bislang nicht besonders nützlich, da sie nicht ohne Weiteres auf DevOps-Tools und -Daten zugreifen können. Beziehungsweise konnten. Denn mit Model Context Protocol (MCP) eröffnen sich für DevOps-Praktiker nun diverse neue Möglichkeiten, künstliche Intelligenz (KI) in viele ihrer Workflows zu integrieren. In diesem Beitrag lesen Sie, was MCP ist – und wie und warum Sie diese wichtige KI-Innovation nutzen können und sollten. Model Context Protocol – Definition & Funktionsweise MCP ist ein offener Standard, der Ende 2024 von Anthropic eingeführt wurde und KI-Modelle mit externen Tools und Datenquellen verbindet. Damit entsteht eine effiziente, standardisierte Möglichkeit, KI-basierte Agenten aufzubauen, die auf natürlichsprachliche Befehle ihrer Benutzer mit spezifischen Aktionen reagieren. Model Context Protocol funktioniert über eine Server-Client-Architektur: MCP-Server stellen die Funktionen bereit, die erforderlich sind, um bestimmte Aktionen auszuführen – etwa Dateien zu modifizieren oder Datenbanken zu managen. MCP-Clients sind in der Regel KI-Agenten, die als Vermittler zwischen MCP-Servern und KI-Modellen fungieren. Bittet ein Benutzer den Client um Unterstützung, nutzt dieser ein KI-Modell, um die Anfrage zu verarbeiten. Anschließend teilt er dem MCP-Server anhand der Ergebnisse mit, welche Aktionen auszuführen sind. Die Bedeutung dieser Technologie ist gar nicht hoch genug einzuschätzen. Schließlich gab es bislang – abgesehen von benutzerdefinierten, spezifischen Integrationen wie sie bei Tools wie GitHub Copilot zum Einsatz kommen – keine wirklich simple oder effiziente Möglichkeit gab, mit KI-Modellen oder Chatbot-Interfaces auf diese Weise zu interagieren. Doch damit ist das Potenzial von MCP längst nicht ausgeschöpft: Entwickler können mit Model Context Protocol auch Anwendungen erstellen, die KI in viele weitere Workflows integrieren. Zum Beispiel lassen sich damit KI-Modelle automatisiert mit benutzerdefinierten Datenquellen verbinden. Das vereinfacht es erheblich, einzigartigen Kontext in KI-gestützte Automatisierungen einzubeziehen. Last but not least funktioniert MCP mit praktisch allen KI-Modellen und Agenten-Frameworks. Derek Ashmore ist AI Enablement Principal bei Asperitas Consulting und Autor mehrerer IT-Fachbücher.Derek Ashmore Das bringt MCP im DevOps-Kontext Mit Blick auf DevOps ergeben sich so mit Model Context Protocol viele neue Anwendungsfälle. Zum Beispiel in folgenden Bereichen:   Problemanalyse: DevOps-Ingenieure verbringen viel Zeit damit, Antworten auf technische Fragen zu finden – etwa „Kann Host X über Port Y kommunizieren? Um die Antwort zu finden, müssen DevOps-Teams sich nun nicht mehr durch Konfigurationsdateien wühlen oder ein eigenes Skript schreiben. Stattdessen übermitteln sie ihre Fragen in natürlicher Sprache an einen MCP-Server, der sich mit den entsprechenden Datenquellen und Tools verbindet – und die Antwort liefert. Damit kann MCP DevOps-Prozesse massiv beschleunigen.  Tool-Optimierung: MCP ermöglicht zudem, die Funktionalitäten diverser DevOps-Tools zu verbessern und zu erweitern. Zum Beispiel lassen sich damit benutzerdefinierte Datenquellen mit Tools wie Visual Studio Code oder Copilot verbinden. Das wiederum ermöglicht DevOps-Experten, KI-gestützte Funktionen zu nutzen und dabei einzigartige Kontextelemente zu berücksichtigen – etwa eine spezifische Codebasis, die KI-Modellen normalerweise verschlossen bleibt. Im Ergebnis steht Code, der auf die individuellen Unternehmensanforderungen abgestimmt ist.   Cloud-Management: Mit MCP-Servern, die darauf ausgelegt sind, mit Public-Cloud-Diensten zu interagieren, lassen sich auch Cloud-Management-Prozesse automatisieren und skalieren. Mit einem MCP-Server der Amazon S3 unterstützt, könnten Sie etwa einen Client bitten, diejenigen Buckets zu finden, die einen bestimmten Datentyp enthalten. Und deren Konfigurationen ab sofort automatisiert zu ändern, sobald sie öffentlich zugänglich sind. Dokumentation: ChatGPT und Konsorten verfügen zwar über Funktionen, um sich mit benutzerdefinierten Dokumentationsdatenbanken zu verbinden. Diese (und der Integrationsprozess) differieren jedoch je nach gewähltem KI-Tool, was DevOps-Teams das Leben schwermachen kann. MCP löst dieses Problem über modellunabhängige Konnektoren zu Plattformen wie Confluence oder SharePoint-Webseiten. Sobald die Verbindung darüber hergestellt ist, können DevOps-Teams KI nutzen, um Datenbanken zu durchsuchen oder Aktionen auf der Grundlage der darin enthaltenen Informationen zu automatisieren. Wo MCP an Grenzen stößt Als flexibles und offenes Protokoll unterliegt MCP nur wenigen hinsichtlich seiner DevOps-Anwendungsfälle nur wenigen Limitationen. Tatsächlich fällt es schwer, sich in diesem Bereich einen Use Case vorzustellen, der mit MCP nicht technisch zu realisieren wäre. Allerdings können in der Praxis Herausforderungen entstehen. Einerseits aus Usability-Perspektive: Die meisten MCP-Server werden lokal ausgeführt und benötigen verschiedene Ressourcen wie einen Python-Interpreter, um zu funktionieren. Für DevOps-Engineers bedeutet das in erster Linie zeitlichen Aufwand, um ihre Umgebung für MCP zu konfigurieren. Darüber hinaus besteht das Risiko, dass eine Konfiguration, die für einen MCP-Server funktioniert – zum Beispiel wegen unterschiedlicher Python-Versionen – nicht für einen anderen funktioniert. Server zu containerisieren ist eine Möglichkeit, diese Herausforderung anzugehen. Auch das zieht jedoch erheblichen Konfigurationsaufwand nach sich.  Andererseits aus Security-Perspektive: MCP-Agenten unterliegen sämtlichen Risiken, die auch mit jeder anderen Art von LLM-basierter Technologie einhergehen: Sensible Daten können nach außen dringen, denn sämtliche Ressourcen, die einem MCP-Server zur Verfügung stehen, könnten auch den KI-Modellen Drittanbietern zugänglich sein. Das lässt sich verhindern, indem Sie auf lokal gehostete Modelle setzen. Diesen Ansatz unterstützen jedoch nicht alle Modelle – und er erhöht den Konfigurationsaufwand.   MCP-Server könnten unerwünschte Aktionen ausführen – beispielsweise wichtige Ressourcen löschen. Um dieses Risiko unter Kontrolle zu halten, ist es essenziell, das Least-Privilege-Prinzip auf das MCP-Serverdesign und -Management anzuwenden. Die Funktionen von MCP-Servern sind auf die Access-Ebene beschränkt, die auch den Benutzern zuteil wird. Administratoren können also die Sicherheitsrisiken von Model Context Protocol über die Benutzerrechte minimieren. Diese Herausforderungen sind keineswegs ein Grund, auf die Vorteile von MCP zu verzichten. Aber DevOps-Teams sollten wissen, dass MCP-Lösungen zwar Magie versprühen, wenn sie einmal laufen – sie davor allerdings ein alles andere als magischer Einrichtungsprozess erwartet. Die goldene Model-Context-Protocol-Zukunft MCP ist nicht perfekt. Aber es stellt einen enormen Fortschritt dar, was die Möglichkeiten von DevOps-Teams angeht, KI zu nutzen. Und: Die Technologie ist sofort verfügbar und kann direkt eingesetzt werden. Ich rechne für die Zukunft damit, dass Model Context Protocol ebenso unverzichtbar für DevOps wird wie CI/CD. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Model Context Protocol ist revolutionär​ Laut seiner Dokumentation können Sie sich Model Context Protocol als „USB-C-Port für KI-Applikationen“ vorstellen.Skrypnykov Dmytro | shutterstock.com

Für DevOps-Teams besteht der wesentliche Vorteil von Generative AI (GenAI) bislang darin, Code schneller und automatisiert zu produzieren. Das reicht aber bei weitem nicht für alle DevOps-Aufgaben aus. Um etwa Cloud-Service-Konfigurationen anzupassen, Applikationen auszuliefern oder Protokolldateien zusammenzuführen, sind GenAI-Workflows bislang nicht besonders nützlich, da sie nicht ohne Weiteres auf DevOps-Tools und -Daten zugreifen können.

Beziehungsweise konnten. Denn mit Model Context Protocol (MCP) eröffnen sich für DevOps-Praktiker nun diverse neue Möglichkeiten, künstliche Intelligenz (KI) in viele ihrer Workflows zu integrieren.

In diesem Beitrag lesen Sie, was MCP ist – und wie und warum Sie diese wichtige KI-Innovation nutzen können und sollten.

Model Context Protocol – Definition & Funktionsweise

MCP ist ein offener Standard, der Ende 2024 von Anthropic eingeführt wurde und KI-Modelle mit externen Tools und Datenquellen verbindet. Damit entsteht eine effiziente, standardisierte Möglichkeit, KI-basierte Agenten aufzubauen, die auf natürlichsprachliche Befehle ihrer Benutzer mit spezifischen Aktionen reagieren.

Model Context Protocol funktioniert über eine Server-Client-Architektur:

MCP-Server stellen die Funktionen bereit, die erforderlich sind, um bestimmte Aktionen auszuführen – etwa Dateien zu modifizieren oder Datenbanken zu managen.

MCP-Clients sind in der Regel KI-Agenten, die als Vermittler zwischen MCP-Servern und KI-Modellen fungieren. Bittet ein Benutzer den Client um Unterstützung, nutzt dieser ein KI-Modell, um die Anfrage zu verarbeiten. Anschließend teilt er dem MCP-Server anhand der Ergebnisse mit, welche Aktionen auszuführen sind.

Die Bedeutung dieser Technologie ist gar nicht hoch genug einzuschätzen. Schließlich gab es bislang – abgesehen von benutzerdefinierten, spezifischen Integrationen wie sie bei Tools wie GitHub Copilot zum Einsatz kommen – keine wirklich simple oder effiziente Möglichkeit gab, mit KI-Modellen oder Chatbot-Interfaces auf diese Weise zu interagieren.

Doch damit ist das Potenzial von MCP längst nicht ausgeschöpft: Entwickler können mit Model Context Protocol auch Anwendungen erstellen, die KI in viele weitere Workflows integrieren. Zum Beispiel lassen sich damit KI-Modelle automatisiert mit benutzerdefinierten Datenquellen verbinden. Das vereinfacht es erheblich, einzigartigen Kontext in KI-gestützte Automatisierungen einzubeziehen. Last but not least funktioniert MCP mit praktisch allen KI-Modellen und Agenten-Frameworks.

Derek Ashmore ist AI Enablement Principal bei Asperitas Consulting und Autor mehrerer IT-Fachbücher.Derek Ashmore

Das bringt MCP im DevOps-Kontext

Mit Blick auf DevOps ergeben sich so mit Model Context Protocol viele neue Anwendungsfälle. Zum Beispiel in folgenden Bereichen:  

Problemanalyse: DevOps-Ingenieure verbringen viel Zeit damit, Antworten auf technische Fragen zu finden – etwa „Kann Host X über Port Y kommunizieren? Um die Antwort zu finden, müssen DevOps-Teams sich nun nicht mehr durch Konfigurationsdateien wühlen oder ein eigenes Skript schreiben. Stattdessen übermitteln sie ihre Fragen in natürlicher Sprache an einen MCP-Server, der sich mit den entsprechenden Datenquellen und Tools verbindet – und die Antwort liefert. Damit kann MCP DevOps-Prozesse massiv beschleunigen. 

Tool-Optimierung: MCP ermöglicht zudem, die Funktionalitäten diverser DevOps-Tools zu verbessern und zu erweitern. Zum Beispiel lassen sich damit benutzerdefinierte Datenquellen mit Tools wie Visual Studio Code oder Copilot verbinden. Das wiederum ermöglicht DevOps-Experten, KI-gestützte Funktionen zu nutzen und dabei einzigartige Kontextelemente zu berücksichtigen – etwa eine spezifische Codebasis, die KI-Modellen normalerweise verschlossen bleibt. Im Ergebnis steht Code, der auf die individuellen Unternehmensanforderungen abgestimmt ist.  

Cloud-Management: Mit MCP-Servern, die darauf ausgelegt sind, mit Public-Cloud-Diensten zu interagieren, lassen sich auch Cloud-Management-Prozesse automatisieren und skalieren. Mit einem MCP-Server der Amazon S3 unterstützt, könnten Sie etwa einen Client bitten, diejenigen Buckets zu finden, die einen bestimmten Datentyp enthalten. Und deren Konfigurationen ab sofort automatisiert zu ändern, sobald sie öffentlich zugänglich sind.

Dokumentation: ChatGPT und Konsorten verfügen zwar über Funktionen, um sich mit benutzerdefinierten Dokumentationsdatenbanken zu verbinden. Diese (und der Integrationsprozess) differieren jedoch je nach gewähltem KI-Tool, was DevOps-Teams das Leben schwermachen kann. MCP löst dieses Problem über modellunabhängige Konnektoren zu Plattformen wie Confluence oder SharePoint-Webseiten. Sobald die Verbindung darüber hergestellt ist, können DevOps-Teams KI nutzen, um Datenbanken zu durchsuchen oder Aktionen auf der Grundlage der darin enthaltenen Informationen zu automatisieren.

Wo MCP an Grenzen stößt

Als flexibles und offenes Protokoll unterliegt MCP nur wenigen hinsichtlich seiner DevOps-Anwendungsfälle nur wenigen Limitationen. Tatsächlich fällt es schwer, sich in diesem Bereich einen Use Case vorzustellen, der mit MCP nicht technisch zu realisieren wäre. Allerdings können in der Praxis Herausforderungen entstehen.

Einerseits aus Usability-Perspektive:

Die meisten MCP-Server werden lokal ausgeführt und benötigen verschiedene Ressourcen wie einen Python-Interpreter, um zu funktionieren. Für DevOps-Engineers bedeutet das in erster Linie zeitlichen Aufwand, um ihre Umgebung für MCP zu konfigurieren.

Darüber hinaus besteht das Risiko, dass eine Konfiguration, die für einen MCP-Server funktioniert – zum Beispiel wegen unterschiedlicher Python-Versionen – nicht für einen anderen funktioniert. Server zu containerisieren ist eine Möglichkeit, diese Herausforderung anzugehen. Auch das zieht jedoch erheblichen Konfigurationsaufwand nach sich. 

Andererseits aus Security-Perspektive:

MCP-Agenten unterliegen sämtlichen Risiken, die auch mit jeder anderen Art von LLM-basierter Technologie einhergehen: Sensible Daten können nach außen dringen, denn sämtliche Ressourcen, die einem MCP-Server zur Verfügung stehen, könnten auch den KI-Modellen Drittanbietern zugänglich sein. Das lässt sich verhindern, indem Sie auf lokal gehostete Modelle setzen. Diesen Ansatz unterstützen jedoch nicht alle Modelle – und er erhöht den Konfigurationsaufwand.  

MCP-Server könnten unerwünschte Aktionen ausführen – beispielsweise wichtige Ressourcen löschen. Um dieses Risiko unter Kontrolle zu halten, ist es essenziell, das Least-Privilege-Prinzip auf das MCP-Serverdesign und -Management anzuwenden. Die Funktionen von MCP-Servern sind auf die Access-Ebene beschränkt, die auch den Benutzern zuteil wird. Administratoren können also die Sicherheitsrisiken von Model Context Protocol über die Benutzerrechte minimieren.

Diese Herausforderungen sind keineswegs ein Grund, auf die Vorteile von MCP zu verzichten. Aber DevOps-Teams sollten wissen, dass MCP-Lösungen zwar Magie versprühen, wenn sie einmal laufen – sie davor allerdings ein alles andere als magischer Einrichtungsprozess erwartet.

Die goldene Model-Context-Protocol-Zukunft

MCP ist nicht perfekt. Aber es stellt einen enormen Fortschritt dar, was die Möglichkeiten von DevOps-Teams angeht, KI zu nutzen. Und: Die Technologie ist sofort verfügbar und kann direkt eingesetzt werden.

Ich rechne für die Zukunft damit, dass Model Context Protocol ebenso unverzichtbar für DevOps wird wie CI/CD. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Model Context Protocol ist revolutionär​ Weiterlesen »

Nach oben scrollen
×