Computerhaus Quickborn

Allgemein

Saudi-Arabien baut KI-Fabriken mit 500 Megawatt Leistung​

Allgemein

Saudi-Arabien will zu einem der weltweit führenden KI-Player aufsteigen und investiert dazu Milliarden. Q world – shutterstock.com Nach den USA und China droht Deutschland und den Europäern neue Konkurrenz in Sachen KI. Das Ende des Ölzeitalters vor Augen, investiert Saudi-Arabien kräftig in KI. Bis 2030 wollen die Scheichs zu einem der großen globalen KI-Playern aufsteigen. Während die Europäer über hehre Ziele und Absichtserklärungen in Sachen KI diskutieren, machen die Saudis Nägel mit Köpfen. Kurz vor dem Staatsbesuch von US-Präsident Trump gründete der Public Investment Fund (PIF) Saudi-Arabiens – einer der größten Staatsfonds der Welt – ein eigenes KI-Start-up: Humain.ai. Ehrgeizige KI-Ziele „Wir gestalten die Zukunft der KI – von führender KI-Infrastruktur bis hin zu fortschrittlicher Intelligenz“ proklamiert Humain.ai dabei ganz unbescheiden für sich auf LinkedIn. Ziel des Unternehmens ist es, eine skalierbare Infrastruktur, multimodale Basismodelle und angewandte Intelligenz zu vereinen. Dazu will man die gesamte KI-Wertschöpfungskette abdecken – von KI-Rechenzentren der nächsten Generation, fortschrittlicher KI-Infrastruktur und Cloud über modernste Daten-KI-Modelle bis hin zu führenden KI-Anwendungen und -Lösungen. Dabei ist Klotzen statt Kleckern angesagt. In wenigen Jahren wollen die Saudis KI-Fabriken mit Rechenleistungen von 500 Megawatt bauen. Und diese ehrgeizigen Pläne lassen sich die Scheichs etwas kosten: Die Rede ist von zweistelligen Milliardenbeträgen. Big Tech als Partner Schützenhilfe bei seinen Ambitionen erhält Humain.ai dabei vom Who is who der US-amerikanischen Tech-Industrie. Mit dabei sind etwa: AWS, AMD, Qualcomm, Nvidia und Cisco. Mit AMD hat Humian.ai etwa eine Kooperationsvereinbarung im Wert von zehn Milliarden Dollar unterzeichnet. Bestandteil der Vereinbarung ist das ist das komplette AMD-KI-Portfolio an CPUs, GPUs, Netzwerken, NPUs und die offene AMD-ROCm-Software. AWS unterstützt In Zusammenarbeit mit AWS will man in den nächsten Jahren eine dedizierte AWS-KI-Infrastruktur sowie UltraCluster-Netzwerke aufbauen. Ebenso sollen AWS-Services wie SageMaker und Bedrock sowie KI-Anwendungsservices wie Amazon Q genutzt werden. Beide Partner sprechen von einem Investitionsvolumen von über fünf Milliarden Dollar. Im Rahmen einer Partnerschaft mit Nvidia wird Humain mehrere hunderttausend GPUs des Herstellers einsetzen. In der ersten Phase der Bereitstellung wird es sich um einen Nvidia GB300 Grace Blackwell KI-Supercomputer mit 18.000 GB300-Chips und Nvidia-InfiniBand-Netzwerk handeln. Ferner will man die Omniverse-Plattform von Nvidia als mandantenfähiges System einsetzen, um die Beschleunigung der neuen Ära der physischen KI und Robotik durch Simulation, Optimierung und Betrieb physischer Umgebungen voranzutreiben. Auf diese Weise sollen vollständig integrierte digitale Zwillinge entstehen und der Weg des Königreichs zur Industrie 4.0 zu beschleunigt werden. Hybrid-KI von Qualcomm Auf Basis der Edge- und Rechenzentrumslösungen von Qualcomm ist eine skalierbare Cloud-to-Edge-Hybrid-KI-Inferenzlösungen für lokale und internationale Kunden geplant. Ferner ist angedacht, die Humain-Familie arabischer Sprachmodelle (ALLaM, gemeinsam mit SDAIA entwickelt) in das Ökosystem von KI-Edge-Geräten mit Prozessoren von Qualcomm zu integrieren. Mit von der Partie ist zudem Cisco. Die Netzwerker werden das neu KI-Unternehmen beim Aufbau einer offenen, skalierbaren, widerstandsfähigen und kosteneffizienten KI-Infrastruktur unterstützen. Dies soll das Land dabei unterstützen, sich als weltweit führender Standort für digitale Innovationen zu positionieren. 

Saudi-Arabien baut KI-Fabriken mit 500 Megawatt Leistung​ Saudi-Arabien will zu einem der weltweit führenden KI-Player aufsteigen und investiert dazu Milliarden.
Q world – shutterstock.com

Nach den USA und China droht Deutschland und den Europäern neue Konkurrenz in Sachen KI. Das Ende des Ölzeitalters vor Augen, investiert Saudi-Arabien kräftig in KI. Bis 2030 wollen die Scheichs zu einem der großen globalen KI-Playern aufsteigen.

Während die Europäer über hehre Ziele und Absichtserklärungen in Sachen KI diskutieren, machen die Saudis Nägel mit Köpfen. Kurz vor dem Staatsbesuch von US-Präsident Trump gründete der Public Investment Fund (PIF) Saudi-Arabiens – einer der größten Staatsfonds der Welt – ein eigenes KI-Start-up: Humain.ai.

Ehrgeizige KI-Ziele

„Wir gestalten die Zukunft der KI – von führender KI-Infrastruktur bis hin zu fortschrittlicher Intelligenz“ proklamiert Humain.ai dabei ganz unbescheiden für sich auf LinkedIn. Ziel des Unternehmens ist es, eine skalierbare Infrastruktur, multimodale Basismodelle und angewandte Intelligenz zu vereinen. Dazu will man die gesamte KI-Wertschöpfungskette abdecken – von KI-Rechenzentren der nächsten Generation, fortschrittlicher KI-Infrastruktur und Cloud über modernste Daten-KI-Modelle bis hin zu führenden KI-Anwendungen und -Lösungen.

Dabei ist Klotzen statt Kleckern angesagt. In wenigen Jahren wollen die Saudis KI-Fabriken mit Rechenleistungen von 500 Megawatt bauen. Und diese ehrgeizigen Pläne lassen sich die Scheichs etwas kosten: Die Rede ist von zweistelligen Milliardenbeträgen.

Big Tech als Partner

Schützenhilfe bei seinen Ambitionen erhält Humain.ai dabei vom Who is who der US-amerikanischen Tech-Industrie. Mit dabei sind etwa:

AWS,

AMD,

Qualcomm,

Nvidia

und Cisco.

Mit AMD hat Humian.ai etwa eine Kooperationsvereinbarung im Wert von zehn Milliarden Dollar unterzeichnet. Bestandteil der Vereinbarung ist das ist das komplette AMD-KI-Portfolio an CPUs, GPUs, Netzwerken, NPUs und die offene AMD-ROCm-Software.

AWS unterstützt

In Zusammenarbeit mit AWS will man in den nächsten Jahren eine dedizierte AWS-KI-Infrastruktur sowie UltraCluster-Netzwerke aufbauen. Ebenso sollen AWS-Services wie SageMaker und Bedrock sowie KI-Anwendungsservices wie Amazon Q genutzt werden. Beide Partner sprechen von einem Investitionsvolumen von über fünf Milliarden Dollar.

Im Rahmen einer Partnerschaft mit Nvidia wird Humain mehrere hunderttausend GPUs des Herstellers einsetzen. In der ersten Phase der Bereitstellung wird es sich um einen Nvidia GB300 Grace Blackwell KI-Supercomputer mit 18.000 GB300-Chips und Nvidia-InfiniBand-Netzwerk handeln.

Ferner will man die Omniverse-Plattform von Nvidia als mandantenfähiges System einsetzen, um die Beschleunigung der neuen Ära der physischen KI und Robotik durch Simulation, Optimierung und Betrieb physischer Umgebungen voranzutreiben. Auf diese Weise sollen vollständig integrierte digitale Zwillinge entstehen und der Weg des Königreichs zur Industrie 4.0 zu beschleunigt werden.

Hybrid-KI von Qualcomm

Auf Basis der Edge- und Rechenzentrumslösungen von Qualcomm ist eine skalierbare Cloud-to-Edge-Hybrid-KI-Inferenzlösungen für lokale und internationale Kunden geplant. Ferner ist angedacht, die Humain-Familie arabischer Sprachmodelle (ALLaM, gemeinsam mit SDAIA entwickelt) in das Ökosystem von KI-Edge-Geräten mit Prozessoren von Qualcomm zu integrieren.

Mit von der Partie ist zudem Cisco. Die Netzwerker werden das neu KI-Unternehmen beim Aufbau einer offenen, skalierbaren, widerstandsfähigen und kosteneffizienten KI-Infrastruktur unterstützen. Dies soll das Land dabei unterstützen, sich als weltweit führender Standort für digitale Innovationen zu positionieren.

Saudi-Arabien baut KI-Fabriken mit 500 Megawatt Leistung​ Weiterlesen »

Jamf will künftig auch Android-Geräte verwalten​

Allgemein

Trotz der angekündigen Android-Unterstützung sieht Jamf seinen Fokus weiterhin bei Apple-Geräten. Piotr Swat – Shutterstock.com Jamf will es für Apple-basierte Unternehmen künftig einfacher machen, neben ihren iPhone-, iPad- und Mac-Flotten auch Android-Geräte zu verwalten. Zu diesem Zweck plant der MDM-Spezialist, ab Juli in die Verwaltung von Android Devices zu expandieren. Die neue Unterstützung soll in die Lösung „Jamf for Mobile“ integriert werden.  Zur Not auch Android Devices …  Durch die Verknüpfung sollen Unternehmen in der Lage sein, Apple- und Android-Plattformen über dieselbe Jamf-Konsole zu verwalten, die sie bereits verwenden. „Seit Jahren helfen wir Unternehmen, mehr mit mobilen Geräten zu erreichen, indem wir uns auf die beste Plattform für die Arbeit konzentrieren: Apple“, erklärte Henry Patel, Chief Strategy Officer bei Jamf. „Indem wir ‚Jamf for Mobile‘ um eine grundlegende Android-Anmeldung erweitern, ermöglichen wir Apple-affinen Unternehmen, Reibungsverluste zu beseitigen – so dass ein paar Android-Geräte nicht im Weg stehen, wenn es darum geht, außergewöhnliche Apple-Experience in großem Maßstab bereitzustellen.“  Patel betonte, dass die bevorstehende Android-Unterstützung als positive Ergänzung zum bestehenden Apple-Fokus des Unternehmens zu sehen ist – nicht als Ausdruck einer nachlassenden Begeisterung für die Computing-Plattformen des Unternehmens. „Diese Ergänzung hilft uns, Kunden zu unterstützen, die in erster Linie Apple nutzen, aber auch Android in ihrer Umgebung haben – ohne sie in eine einheitliche UEM-Plattform zu zwingen. Das Engagement von Jamf für Apple bleibt ungebrochen“, fügte Patel hinzu.  Apple MDM ist ein vielfältiger Markt geworden  Es ist natürlich auch nicht von der Hand zu weisen, dass der Markt für das Management von Apple-Geräten immer wettbewerbsintensiver wird und viele neue Anbieter auf den Markt drängen. Hexnode, Fleet und andere wollen sich mit einer klaren Produktpositionierung von anderen Anbietern abheben. Und während der Markt für Apple-Geräte in Unternehmen schnell genug wächst, um mehrere Anbieter zu unterstützen, hat Jamf natürlich auch erkannt, dass einige Wettbewerber jetzt Unterstützung für mehrere Plattformen anbieten.  Mit Blick auf die Geschäftszahlen scheint diese Tatsache Jamf bislang allerdings nicht sonderlich beeindruckt zu haben. Im ersten Quartal 2025 konnte die Company ihren Umsatz um zehn Prozent auf 167,6 Millionen Dollar steigern und damit die Schätzungen der Analysten übertreffen. Der bereinigte operative Gewinn (Non-GAAP) belief sich auf 37,6 Millionen Dollar. Zu den Highlights in diesem Quartal gehörten die Übernahme von Identity Automation und ein internationales Umsatzwachstum von 16 Prozent. Das Unternehmen erwartet für das Geschäftsjahr 2025 einen Umsatzanstieg von zehn bis elf Prozent gegenüber dem Vorjahr.  Aus der Sicht der Apple-MDM-Branche scheint Jamf demnach nicht unter Druck zu stehen – noch nicht. Als einer der führenden Apple-MDM-Dienste muss das Unternehmen jedoch weiter an seinem Angebot feilen, um seine Führungsposition zu behaupten. (mb)  

Jamf will künftig auch Android-Geräte verwalten​ Trotz der angekündigen Android-Unterstützung sieht Jamf seinen Fokus weiterhin bei Apple-Geräten. Piotr Swat – Shutterstock.com

Jamf will es für Apple-basierte Unternehmen künftig einfacher machen, neben ihren iPhone-, iPad- und Mac-Flotten auch Android-Geräte zu verwalten. Zu diesem Zweck plant der MDM-Spezialist, ab Juli in die Verwaltung von Android Devices zu expandieren. Die neue Unterstützung soll in die Lösung „Jamf for Mobile“ integriert werden. 

Zur Not auch Android Devices … 

Durch die Verknüpfung sollen Unternehmen in der Lage sein, Apple- und Android-Plattformen über dieselbe Jamf-Konsole zu verwalten, die sie bereits verwenden. „Seit Jahren helfen wir Unternehmen, mehr mit mobilen Geräten zu erreichen, indem wir uns auf die beste Plattform für die Arbeit konzentrieren: Apple“, erklärte Henry Patel, Chief Strategy Officer bei Jamf. „Indem wir ‚Jamf for Mobile‘ um eine grundlegende Android-Anmeldung erweitern, ermöglichen wir Apple-affinen Unternehmen, Reibungsverluste zu beseitigen – so dass ein paar Android-Geräte nicht im Weg stehen, wenn es darum geht, außergewöhnliche Apple-Experience in großem Maßstab bereitzustellen.“ 

Patel betonte, dass die bevorstehende Android-Unterstützung als positive Ergänzung zum bestehenden Apple-Fokus des Unternehmens zu sehen ist – nicht als Ausdruck einer nachlassenden Begeisterung für die Computing-Plattformen des Unternehmens. „Diese Ergänzung hilft uns, Kunden zu unterstützen, die in erster Linie Apple nutzen, aber auch Android in ihrer Umgebung haben – ohne sie in eine einheitliche UEM-Plattform zu zwingen. Das Engagement von Jamf für Apple bleibt ungebrochen“, fügte Patel hinzu. 

Apple MDM ist ein vielfältiger Markt geworden 

Es ist natürlich auch nicht von der Hand zu weisen, dass der Markt für das Management von Apple-Geräten immer wettbewerbsintensiver wird und viele neue Anbieter auf den Markt drängen. Hexnode, Fleet und andere wollen sich mit einer klaren Produktpositionierung von anderen Anbietern abheben. Und während der Markt für Apple-Geräte in Unternehmen schnell genug wächst, um mehrere Anbieter zu unterstützen, hat Jamf natürlich auch erkannt, dass einige Wettbewerber jetzt Unterstützung für mehrere Plattformen anbieten. 

Mit Blick auf die Geschäftszahlen scheint diese Tatsache Jamf bislang allerdings nicht sonderlich beeindruckt zu haben. Im ersten Quartal 2025 konnte die Company ihren Umsatz um zehn Prozent auf 167,6 Millionen Dollar steigern und damit die Schätzungen der Analysten übertreffen. Der bereinigte operative Gewinn (Non-GAAP) belief sich auf 37,6 Millionen Dollar. Zu den Highlights in diesem Quartal gehörten die Übernahme von Identity Automation und ein internationales Umsatzwachstum von 16 Prozent. Das Unternehmen erwartet für das Geschäftsjahr 2025 einen Umsatzanstieg von zehn bis elf Prozent gegenüber dem Vorjahr. 

Aus der Sicht der Apple-MDM-Branche scheint Jamf demnach nicht unter Druck zu stehen – noch nicht. Als einer der führenden Apple-MDM-Dienste muss das Unternehmen jedoch weiter an seinem Angebot feilen, um seine Führungsposition zu behaupten. (mb) 

Jamf will künftig auch Android-Geräte verwalten​ Weiterlesen »

KI schadet Ihrer Karriere​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?quality=50&strip=all 5760w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Wie die Studie belegt, wird die Nutzung von KI-Tools noch immer kritisch beäugt. Nestor Rizhniak – Shutterstock.com Schon seit Jahrhunderten beschäftigen sich Menschen mit der Frage, ob sich der Einsatz von technischen Hilfsmitteln nachteilig auf die geistigen Fähigkeiten auswirkt. Nach Schreibwerkzeugen in der Antike sowie Taschenrechnern und PCs in der jüngeren Vergangenheit schüren nun auch KI-Tools am Arbeitsplatz diesen Verdacht – und das nicht ohne Folgen.   Die sozialen Kosten der KI-Nutzung  In einer aktuellen Studie hat die Duke University festgestellt, dass Mitarbeiter, die KI-Tools wie ChatGPT, Claude und Gemini bei der Arbeit verwenden, von Kollegen und Managern negativ in Hinblick auf ihre Kompetenz und Motivation beurteilt werden. Außerdem gibt es Hinweise darauf, dass diese sozialen Bewertungen die Beurteilung von Bewerbern auf offene Stellen beeinflussen.  „Unsere Ergebnisse offenbaren ein Dilemma für Menschen, die den Einsatz von KI-Tools in Erwägung ziehen: Obwohl KI die Produktivität steigern kann, ist ihr Einsatz mit sozialen Kosten verbunden“, schreiben die Forscher von der Duke’s Fuqua School of Business im Fachblatt PNAS.  Grundlage der Erkenntnisse waren vier Experimente mit insgesamt über 4.400 Teilnehmern. Im ersten Versuch untersuchte das Forscherteam, ob Mitarbeiter eher zögern würden, die Verwendung eines KI-Tools bei der Arbeit offenzulegen als die eines anderen (Nicht-KI-)Tools. Gleichzeitig wurden sie nach ihrer Einschätzung gefragt, wie sie extern für die Verwendung des jeweiligen Tools wahrgenommen werden.  Das Ergebnis: Die (fiktiven) KI-Tool-Nutzer gingen davon aus, als fauler, ersetzbarer, weniger kompetent und weniger fleißig wahrgenommen zu werden als die Teilnehmer ohne KI-Tools.   In einem zweiten Experiment wurde dann anhand von Beschreibungen überprüft, inwieweit sich die Außenwahrnehmung von KI- und Nicht-KI-Nutzern tatsächlich unterscheidet. Hier zeigte sich, dass die Teilnehmer diejenigen, die KI-Hilfe erhielten, durchweg als fauler, weniger kompetent, weniger fleißig, weniger unabhängig und weniger selbstbewusst bewerteten als diejenigen, die ähnliche Hilfe von Nicht-KI-Quellen oder überhaupt keine Hilfe erhielten.  Im dritten Experiment stellten die Forscher eine Einstellungssituation nach. Dabei wurde festgestellt, dass Manager, die selbst seltener KI nutzen, den Kandidaten bevorzugten, der überhaupt keine KI nutzt. Manager, die häufiger KI nutzen, zogen hingegen den Kandidaten vor, der täglich KI nutzt – eventuell, weil sie sich der damit verbundenen möglichen Produktivitätsgewinne bewusst sind.  Immerhin: Wie das abschließende Experiment ergab, sind die negativen Bewertungen der KI-Nutzer nicht in Stein gemeißelt, sondern situationsabhängig. Wenn KI nämlich als nützlich für die Aufgabe beschrieben wird, werden Kandidaten, die KI einsetzen, als für die Aufgabe besser geeignet wahrgenommen. Wenn KI für die Aufgabe jedoch nicht nützlich ist, werden Kandidaten, die KI verwenden, im Vergleich zu denen, die keine KI verwenden, bei der Aufgabenanpassung benachteiligt.  KI-Diskriminierung nicht in Stein gemeißelt  Die Forscher weisen allerdings darauf hin, dass die Verwendung von KI-Tools in ihrer Studie bewusst sehr allgemein gehalten wurde. Entsprechend könne sich die Wahrnehmung von Menschen, die KI nutzen, beispielsweise ändern, wenn das Werkzeug bestehende Arbeitsprozesse ergänze oder ganze Aufgaben automatisiere. Ebenso könnten Menschen weniger geneigt sein, diejenigen, die KI verwenden, negativ zu bewerten, wenn das KI-System in eine vertrautere Technologie eingebettet ist, etwa einem Textverarbeitungsprogramm.  Außerdem schließen die Autoren nicht aus, dass sich die Wahrnehmung mit der Zeit ändert, wenn KI-Tools alltäglicher werden und sich die organisatorischen Normen für ihre Nutzung weiterentwickeln.  

KI schadet Ihrer Karriere​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?quality=50&strip=all 5760w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Wie die Studie belegt, wird die Nutzung von KI-Tools noch immer kritisch beäugt. Nestor Rizhniak – Shutterstock.com

Schon seit Jahrhunderten beschäftigen sich Menschen mit der Frage, ob sich der Einsatz von technischen Hilfsmitteln nachteilig auf die geistigen Fähigkeiten auswirkt. Nach Schreibwerkzeugen in der Antike sowie Taschenrechnern und PCs in der jüngeren Vergangenheit schüren nun auch KI-Tools am Arbeitsplatz diesen Verdacht – und das nicht ohne Folgen.  

Die sozialen Kosten der KI-Nutzung 

In einer aktuellen Studie hat die Duke University festgestellt, dass Mitarbeiter, die KI-Tools wie ChatGPT, Claude und Gemini bei der Arbeit verwenden, von Kollegen und Managern negativ in Hinblick auf ihre Kompetenz und Motivation beurteilt werden. Außerdem gibt es Hinweise darauf, dass diese sozialen Bewertungen die Beurteilung von Bewerbern auf offene Stellen beeinflussen. 

„Unsere Ergebnisse offenbaren ein Dilemma für Menschen, die den Einsatz von KI-Tools in Erwägung ziehen: Obwohl KI die Produktivität steigern kann, ist ihr Einsatz mit sozialen Kosten verbunden“, schreiben die Forscher von der Duke’s Fuqua School of Business im Fachblatt PNAS. 

Grundlage der Erkenntnisse waren vier Experimente mit insgesamt über 4.400 Teilnehmern. Im ersten Versuch untersuchte das Forscherteam, ob Mitarbeiter eher zögern würden, die Verwendung eines KI-Tools bei der Arbeit offenzulegen als die eines anderen (Nicht-KI-)Tools. Gleichzeitig wurden sie nach ihrer Einschätzung gefragt, wie sie extern für die Verwendung des jeweiligen Tools wahrgenommen werden.  Das Ergebnis: Die (fiktiven) KI-Tool-Nutzer gingen davon aus, als fauler, ersetzbarer, weniger kompetent und weniger fleißig wahrgenommen zu werden als die Teilnehmer ohne KI-Tools.  

In einem zweiten Experiment wurde dann anhand von Beschreibungen überprüft, inwieweit sich die Außenwahrnehmung von KI- und Nicht-KI-Nutzern tatsächlich unterscheidet. Hier zeigte sich, dass die Teilnehmer diejenigen, die KI-Hilfe erhielten, durchweg als fauler, weniger kompetent, weniger fleißig, weniger unabhängig und weniger selbstbewusst bewerteten als diejenigen, die ähnliche Hilfe von Nicht-KI-Quellen oder überhaupt keine Hilfe erhielten. 

Im dritten Experiment stellten die Forscher eine Einstellungssituation nach. Dabei wurde festgestellt, dass Manager, die selbst seltener KI nutzen, den Kandidaten bevorzugten, der überhaupt keine KI nutzt. Manager, die häufiger KI nutzen, zogen hingegen den Kandidaten vor, der täglich KI nutzt – eventuell, weil sie sich der damit verbundenen möglichen Produktivitätsgewinne bewusst sind. 

Immerhin: Wie das abschließende Experiment ergab, sind die negativen Bewertungen der KI-Nutzer nicht in Stein gemeißelt, sondern situationsabhängig. Wenn KI nämlich als nützlich für die Aufgabe beschrieben wird, werden Kandidaten, die KI einsetzen, als für die Aufgabe besser geeignet wahrgenommen. Wenn KI für die Aufgabe jedoch nicht nützlich ist, werden Kandidaten, die KI verwenden, im Vergleich zu denen, die keine KI verwenden, bei der Aufgabenanpassung benachteiligt. 

KI-Diskriminierung nicht in Stein gemeißelt 

Die Forscher weisen allerdings darauf hin, dass die Verwendung von KI-Tools in ihrer Studie bewusst sehr allgemein gehalten wurde. Entsprechend könne sich die Wahrnehmung von Menschen, die KI nutzen, beispielsweise ändern, wenn das Werkzeug bestehende Arbeitsprozesse ergänze oder ganze Aufgaben automatisiere. Ebenso könnten Menschen weniger geneigt sein, diejenigen, die KI verwenden, negativ zu bewerten, wenn das KI-System in eine vertrautere Technologie eingebettet ist, etwa einem Textverarbeitungsprogramm. 

Außerdem schließen die Autoren nicht aus, dass sich die Wahrnehmung mit der Zeit ändert, wenn KI-Tools alltäglicher werden und sich die organisatorischen Normen für ihre Nutzung weiterentwickeln. 

KI schadet Ihrer Karriere​ Weiterlesen »

Microsoft streicht über 6.000 Stellen​

Allgemein

width=”6000″ height=”3375″ sizes=”(max-width: 6000px) 100vw, 6000px”>Microsoft will drei Prozent seiner Belegschaft vor die Tür setzen.HJBC – shutterstock.com Microsoft plant Medienberichten zufolge, drei Prozent seiner Mitarbeiter weltweit zu entlassen – was circa 6.800 Stellen entspricht. Potenziell ist dabei kaum ein Mitarbeiter sicher: Betroffen sind demnach sämtliche Ebenen/Rollen, Teams und Regionen weltweit. Im Gegensatz zur letzten, kleineren Layoff-Runde bei Microsoft im Januar 2025 sollen die nun angestrebten Entlassungen nicht auf der Grundlage der individuellen Mitarbeiterleistung erfolgen. Wie ein Bericht von Business Insider nahelegt, gehe es Microsoft bei den Entlassungen auch darum, aus seiner Sicht unnötige Management-Ebenen aufzulösen und den Anteil von Mitarbeitern zu reduzieren, die nicht programmieren. Auf Anfrage erklärte ein Microsoft-Sprecher: “Wir setzen weiterhin organisatorische Veränderungen um, die notwendig sind, um das Unternehmen für den Erfolg in einem dynamischen Markt optimal zu positionieren.” “Reine Routine” Patrick Moorhead, Gründer von Moor Insights & Strategy, “übersetzt”: “Technologieunternehmen wie Microsoft passen ihre Belegschaft an, um sich auf die AI Delivery und den internen Einsatz von KI-Tools auszurichten. KI-Tools bereitzustellen, erfordert unterschiedliche Entwickler- und Datenkompetenzen und die KI-Tools von Microsoft sorgen für effizientere Mitarbeiter.” “Ein regelmäßiger Personalabbau von drei bis fünf Prozent ist für Unternehmen wie Microsoft, Cisco, Meta, Salesforce oder IBM oft reine Routine”, gibt John Annand, Practice Lead bei der Info-Tech Research Group, zu bedenken. Zwar sei die Situation für die Betroffenen verheerend – die Kunden würden davon in der Regel jedoch nichts spüren, so lange keine ganzen Abteilungen oder Produktteams geschlossen würden. Der Analyst fügt hinzu: „Für die Aktionäre könnte sich das sogar positiv auswirken, schließlich belohnt der Markt Rentabilitätssteigerungen.“ Laut Melody Brue, Chefanalystin bei Moor Insights, könnten die geplanten Entlassungen mit Blick auf Microsofts KI-Portfolio auch als eine Art “Leistungsnachweis” verstanden werden: “Wenn Unternehmen, die KI-Tools verkaufen, die die Effizienz steigern sollen, Mitarbeiter entlassen können, liefert das einen konkreten Beweis dafür, dass ihre Technologie hält, was sie verspricht.” Gartner-Analyst Jason Wong nimmt hingegen mit Blick auf die angekündigten Layoffs bei Microsoft eine langfristige Perspektive ein: “Microsoft hat in den letzten zwei Jahren einige bedeutende organisatorische und operative Veränderungen vorgenommen. Beispielsweise hat man die Investitionen in Hololens eingestellt, eine neue CoreAI-Engineering-Abteilung auf die Beine gestellt und die KI-Bemühungen unter der Ägide von Mustafa Suleyman zusammengeführt.” Diese Veränderungen seien wahrscheinlich der Grund für die angekündigten Personalveränderungen. Microsoft passe seine Talente und Ressourcen neu an, um neue Produkte und Dienstleistungen liefern zu können, so der Gartner-Mann. Jason Andersen, auch Analyst bei Moor Insights, erkennt in den angekündigten Entlassungen bei Microsoft ebenfalls in erster Linie eine KI-getriebene Neuausrichtung von Ressourcen: “Methoden wie Scrum oder andere agile Ansätze können mit KI-Tools und entsprechend fähigen Mitarbeitern erheblich optimiert werden. Das führt zu einem geringeren Reporting- und Datenerfassungsaufwand, sodass eine Reduzierung in dieser Größenordnung sinnvoll ist.” Für Unternehmenskunden sei das positiv, weil mehr Geld in die Entwicklung besserer Produkte fließe – statt in interne Prozesse bei Microsoft. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Microsoft streicht über 6.000 Stellen​ width=”6000″ height=”3375″ sizes=”(max-width: 6000px) 100vw, 6000px”>Microsoft will drei Prozent seiner Belegschaft vor die Tür setzen.HJBC – shutterstock.com

Microsoft plant Medienberichten zufolge, drei Prozent seiner Mitarbeiter weltweit zu entlassen – was circa 6.800 Stellen entspricht. Potenziell ist dabei kaum ein Mitarbeiter sicher: Betroffen sind demnach sämtliche Ebenen/Rollen, Teams und Regionen weltweit. Im Gegensatz zur letzten, kleineren Layoff-Runde bei Microsoft im Januar 2025 sollen die nun angestrebten Entlassungen nicht auf der Grundlage der individuellen Mitarbeiterleistung erfolgen.

Wie ein Bericht von Business Insider nahelegt, gehe es Microsoft bei den Entlassungen auch darum, aus seiner Sicht unnötige Management-Ebenen aufzulösen und den Anteil von Mitarbeitern zu reduzieren, die nicht programmieren.

Auf Anfrage erklärte ein Microsoft-Sprecher: “Wir setzen weiterhin organisatorische Veränderungen um, die notwendig sind, um das Unternehmen für den Erfolg in einem dynamischen Markt optimal zu positionieren.”

“Reine Routine”

Patrick Moorhead, Gründer von Moor Insights & Strategy, “übersetzt”: “Technologieunternehmen wie Microsoft passen ihre Belegschaft an, um sich auf die AI Delivery und den internen Einsatz von KI-Tools auszurichten. KI-Tools bereitzustellen, erfordert unterschiedliche Entwickler- und Datenkompetenzen und die KI-Tools von Microsoft sorgen für effizientere Mitarbeiter.”

“Ein regelmäßiger Personalabbau von drei bis fünf Prozent ist für Unternehmen wie Microsoft, Cisco, Meta, Salesforce oder IBM oft reine Routine”, gibt John Annand, Practice Lead bei der Info-Tech Research Group, zu bedenken. Zwar sei die Situation für die Betroffenen verheerend – die Kunden würden davon in der Regel jedoch nichts spüren, so lange keine ganzen Abteilungen oder Produktteams geschlossen würden. Der Analyst fügt hinzu: „Für die Aktionäre könnte sich das sogar positiv auswirken, schließlich belohnt der Markt Rentabilitätssteigerungen.“

Laut Melody Brue, Chefanalystin bei Moor Insights, könnten die geplanten Entlassungen mit Blick auf Microsofts KI-Portfolio auch als eine Art “Leistungsnachweis” verstanden werden: “Wenn Unternehmen, die KI-Tools verkaufen, die die Effizienz steigern sollen, Mitarbeiter entlassen können, liefert das einen konkreten Beweis dafür, dass ihre Technologie hält, was sie verspricht.”

Gartner-Analyst Jason Wong nimmt hingegen mit Blick auf die angekündigten Layoffs bei Microsoft eine langfristige Perspektive ein: “Microsoft hat in den letzten zwei Jahren einige bedeutende organisatorische und operative Veränderungen vorgenommen. Beispielsweise hat man die Investitionen in Hololens eingestellt, eine neue CoreAI-Engineering-Abteilung auf die Beine gestellt und die KI-Bemühungen unter der Ägide von Mustafa Suleyman zusammengeführt.”

Diese Veränderungen seien wahrscheinlich der Grund für die angekündigten Personalveränderungen. Microsoft passe seine Talente und Ressourcen neu an, um neue Produkte und Dienstleistungen liefern zu können, so der Gartner-Mann.

Jason Andersen, auch Analyst bei Moor Insights, erkennt in den angekündigten Entlassungen bei Microsoft ebenfalls in erster Linie eine KI-getriebene Neuausrichtung von Ressourcen: “Methoden wie Scrum oder andere agile Ansätze können mit KI-Tools und entsprechend fähigen Mitarbeitern erheblich optimiert werden. Das führt zu einem geringeren Reporting- und Datenerfassungsaufwand, sodass eine Reduzierung in dieser Größenordnung sinnvoll ist.”

Für Unternehmenskunden sei das positiv, weil mehr Geld in die Entwicklung besserer Produkte fließe – statt in interne Prozesse bei Microsoft. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Microsoft streicht über 6.000 Stellen​ Weiterlesen »

Was ist ein Target Operating Model?​

Allgemein

Mit Hilfe des Target Operating Models lassen sich Visionen in der Unternehmenspraxis umsetzen. Foto: kan_chana – shutterstock.comDie Digitalisierung ist allgegenwärtig. Um immer “up to date” und wettbewerbsfähig zu bleiben, müssen sich Unternehmen ständig neu erfinden: Systeme optimieren, Prozesse verschlanken und Kosten reduzieren. Unternehmensvisionen und deren Umsetzung liegen jedoch oft weit auseinander. Als Verbindungsstück entstand so das Target Operating Model.Target Operating Model – DefinitionDas Target Operating Model oder zu Deutsch “Zielbetriebsmodell” hilft Unternehmen, zukünftige Optimierungsstrategien zu definieren und umzusetzen. Die Strategien variieren dabei in Komplexität und Detailgrad. Das Zielbetriebsmodell bildet die Brücke zwischen einer Entwicklungsidee und der Implementierung in die bestehenden Organisationsstrukturen (Mitarbeiter, Prozesse und Technologie) eines Unternehmens.Die Idee des Modells besteht darin, durch die Analyse des aktuellen Zustands (“as is”), Lücken zu schließen und Vorgänge zu optimieren, um so den festgelegten Zielzustand (“to be”) zu erreichen. Die einzelnen Schritte (Milestones) auf dem Weg zum Ziel werden in einer sogenannten Roadmap festgehalten. Das Motto lautet: Der Weg ist das Ziel. Zielbetriebsmodell – VorteileDurch die Digitalisierung ist es für Unternehmen weltweit heute unverzichtbar, schnell auf unterschiedliche Marktveränderungen reagieren zu können. Festgefahrene Prozesse und Strukturen können Firmen dabei jedoch im Weg stehen. Hier kann das Target Operating Model helfen:Mit Hilfe des Target Operating Models wird statt der aufgezwungenen Veränderung ein gemeinsames Ziel in den Vordergrund gestellt.Durch seine Transparenz und detaillierte Beschreibung wird der Transformationsprozess für jeden Mitarbeiter klar und nachvollziehbar. Die Anpassungen am Unternehmen können mit Hilfe der Roadmap organisiert und strukturiert durchgeführt werden. Der Erfolg der Umsetzung lässt sich anhand der in Zahlen übersetzten Milestones messen.Target Operating Model – ErfolgskriterienDamit der Einsatz eines Target Operating Models auch wirklich erfolgreich ist, müssen einige Schritte beachtet werden. Klare Zielsetzung: Die Erwartungen an ein neu aufgestelltes Unternehmen sind von Mitarbeiter zu Mitarbeiter unterschiedlich. Ein umfassender Austausch über Prioritäten und Ziele des Target Operating Models ist dementsprechend für eine effektive sowie effiziente Umsetzung des Models unverzichtbar.“Leading by example”: Damit das Target Operating Model so erfolgreich wie möglich ablaufen kann, ist es wichtig, dass CEOs und andere Führungskräfte an der Entwicklung der Roadmap sowie des Zielzustandes beteiligt sind. Wenn engagiertes Führungspersonal hinter dem Wandlungsprozess steht, können so mehr Mitarbeiter für den Umschwung begeistert werden. Dies erleichtert außerdem die Implementierung von neuen Prozessen in alten und oft festgefahrenen Strukturen.Analyse des Istzustands: Es gibt kein Ziel ohne Start. Das bedeutet, dass die Ausgangs-Basis erst ausführlich analysiert werden muss, bevor man das Zielszenario definieren kann. Eine SWOT-Analyse (Strengths, Weaknesses, Opportunities and Threats) hilft dabei, die größten Stärken sowie Schwächen eines Unternehmens zu erfassen. Auch ein direkter Vergleich zu Konkurrenzfirmen ist dabei sehr wichtig. Außerdem sollte sich das Unternehmen als “Großes Ganzes” sehen, so dass jede Mitarbeiterin und jeder Mitarbeiter in allen Abteilungen sich schlussendlich im Target Ooperating Model und Zielszenario wiederfinden kann.Ausarbeitung der Roadmap: Beim Erstellen der Roadmap geht es ganz bewusst darum, den Finger in die Wunde zu legen und Schwachstellen sowie Fehler im eigenen System zu erkennen. Nur wenn ein Unternehmen diese Punkte benennt, können die richtigen Anpassungen vorgenommen und in messbare Teilziele übersetzt werden. Diese Milestones sind Anhaltspunkte und beschreiben, wie die Transformation ablaufen sollte.Wenn all diese Schritte befolgt werden, sollte einer Umsetzung der Unternehmensziele nichts mehr im Weg stehen. (kf) 

Was ist ein Target Operating Model?​ Mit Hilfe des Target Operating Models lassen sich Visionen in der Unternehmenspraxis umsetzen.
Foto: kan_chana – shutterstock.comDie Digitalisierung ist allgegenwärtig. Um immer “up to date” und wettbewerbsfähig zu bleiben, müssen sich Unternehmen ständig neu erfinden: Systeme optimieren, Prozesse verschlanken und Kosten reduzieren. Unternehmensvisionen und deren Umsetzung liegen jedoch oft weit auseinander. Als Verbindungsstück entstand so das Target Operating Model.Target Operating Model – DefinitionDas Target Operating Model oder zu Deutsch “Zielbetriebsmodell” hilft Unternehmen, zukünftige Optimierungsstrategien zu definieren und umzusetzen. Die Strategien variieren dabei in Komplexität und Detailgrad. Das Zielbetriebsmodell bildet die Brücke zwischen einer Entwicklungsidee und der Implementierung in die bestehenden Organisationsstrukturen (Mitarbeiter, Prozesse und Technologie) eines Unternehmens.Die Idee des Modells besteht darin, durch die Analyse des aktuellen Zustands (“as is”), Lücken zu schließen und Vorgänge zu optimieren, um so den festgelegten Zielzustand (“to be”) zu erreichen. Die einzelnen Schritte (Milestones) auf dem Weg zum Ziel werden in einer sogenannten Roadmap festgehalten. Das Motto lautet: Der Weg ist das Ziel.

Zielbetriebsmodell – VorteileDurch die Digitalisierung ist es für Unternehmen weltweit heute unverzichtbar, schnell auf unterschiedliche Marktveränderungen reagieren zu können. Festgefahrene Prozesse und Strukturen können Firmen dabei jedoch im Weg stehen. Hier kann das Target Operating Model helfen:Mit Hilfe des Target Operating Models wird statt der aufgezwungenen Veränderung ein gemeinsames Ziel in den Vordergrund gestellt.Durch seine Transparenz und detaillierte Beschreibung wird der Transformationsprozess für jeden Mitarbeiter klar und nachvollziehbar. Die Anpassungen am Unternehmen können mit Hilfe der Roadmap organisiert und strukturiert durchgeführt werden. Der Erfolg der Umsetzung lässt sich anhand der in Zahlen übersetzten Milestones messen.Target Operating Model – ErfolgskriterienDamit der Einsatz eines Target Operating Models auch wirklich erfolgreich ist, müssen einige Schritte beachtet werden. Klare Zielsetzung: Die Erwartungen an ein neu aufgestelltes Unternehmen sind von Mitarbeiter zu Mitarbeiter unterschiedlich. Ein umfassender Austausch über Prioritäten und Ziele des Target Operating Models ist dementsprechend für eine effektive sowie effiziente Umsetzung des Models unverzichtbar.“Leading by example”: Damit das Target Operating Model so erfolgreich wie möglich ablaufen kann, ist es wichtig, dass CEOs und andere Führungskräfte an der Entwicklung der Roadmap sowie des Zielzustandes beteiligt sind. Wenn engagiertes Führungspersonal hinter dem Wandlungsprozess steht, können so mehr Mitarbeiter für den Umschwung begeistert werden. Dies erleichtert außerdem die Implementierung von neuen Prozessen in alten und oft festgefahrenen Strukturen.Analyse des Istzustands: Es gibt kein Ziel ohne Start. Das bedeutet, dass die Ausgangs-Basis erst ausführlich analysiert werden muss, bevor man das Zielszenario definieren kann. Eine SWOT-Analyse (Strengths, Weaknesses, Opportunities and Threats) hilft dabei, die größten Stärken sowie Schwächen eines Unternehmens zu erfassen. Auch ein direkter Vergleich zu Konkurrenzfirmen ist dabei sehr wichtig. Außerdem sollte sich das Unternehmen als “Großes Ganzes” sehen, so dass jede Mitarbeiterin und jeder Mitarbeiter in allen Abteilungen sich schlussendlich im Target Ooperating Model und Zielszenario wiederfinden kann.Ausarbeitung der Roadmap: Beim Erstellen der Roadmap geht es ganz bewusst darum, den Finger in die Wunde zu legen und Schwachstellen sowie Fehler im eigenen System zu erkennen. Nur wenn ein Unternehmen diese Punkte benennt, können die richtigen Anpassungen vorgenommen und in messbare Teilziele übersetzt werden. Diese Milestones sind Anhaltspunkte und beschreiben, wie die Transformation ablaufen sollte.Wenn all diese Schritte befolgt werden, sollte einer Umsetzung der Unternehmensziele nichts mehr im Weg stehen. (kf)

Was ist ein Target Operating Model?​ Weiterlesen »

Wo Apple in punkto Enterprise IT versagt​

Allgemein

Wie eine Umfrage zeigt, hat Apple bei den Business-Funktionen weiterhin “room for improvement”. 360b / Shutterstock Weil Apple schon vor Jahren bewusste und konzertierte Anstrengungen unternommen hat, um seine Produkte unternehmensfreundlich zu machen, fügt sich die Company heute gut in die Geschäftswelt ein. Im Großen und Ganzen waren diese Bemühungen äußerst erfolgreich. Das heißt aber nicht, dass das Unternehmen immer ins Schwarze trifft – manchmal scheint das nicht einmal beabsichtigt zu sein.  In seinem jährlichen Business-Report über Apple stellte Six Colors fest, dass Apple bei der Zufriedenheit von IT-Führungskräfte in zwei Dritteln der untersuchten Kategorien sogar zurückfiel. Am schlechtesten schnitten die Bereiche Software-Zuverlässigkeit und -Innovation ab, dicht gefolgt vom Identitätsmanagement von macOS. Auch die Bewertungen der Enterprise-Applikationen im Allgemeinen – und der Zukunft von Apple im Unternehmen – fielen schlechter aus als im Jahr 2024. Ebenso wurden Service und Support kritisiert, die sich als echter Painpoint herausgestellt haben.  Es gibt aber nicht nur schlechte Nachrichten. So verzeichnete Apple in dem Report bescheidene Zuwächse bei der Zuverlässigkeit und Innovation von Hardware, beim Deployment sowie bei seinem MDM-Protokoll und seiner Infrastruktur. Letzteres unterstreicht die Tatsache, dass Apple zumindest die Kernbedürfnisse der Unternehmens-IT erkennt und mithilfe von Drittanbietern in der Lage ist, diese zu erfüllen.  Unzureichende Dokumentation  Laut Umfrage ist die Dokumentation bei Apple ein Totalausfall. Zwar stellt der Anbieter eine breite Palette von Dokumentationen für den Einsatz in Unternehmen zur Verfügung, viele davon sind aber nicht besonders detailliert. Neben den schriftlichen Anleitungen gibt es außerdem nur wenige Videos, Webinare und andere Medien.  Die Suche nach Dokumentationen kann ebenfalls eine Herausforderung sein. Es gibt keine zentrale Stelle, an der alles übersichtlich zu finden ist. Die Informationen befinden sich stattdessen entweder in der Entwicklerdokumentation, auf der Apple-Schulungsseite oder in Hinweisen für den Enterprise-Support. Oft müssen Sie sich an andere Apple-IT-Administratoren oder an AppleCare für Unternehmen wenden, um herauszufinden, wo sich die benötigten Informationen befinden – falls es diese überhaupt als Dokument gibt. Glücklicherweise existieren online eine große und hilfsbereite Apple-IT/Mac-Admin-Community sowie weitere Ressourcen, die Sie zu Rate ziehen können.  Release-Zyklus belastet Software-Zuverlässigkeit  Ein Problem, das nicht nur Business-Anwender betrifft, ist der unerbittliche jährliche Veröffentlichungsrhythmus von Apple. Unter diesem leidet die Software weit mehr als die Hardware. Apple Intelligence ist ein leuchtendes Beispiel dafür, dass sich Apple übernommen hat und nicht in der Lage ist, die Erwartungen zu erfüllen, ebenso wie die Bemühungen, den Stage Manager wirklich nützlich zu machen.  Während Apples scheinbare Eile, jedes Jahr umwerfende neue Funktionen zu veröffentlichen, Auswirkungen auf das Softwaredesign und die Zuverlässigkeit für alle Benutzer hat, trifft es die Unternehmens-IT aus mehreren Gründen besonders hart.  Erstens können Enterprise-Tools in vielerlei Hinsicht als ein Nischenbereich der Software betrachtet werden. Daher wird den Unternehmensfunktionen nicht dieselbe Aufmerksamkeit zuteil wie den Mainstream-Funktionen. Dies wird besonders deutlich, wenn Apple versucht, Features für Endanwender in Business-Anwendungen einzubinden. Beispiele dafür sind etwa Managed-Apple-Accounts und deren beabsichtigte Integration mit Dingen wie Continuity und iCloud. Oder so etwas wie MDM-Kontrollen für neue Funktionen, beispielsweise Apple Intelligence sowie unternehmensspezifische Funktionen auf niedriger Ebene wie Declarative Device Management.  Der zweite Grund liegt auf der Hand: Jede Software, die noch nicht reif für die Markteinführung ist, aber trotzdem in eine allgemeine Version aufgenommen wird, ist ein potenzielles Support-Ticket, wenn ein Business-User auf Probleme stößt.  Sicherheit und Datenschutz – bis zur Ermüdung  Wenn es um die Sicherheit und den Schutz der Privatsphäre geht, schneidet Apple in der Regel gut ab. Aber manchmal übertreibt die Company: Jeder, der einen neuen Mac einrichtet, sieht ein Popup nach dem anderen, in dem Berechtigungen abgefragt und vor möglichen Fallstricken gewarnt wird. Sicher – das zeigt, dass Apple versucht, alles unter Verschluss zu halten und sicher zu machen. Wenn sich die Sicherheitsmeldungen jedoch häufen, werden die Augen der IT-Admins glasig und sie registrieren nicht mehr, was sie sehen – und was sie zulassen.  In einer Business-Umgebung kann das dazu führen, dass Nutzer ohne die richtigen Berechtigungen auf einen Teil von macOS oder dessen Dateisystem nicht zugreifen können – das bedeutet einen weiteren Support-Anruf für die IT-Abteilung.  Einiges davon kann gemildert werden, indem man das Deployment gut plant und Management-Tools wie MDM-Profile verwendet, aber auch diese Ansätze haben ihre Grenzen.  Deployment ist gut, aber ausbaufähig   Apropos Deployment: In dem Report erhält Apple für die Bereitstellungsfunktionen im Allgemeinen gute Noten – und das zu Recht, wenn man bedenkt, wie reibungslos Automated Device Enrollment (ADE), Device Enrollment Program (DEP) und MDM die Dinge machen können. Aber es gibt noch Raum für Verbesserungen, so Six Colors in seinem Bericht.  Zu den Problemen:   Die Zuverlässigkeit von ADE und Patch-Verwaltung ist bei einigen Unternehmen gesunken.   Die Dokumentation der Deployment Workflows bietet nicht genügend Informationen.   Tools wie Apple Configurator erfordern immer noch die Registrierung jedes einzelnen Geräts (für Geräte, die ADE und DEP nicht nutzen können) und   Es gibt keine APIs für die Automatisierung des Apple Business Manager und der damit verbundenen Bereitstellungsprozesse.  Einschränkungen bei der Automatisierung  Am deutlichsten wird der Mangel an Automatisierung vielleicht beim Deployment, aber das Problem zieht sich durch die meisten Aspekte des Onboardings und Managements von Apple-Geräten und -Benutzern. So bietet der Apple Business Manager keine APIs, auf die Anbieter oder IT-Abteilungen zurückgreifen können, um Routineaufgaben zu automatisieren. Dazu kann alles gehören, von der Neuverteilung älterer Geräte über das Onboarding neuer Mitarbeiter bis hin zur Zuweisung von App-Lizenzen oder der Verwaltung von Benutzergruppen und Privilegien.  Apple schwächelt weiter beim Identitätsmanagement  Der Kampf um die Verknüpfung von Netzwerk-Benutzerkonten mit verwalteten Apple-Geräten ist lang und blutig und reicht Jahrzehnte zurück. Dabei ging es vor allem darum, Geräte mit Active Directory und jetzt auch mit Microsoft Entra zu verbinden.  Apple hat in den letzten Jahren einige Fortschritte erzielt, indem veraltete Mechanismen durch sein Platform-SSO-Framework ersetzt wurden (und damit neben Microsoft noch weitere Identitätsmanagement-Anbieter unterstützt werden). Die Funktionalität ist jedoch eher bruchstückhaft und erfordert von vielen IT-Teams einen Patchwork-Ansatz. Außerdem ist Apple bei der Integration von Platform SSO stark auf Identitätsmanagement-Anbieter angewiesen, was die Nützlichkeit einschränken kann.  Auch Managed-Apple-Accounts können von Problemen beim Identity Management betroffen sein. Apple hat sich zwar für ihre Einführung eingesetzt, aber es ist nicht sicher, ob sie mit Netzwerkidentitäten funktionieren.  Es gibt hierfür zwar Tools für das Identity Management – diese sind jedoch nicht von Apple. Jamf und TwoCanoes haben beide Angebote, aber es handelt sich nicht um native Tools, die in Apples Betriebssysteme integriert sind.  Einige MDM-Steuerelemente werden vermisst  Die MDM-Steuerungen und -Befehle von Apple sind zwar ziemlich effektiv, aber das Unternehmen veröffentlicht oft neue Funktionen, ohne entsprechende MDM-Steuerungen bereitzustellen. Oft (aber nicht immer) wird dieses Problem erst nach der Veröffentlichung behoben, sodass Unternehmenskunden diese Funktionen für eine unbestimmte Zeit nicht einschränken oder verwalten können.  Außerdem gibt es das Problem der Granularität. Zwar erlauben viele MDM-Kontrollen die Deaktivierung von Feature Sets als Ganzes, doch kann die IT-Abteilung keine spezifischen Funktionen konfigurieren oder verwalten.  In den letzten Jahren hat Apple im Rahmen seiner Bemühungen um ein deklaratives Gerätemanagement (Declarative Device Management, DDM) eine Reihe von MDM-Kontrollen und -Payloads abgekündigt, entfernt oder geändert – und das nicht immer auf konsistente Weise (oder mit angemessener Vorbereitung/Dokumentation). Im letzten Jahr waren die Änderungen an den MDM-Kontrollen für netzwerkbezogene Funktionen besonders schmerzhaft für Mac-IT-Administratoren.  Eine weitere Herausforderung ist der Umgang mit den Public Betas von Apple und die Frage, wie MDM-Kontrollen und -Befehle auf diese angewendet werden können. Ich bin dafür, dass die Mitarbeiter jedes Jahr die Preview-Software ausprobieren können, denn das hilft der IT-Abteilung bei der Vorbereitung auf die kommende endgültige Version. Sie stellt jedoch eine ständige Herausforderung dar.  DDM braucht mehr Akzeptanz  Apple hat DDM im Jahr 2021 als Modernisierung des veralteten MDM-Protokolls vorgestellt. Es ermöglicht Geräten, sich auf der Grundlage bestimmter Bedingungen selbst zu verwalten, anstatt ständig einen MDM-Server abzufragen. Das ist grundsätzlich positiv und Apple hat in den letzten vier Jahren viel in DDM investiert. Aber in vielen Unternehmen kommen einige dieser Fortschritte zu selten an. Das größte Hindernis besteht darin, die MDM-Anbieter dazu zu bringen, DDM vollständig zu übernehmen und es ihren Kunden anzubieten.  Man könnte argumentieren, dass der Fehler hier weniger bei Apple als vielmehr bei bestimmten Anbietern liegt. Allerdings ist Apple die ultimative Autorität und könnte mehr tun, um die Anbieter dazu zu bewegen, seine Vision auf kohärente Weise zu umzusetzen.  Management-Tools für Apple Intelligence fehlen  Die Markteinführung von Apple Intelligence hat sich alles andere als intelligent angefühlt. Zwar sind einige Funktionen bereits verfügbar, doch die Möglichkeit, sie in Enterprise-Umgebungen zu verwalten, lässt auf sich warten. Alle neuen MDM-Kontrollen, die für Apple Intelligence veröffentlicht wurden, waren nicht besonders granular, vor allem wenn man bedenkt, wohin Apple Intelligence geht (oder gehen sollte).  Es ist klar, dass Apple über OpenAIs ChatGPT hinaus auf zusätzliche Generative-AI-Anbieter setzen wird. Es bleibt jedoch abzuwarten, ob Apple granulare Kontrollen für die Funktionen jeder potenziellen KI anbieten wird (oder sogar die Voreinstellung oder das Erfordernis eines bestimmten LLMs erlaubt). Mit seinen Private-Cloud- Compute-Servern, die als Vermittler zwischen Gerät und LLM fungieren, hat Apple zwar in den Datenschutz investiert. Gleichzeitig wird erwartet, dass das Unternehmen mehr und mehr KI-Aufgaben auf seine Geräte verlagern wird. Bislang gibt es jedoch noch keine Hinweise darauf, ob die IT-Abteilung in der Lage sein wird, die Verwendung von Unternehmensdaten zu kontrollieren – beispielsweise, indem sie nur On-Device-KI zulässt oder vorschreibt, dass die Tools auf den Servern von Apple laufen.  Will Apple überhaupt ein Feedback?  Einer der größten Kritikpunkte von IT-Profis gegenüber Apple ist, dass das Unternehmen sich nicht für ihre Bedürfnisse oder Anliegen zu interessieren scheint. Die App „Feedback Assistant“ ist ein besonders wunder Punkt: Sie funktioniert wie ein schwarzes Loch – Probleme, Bedenken und Anfragen landen darin und verschwinden spurlos. Das Problem liegt jedoch nicht nur bei diesem einen Feedback-Kanal. Selbst die Support-Teams von Apple haben nur begrenzte Möglichkeiten, Probleme zu lösen oder Feedback an das Unternehmen weiterzuleiten.  Man könnte meinen: „Okay, das ist Apple, ein Unternehmen, das immer weiß, was das Beste ist, auch wenn die Kunden das anders sehen.“ Aber während das bei Verbrauchern gut ankommen mag, sieht es bei Unternehmen mit Tausenden von Macs, iPhones, iPads und anderen Apple-Geräten etwas anders aus.  Apple muss Flagge in Sachen Enterprise-Engagement zeigen  In der Six Colors Report Card hat mich überrascht, dass IT-Führungskräfte das Engagement von Apple für Unternehmenskunden weiterhin in Frage stellen.  Ich verfolge den Ansatz von Apple im Bereich Unternehmen und Bildung seit der Jahrtausendwende. Die seitdem getätigten Investitionen zeigen, dass es Apple mit diesem Marktsegment ernst ist. Mit der Einführung von MDM im Jahr 2010 hat Apple bewiesen, dass es ein ernstzunehmender Akteur im Unternehmensbereich sein will und in einigen Fällen sogar führend sein könnte.  Dieses Engagement war jedoch nicht konsequent. Apple hat IT-Fachleuten in Unternehmen den Boden unter den Füßen weggezogen, indem die Company ohne Vorwarnung drastische Änderungen vorgenommen, Funktionen, auf die viele Großkunden angewiesen waren, abgekündigt oder abgeschafft und die Richtung bei bestimmten Technologien radikal geändert hat.   Im Nachhinein ist etwa das Ende des Xserve und von macOS Server zwar logisch, weil die Cloud-Computing-Entwicklung explodiert ist. Es zeigt aber auch, wie Apple jahrelang die Nachfrage von Unternehmen nach einer Lösung aufbauen kann – und dann fast beiläufig alles aus dem Fenster wirft.  Konsistenz ist wahrscheinlich der größte Punkt, an dem Apple arbeiten muss, wenn es um seine Enterprise-Kunden geht. Das Unternehmen hat in den letzten Jahrzehnten große Fortschritte gemacht, aber oft auch einen Schritt zurück, zur Seite oder sogar in eine andere Richtung getan. Damit Apple erfolgreich sein kann, muss der Weg tiefer in das Herz des Unternehmens führen. (mb) 

Wo Apple in punkto Enterprise IT versagt​ Wie eine Umfrage zeigt, hat Apple bei den Business-Funktionen weiterhin “room for improvement”. 360b / Shutterstock

Weil Apple schon vor Jahren bewusste und konzertierte Anstrengungen unternommen hat, um seine Produkte unternehmensfreundlich zu machen, fügt sich die Company heute gut in die Geschäftswelt ein. Im Großen und Ganzen waren diese Bemühungen äußerst erfolgreich. Das heißt aber nicht, dass das Unternehmen immer ins Schwarze trifft – manchmal scheint das nicht einmal beabsichtigt zu sein. 

In seinem jährlichen Business-Report über Apple stellte Six Colors fest, dass Apple bei der Zufriedenheit von IT-Führungskräfte in zwei Dritteln der untersuchten Kategorien sogar zurückfiel. Am schlechtesten schnitten die Bereiche Software-Zuverlässigkeit und -Innovation ab, dicht gefolgt vom Identitätsmanagement von macOS. Auch die Bewertungen der Enterprise-Applikationen im Allgemeinen – und der Zukunft von Apple im Unternehmen – fielen schlechter aus als im Jahr 2024. Ebenso wurden Service und Support kritisiert, die sich als echter Painpoint herausgestellt haben. 

Es gibt aber nicht nur schlechte Nachrichten. So verzeichnete Apple in dem Report bescheidene Zuwächse bei der Zuverlässigkeit und Innovation von Hardware, beim Deployment sowie bei seinem MDM-Protokoll und seiner Infrastruktur. Letzteres unterstreicht die Tatsache, dass Apple zumindest die Kernbedürfnisse der Unternehmens-IT erkennt und mithilfe von Drittanbietern in der Lage ist, diese zu erfüllen. 

Unzureichende Dokumentation 

Laut Umfrage ist die Dokumentation bei Apple ein Totalausfall. Zwar stellt der Anbieter eine breite Palette von Dokumentationen für den Einsatz in Unternehmen zur Verfügung, viele davon sind aber nicht besonders detailliert. Neben den schriftlichen Anleitungen gibt es außerdem nur wenige Videos, Webinare und andere Medien. 

Die Suche nach Dokumentationen kann ebenfalls eine Herausforderung sein. Es gibt keine zentrale Stelle, an der alles übersichtlich zu finden ist. Die Informationen befinden sich stattdessen entweder in der Entwicklerdokumentation, auf der Apple-Schulungsseite oder in Hinweisen für den Enterprise-Support. Oft müssen Sie sich an andere Apple-IT-Administratoren oder an AppleCare für Unternehmen wenden, um herauszufinden, wo sich die benötigten Informationen befinden – falls es diese überhaupt als Dokument gibt. Glücklicherweise existieren online eine große und hilfsbereite Apple-IT/Mac-Admin-Community sowie weitere Ressourcen, die Sie zu Rate ziehen können. 

Release-Zyklus belastet Software-Zuverlässigkeit 

Ein Problem, das nicht nur Business-Anwender betrifft, ist der unerbittliche jährliche Veröffentlichungsrhythmus von Apple. Unter diesem leidet die Software weit mehr als die Hardware. Apple Intelligence ist ein leuchtendes Beispiel dafür, dass sich Apple übernommen hat und nicht in der Lage ist, die Erwartungen zu erfüllen, ebenso wie die Bemühungen, den Stage Manager wirklich nützlich zu machen. 

Während Apples scheinbare Eile, jedes Jahr umwerfende neue Funktionen zu veröffentlichen, Auswirkungen auf das Softwaredesign und die Zuverlässigkeit für alle Benutzer hat, trifft es die Unternehmens-IT aus mehreren Gründen besonders hart. 

Erstens können Enterprise-Tools in vielerlei Hinsicht als ein Nischenbereich der Software betrachtet werden. Daher wird den Unternehmensfunktionen nicht dieselbe Aufmerksamkeit zuteil wie den Mainstream-Funktionen. Dies wird besonders deutlich, wenn Apple versucht, Features für Endanwender in Business-Anwendungen einzubinden. Beispiele dafür sind etwa Managed-Apple-Accounts und deren beabsichtigte Integration mit Dingen wie Continuity und iCloud. Oder so etwas wie MDM-Kontrollen für neue Funktionen, beispielsweise Apple Intelligence sowie unternehmensspezifische Funktionen auf niedriger Ebene wie Declarative Device Management. 

Der zweite Grund liegt auf der Hand: Jede Software, die noch nicht reif für die Markteinführung ist, aber trotzdem in eine allgemeine Version aufgenommen wird, ist ein potenzielles Support-Ticket, wenn ein Business-User auf Probleme stößt. 

Sicherheit und Datenschutz – bis zur Ermüdung 

Wenn es um die Sicherheit und den Schutz der Privatsphäre geht, schneidet Apple in der Regel gut ab. Aber manchmal übertreibt die Company: Jeder, der einen neuen Mac einrichtet, sieht ein Popup nach dem anderen, in dem Berechtigungen abgefragt und vor möglichen Fallstricken gewarnt wird. Sicher – das zeigt, dass Apple versucht, alles unter Verschluss zu halten und sicher zu machen. Wenn sich die Sicherheitsmeldungen jedoch häufen, werden die Augen der IT-Admins glasig und sie registrieren nicht mehr, was sie sehen – und was sie zulassen. 

In einer Business-Umgebung kann das dazu führen, dass Nutzer ohne die richtigen Berechtigungen auf einen Teil von macOS oder dessen Dateisystem nicht zugreifen können – das bedeutet einen weiteren Support-Anruf für die IT-Abteilung. 

Einiges davon kann gemildert werden, indem man das Deployment gut plant und Management-Tools wie MDM-Profile verwendet, aber auch diese Ansätze haben ihre Grenzen. 

Deployment ist gut, aber ausbaufähig  

Apropos Deployment: In dem Report erhält Apple für die Bereitstellungsfunktionen im Allgemeinen gute Noten – und das zu Recht, wenn man bedenkt, wie reibungslos Automated Device Enrollment (ADE), Device Enrollment Program (DEP) und MDM die Dinge machen können. Aber es gibt noch Raum für Verbesserungen, so Six Colors in seinem Bericht. 

Zu den Problemen:  

Die Zuverlässigkeit von ADE und Patch-Verwaltung ist bei einigen Unternehmen gesunken.  

Die Dokumentation der Deployment Workflows bietet nicht genügend Informationen.  

Tools wie Apple Configurator erfordern immer noch die Registrierung jedes einzelnen Geräts (für Geräte, die ADE und DEP nicht nutzen können) und  

Es gibt keine APIs für die Automatisierung des Apple Business Manager und der damit verbundenen Bereitstellungsprozesse. 

Einschränkungen bei der Automatisierung 

Am deutlichsten wird der Mangel an Automatisierung vielleicht beim Deployment, aber das Problem zieht sich durch die meisten Aspekte des Onboardings und Managements von Apple-Geräten und -Benutzern. So bietet der Apple Business Manager keine APIs, auf die Anbieter oder IT-Abteilungen zurückgreifen können, um Routineaufgaben zu automatisieren. Dazu kann alles gehören, von der Neuverteilung älterer Geräte über das Onboarding neuer Mitarbeiter bis hin zur Zuweisung von App-Lizenzen oder der Verwaltung von Benutzergruppen und Privilegien. 

Apple schwächelt weiter beim Identitätsmanagement 

Der Kampf um die Verknüpfung von Netzwerk-Benutzerkonten mit verwalteten Apple-Geräten ist lang und blutig und reicht Jahrzehnte zurück. Dabei ging es vor allem darum, Geräte mit Active Directory und jetzt auch mit Microsoft Entra zu verbinden. 

Apple hat in den letzten Jahren einige Fortschritte erzielt, indem veraltete Mechanismen durch sein Platform-SSO-Framework ersetzt wurden (und damit neben Microsoft noch weitere Identitätsmanagement-Anbieter unterstützt werden). Die Funktionalität ist jedoch eher bruchstückhaft und erfordert von vielen IT-Teams einen Patchwork-Ansatz. Außerdem ist Apple bei der Integration von Platform SSO stark auf Identitätsmanagement-Anbieter angewiesen, was die Nützlichkeit einschränken kann. 

Auch Managed-Apple-Accounts können von Problemen beim Identity Management betroffen sein. Apple hat sich zwar für ihre Einführung eingesetzt, aber es ist nicht sicher, ob sie mit Netzwerkidentitäten funktionieren. 

Es gibt hierfür zwar Tools für das Identity Management – diese sind jedoch nicht von Apple. Jamf und TwoCanoes haben beide Angebote, aber es handelt sich nicht um native Tools, die in Apples Betriebssysteme integriert sind. 

Einige MDM-Steuerelemente werden vermisst 

Die MDM-Steuerungen und -Befehle von Apple sind zwar ziemlich effektiv, aber das Unternehmen veröffentlicht oft neue Funktionen, ohne entsprechende MDM-Steuerungen bereitzustellen. Oft (aber nicht immer) wird dieses Problem erst nach der Veröffentlichung behoben, sodass Unternehmenskunden diese Funktionen für eine unbestimmte Zeit nicht einschränken oder verwalten können. 

Außerdem gibt es das Problem der Granularität. Zwar erlauben viele MDM-Kontrollen die Deaktivierung von Feature Sets als Ganzes, doch kann die IT-Abteilung keine spezifischen Funktionen konfigurieren oder verwalten. 

In den letzten Jahren hat Apple im Rahmen seiner Bemühungen um ein deklaratives Gerätemanagement (Declarative Device Management, DDM) eine Reihe von MDM-Kontrollen und -Payloads abgekündigt, entfernt oder geändert – und das nicht immer auf konsistente Weise (oder mit angemessener Vorbereitung/Dokumentation). Im letzten Jahr waren die Änderungen an den MDM-Kontrollen für netzwerkbezogene Funktionen besonders schmerzhaft für Mac-IT-Administratoren. 

Eine weitere Herausforderung ist der Umgang mit den Public Betas von Apple und die Frage, wie MDM-Kontrollen und -Befehle auf diese angewendet werden können. Ich bin dafür, dass die Mitarbeiter jedes Jahr die Preview-Software ausprobieren können, denn das hilft der IT-Abteilung bei der Vorbereitung auf die kommende endgültige Version. Sie stellt jedoch eine ständige Herausforderung dar. 

DDM braucht mehr Akzeptanz 

Apple hat DDM im Jahr 2021 als Modernisierung des veralteten MDM-Protokolls vorgestellt. Es ermöglicht Geräten, sich auf der Grundlage bestimmter Bedingungen selbst zu verwalten, anstatt ständig einen MDM-Server abzufragen. Das ist grundsätzlich positiv und Apple hat in den letzten vier Jahren viel in DDM investiert. Aber in vielen Unternehmen kommen einige dieser Fortschritte zu selten an. Das größte Hindernis besteht darin, die MDM-Anbieter dazu zu bringen, DDM vollständig zu übernehmen und es ihren Kunden anzubieten. 

Man könnte argumentieren, dass der Fehler hier weniger bei Apple als vielmehr bei bestimmten Anbietern liegt. Allerdings ist Apple die ultimative Autorität und könnte mehr tun, um die Anbieter dazu zu bewegen, seine Vision auf kohärente Weise zu umzusetzen. 

Management-Tools für Apple Intelligence fehlen 

Die Markteinführung von Apple Intelligence hat sich alles andere als intelligent angefühlt. Zwar sind einige Funktionen bereits verfügbar, doch die Möglichkeit, sie in Enterprise-Umgebungen zu verwalten, lässt auf sich warten. Alle neuen MDM-Kontrollen, die für Apple Intelligence veröffentlicht wurden, waren nicht besonders granular, vor allem wenn man bedenkt, wohin Apple Intelligence geht (oder gehen sollte). 

Es ist klar, dass Apple über OpenAIs ChatGPT hinaus auf zusätzliche Generative-AI-Anbieter setzen wird. Es bleibt jedoch abzuwarten, ob Apple granulare Kontrollen für die Funktionen jeder potenziellen KI anbieten wird (oder sogar die Voreinstellung oder das Erfordernis eines bestimmten LLMs erlaubt). Mit seinen Private-Cloud- Compute-Servern, die als Vermittler zwischen Gerät und LLM fungieren, hat Apple zwar in den Datenschutz investiert. Gleichzeitig wird erwartet, dass das Unternehmen mehr und mehr KI-Aufgaben auf seine Geräte verlagern wird. Bislang gibt es jedoch noch keine Hinweise darauf, ob die IT-Abteilung in der Lage sein wird, die Verwendung von Unternehmensdaten zu kontrollieren – beispielsweise, indem sie nur On-Device-KI zulässt oder vorschreibt, dass die Tools auf den Servern von Apple laufen. 

Will Apple überhaupt ein Feedback? 

Einer der größten Kritikpunkte von IT-Profis gegenüber Apple ist, dass das Unternehmen sich nicht für ihre Bedürfnisse oder Anliegen zu interessieren scheint. Die App „Feedback Assistant“ ist ein besonders wunder Punkt: Sie funktioniert wie ein schwarzes Loch – Probleme, Bedenken und Anfragen landen darin und verschwinden spurlos. Das Problem liegt jedoch nicht nur bei diesem einen Feedback-Kanal. Selbst die Support-Teams von Apple haben nur begrenzte Möglichkeiten, Probleme zu lösen oder Feedback an das Unternehmen weiterzuleiten. 

Man könnte meinen: „Okay, das ist Apple, ein Unternehmen, das immer weiß, was das Beste ist, auch wenn die Kunden das anders sehen.“ Aber während das bei Verbrauchern gut ankommen mag, sieht es bei Unternehmen mit Tausenden von Macs, iPhones, iPads und anderen Apple-Geräten etwas anders aus. 

Apple muss Flagge in Sachen Enterprise-Engagement zeigen 

In der Six Colors Report Card hat mich überrascht, dass IT-Führungskräfte das Engagement von Apple für Unternehmenskunden weiterhin in Frage stellen. 

Ich verfolge den Ansatz von Apple im Bereich Unternehmen und Bildung seit der Jahrtausendwende. Die seitdem getätigten Investitionen zeigen, dass es Apple mit diesem Marktsegment ernst ist. Mit der Einführung von MDM im Jahr 2010 hat Apple bewiesen, dass es ein ernstzunehmender Akteur im Unternehmensbereich sein will und in einigen Fällen sogar führend sein könnte. 

Dieses Engagement war jedoch nicht konsequent. Apple hat IT-Fachleuten in Unternehmen den Boden unter den Füßen weggezogen, indem die Company ohne Vorwarnung drastische Änderungen vorgenommen, Funktionen, auf die viele Großkunden angewiesen waren, abgekündigt oder abgeschafft und die Richtung bei bestimmten Technologien radikal geändert hat.  

Im Nachhinein ist etwa das Ende des Xserve und von macOS Server zwar logisch, weil die Cloud-Computing-Entwicklung explodiert ist. Es zeigt aber auch, wie Apple jahrelang die Nachfrage von Unternehmen nach einer Lösung aufbauen kann – und dann fast beiläufig alles aus dem Fenster wirft. 

Konsistenz ist wahrscheinlich der größte Punkt, an dem Apple arbeiten muss, wenn es um seine Enterprise-Kunden geht. Das Unternehmen hat in den letzten Jahrzehnten große Fortschritte gemacht, aber oft auch einen Schritt zurück, zur Seite oder sogar in eine andere Richtung getan. Damit Apple erfolgreich sein kann, muss der Weg tiefer in das Herz des Unternehmens führen. (mb)

Wo Apple in punkto Enterprise IT versagt​ Weiterlesen »

Die wichtigsten Network-Observability-Zertifizierungen​

Allgemein

Netzwerkexperten, die Observability-Daten zu nutzen wissen, sind bei Arbeitgebern gefragt(er).ESB Professional | shutterstock.com Weil immer mehr Unternehmen auf hybride Cloud-Infrastrukturen, Edge Computing und KI-gestützte Automatisierung setzen, lösen sich die traditionellen Grenzen des Netzwerkmanagements zunehmend auf: Es reicht nicht mehr, die Verfügbarkeit zu überwachen oder ausgefallene Router anzupingen. Vielmehr brauchen Netzwerk-Praktiker angesichts der heute üblichen, dynamischen und verteilten Umgebungen insbesondere Ende-zu-Ende-Transparenz – sowohl in der Cloud als auch On-Premises. Diesen Überblick über sämtliche bewegliche Teile versprechen Network-Observability-Plattformen. Die Daten, die sie liefern, gewähren Einblicke in die Performance von Netzwerk-, Anwendungs- und Serverkomponenten und geben Warnmeldungen aus, sobald negative Auswirkungen auf die Customer Experience drohen. Allerdings sind auch entsprechend fähige Netzwerk-Profis nötig, um solche Observability-Daten zu analysieren und zu interpretieren – und Fehler zu beheben. Die dafür nötigen Kompetenzen können unter anderem die folgenden Anbieterzertifizierungen vermitteln, beziehungsweise bescheinigen.  Cisco Certified Network Professional (CCNP) Eine Zertifizierung zum Cisco Certified Network Professional (CCNP) ist mit Fokus auf verschiedene IT-Bereiche möglich, darunter etwa Enterprise, Data Center oder Service Provider. Die zugehörigen Kurse versprechen dabei, Network Engineers alle nötigen Skills zu vermitteln, um komplexe Netzwerkinfrastrukturen zu konzipieren, zu implementieren und zu warten. Das beinhaltet auch etliche Aspekte, die mit Blick auf Observability(-Daten) eine zentrale Rolle spielen. Etwa: Netzwerkprotokolle, Security-Konfigurationen und Automatisierung. Zielgruppe: Die CCNP-Zertifizierung richtet sich an Netzwerk-Ingenieure, -Administratoren, -Architekten, sowie System- und Infrastruktur-Ingenieure und IT-Operations-Profis, die ihre Fähigkeiten in einem bestimmten (Cisco-)Technologiebereich verbessern beziehungsweise nachweisen möchten; Vermittelte Schlüsselkompetenzen: Advanced Routing, WAN, (Netzwerk-)Sicherheit, Automatisierung, Virtualisierung, IT-Konnektivität, VPN-Services, Infrastrukturdesign, Wiresless-Netzwerke; Prüfungskosten: Kernprüfung 400 Dollar, Vertiefungsprüfung 300 Dollar; Voraussetzungen: keine formalen Voraussetzungen; Cisco empfiehlt drei bis fünf Jahre praktische Erfahrung mit Enterprise-Netzwerklösungen; Datadog Fundamentals Die grundlegende Zertifizierung für die Datadog-Plattform prüft, respektive bescheinigt Kernkompetenzen, um diese effektiv zu nutzen. Zielgruppe: DevOps-Ingenieure, Systemadministratoren, Site Reliability Engineers (SREs), Cloud-Architekten und technische Führungskräfte, die ihre Datadog-Plattform-Skills sowie Best Practices für Observability und Monitoring unter Beweis stellen möchten; Vermittelte Schlüsselkompetenzen: Observability-Grundprinzipien, Application Performance Monitoring, Log Management, Datenvisualisierung, Tagging, Monitoring, Alerting, Troubleshooting, Datenerfassung, Cloud Monitoring, Netzwerk- und Agenten-Konfiguration; Prüfungskosten: 100 Dollar; Voraussetzungen: keine formalen Voraussetzungen; „Learning Paths“ zur Vorbereitung; Dynatrace Advanced Observability Specialist Die Dynatrace-Zertifizierung zum Advanced Observability Specialist vermittelt Netzwerkexperten fortgeschrittene Konzepte in den Bereichen Cloud Monitoring, Netzwerke, Virtualisierung und Container-Umgebungen. Zielgruppe: SREs, DevOps Engineers, Cloud-Architekten, Performance-Spezialisten und IT-Operations-Fachleute; Vermittelte Schlüsselkompetenzen: Ende-zu-Ende-Observability in Cloud- und Anwendungsumgebungen inklusive Security-Aspekten implementieren; Dynatrace-Komponenten wie ActiveGate, App Engine, Automation Engine, Custom/Dynatrace API, Dynatrace UI, Synthetics, Extensions, Berechtigungen und Richtlinien nutzen; Prüfungskosten: 550 Dollar; Voraussetzungen: praktische Erfahrung mit Dynatrace-Lösungen sowie ein grundlegendes Verständnis von Observability-Konzepten; Elastic Certified Observability Engineer Für Netzwerkprofis, die mit der Open-Source-Toolsuite Elastic Stack arbeiten, um Observability-Pipelines für Infrastruktur, Applikationen und Services zu managen, empfiehlt sich die Zertifizierung zum Elastic Certified Observability Engineer. Zielgruppe: SREs, Datenarchitekten, Softwareentwickler, Systemadministratoren und andere IT-Experten, die Observability-Lösungen implementieren. Vermittelte Schlüsselkompetenzen: Elastic Agent konfigurieren und nutzen, um Daten zu erfassen, Dashboards in Kibana erstellen und managen, Warnmeldungen für kritische Metriken einrichten, Daten mit Ingest-Pipelines strukturieren und verarbeiten, Echtzeitprotokolle, Metriken und App-Performance-Daten überwachen, analysieren und in umsetzbare Erkenntnisse übersetzen; Prüfungskosten: 500 Dollar; Voraussetzungen: keine formalen Voraussetzungen; praktische Erfahrung mit dem Elastic Stack ist empfehlenswert; New Relic Certified Performance Engineer-Professional (PEP) Eine Zertifizierung zum New Relic Certified Performance Engineer-Professional (PEP) bescheinigt mit Blick auf die Produkte und Services des Herstellers fundierte Observability- und Performance-Optimierungs-Kenntnisse. Zielgruppe: Performance Engineers, SREs und DevOps-Experten; Vermittelte Schlüsselkompetenzen: Observability-Strategien mit New Relic entwerfen und implementieren, Telemetriedaten über APM, Infrastruktur, Protokolle und Echtzeit-Monitoring-Quellen integrieren, komplexe Leistungsprobleme beheben, Systemzustand mit Dashboards, Warnmeldungen und synthetischen Daten überwachen,   Best Practices für die Leistungsoptimierung in dynamischen Umgebungen anwenden; Prüfungskosten: 175 Dollar; Voraussetzungen: Interessenten sollten über Vorkenntnisse mit New Relic verfügen und idealerweise bereits eine Zertifizierung auf Associate-Ebene vorweisen können; empfehlenswert sind außerdem mindestens zwei Jahren Erfahrung mit Performance-Analysen, Monitoring- und Management-Tools sowie Kenntnisse in Softwareentwicklung und Infratrukturmanagement; SolarWinds Certified Professional (SCP) Netzwerkprofis, die eine Zertifizierung als SolarWinds Certified Professional (SCP) vorweisen können, wissen wie man die Produkte des IT-Serviceanbieters einsetzt, um Netzwerke zu überwachen, zu analysieren sowie um Anwendungen bereitzustellen, zu konfigurieren und zu managen.  Zielgruppe: Netzwerkingenieure, Systemadministratoren, Managed Service Provider und IT-Operations-Profis, die SolarWinds-Produkte verwenden; Vermittelte Schlüsselkompetenzen: Netzwerkgeräte, Server und Anwendungen mit SolarWinds-Tools überwachen, Performance-Baselines und SLAs entwerfen, effiziente Warnsysteme und Dashboards erstellen, Bottlenecks mit Hilfe von historischen und Echtzeit-Daten identifizieren, verschiedene SolarWinds-Module in die Hybrid-Cloud-Observability-Plattform integrieren; Prüfungskosten: 200 Dollar; Voraussetzungen: keine formalen Voraussetzungen; SolarWinds empfiehlt mindestens ein Jahr praktische Erfahrung in einer technischen Funktion im Bereich Netzwerk-, System- oder Anwendungsmanagement sowie sechs Monaten Erfahrung mit seinen  Produkten; Splunk Core Certified Power User/Admin Die verbriefte Fähigkeit, Splunk-Lösungen für die „Operational Visibilit“ zu nutzen, bescheinigt die Zertifizierung zum Splunk Core Certified Power User/Admin. Zielgruppe: Systemadministratoren, Datenanalysten, IT-Manager, Sicherheitsexperten, DevOps-Praktiker und andere IT-Fachleute, die dafür zuständig sind, Splunk-Deployments zu managen. Vermittelte Schlüsselkompetenzen: Benutzeroberfläche von Splunk navigieren, grundlegender Suchbefehle nutzen, Knowledge-Objekte wie Event-Typen, Tags und Aliasse erstellen und teilen, Daten anreichern mit Fields, Lookups und Workflow Actions, interaktiver Dashboards und Visualisierungen erstellen. Prüfungskosten: 130 Dollar; Voraussetzungen: keine formalen Voraussetzungen; Splunk empfiehlt Interessenten jedoch grundlegende, praktische Erfahrung; ThousandEyes Enterprise Network Assurance (ENNA) Die Zertifizierung zum Enterprise Network Assurance Specialist (ENNA) ist Bestandteil von Ciscos CCNP-Enterprise-Zertifizierung und soll aktuellen Branchenanforderungen mit Blick auf Digital Experience Monitoring und Assurance gerecht werden. Integraler Bestandteil der ENNA-Prüfung ist entsprechend die Assurance-Plattform von Cisco, respektive ThousandEyes. Zielgruppe: Monitoring- und Network-Operations-Engineers, Helpdesk-Administratoren, Network Operations Center Engineers, SREs, Netzwerk- und Cloud-Architekten, sowie Platform Engineers; Vermittelte Schlüsselkompetenzen: Grundlagen der Netzwerkkonfiguration und -integration, Datenerfassungs-Tools einrichten und optimieren, Netzwerkdaten analysieren, um Probleme zu identifizieren und zu beheben, Warnsystemen erstellen, um die Netzwerkintegrität aufrechtzuerhalten; Prüfungskosten: 300 Dollar; Voraussetzungen: Cisco empfiehlt grundlegende Kenntnisse in Skripting oder Automatisierung sowie fundiertes Wissen über grundlegende Netzwerkkonzepte; darüber hinaus sind auch praktische Erfahrungen mit Cisco-Infrastruktur und Plattformen wie ThousandEyes, Cisco Catalyst Center, Cisco SD-WAN oder Meraki empfehlenswert; (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Die wichtigsten Network-Observability-Zertifizierungen​ Netzwerkexperten, die Observability-Daten zu nutzen wissen, sind bei Arbeitgebern gefragt(er).ESB Professional | shutterstock.com

Weil immer mehr Unternehmen auf hybride Cloud-Infrastrukturen, Edge Computing und KI-gestützte Automatisierung setzen, lösen sich die traditionellen Grenzen des Netzwerkmanagements zunehmend auf: Es reicht nicht mehr, die Verfügbarkeit zu überwachen oder ausgefallene Router anzupingen. Vielmehr brauchen Netzwerk-Praktiker angesichts der heute üblichen, dynamischen und verteilten Umgebungen insbesondere Ende-zu-Ende-Transparenz – sowohl in der Cloud als auch On-Premises.

Diesen Überblick über sämtliche bewegliche Teile versprechen Network-Observability-Plattformen. Die Daten, die sie liefern, gewähren Einblicke in die Performance von Netzwerk-, Anwendungs- und Serverkomponenten und geben Warnmeldungen aus, sobald negative Auswirkungen auf die Customer Experience drohen.

Allerdings sind auch entsprechend fähige Netzwerk-Profis nötig, um solche Observability-Daten zu analysieren und zu interpretieren – und Fehler zu beheben. Die dafür nötigen Kompetenzen können unter anderem die folgenden Anbieterzertifizierungen vermitteln, beziehungsweise bescheinigen. 

Cisco Certified Network Professional (CCNP)

Eine Zertifizierung zum Cisco Certified Network Professional (CCNP) ist mit Fokus auf verschiedene IT-Bereiche möglich, darunter etwa Enterprise, Data Center oder Service Provider. Die zugehörigen Kurse versprechen dabei, Network Engineers alle nötigen Skills zu vermitteln, um komplexe Netzwerkinfrastrukturen zu konzipieren, zu implementieren und zu warten. Das beinhaltet auch etliche Aspekte, die mit Blick auf Observability(-Daten) eine zentrale Rolle spielen. Etwa:

Netzwerkprotokolle,

Security-Konfigurationen und

Automatisierung.

Zielgruppe: Die CCNP-Zertifizierung richtet sich an Netzwerk-Ingenieure, -Administratoren, -Architekten, sowie System- und Infrastruktur-Ingenieure und IT-Operations-Profis, die ihre Fähigkeiten in einem bestimmten (Cisco-)Technologiebereich verbessern beziehungsweise nachweisen möchten;

Vermittelte Schlüsselkompetenzen:

Advanced Routing,

WAN,

(Netzwerk-)Sicherheit,

Automatisierung,

Virtualisierung,

IT-Konnektivität,

VPN-Services,

Infrastrukturdesign,

Wiresless-Netzwerke;

Prüfungskosten: Kernprüfung 400 Dollar, Vertiefungsprüfung 300 Dollar;

Voraussetzungen: keine formalen Voraussetzungen; Cisco empfiehlt drei bis fünf Jahre praktische Erfahrung mit Enterprise-Netzwerklösungen;

Datadog Fundamentals

Die grundlegende Zertifizierung für die Datadog-Plattform prüft, respektive bescheinigt Kernkompetenzen, um diese effektiv zu nutzen.

Zielgruppe: DevOps-Ingenieure, Systemadministratoren, Site Reliability Engineers (SREs), Cloud-Architekten und technische Führungskräfte, die ihre Datadog-Plattform-Skills sowie Best Practices für Observability und Monitoring unter Beweis stellen möchten;

Vermittelte Schlüsselkompetenzen:

Observability-Grundprinzipien,

Application Performance Monitoring,

Log Management,

Datenvisualisierung,

Tagging,

Monitoring,

Alerting,

Troubleshooting,

Datenerfassung,

Cloud Monitoring,

Netzwerk- und Agenten-Konfiguration;

Prüfungskosten: 100 Dollar;

Voraussetzungen: keine formalen Voraussetzungen; „Learning Paths“ zur Vorbereitung;

Dynatrace Advanced Observability Specialist

Die Dynatrace-Zertifizierung zum Advanced Observability Specialist vermittelt Netzwerkexperten fortgeschrittene Konzepte in den Bereichen Cloud Monitoring, Netzwerke, Virtualisierung und Container-Umgebungen.

Zielgruppe: SREs, DevOps Engineers, Cloud-Architekten, Performance-Spezialisten und IT-Operations-Fachleute;

Vermittelte Schlüsselkompetenzen:

Ende-zu-Ende-Observability in Cloud- und Anwendungsumgebungen inklusive Security-Aspekten implementieren;

Dynatrace-Komponenten wie ActiveGate, App Engine, Automation Engine, Custom/Dynatrace API, Dynatrace UI, Synthetics, Extensions, Berechtigungen und Richtlinien nutzen;

Prüfungskosten: 550 Dollar;

Voraussetzungen: praktische Erfahrung mit Dynatrace-Lösungen sowie ein grundlegendes Verständnis von Observability-Konzepten;

Elastic Certified Observability Engineer

Für Netzwerkprofis, die mit der Open-Source-Toolsuite Elastic Stack arbeiten, um Observability-Pipelines für Infrastruktur, Applikationen und Services zu managen, empfiehlt sich die Zertifizierung zum Elastic Certified Observability Engineer.

Zielgruppe: SREs, Datenarchitekten, Softwareentwickler, Systemadministratoren und andere IT-Experten, die Observability-Lösungen implementieren.

Vermittelte Schlüsselkompetenzen:

Elastic Agent konfigurieren und nutzen, um Daten zu erfassen,

Dashboards in Kibana erstellen und managen,

Warnmeldungen für kritische Metriken einrichten,

Daten mit Ingest-Pipelines strukturieren und verarbeiten,

Echtzeitprotokolle, Metriken und App-Performance-Daten überwachen, analysieren und in umsetzbare Erkenntnisse übersetzen;

Prüfungskosten: 500 Dollar;

Voraussetzungen: keine formalen Voraussetzungen; praktische Erfahrung mit dem Elastic Stack ist empfehlenswert;

New Relic Certified Performance Engineer-Professional (PEP)

Eine Zertifizierung zum New Relic Certified Performance Engineer-Professional (PEP) bescheinigt mit Blick auf die Produkte und Services des Herstellers fundierte Observability- und Performance-Optimierungs-Kenntnisse.

Zielgruppe: Performance Engineers, SREs und DevOps-Experten;

Vermittelte Schlüsselkompetenzen:

Observability-Strategien mit New Relic entwerfen und implementieren,

Telemetriedaten über APM, Infrastruktur, Protokolle und Echtzeit-Monitoring-Quellen integrieren,

komplexe Leistungsprobleme beheben,

Systemzustand mit Dashboards, Warnmeldungen und synthetischen Daten überwachen,  

Best Practices für die Leistungsoptimierung in dynamischen Umgebungen anwenden;

Prüfungskosten: 175 Dollar;

Voraussetzungen: Interessenten sollten über Vorkenntnisse mit New Relic verfügen und idealerweise bereits eine Zertifizierung auf Associate-Ebene vorweisen können; empfehlenswert sind außerdem mindestens zwei Jahren Erfahrung mit Performance-Analysen, Monitoring- und Management-Tools sowie Kenntnisse in Softwareentwicklung und Infratrukturmanagement;

SolarWinds Certified Professional (SCP)

Netzwerkprofis, die eine Zertifizierung als SolarWinds Certified Professional (SCP) vorweisen können, wissen wie man die Produkte des IT-Serviceanbieters einsetzt, um Netzwerke zu überwachen, zu analysieren sowie um Anwendungen bereitzustellen, zu konfigurieren und zu managen. 

Zielgruppe: Netzwerkingenieure, Systemadministratoren, Managed Service Provider und IT-Operations-Profis, die SolarWinds-Produkte verwenden;

Vermittelte Schlüsselkompetenzen:

Netzwerkgeräte, Server und Anwendungen mit SolarWinds-Tools überwachen,

Performance-Baselines und SLAs entwerfen,

effiziente Warnsysteme und Dashboards erstellen,

Bottlenecks mit Hilfe von historischen und Echtzeit-Daten identifizieren,

verschiedene SolarWinds-Module in die Hybrid-Cloud-Observability-Plattform integrieren;

Prüfungskosten: 200 Dollar;

Voraussetzungen: keine formalen Voraussetzungen; SolarWinds empfiehlt mindestens ein Jahr praktische Erfahrung in einer technischen Funktion im Bereich Netzwerk-, System- oder Anwendungsmanagement sowie sechs Monaten Erfahrung mit seinen  Produkten;

Splunk Core Certified Power User/Admin

Die verbriefte Fähigkeit, Splunk-Lösungen für die „Operational Visibilit“ zu nutzen, bescheinigt die Zertifizierung zum Splunk Core Certified Power User/Admin.

Zielgruppe: Systemadministratoren, Datenanalysten, IT-Manager, Sicherheitsexperten, DevOps-Praktiker und andere IT-Fachleute, die dafür zuständig sind, Splunk-Deployments zu managen.

Vermittelte Schlüsselkompetenzen:

Benutzeroberfläche von Splunk navigieren,

grundlegender Suchbefehle nutzen,

Knowledge-Objekte wie Event-Typen, Tags und Aliasse erstellen und teilen,

Daten anreichern mit Fields, Lookups und Workflow Actions,

interaktiver Dashboards und Visualisierungen erstellen.

Prüfungskosten: 130 Dollar;

Voraussetzungen: keine formalen Voraussetzungen; Splunk empfiehlt Interessenten jedoch grundlegende, praktische Erfahrung;

ThousandEyes Enterprise Network Assurance (ENNA)

Die Zertifizierung zum Enterprise Network Assurance Specialist (ENNA) ist Bestandteil von Ciscos CCNP-Enterprise-Zertifizierung und soll aktuellen Branchenanforderungen mit Blick auf Digital Experience Monitoring und Assurance gerecht werden. Integraler Bestandteil der ENNA-Prüfung ist entsprechend die Assurance-Plattform von Cisco, respektive ThousandEyes.

Zielgruppe: Monitoring- und Network-Operations-Engineers, Helpdesk-Administratoren, Network Operations Center Engineers, SREs, Netzwerk- und Cloud-Architekten, sowie Platform Engineers;

Vermittelte Schlüsselkompetenzen:

Grundlagen der Netzwerkkonfiguration und -integration,

Datenerfassungs-Tools einrichten und optimieren,

Netzwerkdaten analysieren, um Probleme zu identifizieren und zu beheben,

Warnsystemen erstellen, um die Netzwerkintegrität aufrechtzuerhalten;

Prüfungskosten: 300 Dollar;

Voraussetzungen: Cisco empfiehlt grundlegende Kenntnisse in Skripting oder Automatisierung sowie fundiertes Wissen über grundlegende Netzwerkkonzepte; darüber hinaus sind auch praktische Erfahrungen mit Cisco-Infrastruktur und Plattformen wie ThousandEyes, Cisco Catalyst Center, Cisco SD-WAN oder Meraki empfehlenswert; (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Die wichtigsten Network-Observability-Zertifizierungen​ Weiterlesen »

3 gefährliche Responsible-AI-Mythen​

Allgemein

Missverständnisse und Mythen in Zusammenhang mit Responsible AI sind dem Erfolg entsprechender Initiativen nicht zuträglich. Foto: jackie_vfx | shutterstock.com Responsible AI (RAI) wird inzwischen dringender denn je benötigt – um Trust und Akzeptanz zu schaffen, aber auch um die Halluzinationen großer Sprachmodelle (Large Language Models; LLMs) und entsprechend Bias-behaftete Outputs einzudämmen. Unternehmen, die auf effektive Responsible AI setzen: können schneller innovieren, besser transformieren und sind auf künftige KI-Compliance-Erfordernisse besser vorbereitet. Leider herrscht jedoch vielerorts immer noch Verwirrung darüber, was RAI eigentlich ist und wie das zu realisieren ist. Diese Unklarheit kann drastische Folgen nach sich ziehen: Schlecht umgesetzte Responsible-AI-Initiativen können die Innovationskraft hemmen und neue Hürden schaffen, die zwar Zeit und Geld kosten, das Safety-Niveau aber nicht verbessern. Wenn Responsible AI künftig zum Motor der KI-getriebenen Wertschöpfung werden soll – und nicht zu einem kostspieligen, ineffektiven Zeitfresser – sind (Fehl-)Annahmen unbedingt zu vermeiden. Im Folgenden lesen Sie, welche Mindsets nicht geeignet sind, RAI-Initiativen auf einen nachhaltigen Erfolgskurs zu bringen – und wie Sie es besser machen. Mythos #1: “Es geht um Prinzipien” Sämtliche Tech-Giganten tragen ihre Responsible-AI-Prinzipien mit stolz geschwellter Brust nach außen: Explainability, Fairness, Datenschutz, Inklusivität und Transparenz – um nur ein paar Beispiele zu nennen. Diese RAI-Prinzipien sind inzwischen so verbreitet, dass man meinen könnte, sie bildeten den Kern von Responsible AI. Dem ist aber nicht so. Schließlich agieren längst alle Organisationen anhand von Prinzipien, die im Regelfall mit den oben genannten RAI-Beispielen im Einklang stehen. Welche Organisation würde sich schon auf die Fahnen schreiben wollen, gegen Fairness, Transparenz und Inklusivität zu stehen? Davon abgesehen sind Prinzipien im Bereich der künstlichen Intelligenz (KI) ebensowenig geeignet, Vertrauen zu erzeugen, wie im realen Leben: Vertrauen Sie darauf, dass eine Discount-Fluggesellschaft Sie sicher ans Ziel bringt wegen ihrer Prinzipien? Oder doch eher, weil sie geschulte Piloten, Techniker und Fluglotsen einsetzt, die strikt definierten Prozessen folgen und Equipment einsetzen, das regelmäßig überprüft wird? Das Herzstück von Responsible AI sind die Menschen, Prozesse und Technologien, die Prinzipen (und deren Durchsetzung) erst ermöglichen. Die Chancen stehen also gut, dass Sie bereits über die richtigen Leitlinien verfügen. Die Herausforderung besteht darin, diese in der Praxis auch umzusetzen. Mythos #2: “Es geht um Ethik” Natürlich geht es bei Responsible AI auch darum, KI auf ethische Art und Weise einzusetzen. Aber es geht eben auch um so viel mehr. Überlegungen in Zusammenhang mit Ethik und Fairness betreffen tatsächlich nur eine winzige Teilmenge der KI-Anwendungsfälle. Etwa, wenn es um Credit Scoring oder Lebenslauf-Screenings geht. Um sicherzustellen, dass diese Use Cases verantwortungsvoll umgesetzt werden, brauchen wir Responsible AI. Aber auch dafür, alle anderen KI-Lösungen sicher und zuverlässig zu entwickeln, einzusetzen und an individuelle Unternehmensanforderungen anzupassen. Die Tools, die sie nutzen, um Explainability, Bias-Checks und Datenschutz zu realisieren, sind also dieselben, die Genauigkeit und Zuverlässigkeit gewährleisten. Mythos #3: “Es geht um Explainability” Manche behaupten, es bräuchte Explainability (auch bekannt als Interpretability), um KI vertrauen und die Technologie verantwortungsvoll nutzen zu können. Das ist nicht der Fall: Explainability ist für KI-Trust ebenso wenig notwendig, wie das Wissen um die Funktionsweise eines Flugzeugs, um Vertrauen in den Luftverkehr zu haben (um bei diesem Beispiel zu bleiben). Menschliche Entscheidungsprozesse sind ebenfalls ein gutes Beispiel: Wir können unsere Entscheidungen fast immer begründen – allerdings ist wissenschaftlich erwiesen, dass es sich dabei meist um nachträglich erfundene und vorgeschobene Gründe handelt, die mit den tatsächlichen Ursachen oft wenig zu tun haben. Explainability in Zusammenhang mit künstlicher Intelligenz meint vielmehr, leicht verständliche “White-Box”-Modelle und Methoden wie LIME und ShAP einzusetzen. Das ist im Wesentlichen wichtig, um KI-Modelle auf ihre Funktionstüchtigkeit zu testen. Im Rahmen von simplen Anwendungsfällen mit leicht identifizierbaren und erklärbaren Mustern kann das dem Trust zuträglich sein. Fallen diese Muster jedoch hinreichend komplex aus, liefert es bestenfalls Hinweise darauf, wie es zu einer Entscheidungsfindung gekommen ist – und schlimmstenfalls völliges Kauderwelsch. Kurz gesagt: Explainability ist “nice to have”, aber oft unmöglich auf eine Art und Weise auszuliefern, die den Trust der Stakeholder sinnvoll fördert. Responsible AI: Darum geht`s wirklich Letzten Endes ist Responsible AI praktisches Risikomanagement, wenn es darum geht, KI- und Machine-Learning-Modelle zu entwickeln und einzusetzen. Das umfasst: Business-Risiken (Modelle die schlecht performen oder unzuverlässig sind), rechtliche Risiken (Compliance-Verstöße) und auch gesellschaftliche Risiken (Diskriminierung oder Umweltschäden). Um diese Risiken zu managen, ist eine vielschichtige Strategie mit Responsible-AI-Fähigkeiten in Form von Menschen, Prozessen und Technologien nötig. Was die Menschen betrifft, geht es darum, die für RAI verantwortlichen Führungskräfte zu befähigen und Praktiker sowie Anwender darin zu schulen, KI verantwortungsvoll zu entwickeln, zu managen und einzusetzen. In Bezug auf Prozesse geht es darum, den gesamten Lebenszyklus – vom Datenzugriff über das Modelltraining bis hin zu Deployment, Monitoring und Retraining – zu steuern und zu kontrollieren. Was die Technologie angeht, kommt Plattformen eine besondere Bedeutung zu. Sie unterstützen Menschen und ermöglichen Prozesse in großem Umfang und demokratisieren darüber hinaus den Zugang zu Responsible-AI-Methoden. Darüber hinaus setzen sie die Governance für KI-Artefakte durch, sorgen für Track Lineage, automatisieren die Dokumentation, orchestrieren Genehmigungs-Workflows, sichern Daten – und bieten unzählige Funktionen, um RAI-Prozesse zu vereinheitlichen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

3 gefährliche Responsible-AI-Mythen​ Missverständnisse und Mythen in Zusammenhang mit Responsible AI sind dem Erfolg entsprechender Initiativen nicht zuträglich.
Foto: jackie_vfx | shutterstock.com

Responsible AI (RAI) wird inzwischen dringender denn je benötigt – um Trust und Akzeptanz zu schaffen, aber auch um die Halluzinationen großer Sprachmodelle (Large Language Models; LLMs) und entsprechend Bias-behaftete Outputs einzudämmen. Unternehmen, die auf effektive Responsible AI setzen:

können schneller innovieren,

besser transformieren und

sind auf künftige KI-Compliance-Erfordernisse besser vorbereitet.

Leider herrscht jedoch vielerorts immer noch Verwirrung darüber, was RAI eigentlich ist und wie das zu realisieren ist. Diese Unklarheit kann drastische Folgen nach sich ziehen: Schlecht umgesetzte Responsible-AI-Initiativen können die Innovationskraft hemmen und neue Hürden schaffen, die zwar Zeit und Geld kosten, das Safety-Niveau aber nicht verbessern. Wenn Responsible AI künftig zum Motor der KI-getriebenen Wertschöpfung werden soll – und nicht zu einem kostspieligen, ineffektiven Zeitfresser – sind (Fehl-)Annahmen unbedingt zu vermeiden.

Im Folgenden lesen Sie, welche Mindsets nicht geeignet sind, RAI-Initiativen auf einen nachhaltigen Erfolgskurs zu bringen – und wie Sie es besser machen.

Mythos #1: “Es geht um Prinzipien”

Sämtliche Tech-Giganten tragen ihre Responsible-AI-Prinzipien mit stolz geschwellter Brust nach außen: Explainability, Fairness, Datenschutz, Inklusivität und Transparenz – um nur ein paar Beispiele zu nennen. Diese RAI-Prinzipien sind inzwischen so verbreitet, dass man meinen könnte, sie bildeten den Kern von Responsible AI. Dem ist aber nicht so. Schließlich agieren längst alle Organisationen anhand von Prinzipien, die im Regelfall mit den oben genannten RAI-Beispielen im Einklang stehen. Welche Organisation würde sich schon auf die Fahnen schreiben wollen, gegen Fairness, Transparenz und Inklusivität zu stehen?

Davon abgesehen sind Prinzipien im Bereich der künstlichen Intelligenz (KI) ebensowenig geeignet, Vertrauen zu erzeugen, wie im realen Leben: Vertrauen Sie darauf, dass eine Discount-Fluggesellschaft Sie sicher ans Ziel bringt wegen ihrer Prinzipien? Oder doch eher, weil sie geschulte Piloten, Techniker und Fluglotsen einsetzt, die strikt definierten Prozessen folgen und Equipment einsetzen, das regelmäßig überprüft wird? Das Herzstück von Responsible AI sind die Menschen, Prozesse und Technologien, die Prinzipen (und deren Durchsetzung) erst ermöglichen. Die Chancen stehen also gut, dass Sie bereits über die richtigen Leitlinien verfügen. Die Herausforderung besteht darin, diese in der Praxis auch umzusetzen.

Mythos #2: “Es geht um Ethik”

Natürlich geht es bei Responsible AI auch darum, KI auf ethische Art und Weise einzusetzen. Aber es geht eben auch um so viel mehr. Überlegungen in Zusammenhang mit Ethik und Fairness betreffen tatsächlich nur eine winzige Teilmenge der KI-Anwendungsfälle. Etwa, wenn es um Credit Scoring oder Lebenslauf-Screenings geht.

Um sicherzustellen, dass diese Use Cases verantwortungsvoll umgesetzt werden, brauchen wir Responsible AI. Aber auch dafür, alle anderen KI-Lösungen sicher und zuverlässig zu entwickeln, einzusetzen und an individuelle Unternehmensanforderungen anzupassen. Die Tools, die sie nutzen, um Explainability, Bias-Checks und Datenschutz zu realisieren, sind also dieselben, die Genauigkeit und Zuverlässigkeit gewährleisten.

Mythos #3: “Es geht um Explainability”

Manche behaupten, es bräuchte Explainability (auch bekannt als Interpretability), um KI vertrauen und die Technologie verantwortungsvoll nutzen zu können. Das ist nicht der Fall: Explainability ist für KI-Trust ebenso wenig notwendig, wie das Wissen um die Funktionsweise eines Flugzeugs, um Vertrauen in den Luftverkehr zu haben (um bei diesem Beispiel zu bleiben). Menschliche Entscheidungsprozesse sind ebenfalls ein gutes Beispiel: Wir können unsere Entscheidungen fast immer begründen – allerdings ist wissenschaftlich erwiesen, dass es sich dabei meist um nachträglich erfundene und vorgeschobene Gründe handelt, die mit den tatsächlichen Ursachen oft wenig zu tun haben.

Explainability in Zusammenhang mit künstlicher Intelligenz meint vielmehr, leicht verständliche “White-Box”-Modelle und Methoden wie LIME und ShAP einzusetzen. Das ist im Wesentlichen wichtig, um KI-Modelle auf ihre Funktionstüchtigkeit zu testen. Im Rahmen von simplen Anwendungsfällen mit leicht identifizierbaren und erklärbaren Mustern kann das dem Trust zuträglich sein. Fallen diese Muster jedoch hinreichend komplex aus, liefert es bestenfalls Hinweise darauf, wie es zu einer Entscheidungsfindung gekommen ist – und schlimmstenfalls völliges Kauderwelsch. Kurz gesagt: Explainability ist “nice to have”, aber oft unmöglich auf eine Art und Weise auszuliefern, die den Trust der Stakeholder sinnvoll fördert.

Responsible AI: Darum geht`s wirklich

Letzten Endes ist Responsible AI praktisches Risikomanagement, wenn es darum geht, KI- und Machine-Learning-Modelle zu entwickeln und einzusetzen. Das umfasst:

Business-Risiken (Modelle die schlecht performen oder unzuverlässig sind),

rechtliche Risiken (Compliance-Verstöße) und auch

gesellschaftliche Risiken (Diskriminierung oder Umweltschäden).

Um diese Risiken zu managen, ist eine vielschichtige Strategie mit Responsible-AI-Fähigkeiten in Form von Menschen, Prozessen und Technologien nötig.

Was die Menschen betrifft, geht es darum, die für RAI verantwortlichen Führungskräfte zu befähigen und Praktiker sowie Anwender darin zu schulen, KI verantwortungsvoll zu entwickeln, zu managen und einzusetzen.

In Bezug auf Prozesse geht es darum, den gesamten Lebenszyklus – vom Datenzugriff über das Modelltraining bis hin zu Deployment, Monitoring und Retraining – zu steuern und zu kontrollieren.

Was die Technologie angeht, kommt Plattformen eine besondere Bedeutung zu. Sie unterstützen Menschen und ermöglichen Prozesse in großem Umfang und demokratisieren darüber hinaus den Zugang zu Responsible-AI-Methoden. Darüber hinaus setzen sie die Governance für KI-Artefakte durch, sorgen für Track Lineage, automatisieren die Dokumentation, orchestrieren Genehmigungs-Workflows, sichern Daten – und bieten unzählige Funktionen, um RAI-Prozesse zu vereinheitlichen.

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

3 gefährliche Responsible-AI-Mythen​ Weiterlesen »

Roboter können Amazon-Mitarbeiter noch nicht ersetzen​

Allgemein

Roboter übernehmen Kommissionieraufgaben in Amazons Lagern, ersetzen aber keine Menschen vollständig. Summit Art Creations – shutterstock.com Amazon setzt in seinen Fulfillment-Lagern testweise Roboter ein, die Produkte effizient kommissionieren und verstauen können. Die Roboter, die diese Aufgaben in der Lagerlogistik übernehmen sollen, heißen „Stow“ und „Pick“. Der „Stow“-Roboter ist mit einem Greifarm, einem ausziehbaren Brett und einem visuellen System ausgestattet, um Platz in Lagerbehältern zu erkennen. Ein Machine-Learning-Modell hilft ihm, die Erfolgschancen beim Packen vorherzusagen und sich entsprechend anzupassen. Erste Ergebnisse wurden in zwei Forschungspapieren veröffentlicht: Roboter fast so schnell wie Menschen In den Tests lagerte Amazons Stow-Roboter über 500.000 Artikel mit einer Erfolgsquote von 85 Prozent um. Bei neun Prozent der Fehlversuche wurden Artikel beschädigt, oft wurden sie fallengelassen. In 14 Prozent der Fälle beschädigte der Roboter Buchseiten als er sie verstaute. Aufgrund des hohen Buchanteils im Amazon-Lager sollen künftig schonendere Mechanismen entwickelt werden. Die Geschwindigkeit des Roboters lag mit 224 Einheiten pro Stunde (UPH) nahe an der von Menschen (243 UPH). Menschen arbeiteten dabei allerdings variabler – sie handhabten kleine Gegenstände schnell, brauchten aber bei größeren Gegenständen länger. Langsamer wurden die Menschen, wenn sie in die Hocke gehen oder auf eine Leiter steigen mussten, um an die Behälter zu gelangen. Amazon vermutet, dass sich die Effizienz um 4,5 Prozent steigern ließe, wenn Roboter nur höher gelegene Lagerfächer bedienen würden. Bildverarbeitung verhindert mögliche Schäden Der „Pick“-Roboter, der in einem anderen Forschungspapier beschrieben wird, wurde von Oktober 2024 bis März 2025 sechs Stunden pro Tag an Wochenenden eingesetzt. Dabei erzielte er sogar eine Erfolgsquote von 91 Prozent bei 12.000 Entnahmeversuchen. Zugleich lehnte er fast jede fünfte Entnahme-Anfrage ab, nachdem sein Bildverarbeitungssystem den Artikel entweder nicht erkannt hatte oder aus Sorge vor einer Beschädigung des Artikels abgewunken hatte. Trainieren statt nachbessern Amazon setzt bei seinen Robotik-Experimenten auf visuomotorisches Policy Learning (VMP), um den Maschinen Fähigkeiten beizubringen statt sie manuell zu programmieren. Eine Herausforderung ist dabei die schwer nachvollziehbare Fehlerursache, weshalb VMPs bei Problemen neu trainiert werden müssen. Um die Leistung zu steigern, plant Amazon den Einsatz eines Real2Sim-Moduls, das reale Szenen digital nachbildet, um seltene Fehler systematisch zu erkennen und zu beheben. 

Roboter können Amazon-Mitarbeiter noch nicht ersetzen​ Roboter übernehmen Kommissionieraufgaben in Amazons Lagern, ersetzen aber keine Menschen vollständig.
Summit Art Creations – shutterstock.com

Amazon setzt in seinen Fulfillment-Lagern testweise Roboter ein, die Produkte effizient kommissionieren und verstauen können. Die Roboter, die diese Aufgaben in der Lagerlogistik übernehmen sollen, heißen „Stow“ und „Pick“.

Der „Stow“-Roboter ist mit einem Greifarm, einem ausziehbaren Brett und einem visuellen System ausgestattet, um Platz in Lagerbehältern zu erkennen. Ein Machine-Learning-Modell hilft ihm, die Erfolgschancen beim Packen vorherzusagen und sich entsprechend anzupassen. Erste Ergebnisse wurden in zwei Forschungspapieren veröffentlicht:

Roboter fast so schnell wie Menschen

In den Tests lagerte Amazons Stow-Roboter über 500.000 Artikel mit einer Erfolgsquote von 85 Prozent um. Bei neun Prozent der Fehlversuche wurden Artikel beschädigt, oft wurden sie fallengelassen. In 14 Prozent der Fälle beschädigte der Roboter Buchseiten als er sie verstaute. Aufgrund des hohen Buchanteils im Amazon-Lager sollen künftig schonendere Mechanismen entwickelt werden.

Die Geschwindigkeit des Roboters lag mit 224 Einheiten pro Stunde (UPH) nahe an der von Menschen (243 UPH). Menschen arbeiteten dabei allerdings variabler – sie handhabten kleine Gegenstände schnell, brauchten aber bei größeren Gegenständen länger.

Langsamer wurden die Menschen, wenn sie in die Hocke gehen oder auf eine Leiter steigen mussten, um an die Behälter zu gelangen. Amazon vermutet, dass sich die Effizienz um 4,5 Prozent steigern ließe, wenn Roboter nur höher gelegene Lagerfächer bedienen würden.

Bildverarbeitung verhindert mögliche Schäden

Der „Pick“-Roboter, der in einem anderen Forschungspapier beschrieben wird, wurde von Oktober 2024 bis März 2025 sechs Stunden pro Tag an Wochenenden eingesetzt. Dabei erzielte er sogar eine Erfolgsquote von 91 Prozent bei 12.000 Entnahmeversuchen.

Zugleich lehnte er fast jede fünfte Entnahme-Anfrage ab, nachdem sein Bildverarbeitungssystem den Artikel entweder

nicht erkannt hatte oder

aus Sorge vor einer Beschädigung des Artikels abgewunken hatte.

Trainieren statt nachbessern

Amazon setzt bei seinen Robotik-Experimenten auf visuomotorisches Policy Learning (VMP), um den Maschinen Fähigkeiten beizubringen statt sie manuell zu programmieren. Eine Herausforderung ist dabei die schwer nachvollziehbare Fehlerursache, weshalb VMPs bei Problemen neu trainiert werden müssen.

Um die Leistung zu steigern, plant Amazon den Einsatz eines Real2Sim-Moduls, das reale Szenen digital nachbildet, um seltene Fehler systematisch zu erkennen und zu beheben.

Roboter können Amazon-Mitarbeiter noch nicht ersetzen​ Weiterlesen »

Podcast: Wie KI- und Quantentechnik Angriffsvektoren verändert​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/05/Thomas-Schumacher_16.jpg?quality=50&strip=all 4000w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Thomas-Schumacher_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Thomas-Schumacher_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Thomas-Schumacher_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Thomas-Schumacher_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Thomas-Schumacher_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Thomas-Schumacher_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Thomas-Schumacher_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Thomas-Schumacher_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Thomas-Schumacher_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Thomas-Schumacher_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Thomas Schumacher, Cybersecurity Lead bei Accenture, räumt im TechTalk-Podcast mit Security-Mythen auf.Accenture Neue Technologien wie Künstliche Intelligenz und Quantencomputing sorgen in der Art und Weise, wie wir heute Business betrieben, für massive Veränderungen. Das bedeutet allerdings nicht nur Chancen, sondern auch Risiken, erklärt Thomas Schumacher, Cybersecurity Lead bei Accenture. „Die heutigen Technologien werden die Angriffsvektoren, die wir heute kennen, noch einmal deutlich erweitern“, prognostiziert Schumacher. Gleichzeitig gebe es jedoch genug Potenzial, diese Technologien nutzbar zu machen, um Gefahren schneller zu erkennen und abzuwehren. KI hilft Angreifern bei Phishing-Attacken Der Security-Spezialist von Accenture nennt als Beispiel Phishing-Attacken, die mit Hilfe von KI professioneller und individueller auf bestimmte Zielpersonen zugeschnitten werden könnten. „KI erhöht die Qualität, erhöht die Geschwindigkeit und es wird individueller.“ Die Gefahr kompromittiert zu werden, sei viel höher als vorher, weil die Angriffe schwieriger zu erkennen seien. Schumacher plädiert für mehr Awareness und Aufmerksamkeit. Außerdem gebe es keinen Grund, panisch zu werden oder den Kopf zu verlieren. „Es gibt kein IT-Problem, für das es keine Lösung gibt“, zitiert der Sicherheitsexperte einen befreundeten CIO. Wichtig sei es vor allem, eine Strategie zu haben, wie man mit den neuen Themen wie KI umgeht. „Die schlechteste Strategie ist, die Dinge einfach laufen zu lassen.“ Wie sollten die Eckpfeiler einer solchen Security-Strategie aussehen? Warum ist es so wichtig, sich genau zu überlegen, welche Bereiche besonders schützenswert sind, und was nach einem Angriff unbedingt als erstes wieder laufen sollte? Was macht die richtige Balance zwischen dem Schutz der IT-Infrastruktur und der Vorbereitung auf den Fall der Fälle aus? All diesen Fragen beantwortet Schumacher im TechTalk-Podcast von COMPUTERWOCHE, CIO und CSO. width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/2XPzqRLLNZZTLekZ4IHv5M?utm_source=oembed”> 

Podcast: Wie KI- und Quantentechnik Angriffsvektoren verändert​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/05/Thomas-Schumacher_16.jpg?quality=50&strip=all 4000w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Thomas-Schumacher_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Thomas-Schumacher_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Thomas-Schumacher_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Thomas-Schumacher_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Thomas-Schumacher_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Thomas-Schumacher_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Thomas-Schumacher_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Thomas-Schumacher_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Thomas-Schumacher_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Thomas-Schumacher_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Thomas Schumacher, Cybersecurity Lead bei Accenture, räumt im TechTalk-Podcast mit Security-Mythen auf.Accenture

Neue Technologien wie Künstliche Intelligenz und Quantencomputing sorgen in der Art und Weise, wie wir heute Business betrieben, für massive Veränderungen. Das bedeutet allerdings nicht nur Chancen, sondern auch Risiken, erklärt Thomas Schumacher, Cybersecurity Lead bei Accenture.

„Die heutigen Technologien werden die Angriffsvektoren, die wir heute kennen, noch einmal deutlich erweitern“, prognostiziert Schumacher. Gleichzeitig gebe es jedoch genug Potenzial, diese Technologien nutzbar zu machen, um Gefahren schneller zu erkennen und abzuwehren.

KI hilft Angreifern bei Phishing-Attacken

Der Security-Spezialist von Accenture nennt als Beispiel Phishing-Attacken, die mit Hilfe von KI professioneller und individueller auf bestimmte Zielpersonen zugeschnitten werden könnten. „KI erhöht die Qualität, erhöht die Geschwindigkeit und es wird individueller.“ Die Gefahr kompromittiert zu werden, sei viel höher als vorher, weil die Angriffe schwieriger zu erkennen seien.

Schumacher plädiert für mehr Awareness und Aufmerksamkeit. Außerdem gebe es keinen Grund, panisch zu werden oder den Kopf zu verlieren. „Es gibt kein IT-Problem, für das es keine Lösung gibt“, zitiert der Sicherheitsexperte einen befreundeten CIO. Wichtig sei es vor allem, eine Strategie zu haben, wie man mit den neuen Themen wie KI umgeht. „Die schlechteste Strategie ist, die Dinge einfach laufen zu lassen.“

Wie sollten die Eckpfeiler einer solchen Security-Strategie aussehen? Warum ist es so wichtig, sich genau zu überlegen, welche Bereiche besonders schützenswert sind, und was nach einem Angriff unbedingt als erstes wieder laufen sollte? Was macht die richtige Balance zwischen dem Schutz der IT-Infrastruktur und der Vorbereitung auf den Fall der Fälle aus? All diesen Fragen beantwortet Schumacher im TechTalk-Podcast von COMPUTERWOCHE, CIO und CSO.

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/2XPzqRLLNZZTLekZ4IHv5M?utm_source=oembed”>

Podcast: Wie KI- und Quantentechnik Angriffsvektoren verändert​ Weiterlesen »

Model Context Protocol ist revolutionär​

Allgemein

Laut seiner Dokumentation können Sie sich Model Context Protocol als „USB-C-Port für KI-Applikationen“ vorstellen.Skrypnykov Dmytro | shutterstock.com Für DevOps-Teams besteht der wesentliche Vorteil von Generative AI (GenAI) bislang darin, Code schneller und automatisiert zu produzieren. Das reicht aber bei weitem nicht für alle DevOps-Aufgaben aus. Um etwa Cloud-Service-Konfigurationen anzupassen, Applikationen auszuliefern oder Protokolldateien zusammenzuführen, sind GenAI-Workflows bislang nicht besonders nützlich, da sie nicht ohne Weiteres auf DevOps-Tools und -Daten zugreifen können. Beziehungsweise konnten. Denn mit Model Context Protocol (MCP) eröffnen sich für DevOps-Praktiker nun diverse neue Möglichkeiten, künstliche Intelligenz (KI) in viele ihrer Workflows zu integrieren. In diesem Beitrag lesen Sie, was MCP ist – und wie und warum Sie diese wichtige KI-Innovation nutzen können und sollten. Model Context Protocol – Definition & Funktionsweise MCP ist ein offener Standard, der Ende 2024 von Anthropic eingeführt wurde und KI-Modelle mit externen Tools und Datenquellen verbindet. Damit entsteht eine effiziente, standardisierte Möglichkeit, KI-basierte Agenten aufzubauen, die auf natürlichsprachliche Befehle ihrer Benutzer mit spezifischen Aktionen reagieren. Model Context Protocol funktioniert über eine Server-Client-Architektur: MCP-Server stellen die Funktionen bereit, die erforderlich sind, um bestimmte Aktionen auszuführen – etwa Dateien zu modifizieren oder Datenbanken zu managen. MCP-Clients sind in der Regel KI-Agenten, die als Vermittler zwischen MCP-Servern und KI-Modellen fungieren. Bittet ein Benutzer den Client um Unterstützung, nutzt dieser ein KI-Modell, um die Anfrage zu verarbeiten. Anschließend teilt er dem MCP-Server anhand der Ergebnisse mit, welche Aktionen auszuführen sind. Die Bedeutung dieser Technologie ist gar nicht hoch genug einzuschätzen. Schließlich gab es bislang – abgesehen von benutzerdefinierten, spezifischen Integrationen wie sie bei Tools wie GitHub Copilot zum Einsatz kommen – keine wirklich simple oder effiziente Möglichkeit gab, mit KI-Modellen oder Chatbot-Interfaces auf diese Weise zu interagieren. Doch damit ist das Potenzial von MCP längst nicht ausgeschöpft: Entwickler können mit Model Context Protocol auch Anwendungen erstellen, die KI in viele weitere Workflows integrieren. Zum Beispiel lassen sich damit KI-Modelle automatisiert mit benutzerdefinierten Datenquellen verbinden. Das vereinfacht es erheblich, einzigartigen Kontext in KI-gestützte Automatisierungen einzubeziehen. Last but not least funktioniert MCP mit praktisch allen KI-Modellen und Agenten-Frameworks. Derek Ashmore ist AI Enablement Principal bei Asperitas Consulting und Autor mehrerer IT-Fachbücher.Derek Ashmore Das bringt MCP im DevOps-Kontext Mit Blick auf DevOps ergeben sich so mit Model Context Protocol viele neue Anwendungsfälle. Zum Beispiel in folgenden Bereichen:   Problemanalyse: DevOps-Ingenieure verbringen viel Zeit damit, Antworten auf technische Fragen zu finden – etwa „Kann Host X über Port Y kommunizieren? Um die Antwort zu finden, müssen DevOps-Teams sich nun nicht mehr durch Konfigurationsdateien wühlen oder ein eigenes Skript schreiben. Stattdessen übermitteln sie ihre Fragen in natürlicher Sprache an einen MCP-Server, der sich mit den entsprechenden Datenquellen und Tools verbindet – und die Antwort liefert. Damit kann MCP DevOps-Prozesse massiv beschleunigen.  Tool-Optimierung: MCP ermöglicht zudem, die Funktionalitäten diverser DevOps-Tools zu verbessern und zu erweitern. Zum Beispiel lassen sich damit benutzerdefinierte Datenquellen mit Tools wie Visual Studio Code oder Copilot verbinden. Das wiederum ermöglicht DevOps-Experten, KI-gestützte Funktionen zu nutzen und dabei einzigartige Kontextelemente zu berücksichtigen – etwa eine spezifische Codebasis, die KI-Modellen normalerweise verschlossen bleibt. Im Ergebnis steht Code, der auf die individuellen Unternehmensanforderungen abgestimmt ist.   Cloud-Management: Mit MCP-Servern, die darauf ausgelegt sind, mit Public-Cloud-Diensten zu interagieren, lassen sich auch Cloud-Management-Prozesse automatisieren und skalieren. Mit einem MCP-Server der Amazon S3 unterstützt, könnten Sie etwa einen Client bitten, diejenigen Buckets zu finden, die einen bestimmten Datentyp enthalten. Und deren Konfigurationen ab sofort automatisiert zu ändern, sobald sie öffentlich zugänglich sind. Dokumentation: ChatGPT und Konsorten verfügen zwar über Funktionen, um sich mit benutzerdefinierten Dokumentationsdatenbanken zu verbinden. Diese (und der Integrationsprozess) differieren jedoch je nach gewähltem KI-Tool, was DevOps-Teams das Leben schwermachen kann. MCP löst dieses Problem über modellunabhängige Konnektoren zu Plattformen wie Confluence oder SharePoint-Webseiten. Sobald die Verbindung darüber hergestellt ist, können DevOps-Teams KI nutzen, um Datenbanken zu durchsuchen oder Aktionen auf der Grundlage der darin enthaltenen Informationen zu automatisieren. Wo MCP an Grenzen stößt Als flexibles und offenes Protokoll unterliegt MCP nur wenigen hinsichtlich seiner DevOps-Anwendungsfälle nur wenigen Limitationen. Tatsächlich fällt es schwer, sich in diesem Bereich einen Use Case vorzustellen, der mit MCP nicht technisch zu realisieren wäre. Allerdings können in der Praxis Herausforderungen entstehen. Einerseits aus Usability-Perspektive: Die meisten MCP-Server werden lokal ausgeführt und benötigen verschiedene Ressourcen wie einen Python-Interpreter, um zu funktionieren. Für DevOps-Engineers bedeutet das in erster Linie zeitlichen Aufwand, um ihre Umgebung für MCP zu konfigurieren. Darüber hinaus besteht das Risiko, dass eine Konfiguration, die für einen MCP-Server funktioniert – zum Beispiel wegen unterschiedlicher Python-Versionen – nicht für einen anderen funktioniert. Server zu containerisieren ist eine Möglichkeit, diese Herausforderung anzugehen. Auch das zieht jedoch erheblichen Konfigurationsaufwand nach sich.  Andererseits aus Security-Perspektive: MCP-Agenten unterliegen sämtlichen Risiken, die auch mit jeder anderen Art von LLM-basierter Technologie einhergehen: Sensible Daten können nach außen dringen, denn sämtliche Ressourcen, die einem MCP-Server zur Verfügung stehen, könnten auch den KI-Modellen Drittanbietern zugänglich sein. Das lässt sich verhindern, indem Sie auf lokal gehostete Modelle setzen. Diesen Ansatz unterstützen jedoch nicht alle Modelle – und er erhöht den Konfigurationsaufwand.   MCP-Server könnten unerwünschte Aktionen ausführen – beispielsweise wichtige Ressourcen löschen. Um dieses Risiko unter Kontrolle zu halten, ist es essenziell, das Least-Privilege-Prinzip auf das MCP-Serverdesign und -Management anzuwenden. Die Funktionen von MCP-Servern sind auf die Access-Ebene beschränkt, die auch den Benutzern zuteil wird. Administratoren können also die Sicherheitsrisiken von Model Context Protocol über die Benutzerrechte minimieren. Diese Herausforderungen sind keineswegs ein Grund, auf die Vorteile von MCP zu verzichten. Aber DevOps-Teams sollten wissen, dass MCP-Lösungen zwar Magie versprühen, wenn sie einmal laufen – sie davor allerdings ein alles andere als magischer Einrichtungsprozess erwartet. Die goldene Model-Context-Protocol-Zukunft MCP ist nicht perfekt. Aber es stellt einen enormen Fortschritt dar, was die Möglichkeiten von DevOps-Teams angeht, KI zu nutzen. Und: Die Technologie ist sofort verfügbar und kann direkt eingesetzt werden. Ich rechne für die Zukunft damit, dass Model Context Protocol ebenso unverzichtbar für DevOps wird wie CI/CD. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Model Context Protocol ist revolutionär​ Laut seiner Dokumentation können Sie sich Model Context Protocol als „USB-C-Port für KI-Applikationen“ vorstellen.Skrypnykov Dmytro | shutterstock.com

Für DevOps-Teams besteht der wesentliche Vorteil von Generative AI (GenAI) bislang darin, Code schneller und automatisiert zu produzieren. Das reicht aber bei weitem nicht für alle DevOps-Aufgaben aus. Um etwa Cloud-Service-Konfigurationen anzupassen, Applikationen auszuliefern oder Protokolldateien zusammenzuführen, sind GenAI-Workflows bislang nicht besonders nützlich, da sie nicht ohne Weiteres auf DevOps-Tools und -Daten zugreifen können.

Beziehungsweise konnten. Denn mit Model Context Protocol (MCP) eröffnen sich für DevOps-Praktiker nun diverse neue Möglichkeiten, künstliche Intelligenz (KI) in viele ihrer Workflows zu integrieren.

In diesem Beitrag lesen Sie, was MCP ist – und wie und warum Sie diese wichtige KI-Innovation nutzen können und sollten.

Model Context Protocol – Definition & Funktionsweise

MCP ist ein offener Standard, der Ende 2024 von Anthropic eingeführt wurde und KI-Modelle mit externen Tools und Datenquellen verbindet. Damit entsteht eine effiziente, standardisierte Möglichkeit, KI-basierte Agenten aufzubauen, die auf natürlichsprachliche Befehle ihrer Benutzer mit spezifischen Aktionen reagieren.

Model Context Protocol funktioniert über eine Server-Client-Architektur:

MCP-Server stellen die Funktionen bereit, die erforderlich sind, um bestimmte Aktionen auszuführen – etwa Dateien zu modifizieren oder Datenbanken zu managen.

MCP-Clients sind in der Regel KI-Agenten, die als Vermittler zwischen MCP-Servern und KI-Modellen fungieren. Bittet ein Benutzer den Client um Unterstützung, nutzt dieser ein KI-Modell, um die Anfrage zu verarbeiten. Anschließend teilt er dem MCP-Server anhand der Ergebnisse mit, welche Aktionen auszuführen sind.

Die Bedeutung dieser Technologie ist gar nicht hoch genug einzuschätzen. Schließlich gab es bislang – abgesehen von benutzerdefinierten, spezifischen Integrationen wie sie bei Tools wie GitHub Copilot zum Einsatz kommen – keine wirklich simple oder effiziente Möglichkeit gab, mit KI-Modellen oder Chatbot-Interfaces auf diese Weise zu interagieren.

Doch damit ist das Potenzial von MCP längst nicht ausgeschöpft: Entwickler können mit Model Context Protocol auch Anwendungen erstellen, die KI in viele weitere Workflows integrieren. Zum Beispiel lassen sich damit KI-Modelle automatisiert mit benutzerdefinierten Datenquellen verbinden. Das vereinfacht es erheblich, einzigartigen Kontext in KI-gestützte Automatisierungen einzubeziehen. Last but not least funktioniert MCP mit praktisch allen KI-Modellen und Agenten-Frameworks.

Derek Ashmore ist AI Enablement Principal bei Asperitas Consulting und Autor mehrerer IT-Fachbücher.Derek Ashmore

Das bringt MCP im DevOps-Kontext

Mit Blick auf DevOps ergeben sich so mit Model Context Protocol viele neue Anwendungsfälle. Zum Beispiel in folgenden Bereichen:  

Problemanalyse: DevOps-Ingenieure verbringen viel Zeit damit, Antworten auf technische Fragen zu finden – etwa „Kann Host X über Port Y kommunizieren? Um die Antwort zu finden, müssen DevOps-Teams sich nun nicht mehr durch Konfigurationsdateien wühlen oder ein eigenes Skript schreiben. Stattdessen übermitteln sie ihre Fragen in natürlicher Sprache an einen MCP-Server, der sich mit den entsprechenden Datenquellen und Tools verbindet – und die Antwort liefert. Damit kann MCP DevOps-Prozesse massiv beschleunigen. 

Tool-Optimierung: MCP ermöglicht zudem, die Funktionalitäten diverser DevOps-Tools zu verbessern und zu erweitern. Zum Beispiel lassen sich damit benutzerdefinierte Datenquellen mit Tools wie Visual Studio Code oder Copilot verbinden. Das wiederum ermöglicht DevOps-Experten, KI-gestützte Funktionen zu nutzen und dabei einzigartige Kontextelemente zu berücksichtigen – etwa eine spezifische Codebasis, die KI-Modellen normalerweise verschlossen bleibt. Im Ergebnis steht Code, der auf die individuellen Unternehmensanforderungen abgestimmt ist.  

Cloud-Management: Mit MCP-Servern, die darauf ausgelegt sind, mit Public-Cloud-Diensten zu interagieren, lassen sich auch Cloud-Management-Prozesse automatisieren und skalieren. Mit einem MCP-Server der Amazon S3 unterstützt, könnten Sie etwa einen Client bitten, diejenigen Buckets zu finden, die einen bestimmten Datentyp enthalten. Und deren Konfigurationen ab sofort automatisiert zu ändern, sobald sie öffentlich zugänglich sind.

Dokumentation: ChatGPT und Konsorten verfügen zwar über Funktionen, um sich mit benutzerdefinierten Dokumentationsdatenbanken zu verbinden. Diese (und der Integrationsprozess) differieren jedoch je nach gewähltem KI-Tool, was DevOps-Teams das Leben schwermachen kann. MCP löst dieses Problem über modellunabhängige Konnektoren zu Plattformen wie Confluence oder SharePoint-Webseiten. Sobald die Verbindung darüber hergestellt ist, können DevOps-Teams KI nutzen, um Datenbanken zu durchsuchen oder Aktionen auf der Grundlage der darin enthaltenen Informationen zu automatisieren.

Wo MCP an Grenzen stößt

Als flexibles und offenes Protokoll unterliegt MCP nur wenigen hinsichtlich seiner DevOps-Anwendungsfälle nur wenigen Limitationen. Tatsächlich fällt es schwer, sich in diesem Bereich einen Use Case vorzustellen, der mit MCP nicht technisch zu realisieren wäre. Allerdings können in der Praxis Herausforderungen entstehen.

Einerseits aus Usability-Perspektive:

Die meisten MCP-Server werden lokal ausgeführt und benötigen verschiedene Ressourcen wie einen Python-Interpreter, um zu funktionieren. Für DevOps-Engineers bedeutet das in erster Linie zeitlichen Aufwand, um ihre Umgebung für MCP zu konfigurieren.

Darüber hinaus besteht das Risiko, dass eine Konfiguration, die für einen MCP-Server funktioniert – zum Beispiel wegen unterschiedlicher Python-Versionen – nicht für einen anderen funktioniert. Server zu containerisieren ist eine Möglichkeit, diese Herausforderung anzugehen. Auch das zieht jedoch erheblichen Konfigurationsaufwand nach sich. 

Andererseits aus Security-Perspektive:

MCP-Agenten unterliegen sämtlichen Risiken, die auch mit jeder anderen Art von LLM-basierter Technologie einhergehen: Sensible Daten können nach außen dringen, denn sämtliche Ressourcen, die einem MCP-Server zur Verfügung stehen, könnten auch den KI-Modellen Drittanbietern zugänglich sein. Das lässt sich verhindern, indem Sie auf lokal gehostete Modelle setzen. Diesen Ansatz unterstützen jedoch nicht alle Modelle – und er erhöht den Konfigurationsaufwand.  

MCP-Server könnten unerwünschte Aktionen ausführen – beispielsweise wichtige Ressourcen löschen. Um dieses Risiko unter Kontrolle zu halten, ist es essenziell, das Least-Privilege-Prinzip auf das MCP-Serverdesign und -Management anzuwenden. Die Funktionen von MCP-Servern sind auf die Access-Ebene beschränkt, die auch den Benutzern zuteil wird. Administratoren können also die Sicherheitsrisiken von Model Context Protocol über die Benutzerrechte minimieren.

Diese Herausforderungen sind keineswegs ein Grund, auf die Vorteile von MCP zu verzichten. Aber DevOps-Teams sollten wissen, dass MCP-Lösungen zwar Magie versprühen, wenn sie einmal laufen – sie davor allerdings ein alles andere als magischer Einrichtungsprozess erwartet.

Die goldene Model-Context-Protocol-Zukunft

MCP ist nicht perfekt. Aber es stellt einen enormen Fortschritt dar, was die Möglichkeiten von DevOps-Teams angeht, KI zu nutzen. Und: Die Technologie ist sofort verfügbar und kann direkt eingesetzt werden.

Ich rechne für die Zukunft damit, dass Model Context Protocol ebenso unverzichtbar für DevOps wird wie CI/CD. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Model Context Protocol ist revolutionär​ Weiterlesen »

Die Zukunft der Versicherungsbranche im Zeitalter von KI​

Allgemein

Künstliche Intelligenz verändert die Versicherungswelt – von der Datenanalyse bis zur Kundenbetreuung. PeopleImages.com – Yuri A – shutterstock.com Die Versicherungsbranche steht vor einem tiefgreifenden Wandel, angetrieben durch technologische Innovationen und sich verändernde Marktbedingungen. Davon gehen zumindest Munich Re und ERGO aus. Im „Tech Trend Radar 2025“  beleuchten sie die wichtigsten Trends, die die Branche in den kommenden Jahren prägen werden. Trends im Überblick Insgesamt identifiziert der Bericht 36 Trends, welche fünf Bereichen zugeordnet werden können: Gesundheitstechnologien (Healthy Human), Netz- und Infrastrukturinnovationen (Connected Experience), daten- und KI-basierte Lösungen (Data & AI), sichere Kommunikation und Transaktionen (Cyber & Crypto) sowie technologische Transformation von Branchen, etwa durch erneuerbare Energien (Redefining Industries). Künstliche Intelligenz und Daten Künstliche Intelligenz (KI) wird als entscheidender Faktor für die Versicherungsbranche angesehen. Technologien wie Generative KI (GenAI), KI-Agenten und synthetische Daten ermöglichen effizientere Prozesse. Diese reichen von der Schadensbearbeitung bis zur Risikobewertung. Darüber hinaus transformiert GenAI die Datenanalyse und verbessert die Personalisierung von Versicherungsprodukten, so die Studienmacher. KI-Agenten, die autonom Aufgaben ausführen, könnten zudem die Effizienz in der Kundenbetreuung und Schadensbearbeitung revolutionieren. Gleichzeitig erfordert die zunehmende Nutzung von KI eine robuste Governance. Nur so lassen sich laut den Experten Risiken wie Verzerrungen und Datenschutzverletzungen minimieren. Digitale und personalisierte Medizin Die Integration von KI in die Medizin eröffnet ebenfalls neue Möglichkeiten für Versicherer: Digitale Gesundheitslösungen wie elektronische Gesundheitsakten (EHRs) und KI-gestützte Diagnosen verbessern sowohl die Risikobewertung als auch die Schadensbearbeitung, so die Autoren. Personalisierte Medizin, die auf genetischen Profilen basiert, soll präzisere Behandlungen ermöglichen. Das könnte die Kosten im Gesundheitswesen senken. Trotz der Vorteile bleiben Herausforderungen, wie hohe Kosten und Datenschutzbedenken bestehen. Neue Energiequellen und Klimawandel Neue Aufgaben für die Versicherungsbranche entstehen laut der Studie durch Energiewende und Klimawandel. Erneuerbare Energien wie Solar- und Windkraft erfordern innovative Versicherungsprodukte, um Risiken wie Naturkatastrophen und technische Ausfälle abzudecken. Gleichzeitig wird die Bedeutung von Klimarisikobewertungen immer größer, um Unternehmen und Gemeinden auf extreme Wetterereignisse vorzubereiten. Autonome Mobilität und Elektrofahrzeuge Darüber hinaus verändert die zunehmende Verbreitung von Elektrofahrzeugen (EVs) und autonomen Fahrzeugen (AVs) die Versicherungslandschaft. EVs bringen neue Risiken wie höhere Reparaturkosten und Cyberangriffe mit sich, bieten aber auch Chancen für maßgeschneiderte Versicherungsprodukte. Autonome Fahrzeuge könnten zudem die Unfallhäufigkeit reduzieren, aber die Haftung von den Fahrern auf die Hersteller verlagern. Das würde neue Versicherungsmodelle erfordern, so die Experten. Cyber- und Kryptorisiken Die digitale Transformation bringt laut den Autoren neue Bedrohungen mit sich, da Cyberangriffe und Deepfakes Unternehmen vor große Herausforderungen stellen. Versicherer entwickeln daher Lösungen wie die „Digital-Immune-System“-Technologie, um die Cybersicherheit zu verbessern und Risiken zu minimieren. Gleichzeitig wächst die Nachfrage nach Versicherungen für digitale Vermögenswerte wie Kryptowährungen und tokenisierte Immobilien. IoT und Sensorik als Gamechanger Technologien wie humanoide Roboter, IoT-Sensoren und erweiterte Realität (XR) verändern ebenfalls traditionelle Branchen. Zudem schaffen sie neue Märkte für Versicherer. Laut den Studienmachern könnten humanoide Roboter hier die Schadensbewertung und Kundenbetreuung revolutionieren, während XR immersive Kundenerlebnisse ermöglicht. Die Landwirtschaft profitiert von Remote-Sensing-Technologien, die die Risikobewertung und Schadensbearbeitung verbessern. Governance als Schlüssel Während all diese Innovationen Effizienz und Wachstum versprechen, bringen sie auch Herausforderungen mit sich, wie Bedenken hinsichtlich des Datenschutzes, regulatorische Komplexität und die Notwendigkeit eines robusten Governance-Rahmens. Versicherer müssen daher laut den Autoren der Studie ein Gleichgewicht zwischen technologischer Innovation und Risikomanagement finden. Nur auf diese Art und Weise  ließen sich Vertrauen und Compliance aufrechterhalten. 

Die Zukunft der Versicherungsbranche im Zeitalter von KI​ Künstliche Intelligenz verändert die Versicherungswelt – von der Datenanalyse bis zur Kundenbetreuung.
PeopleImages.com – Yuri A – shutterstock.com

Die Versicherungsbranche steht vor einem tiefgreifenden Wandel, angetrieben durch technologische Innovationen und sich verändernde Marktbedingungen. Davon gehen zumindest Munich Re und ERGO aus. Im „Tech Trend Radar 2025“  beleuchten sie die wichtigsten Trends, die die Branche in den kommenden Jahren prägen werden.

Trends im Überblick

Insgesamt identifiziert der Bericht 36 Trends, welche fünf Bereichen zugeordnet werden können:

Gesundheitstechnologien (Healthy Human),

Netz- und Infrastrukturinnovationen (Connected Experience),

daten- und KI-basierte Lösungen (Data & AI),

sichere Kommunikation und Transaktionen (Cyber & Crypto) sowie

technologische Transformation von Branchen, etwa durch erneuerbare Energien (Redefining Industries).

Künstliche Intelligenz und Daten

Künstliche Intelligenz (KI) wird als entscheidender Faktor für die Versicherungsbranche angesehen. Technologien wie Generative KI (GenAI), KI-Agenten und synthetische Daten ermöglichen effizientere Prozesse. Diese reichen von der Schadensbearbeitung bis zur Risikobewertung. Darüber hinaus transformiert GenAI die Datenanalyse und verbessert die Personalisierung von Versicherungsprodukten, so die Studienmacher.

KI-Agenten, die autonom Aufgaben ausführen, könnten zudem die Effizienz in der Kundenbetreuung und Schadensbearbeitung revolutionieren. Gleichzeitig erfordert die zunehmende Nutzung von KI eine robuste Governance. Nur so lassen sich laut den Experten Risiken wie Verzerrungen und Datenschutzverletzungen minimieren.

Digitale und personalisierte Medizin

Die Integration von KI in die Medizin eröffnet ebenfalls neue Möglichkeiten für Versicherer: Digitale Gesundheitslösungen wie elektronische Gesundheitsakten (EHRs) und KI-gestützte Diagnosen verbessern sowohl die Risikobewertung als auch die Schadensbearbeitung, so die Autoren.

Personalisierte Medizin, die auf genetischen Profilen basiert, soll präzisere Behandlungen ermöglichen. Das könnte die Kosten im Gesundheitswesen senken. Trotz der Vorteile bleiben Herausforderungen, wie hohe Kosten und Datenschutzbedenken bestehen.

Neue Energiequellen und Klimawandel

Neue Aufgaben für die Versicherungsbranche entstehen laut der Studie durch Energiewende und Klimawandel. Erneuerbare Energien wie Solar- und Windkraft erfordern innovative Versicherungsprodukte, um Risiken wie Naturkatastrophen und technische Ausfälle abzudecken.

Gleichzeitig wird die Bedeutung von Klimarisikobewertungen immer größer, um Unternehmen und Gemeinden auf extreme Wetterereignisse vorzubereiten.

Autonome Mobilität und Elektrofahrzeuge

Darüber hinaus verändert die zunehmende Verbreitung von Elektrofahrzeugen (EVs) und autonomen Fahrzeugen (AVs) die Versicherungslandschaft. EVs bringen neue Risiken wie höhere Reparaturkosten und Cyberangriffe mit sich, bieten aber auch Chancen für maßgeschneiderte Versicherungsprodukte.

Autonome Fahrzeuge könnten zudem die Unfallhäufigkeit reduzieren, aber die Haftung von den Fahrern auf die Hersteller verlagern. Das würde neue Versicherungsmodelle erfordern, so die Experten.

Cyber- und Kryptorisiken

Die digitale Transformation bringt laut den Autoren neue Bedrohungen mit sich, da Cyberangriffe und Deepfakes Unternehmen vor große Herausforderungen stellen. Versicherer entwickeln daher Lösungen wie die „Digital-Immune-System“-Technologie, um die Cybersicherheit zu verbessern und Risiken zu minimieren.

Gleichzeitig wächst die Nachfrage nach Versicherungen für digitale Vermögenswerte wie Kryptowährungen und tokenisierte Immobilien.

IoT und Sensorik als Gamechanger

Technologien wie humanoide Roboter, IoT-Sensoren und erweiterte Realität (XR) verändern ebenfalls traditionelle Branchen. Zudem schaffen sie neue Märkte für Versicherer. Laut den Studienmachern könnten humanoide Roboter hier die Schadensbewertung und Kundenbetreuung revolutionieren, während XR immersive Kundenerlebnisse ermöglicht.

Die Landwirtschaft profitiert von Remote-Sensing-Technologien, die die Risikobewertung und Schadensbearbeitung verbessern.

Governance als Schlüssel

Während all diese Innovationen Effizienz und Wachstum versprechen, bringen sie auch Herausforderungen mit sich, wie

Bedenken hinsichtlich des Datenschutzes,

regulatorische Komplexität und

die Notwendigkeit eines robusten Governance-Rahmens.

Versicherer müssen daher laut den Autoren der Studie ein Gleichgewicht zwischen technologischer Innovation und Risikomanagement finden. Nur auf diese Art und Weise  ließen sich Vertrauen und Compliance aufrechterhalten.

Die Zukunft der Versicherungsbranche im Zeitalter von KI​ Weiterlesen »

Mit KI gelingt Unternehmen der transformative Durchbruch​

Allgemein

Trotz hoher Investitionen in die IT-Modernisierung stehen viele Unternehmen still – technische Altlasten bremsen Innovation und Wachstum aus. PeopleImages.com – Yuri A – shutterstock.com Die IT-Landschaft von Unternehmen steht am Scheideweg. Trotz jahrelanger Modernisierungsbemühungen und milliardenschwerer Budgets sind die technischen Schulden bei den Global 2000 auf eine Last von 1,5 bis 2 Billionen Dollar angestiegen. Damit sind sie nach wie vor das größte Hindernis für Innovation, Agilität und Wachstum.  Diese strukturelle Belastung hält Unternehmen in veralteten Betriebsmodellen gefangen, was den Fortschritt hemmt und Ressourcen verschlingt. Zu diesem Schluss kommt ein neuer Bericht von HFS Research in Zusammenarbeit mit Publicis Sapient. Als transformative Lösung für diese Probleme sehen die Studienmacher Künstliche Intelligenz (KI). Große Erwartungen an KI-Potenzial Der Bericht stützt sich hierfür auf eine Umfrage unter 608 IT- und Business-Führungskräften aus Forbes Global-2000-Unternehmen verschiedener Branchen und Umsatzklassen. Die Befragten, größtenteils Entscheidungsträger in Unternehmen, äußerten sich zu Themen wie Modernisierung, KI-Einsatz und technischen Schulden. Die Ergebnisse liefern einen umfassenden Einblick in die Prioritäten und Herausforderungen großer Unternehmen bei der Transformation ihrer IT-Landschaft: 80 Prozent der Befragten glauben zum Beispiel, dass KI die Modernisierungsergebnisse verbessern wird. Vier von fünf der Teilnehmenden wollen sich von arbeitsintensiven Servicemodellen abwenden. 71 Prozent sind bereit, für eine bessere KI-Ausführung den Anbieter zu wechseln. Hohe Ausgaben, geringe Modernisierungserfolge Unternehmen geben zudem fast 30 Prozent ihrer IT-Budgets für die Modernisierung aus, aber nur drei von zehn der Befragten haben ihre Kernanwendungen vollständig modernisiert. Altsysteme, komplexe Zusatzkomponenten und Outsourcing-Modelle haben laut ihren Angaben stattdessen eher zu einer Stagnation geführt als das Problem zu lösen. Die Komplexität veralteter Systeme wird dabei oft durch ineffiziente IT-Dienstleister aufrechterhalten. KI kann laut den Analysten diese Schulden schnell und effektiv abbauen – vorausgesetzt, sie wird strategisch eingesetzt und durchgreifend in Arbeitsprozesse und Betriebsmodelle integriert. Sie kann beispielsweise alten Code lesen und umschreiben, Integration und Tests automatisieren sowie jahrelange Sanierungsarbeiten auf Wochen verkürzen. Allerdings muss KI als grundlegende Kraft behandelt werden – nicht nur als ein weiteres Tool. Unternehmen müssen daher Arbeitsabläufe, Governance und Betriebsmodelle überdenken, um diese Technologie vollständig nutzen zu können. Dienstleister bleiben beim KI-Wandel zurück Der Wandel vom traditionellen IT-Servicemodell hin zu „Services-as-Software“ steht dabei im Fokus: automatisierte, KI-gestützte Plattformen ersetzen manuelle Prozesse und ermöglichen schnellere Innovationen, betriebliche Agilität und eine geringere technische Verschuldung. Allerdings scheitern viele Unternehmen und Dienstleister noch an der Skalierung von KI – aufgrund fehlender Talente, Governance und Innovationsfähigkeit. Nur 20 Prozent der Unternehmen nutzen KI über mehrere Funktionen hinweg. Vielen Unternehmen fehlt es an darüber hinaus an Mitarbeitenden, Governance und Integrationsfähigkeiten, um KI vollständig zu nutzen. Darüber hinaus gelingt es den meisten Dienstleistern nicht, den Übergang zu KI-gestützten Bereitstellungsmodellen anzuführen. Zugleich treibt nur jedes zehnte Unternehmen diesen Wandel proaktiv voran. Betriebsmodelle neu denken Um das volle Potenzial von KI zu nutzen, müssen Unternehmen daher laut den Studienautoren ihr Betriebsmodell grundlegend neu denken: modular, intelligent, ergebnisorientiert und KI-zentriert. HFS Research empfiehlt fünf konkrete Schritte zur Überwindung technischer Schulden: Tech-Schulden wie Finanzschulden behandeln: Unternehmen müssen Prioritäten setzen und diese konsequent tilgen. Systeme umgestalten: Workflows und Governance sind künftig rund um KI statt um veraltete Strukturen zu gestalten. Produktbezogene Fähigkeiten fordern: Firmen sollten zu Anbietern wechseln, die KI-gesteuerte Plattformen anbieten, nicht Personal. Neue Geschäftsmodelle einführen: Modelle wie Abonnements, ergebnisbasierte oder nutzungsabhängige Preise gehören eingeführt. Mit Dringlichkeit führen: Rollen, Governance und die Bereitstellung KI-gestützter Arbeitsweisen gehören neu definiert. 

Mit KI gelingt Unternehmen der transformative Durchbruch​ Trotz hoher Investitionen in die IT-Modernisierung stehen viele Unternehmen still – technische Altlasten bremsen Innovation und Wachstum aus.
PeopleImages.com – Yuri A – shutterstock.com

Die IT-Landschaft von Unternehmen steht am Scheideweg. Trotz jahrelanger Modernisierungsbemühungen und milliardenschwerer Budgets sind die technischen Schulden bei den Global 2000 auf eine Last von 1,5 bis 2 Billionen Dollar angestiegen. Damit sind sie nach wie vor das größte Hindernis für Innovation, Agilität und Wachstum.  Diese strukturelle Belastung hält Unternehmen in veralteten Betriebsmodellen gefangen, was den Fortschritt hemmt und Ressourcen verschlingt.

Zu diesem Schluss kommt ein neuer Bericht von HFS Research in Zusammenarbeit mit Publicis Sapient. Als transformative Lösung für diese Probleme sehen die Studienmacher Künstliche Intelligenz (KI).

Große Erwartungen an KI-Potenzial

Der Bericht stützt sich hierfür auf eine Umfrage unter 608 IT- und Business-Führungskräften aus Forbes Global-2000-Unternehmen verschiedener Branchen und Umsatzklassen. Die Befragten, größtenteils Entscheidungsträger in Unternehmen, äußerten sich zu Themen wie Modernisierung, KI-Einsatz und technischen Schulden.

Die Ergebnisse liefern einen umfassenden Einblick in die Prioritäten und Herausforderungen großer Unternehmen bei der Transformation ihrer IT-Landschaft:

80 Prozent der Befragten glauben zum Beispiel, dass KI die Modernisierungsergebnisse verbessern wird.

Vier von fünf der Teilnehmenden wollen sich von arbeitsintensiven Servicemodellen abwenden.

71 Prozent sind bereit, für eine bessere KI-Ausführung den Anbieter zu wechseln.

Hohe Ausgaben, geringe Modernisierungserfolge

Unternehmen geben zudem fast 30 Prozent ihrer IT-Budgets für die Modernisierung aus, aber nur drei von zehn der Befragten haben ihre Kernanwendungen vollständig modernisiert. Altsysteme, komplexe Zusatzkomponenten und Outsourcing-Modelle haben laut ihren Angaben stattdessen eher zu einer Stagnation geführt als das Problem zu lösen.

Die Komplexität veralteter Systeme wird dabei oft durch ineffiziente IT-Dienstleister aufrechterhalten. KI kann laut den Analysten diese Schulden schnell und effektiv abbauen – vorausgesetzt, sie wird strategisch eingesetzt und durchgreifend in Arbeitsprozesse und Betriebsmodelle integriert.

Sie kann beispielsweise

alten Code lesen und umschreiben,

Integration und Tests automatisieren sowie

jahrelange Sanierungsarbeiten auf Wochen verkürzen.

Allerdings muss KI als grundlegende Kraft behandelt werden – nicht nur als ein weiteres Tool. Unternehmen müssen daher Arbeitsabläufe, Governance und Betriebsmodelle überdenken, um diese Technologie vollständig nutzen zu können.

Dienstleister bleiben beim KI-Wandel zurück

Der Wandel vom traditionellen IT-Servicemodell hin zu „Services-as-Software“ steht dabei im Fokus: automatisierte, KI-gestützte Plattformen ersetzen manuelle Prozesse und ermöglichen

schnellere Innovationen,

betriebliche Agilität und

eine geringere technische Verschuldung.

Allerdings scheitern viele Unternehmen und Dienstleister noch an der Skalierung von KI – aufgrund fehlender Talente, Governance und Innovationsfähigkeit. Nur 20 Prozent der Unternehmen nutzen KI über mehrere Funktionen hinweg. Vielen Unternehmen fehlt es an darüber hinaus an Mitarbeitenden, Governance und Integrationsfähigkeiten, um KI vollständig zu nutzen.

Darüber hinaus gelingt es den meisten Dienstleistern nicht, den Übergang zu KI-gestützten Bereitstellungsmodellen anzuführen. Zugleich treibt nur jedes zehnte Unternehmen diesen Wandel proaktiv voran.

Betriebsmodelle neu denken

Um das volle Potenzial von KI zu nutzen, müssen Unternehmen daher laut den Studienautoren ihr Betriebsmodell grundlegend neu denken:

modular,

intelligent,

ergebnisorientiert und

KI-zentriert.

HFS Research empfiehlt fünf konkrete Schritte zur Überwindung technischer Schulden:

Tech-Schulden wie Finanzschulden behandeln: Unternehmen müssen Prioritäten setzen und diese konsequent tilgen.

Systeme umgestalten: Workflows und Governance sind künftig rund um KI statt um veraltete Strukturen zu gestalten.

Produktbezogene Fähigkeiten fordern: Firmen sollten zu Anbietern wechseln, die KI-gesteuerte Plattformen anbieten, nicht Personal.

Neue Geschäftsmodelle einführen: Modelle wie Abonnements, ergebnisbasierte oder nutzungsabhängige Preise gehören eingeführt.

Mit Dringlichkeit führen: Rollen, Governance und die Bereitstellung KI-gestützter Arbeitsweisen gehören neu definiert.

Mit KI gelingt Unternehmen der transformative Durchbruch​ Weiterlesen »

Mitarbeiterüberwachung im Homeoffice: Tools gegen Chefs im Kontrollwahn​

Allgemein

loading=”lazy” width=”400px”>Eingeschlafen, betrunken oder gar abwesend: Das Misstrauen gegenüber Mitarbeitern im Homeoffice nimmt mitunter seltsame Züge an.Pheelings media – shutterstock.com Trotz zahlreichen Vorteilen für Mensch, Unternehmen und Umwelt, hadern viele Firmenchefs mit der Arbeit im Homeoffice und wollen ihre Mitarbeiter wieder so oft wie möglich im Büro sehen.  Vertrauen ist gut, Kontrolle ist besser?  Schaffen es Firmenchefs nicht, ihre Mitarbeiter komplett zurück ins Büro zu beordern, führt dies in harmloseren Fällen zu Kontrollanrufen, wenn die Präsenzanzeige in Teams oder einem anderen Messaging-Dienst längere Zeit auf Inaktiv (Gelb) steht. In besonders schlimmen Fällen kommt dabei – in der EU aus Datenschutzgründen verbotene – sogenannte „Bossware“ zum Einsatz. Dabei handelt es sich um Software, um Tastaturen oder Mäuse zu überwachen. Ziel ist es, sicherzustellen, dass die Mitarbeiter auch im Homeoffice während ihrer gesamten Arbeitszeit arbeiten.  Die arbeitnehmernahe US-Organisation Coworker.org hat bereits 2021 in ihrer Bossware- und Employment-Tech-Datenbank mehr als 550 Produkte aufgeführt, die Techniken wie KI, Standortverfolgung und Biometrie nutzen, um Mitarbeiter zu „verwalten“ und ihre Daten zu sammeln – oft ohne ihr Wissen.  Immer in Bewegung bleiben  In den USA, wo auch rigidere Kontrollmaßnahmen vollkommen legal sind, war die Überwachung von Firmencomputern schon lange vor 2020 und COVID-19 ein Problem. Erst Corona führte jedoch zu einem Boom bei Lösungen, um diesem Kontrollwahn Grenzen zu setzen, berichtet das Online-Magazin Vice. So seien die Suchanfragen nach sogenannten “mouse mover”- und “mouse jiggler”-Lösungen ab März 2020 sprunghaft angestiegen, als viele Schreibtischarbeiter zu Beginn der Pandemie vom Büro nach Hause wechselten – , und blieben seitdem konstant hoch.  Auch die virtuellen Regale von Online-Händlern wie Amazon sind voll mit Plug-and-Play-Mouse-Mover-Devices, mit denen sich der Mauszeiger von unten drehen lässt, oder USB-Sticks, auf denen eine Software vorinstalliert ist, die Mausbewegungen nachahmt. Durch Einstecken des Sticks wird dem Computer vorgegaukelt, dass es sich um eine aktive Maus handelt.  Auch „Simulations“-Software verfügbar   In manchen Fällen muss man aber nicht einmal ein Gerät kaufen, um eine sich bewegende Maus zu imitieren. Im Internet werden zu diesem Zweck zahlreiche Programme zum kostenlosen Download angeboten. Der Haken dabei: Ein Mitarbeiter, der solche Geräte benötigt, weil sein Arbeitgeber ihm so stark misstraut, besitzt wahrscheinlich auch keine Admin-Rechte, um neue Software auf seinem Firmen-PC zu installieren.  Generell sollte man der Wirkung dieser Arbeitsmittel nicht volles Vertrauen schenken. So berichtete Bloomberg im Juni 2024, dass die US-Investment-Bank Wells Fargo & Co. mehr als ein Dutzend Mitarbeiter entlassen hat, weil sie ihre Arbeit angeblich nur vorgetäuscht hätten. „Die Mitarbeiter wurden “nach der Überprüfung von Vorwürfen entlassen, sie simulierten Tastaturaktivitäten simuliert haben, um den Eindruck aktiver Arbeit zu erwecken” zitiert die Agentur Bloomberg aus einer Mitteilung von Wells Fargo an die US-Finanzaufsichtsbehörde (Finra) vom 6. Mai.   Aus den Angaben von Wells Fargo geht allerdings nicht eindeutig hervor, ob die gefeuerten Mitarbeiter, die allesamt in der Vermögens- und Investmentmanagement-Abteilung des Unternehmens tätig waren, Mouse Jiggler und andere Geräte im Home-Office eingesetzt haben.  

Mitarbeiterüberwachung im Homeoffice: Tools gegen Chefs im Kontrollwahn​ loading=”lazy” width=”400px”>Eingeschlafen, betrunken oder gar abwesend: Das Misstrauen gegenüber Mitarbeitern im Homeoffice nimmt mitunter seltsame Züge an.Pheelings media – shutterstock.com

Trotz zahlreichen Vorteilen für Mensch, Unternehmen und Umwelt, hadern viele Firmenchefs mit der Arbeit im Homeoffice und wollen ihre Mitarbeiter wieder so oft wie möglich im Büro sehen. 

Vertrauen ist gut, Kontrolle ist besser? 

Schaffen es Firmenchefs nicht, ihre Mitarbeiter komplett zurück ins Büro zu beordern, führt dies in harmloseren Fällen zu Kontrollanrufen, wenn die Präsenzanzeige in Teams oder einem anderen Messaging-Dienst längere Zeit auf Inaktiv (Gelb) steht. In besonders schlimmen Fällen kommt dabei – in der EU aus Datenschutzgründen verbotene – sogenannte „Bossware“ zum Einsatz. Dabei handelt es sich um Software, um Tastaturen oder Mäuse zu überwachen. Ziel ist es, sicherzustellen, dass die Mitarbeiter auch im Homeoffice während ihrer gesamten Arbeitszeit arbeiten. 

Die arbeitnehmernahe US-Organisation Coworker.org hat bereits 2021 in ihrer Bossware- und Employment-Tech-Datenbank mehr als 550 Produkte aufgeführt, die Techniken wie KI, Standortverfolgung und Biometrie nutzen, um Mitarbeiter zu „verwalten“ und ihre Daten zu sammeln – oft ohne ihr Wissen. 

Immer in Bewegung bleiben 

In den USA, wo auch rigidere Kontrollmaßnahmen vollkommen legal sind, war die Überwachung von Firmencomputern schon lange vor 2020 und COVID-19 ein Problem. Erst Corona führte jedoch zu einem Boom bei Lösungen, um diesem Kontrollwahn Grenzen zu setzen, berichtet das Online-Magazin Vice. So seien die Suchanfragen nach sogenannten “mouse mover”- und “mouse jiggler”-Lösungen ab März 2020 sprunghaft angestiegen, als viele Schreibtischarbeiter zu Beginn der Pandemie vom Büro nach Hause wechselten – , und blieben seitdem konstant hoch. 

Auch die virtuellen Regale von Online-Händlern wie Amazon sind voll mit Plug-and-Play-Mouse-Mover-Devices, mit denen sich der Mauszeiger von unten drehen lässt, oder USB-Sticks, auf denen eine Software vorinstalliert ist, die Mausbewegungen nachahmt. Durch Einstecken des Sticks wird dem Computer vorgegaukelt, dass es sich um eine aktive Maus handelt. 

Auch „Simulations“-Software verfügbar  

In manchen Fällen muss man aber nicht einmal ein Gerät kaufen, um eine sich bewegende Maus zu imitieren. Im Internet werden zu diesem Zweck zahlreiche Programme zum kostenlosen Download angeboten. Der Haken dabei: Ein Mitarbeiter, der solche Geräte benötigt, weil sein Arbeitgeber ihm so stark misstraut, besitzt wahrscheinlich auch keine Admin-Rechte, um neue Software auf seinem Firmen-PC zu installieren. 

Generell sollte man der Wirkung dieser Arbeitsmittel nicht volles Vertrauen schenken. So berichtete Bloomberg im Juni 2024, dass die US-Investment-Bank Wells Fargo & Co. mehr als ein Dutzend Mitarbeiter entlassen hat, weil sie ihre Arbeit angeblich nur vorgetäuscht hätten. „Die Mitarbeiter wurden “nach der Überprüfung von Vorwürfen entlassen, sie simulierten Tastaturaktivitäten simuliert haben, um den Eindruck aktiver Arbeit zu erwecken” zitiert die Agentur Bloomberg aus einer Mitteilung von Wells Fargo an die US-Finanzaufsichtsbehörde (Finra) vom 6. Mai.  

Aus den Angaben von Wells Fargo geht allerdings nicht eindeutig hervor, ob die gefeuerten Mitarbeiter, die allesamt in der Vermögens- und Investmentmanagement-Abteilung des Unternehmens tätig waren, Mouse Jiggler und andere Geräte im Home-Office eingesetzt haben. 

Mitarbeiterüberwachung im Homeoffice: Tools gegen Chefs im Kontrollwahn​ Weiterlesen »

UniCredit will sich in der Google-Cloud transformieren​

Allgemein

width=”2336″ height=”1314″ sizes=”(max-width: 2336px) 100vw, 2336px”>Die italienische UniCredit setzt für ihre digitale Transformation ganz auf die Google-Cloud.andersphoto – shutterstock.com UniCredit und Google Cloud haben ein Memorandum of Understanding (MoU) unterzeichnet, mit dem Ziel, die digitale Transformation der Geschäftsbank zu beschleunigen. Die Kooperation ist zunächst auf zehn Jahre und die 13 Kernmärkte der Bank befristet, hieß es in einer Mitteilung. Im Rahmen dieser Zusammenarbeit will UniCredit auf die Infrastruktur, Künstliche Intelligenz (KI) und Datenanalyselösungen von Google Cloud zurückgreifen, um seine digitale Architektur zu optimieren sowie Produkte und Services der Bank zu verbessern.  Die UniCredit-Verantwortlichen sprechen im Zusammenhang der Partnerschaft mit dem Cloud-Hyperscaler von einer bedeutenden Investition in die eigene Cloud-Infrastruktur. Welches Volumen der Deal konkret hat, wollten sie jedoch nicht verraten.  Die Partnerschaft bilde einen zentralen Pfeiler der eigenen Digitalstrategie, ließen die Bänker verlauten. Große Teile der Anwendungslandschaft der Bank sollen demzufolge in die Google Cloud migriert werden, einschließlich veralteter Systeme im gesamten Konzern. Der Kooperationsplan sieht vor, dass die 13 Banken der UniCredit-Gruppe schrittweise auf die Google Cloud umgestellt werden sollen. Mit Google-KI zu neuen Banking-Services Darüber hinaus will UniCredit die Google Cloud auch als neue Plattform für KI-Anwendungen nutzen. Konkret ist wohl geplant, Googles Vertex AI-Plattform und die Gemini-Modelle einzusetzen. Das Ziel mit diesen Technologien: neue Services entwickeln, interne Effizienz steigern und verbesserte Kundenerlebnisse schaffen. Als potenzielle Einsatzbereiche wurden Investment-Banking-Analysen, eine optimierte Kundenkommunikation, Prozessautomatisierung, die Bekämpfung von Finanzkriminalität und die Entwicklung neuer KI-gestützter Finanzprodukte ausgegeben.  Insgesamt zielen die UniCredit-Verantwortlichen mit der Google Cloud auf eine einheitliche Basis mit höherer Skalierbarkeit und Agilität. Dies sei entscheidend für die ehrgeizigen Wachstums- und Innovationspläne der Bank, hieß es. Die technologische Flexibilität von Google Cloud erlaube es, sich bei Marktveränderungen oder Übernahmen schnell anzupassen und zu skalieren. UniCredit will schneller auf Marktveränderungen reagieren können UniCredit tastet sich seit Herbst 2024, nach dem Teilausstieg des Bundes, an eine Übernahme der deutschen Commerzbank heran. Eigenen Angaben zufolge kontrollieren die Italiener inzwischen gut 28 Prozent der Commerzbank-Anteile. Ab einem 30-Prozent-Anteil wäre die Unicredit verpflichtet, den übrigen Commerzbank-Aktionären ein Kaufangebot zu unterbreiten.  Die Commerzbank punktete allerdings zuletzt mit guten Zahlen. Außerdem will das Bankhaus tausende Stellen abbauen, um sich im Abwehrkampf gegen die Großbank aus Mailand Luft zu verschaffen.  Commerzbank arbeitet seit Jahren in der Google-Cloud Aus Cloud-Perspektive würden beide Geldhäuser zumindest in Teilen gut zusammenpassen. Die Commerzbank hatte bereits vor gut vier Jahren eine strategische Cloud-Partnerschaft mit Google verkündet. Es gehe darum, eine signifikante Anzahl der Bankanwendungen in die Cloud verlagern, hieß es in einer Mitteilung. Beide Unternehmen sprachen im März 2021 von einer strategischen Partnerschaft für die digitale Transformation des Bankinstituts.  Die Cloud-Kooperation mit Google ist für die Commerzbank allerdings nicht exklusiv. Das Finanzinstitut arbeitet in Sachen Cloud auch eng mit Microsoft zusammen. Ebenfalls Anfang 2021 wurde dafür eine weitere strategische Partnerschaft vereinbart. Davon versprachen sich die Verantwortlichen damals mehr Automatisierung und Standardisierung bei insgesamt niedrigeren Kosten. Es solle ein „signifikanter Teil der Anwendungen“ auf die Azure-Plattform migriert werden, hatte es geheißen.  UniCredit verfolgt Single-Cloud-Ansatz UniCredit verfolgt in Sachen Cloud-Partner jedoch keinen Multi-Vendor-Ansatz. „Im Einklang mit unserem Single-Partner-Ansatz für strategische Kooperationen haben wir uns für den Besten entschieden – und gehen nun gemeinsam mit ihm den Weg zur Exzellenz“, sagte Andrea Orcel, CEO von UniCredit. Diese strategische Partnerschaft mit Google Cloud sei ein zentraler Schritt in unserer Strategie, die Bank der Zukunft Europas zu sein. „Die fortschrittliche Cloud-, KI- und Datenanalytik-Technologie von Google Cloud wird unsere digitale Transformation entscheidend vorantreiben – unsere Kundenangebote verbessern, Prozesse effizienter gestalten und eine neue Ära datengetriebener Innovation einläuten.“  Die KI-Technik in der Google-Cloud wird die digitale Transformation der UniCredit entscheidend vorantreiben, ist CEO Andrea Orcel überzeugt.UniCredit „Google Cloud ist führend darin, Finanzinstituten in ganz Europa leistungsstarke und zugleich sichere KI-Technologien bereitzustellen“, ergänzte Tara Brady, President EMEA, Google Cloud. „Damit kann UniCredit Innovation beschleunigen, Effizienzen heben und seine digitale Transformation vorantreiben – für nachhaltigen Erfolg in einem dynamischen Marktumfeld.“  Viele Banken setzen auf die Google-Cloud Mit der UniCredit angelt sich Google einen weiteren wichtigen Cloud-Kunden aus dem Finanzsektor. Auch die Deutsche Bank arbeitet bereits seit Jahren eng mit Google zusammen, um Applikationen in die Cloud zu migrieren beziehungsweise neue Anwendungen direkt in der Google Cloud zu entwickeln. Für seine Cloud-Journey wurde Bernd Leukert, Technologievorstand der Deutschen Bank, beim CIO des Jahres 2024 mit dem Sonderpreis Cloud Excellence ausgezeichnet. +++ CIO des Jahres 2025 – jetzt mitmachen und bis Ende Mai bewerben +++ 

UniCredit will sich in der Google-Cloud transformieren​ width=”2336″ height=”1314″ sizes=”(max-width: 2336px) 100vw, 2336px”>Die italienische UniCredit setzt für ihre digitale Transformation ganz auf die Google-Cloud.andersphoto – shutterstock.com

UniCredit und Google Cloud haben ein Memorandum of Understanding (MoU) unterzeichnet, mit dem Ziel, die digitale Transformation der Geschäftsbank zu beschleunigen. Die Kooperation ist zunächst auf zehn Jahre und die 13 Kernmärkte der Bank befristet, hieß es in einer Mitteilung. Im Rahmen dieser Zusammenarbeit will UniCredit auf die Infrastruktur, Künstliche Intelligenz (KI) und Datenanalyselösungen von Google Cloud zurückgreifen, um seine digitale Architektur zu optimieren sowie Produkte und Services der Bank zu verbessern. 

Die UniCredit-Verantwortlichen sprechen im Zusammenhang der Partnerschaft mit dem Cloud-Hyperscaler von einer bedeutenden Investition in die eigene Cloud-Infrastruktur. Welches Volumen der Deal konkret hat, wollten sie jedoch nicht verraten. 

Die Partnerschaft bilde einen zentralen Pfeiler der eigenen Digitalstrategie, ließen die Bänker verlauten. Große Teile der Anwendungslandschaft der Bank sollen demzufolge in die Google Cloud migriert werden, einschließlich veralteter Systeme im gesamten Konzern. Der Kooperationsplan sieht vor, dass die 13 Banken der UniCredit-Gruppe schrittweise auf die Google Cloud umgestellt werden sollen.

Mit Google-KI zu neuen Banking-Services

Darüber hinaus will UniCredit die Google Cloud auch als neue Plattform für KI-Anwendungen nutzen. Konkret ist wohl geplant, Googles Vertex AI-Plattform und die Gemini-Modelle einzusetzen. Das Ziel mit diesen Technologien: neue Services entwickeln, interne Effizienz steigern und verbesserte Kundenerlebnisse schaffen. Als potenzielle Einsatzbereiche wurden Investment-Banking-Analysen, eine optimierte Kundenkommunikation, Prozessautomatisierung, die Bekämpfung von Finanzkriminalität und die Entwicklung neuer KI-gestützter Finanzprodukte ausgegeben. 

Insgesamt zielen die UniCredit-Verantwortlichen mit der Google Cloud auf eine einheitliche Basis mit höherer Skalierbarkeit und Agilität. Dies sei entscheidend für die ehrgeizigen Wachstums- und Innovationspläne der Bank, hieß es. Die technologische Flexibilität von Google Cloud erlaube es, sich bei Marktveränderungen oder Übernahmen schnell anzupassen und zu skalieren.

UniCredit will schneller auf Marktveränderungen reagieren können

UniCredit tastet sich seit Herbst 2024, nach dem Teilausstieg des Bundes, an eine Übernahme der deutschen Commerzbank heran. Eigenen Angaben zufolge kontrollieren die Italiener inzwischen gut 28 Prozent der Commerzbank-Anteile. Ab einem 30-Prozent-Anteil wäre die Unicredit verpflichtet, den übrigen Commerzbank-Aktionären ein Kaufangebot zu unterbreiten. 

Die Commerzbank punktete allerdings zuletzt mit guten Zahlen. Außerdem will das Bankhaus tausende Stellen abbauen, um sich im Abwehrkampf gegen die Großbank aus Mailand Luft zu verschaffen. 

Commerzbank arbeitet seit Jahren in der Google-Cloud

Aus Cloud-Perspektive würden beide Geldhäuser zumindest in Teilen gut zusammenpassen. Die Commerzbank hatte bereits vor gut vier Jahren eine strategische Cloud-Partnerschaft mit Google verkündet. Es gehe darum, eine signifikante Anzahl der Bankanwendungen in die Cloud verlagern, hieß es in einer Mitteilung. Beide Unternehmen sprachen im März 2021 von einer strategischen Partnerschaft für die digitale Transformation des Bankinstituts. 

Die Cloud-Kooperation mit Google ist für die Commerzbank allerdings nicht exklusiv. Das Finanzinstitut arbeitet in Sachen Cloud auch eng mit Microsoft zusammen. Ebenfalls Anfang 2021 wurde dafür eine weitere strategische Partnerschaft vereinbart. Davon versprachen sich die Verantwortlichen damals mehr Automatisierung und Standardisierung bei insgesamt niedrigeren Kosten. Es solle ein „signifikanter Teil der Anwendungen“ auf die Azure-Plattform migriert werden, hatte es geheißen. 

UniCredit verfolgt Single-Cloud-Ansatz

UniCredit verfolgt in Sachen Cloud-Partner jedoch keinen Multi-Vendor-Ansatz. „Im Einklang mit unserem Single-Partner-Ansatz für strategische Kooperationen haben wir uns für den Besten entschieden – und gehen nun gemeinsam mit ihm den Weg zur Exzellenz“, sagte Andrea Orcel, CEO von UniCredit. Diese strategische Partnerschaft mit Google Cloud sei ein zentraler Schritt in unserer Strategie, die Bank der Zukunft Europas zu sein. „Die fortschrittliche Cloud-, KI- und Datenanalytik-Technologie von Google Cloud wird unsere digitale Transformation entscheidend vorantreiben – unsere Kundenangebote verbessern, Prozesse effizienter gestalten und eine neue Ära datengetriebener Innovation einläuten.“ 

Die KI-Technik in der Google-Cloud wird die digitale Transformation der UniCredit entscheidend vorantreiben, ist CEO Andrea Orcel überzeugt.UniCredit

„Google Cloud ist führend darin, Finanzinstituten in ganz Europa leistungsstarke und zugleich sichere KI-Technologien bereitzustellen“, ergänzte Tara Brady, President EMEA, Google Cloud. „Damit kann UniCredit Innovation beschleunigen, Effizienzen heben und seine digitale Transformation vorantreiben – für nachhaltigen Erfolg in einem dynamischen Marktumfeld.“ 

Viele Banken setzen auf die Google-Cloud

Mit der UniCredit angelt sich Google einen weiteren wichtigen Cloud-Kunden aus dem Finanzsektor. Auch die Deutsche Bank arbeitet bereits seit Jahren eng mit Google zusammen, um Applikationen in die Cloud zu migrieren beziehungsweise neue Anwendungen direkt in der Google Cloud zu entwickeln. Für seine Cloud-Journey wurde Bernd Leukert, Technologievorstand der Deutschen Bank, beim CIO des Jahres 2024 mit dem Sonderpreis Cloud Excellence ausgezeichnet.

+++ CIO des Jahres 2025 – jetzt mitmachen und bis Ende Mai bewerben +++

UniCredit will sich in der Google-Cloud transformieren​ Weiterlesen »

So gefährden Netzwerkfehler den Betrieb von Rechenzentren​

Allgemein

Die Zuverlässigkeit von Rechenzentren gefährden vor allem drei Ursachen: Stromausfälle, Netzprobleme sowie menschliche Fehler. Maximumm – shutterstock.com Stromausfälle sind nach wie vor die häufigste Ursache für größere Ausfälle in Rechenzentren. Sie machen mehr als die Hälfte aller Fälle aus, die das Uptime Institute in seinem „Annual Outage Analysis Report 2025“ erfasst hat. Netzwerk- und IT-Systemprobleme waren dagegen für zwölf beziehungsweise elf Prozent der schwerwiegenden Ausfälle in Rechenzentren verantwortlich. Dabei machten dem Bericht zufolge Netzwerk-/Konnektivitätsprobleme 30 Prozent der End-to-End-Ausfälle von IT-Diensten aus. Methodik Uptime führte die Analyse anhand aktueller Daten aus mehreren eigenen Berichten und Umfragen aus den Jahren 2024 und 2025 durch. Ein Vergleich mit den Vorjahren zeigt, dass die Häufigkeit von Ausfällen zurückgeht. So gaben in einer Umfrage aus dem Jahr 2024 etwas über 50 Prozent der Betreiber an, in den letzten drei Jahren einen Ausfall gehabt zu haben. Im Jahr 2023 waren es noch 55 Prozent, die einen Ausfall meldeten. Im Jahr 2022 gaben 60 Prozent Ausfälle an, 2021 waren es 69 Prozent. Fast 80 Prozent meldeten im Jahr 2020 einen Ausfall in den letzten drei Jahren. Energieversorgung als Sorgenkind „Insgesamt hat sich der Zahl der Ausfälle verringert“, analysiert Andy Lawrence, Gründungsmitglied und Geschäftsführer von Uptime Intelligence, die Situation. Anlass zur Entwarnung ist das allerdings nicht, wie Lawrence anlässlich der Veröffentlichung des aktuellen Reports erklärte: „Die Betreiber von Rechenzentren sehen sich einer wachsenden Zahl externer Risiken gegenüber, die außerhalb ihrer Kontrolle liegen.“ Dazu zählen für ihn Einschränkungen des Stromnetzes, extreme Wetterbedingungen, Ausfälle von Netzbetreibern und Probleme mit Software von Drittanbietern. Dabei ist die Stromversorgung nach wie vor die häufigste Ursache für schwerwiegende Ausfälle. Zu den Gründen für Stromausfälle zählen: Ausfall der USV: 42 Prozent, Ausfall eines Umschalters: 36 Prozent, Ausfall eines Generators: 28 Prozent, Ausfall eines Umschalters zwischen verschiedenen Leitungen: 23 Prozent, Ausfall der Steuerungen: 15 Prozent, Ausfall eines einzelnen kabelgebundenen IT-Geräts: 11 Prozent, Ausfall deines Stromverteilers: 11 Prozent. Strom bleibt kritisch “Strom ist die Hauptursache. Strom wird auch in absehbarer Zukunft die Hauptursache sein“, prognostiziert Chris Brown, Chief Technical Officer beim Uptime Institute. Und das ist zu erwarten, denn jedes Gerät im Rechenzentrum, egal, ob es sich um eine Anlage oder ein IT-Gerät handelt, benötigt Strom, um zu funktionieren. Positiv zu vermerken ist jedoch, dass es Anzeichen dafür gibt, dass die Schwere der Ausfälle abnimmt. Laut Uptime wurden 2024 nur neun Prozent der gemeldeten Vorfälle als schwerwiegend oder kritisch eingestuft. „Etwas mehr als die Hälfte gab an, in den letzten drei Jahren einen Ausfall gehabt zu haben, und von denen, die dies bejahten, waren insgesamt etwa drei Viertel nicht signifikant“, ergänzt Lawrence. Das Netz als Problemursache Dennoch nahmen laut Uptime Institute die IT- und Netzwerkprobleme im Jahr 2024 zu. Der Report führt den Anstieg der Ausfälle auf die zunehmende Komplexität der IT sowie der Netzwerke zurück. Dies gelte insbesondere für das Änderungsmanagement und Fehlkonfigurationen. „Insbesondere bei verteilten Diensten und Cloud-Diensten stellen wir fest, dass es häufig zu Kettenausfällen kommt, wenn Netzwerkgeräte über ein gesamtes Netzwerk repliziert werden“, geht Lawrence ins Detail, „manchmal führt der Ausfall eines Geräts dazu, dass der Datenverkehr nur in eine Richtung fließt und die Kapazität eines anderen Rechenzentrums überlastet wird.“ Häufige Netzfehler Als häufigste Ursachen für größere, netzwerkbezogene Ausfälle nennt das Uptime Institute: Konfigurations- und Änderungsmanagementfehler: 50 Prozent, Ausfall eines Drittanbieters: 34 Prozent, Hardwarefehler: 31 Prozent, Firmware- und Softwarefehler: 26 Prozent, Leitungsunterbrechungen: 17 Prozent, Böswillige Cyberangriffe: 17 Prozent, Netzwerküberlastung: 13 Prozent, Probleme mit beschädigten Firewall- und Routing-Tabellen: acht Prozent, Wetterbedingte Vorfälle: sieben Prozent. Laut der Analyse von Uptime zählen menschliche Fehler weiterhin zu den „größten Herausforderungen im Rechenzentrumsbetrieb“. Hauptproblem dabei ist dem Bericht zufolge, dass die Mitarbeiter der Rechenzentren die festgelegten Verfahren nicht einhalten. Im Vergleich zu 2023 habe dies um etwa zehn Prozentpunkte zugenommen. Der Faktor Mensch als Fehler Die häufigsten Ursachen für größere Ausfälle aufgrund menschlicher Fehler waren: Nichtbefolgung von Verfahren durch Datenpersonal: 58 Prozent, Falsche Prozesse/Verfahren des Personals: 45 Prozent, Installationsprobleme: 24 Prozent, Probleme während des Betriebs: 19 Prozent, Zu wenig Personal: 18 Prozent, Probleme mit der Häufigkeit der vorbeugenden Wartung: 16 Prozent, Designfehler oder Mängel des Rechenzentrums: 14 Prozent. Cheftechniker Brown erklärt diese Fehler unter anderem damit, dass die Betreiber von Rechenzentren Schwierigkeiten haben, adäquate Prozesse zu erstellen und angemessene Schulungen anzubieten. Erschwert werde die Situation durch die Geschwindigkeit, mit der Rechenzentren expandierten. Zudem hätten neue Mitarbeiter nur begrenzte Erfahrung. Die Uptime-Analysten kommen deshalb zu dem Schluss, dass menschliches Versagen der Bereich ist, in dem sich Ausfälle am einfachsten und kostengünstigsten vermeiden lassen. 

So gefährden Netzwerkfehler den Betrieb von Rechenzentren​ Die Zuverlässigkeit von Rechenzentren gefährden vor allem drei Ursachen: Stromausfälle, Netzprobleme sowie menschliche Fehler.
Maximumm – shutterstock.com

Stromausfälle sind nach wie vor die häufigste Ursache für größere Ausfälle in Rechenzentren. Sie machen mehr als die Hälfte aller Fälle aus, die das Uptime Institute in seinem „Annual Outage Analysis Report 2025“ erfasst hat.

Netzwerk- und IT-Systemprobleme waren dagegen für zwölf beziehungsweise elf Prozent der schwerwiegenden Ausfälle in Rechenzentren verantwortlich. Dabei machten dem Bericht zufolge Netzwerk-/Konnektivitätsprobleme 30 Prozent der End-to-End-Ausfälle von IT-Diensten aus.

Methodik

Uptime führte die Analyse anhand aktueller Daten aus mehreren eigenen Berichten und Umfragen aus den Jahren 2024 und 2025 durch. Ein Vergleich mit den Vorjahren zeigt, dass die Häufigkeit von Ausfällen zurückgeht.

So gaben in einer Umfrage aus dem Jahr 2024 etwas über 50 Prozent der Betreiber an, in den letzten drei Jahren einen Ausfall gehabt zu haben. Im Jahr 2023 waren es noch 55 Prozent, die einen Ausfall meldeten. Im Jahr 2022 gaben 60 Prozent Ausfälle an, 2021 waren es 69 Prozent. Fast 80 Prozent meldeten im Jahr 2020 einen Ausfall in den letzten drei Jahren.

Energieversorgung als Sorgenkind

„Insgesamt hat sich der Zahl der Ausfälle verringert“, analysiert Andy Lawrence, Gründungsmitglied und Geschäftsführer von Uptime Intelligence, die Situation. Anlass zur Entwarnung ist das allerdings nicht, wie Lawrence anlässlich der Veröffentlichung des aktuellen Reports erklärte: „Die Betreiber von Rechenzentren sehen sich einer wachsenden Zahl externer Risiken gegenüber, die außerhalb ihrer Kontrolle liegen.“ Dazu zählen für ihn Einschränkungen des Stromnetzes, extreme Wetterbedingungen, Ausfälle von Netzbetreibern und Probleme mit Software von Drittanbietern.

Dabei ist die Stromversorgung nach wie vor die häufigste Ursache für schwerwiegende Ausfälle. Zu den Gründen für Stromausfälle zählen:

Ausfall der USV: 42 Prozent,

Ausfall eines Umschalters: 36 Prozent,

Ausfall eines Generators: 28 Prozent,

Ausfall eines Umschalters zwischen verschiedenen Leitungen: 23 Prozent,

Ausfall der Steuerungen: 15 Prozent,

Ausfall eines einzelnen kabelgebundenen IT-Geräts: 11 Prozent,

Ausfall deines Stromverteilers: 11 Prozent.

Strom bleibt kritisch

“Strom ist die Hauptursache. Strom wird auch in absehbarer Zukunft die Hauptursache sein“, prognostiziert Chris Brown, Chief Technical Officer beim Uptime Institute. Und das ist zu erwarten, denn jedes Gerät im Rechenzentrum, egal, ob es sich um eine Anlage oder ein IT-Gerät handelt, benötigt Strom, um zu funktionieren.

Positiv zu vermerken ist jedoch, dass es Anzeichen dafür gibt, dass die Schwere der Ausfälle abnimmt. Laut Uptime wurden 2024 nur neun Prozent der gemeldeten Vorfälle als schwerwiegend oder kritisch eingestuft. „Etwas mehr als die Hälfte gab an, in den letzten drei Jahren einen Ausfall gehabt zu haben, und von denen, die dies bejahten, waren insgesamt etwa drei Viertel nicht signifikant“, ergänzt Lawrence.

Das Netz als Problemursache

Dennoch nahmen laut Uptime Institute die IT- und Netzwerkprobleme im Jahr 2024 zu. Der Report führt den Anstieg der Ausfälle auf die zunehmende Komplexität der IT sowie der Netzwerke zurück. Dies gelte insbesondere für das Änderungsmanagement und Fehlkonfigurationen.

„Insbesondere bei verteilten Diensten und Cloud-Diensten stellen wir fest, dass es häufig zu Kettenausfällen kommt, wenn Netzwerkgeräte über ein gesamtes Netzwerk repliziert werden“, geht Lawrence ins Detail, „manchmal führt der Ausfall eines Geräts dazu, dass der Datenverkehr nur in eine Richtung fließt und die Kapazität eines anderen Rechenzentrums überlastet wird.“

Häufige Netzfehler

Als häufigste Ursachen für größere, netzwerkbezogene Ausfälle nennt das Uptime Institute:

Konfigurations- und Änderungsmanagementfehler: 50 Prozent,

Ausfall eines Drittanbieters: 34 Prozent,

Hardwarefehler: 31 Prozent,

Firmware- und Softwarefehler: 26 Prozent,

Leitungsunterbrechungen: 17 Prozent,

Böswillige Cyberangriffe: 17 Prozent,

Netzwerküberlastung: 13 Prozent,

Probleme mit beschädigten Firewall- und Routing-Tabellen: acht Prozent,

Wetterbedingte Vorfälle: sieben Prozent.

Laut der Analyse von Uptime zählen menschliche Fehler weiterhin zu den „größten Herausforderungen im Rechenzentrumsbetrieb“. Hauptproblem dabei ist dem Bericht zufolge, dass die Mitarbeiter der Rechenzentren die festgelegten Verfahren nicht einhalten. Im Vergleich zu 2023 habe dies um etwa zehn Prozentpunkte zugenommen.

Der Faktor Mensch als Fehler

Die häufigsten Ursachen für größere Ausfälle aufgrund menschlicher Fehler waren:

Nichtbefolgung von Verfahren durch Datenpersonal: 58 Prozent,

Falsche Prozesse/Verfahren des Personals: 45 Prozent,

Installationsprobleme: 24 Prozent,

Probleme während des Betriebs: 19 Prozent,

Zu wenig Personal: 18 Prozent,

Probleme mit der Häufigkeit der vorbeugenden Wartung: 16 Prozent,

Designfehler oder Mängel des Rechenzentrums: 14 Prozent.

Cheftechniker Brown erklärt diese Fehler unter anderem damit, dass die Betreiber von Rechenzentren Schwierigkeiten haben, adäquate Prozesse zu erstellen und angemessene Schulungen anzubieten. Erschwert werde die Situation durch die Geschwindigkeit, mit der Rechenzentren expandierten. Zudem hätten neue Mitarbeiter nur begrenzte Erfahrung. Die Uptime-Analysten kommen deshalb zu dem Schluss, dass menschliches Versagen der Bereich ist, in dem sich Ausfälle am einfachsten und kostengünstigsten vermeiden lassen.

So gefährden Netzwerkfehler den Betrieb von Rechenzentren​ Weiterlesen »

Der fahrerlose Lkw wird Realität​

Allgemein

Der fahrerlose Lkw wird Schritt für Schritt Realität. MAN Truck & Bus 100.000 Lkw-Fahrer fehlen allein in Deutschland, die Pendelfahrten zwischen Logistikhöfen sind meist wenig effizient. Automatisierungskonzepte mit fahrerlosen Lkws als Teil einer Hub-to-Hub-Automatisierung könnten ein Lösungsansatz für diese Probleme sein. 150 Ingenieure, ein autonomer Truck Dass dies keine ferne Zukunftsvision mehr ist, zeigt das Projekt ATLAS-L4 (Automatisierter Transport zwischen Logistikzentren auf Schnellstraßen im Level 4). Zwölf Projektpartner brachten dabei einen Level-4-automatisierten und damit autonom fahrenden Lkw für den Hub-to-Hub-Transport auf die Straßen. Möglich wurde dies durch ein 2021 verabschiedetes Gesetz, das autonomes Fahren auf fest definierten Strecken unter technischer Aufsicht grundsätzlich ermöglicht. Und zwar gesetzeskonform. Doch bis der LKW seine ersten Fahrten autonom auf der Autobahn zurücklegen konnte, war Teamarbeit gefragt. Dazu haben insgesamt 150 Ingenieure ihre Kräfte gebündelt. Sie kommen von den Projektpartnern: MAN Truck & Bus, Knorr-Bremse, Leoni, Bosch, Fernride, BTC Embedded Systems, Fraunhofer AISEC, Technische Universität München, Technische Universität Braunschweig, TÜV SÜD, Autobahn GmbH sowie dem Würzburger Institut für Verkehrswissenschaften (WIVW GmbH). Nach drei Jahren Projektarbeit ist der autonome Truck im Straßenverkehr nun Realität. Bis zur Serienfertigung autonomer Trucks müssen zwar noch diverse Detailfragen geklärt werden, doch die Pionierarbeit ist geleistet. „Diese Konzepte fließen nun in die weitere Entwicklungsarbeit zur Serienentwicklung von autonomen Lkw ein“, so Projektkoordinator Sebastian Völl von MAN Truck & Bus. Erste Fahrt 2024 Der Startschuss für ATLAS-L4 fiel am 1. Januar 2022. Nachdem das Kraftfahrt-Bundesamt im April 2024 die erste Level-4-Erprobungsgenehmigung für einen Nutzfahrzeughersteller erteilt hatte, fand die Premiere im öffentlichen Straßenverkehr statt. Bei dieser und allen weiteren Erprobungsfahrten war immer ein Sicherheitsfahrer an Bord. Die Automatisierungssoftware im Fahrzeug wurde durch regelmäßige Releases kontinuierlich über einen langen Zeitraum hinweg optimiert und direkt in der Praxis erprobt. Im Hintergrund war hierzu viel Detailarbeit zu leisten. So wurden die für die Level-4-Architektur sicherheitsrelevanten Komponenten wie redundantes Bremssystem, Bordnetz und Lenkung aufgebaut. Mehr Daten als im Pkw Dabei gilt die Entwicklung autonomer Trucks im Vergleich zu Pkws als besonders anspruchsvoll: Auf Grund der Größe des Fahrzeugs müssen deutlich mehr Sensoren eingesetzt und deren Daten verarbeitet werden. Diese Informationen benötigt der autonome Lkw aber, um sich mit seinen größeren Dimensionen  in seinem Umfeld selbständig zurechtzufinden. Ferner wurde ein Validierungskonzept erstellt. Parallel dazu musste ein Control Center für die technische Aufsicht aufgebaut werden. Ebenso galt es, Risikoanalysen und Safety-Betrachtungen für das Level-4-Fahren vorzunehmen. Dazu zählt etwa das Thema Cybersicherheit in Form von authentischer und verschlüsselter Kommunikation. Des Weiteren mussten funktionale Sicherheitsmaßnahmen wie Redundanzen und Degradationskonzepte für das autonome Fahrsystem definiert werden. 

Der fahrerlose Lkw wird Realität​ Der fahrerlose Lkw wird Schritt für Schritt Realität.
MAN Truck & Bus

100.000 Lkw-Fahrer fehlen allein in Deutschland, die Pendelfahrten zwischen Logistikhöfen sind meist wenig effizient. Automatisierungskonzepte mit fahrerlosen Lkws als Teil einer Hub-to-Hub-Automatisierung könnten ein Lösungsansatz für diese Probleme sein.

150 Ingenieure, ein autonomer Truck

Dass dies keine ferne Zukunftsvision mehr ist, zeigt das Projekt ATLAS-L4 (Automatisierter Transport zwischen Logistikzentren auf Schnellstraßen im Level 4). Zwölf Projektpartner brachten dabei einen Level-4-automatisierten und damit autonom fahrenden Lkw für den Hub-to-Hub-Transport auf die Straßen. Möglich wurde dies durch ein 2021 verabschiedetes Gesetz, das autonomes Fahren auf fest definierten Strecken unter technischer Aufsicht grundsätzlich ermöglicht.

Und zwar gesetzeskonform. Doch bis der LKW seine ersten Fahrten autonom auf der Autobahn zurücklegen konnte, war Teamarbeit gefragt. Dazu haben insgesamt 150 Ingenieure ihre Kräfte gebündelt. Sie kommen von den Projektpartnern:

MAN Truck & Bus,

Knorr-Bremse,

Leoni,

Bosch,

Fernride,

BTC Embedded Systems,

Fraunhofer AISEC,

Technische Universität München,

Technische Universität Braunschweig,

TÜV SÜD,

Autobahn GmbH sowie

dem Würzburger Institut für Verkehrswissenschaften (WIVW GmbH).

Nach drei Jahren Projektarbeit ist der autonome Truck im Straßenverkehr nun Realität. Bis zur Serienfertigung autonomer Trucks müssen zwar noch diverse Detailfragen geklärt werden, doch die Pionierarbeit ist geleistet. „Diese Konzepte fließen nun in die weitere Entwicklungsarbeit zur Serienentwicklung von autonomen Lkw ein“, so Projektkoordinator Sebastian Völl von MAN Truck & Bus.

Erste Fahrt 2024

Der Startschuss für ATLAS-L4 fiel am 1. Januar 2022. Nachdem das Kraftfahrt-Bundesamt im April 2024 die erste Level-4-Erprobungsgenehmigung für einen Nutzfahrzeughersteller erteilt hatte, fand die Premiere im öffentlichen Straßenverkehr statt. Bei dieser und allen weiteren Erprobungsfahrten war immer ein Sicherheitsfahrer an Bord. Die Automatisierungssoftware im Fahrzeug wurde durch regelmäßige Releases kontinuierlich über einen langen Zeitraum hinweg optimiert und direkt in der Praxis erprobt.

Im Hintergrund war hierzu viel Detailarbeit zu leisten. So wurden die für die Level-4-Architektur sicherheitsrelevanten Komponenten wie redundantes Bremssystem, Bordnetz und Lenkung aufgebaut.

Mehr Daten als im Pkw

Dabei gilt die Entwicklung autonomer Trucks im Vergleich zu Pkws als besonders anspruchsvoll:

Auf Grund der Größe des Fahrzeugs müssen deutlich mehr Sensoren eingesetzt und deren Daten verarbeitet werden. Diese Informationen benötigt der autonome Lkw aber, um sich mit seinen größeren Dimensionen  in seinem Umfeld selbständig zurechtzufinden.

Ferner wurde ein Validierungskonzept erstellt. Parallel dazu musste ein Control Center für die technische Aufsicht aufgebaut werden. Ebenso galt es, Risikoanalysen und Safety-Betrachtungen für das Level-4-Fahren vorzunehmen. Dazu zählt etwa das Thema Cybersicherheit in Form von authentischer und verschlüsselter Kommunikation. Des Weiteren mussten funktionale Sicherheitsmaßnahmen wie Redundanzen und Degradationskonzepte für das autonome Fahrsystem definiert werden.

Der fahrerlose Lkw wird Realität​ Weiterlesen »

CIO des Jahres 2025 – jetzt mitmachen und bis Ende Mai bewerben​

Allgemein

width=”2212″ height=”1244″ sizes=”(max-width: 2212px) 100vw, 2212px”>So sehen Siegerinnen und Sieger aus. Die Gewinnerinnen und Gewinner des vergangenen Jahres jubeln über ihre CIO-des-Jahres-Awards. Machen auch Sie mit und bewerben Sie sich – dann stehen Sie vielleicht im Oktober 2025 auf der großen Gala-Bühne und dürfen sich über die renommierteste IT-Auszeichnung Deutschlands freuen.cio.de / Tobias Tschepe Die heiße Phase für die Bewerbung um die Awards für den CIO des Jahres hat begonnen. Der renommierteste IT-Award Deutschlands biegt ein in die Zielgerade. Noch bis zum 30. Mai 2025 laden wir CIOs, IT-Vorstände aber auch CISOs und Digital-Verantwortliche aus Unternehmen sowie Öffentlichen Einrichtungen in Bund, Ländern und Kommunen herzlich ein, sich mit spannenden IT-Projekten für den „CIO des Jahres 2025“ zu bewerben.  +++ Machen Sie mit beim CIO des Jahres Award 2025 +++   Wie immer küren wir die Gewinnerinnen und Gewinner in den Kategorien Großunternehmen, Mittelstand und Public Sector. Darüber hinaus vergibt die Jury wieder eine Reihe von Special Awards – unter anderem zu den Themen Artificial Intelligence, Customer Experience, Cloud Excellence und Sustainability.  Alle Preisträgerinnen und Preisträger sowie die Finalistinnen und Finalisten, die es unter die jeweiligen Top-5 geschafft haben, zeichnen wir im Rahmen unserer feierlichen Award-Gala am 16. Oktober 2025 in München aus.  Wer wird CIO des Jahres 2025?Foundry Machen Sie also mit und bewerben Sie sich für den CIO des Jahres 2025. Wir freuen uns auf Ihre Teilnahme. Alle weiteren Informationen zum Wettbewerb und alle Unterlagen finden Sie ab sofort hier.  

CIO des Jahres 2025 – jetzt mitmachen und bis Ende Mai bewerben​ width=”2212″ height=”1244″ sizes=”(max-width: 2212px) 100vw, 2212px”>So sehen Siegerinnen und Sieger aus. Die Gewinnerinnen und Gewinner des vergangenen Jahres jubeln über ihre CIO-des-Jahres-Awards. Machen auch Sie mit und bewerben Sie sich – dann stehen Sie vielleicht im Oktober 2025 auf der großen Gala-Bühne und dürfen sich über die renommierteste IT-Auszeichnung Deutschlands freuen.cio.de / Tobias Tschepe

Die heiße Phase für die Bewerbung um die Awards für den CIO des Jahres hat begonnen. Der renommierteste IT-Award Deutschlands biegt ein in die Zielgerade. Noch bis zum 30. Mai 2025 laden wir CIOs, IT-Vorstände aber auch CISOs und Digital-Verantwortliche aus Unternehmen sowie Öffentlichen Einrichtungen in Bund, Ländern und Kommunen herzlich ein, sich mit spannenden IT-Projekten für den „CIO des Jahres 2025“ zu bewerben. 

+++ Machen Sie mit beim CIO des Jahres Award 2025 +++  

Wie immer küren wir die Gewinnerinnen und Gewinner in den Kategorien Großunternehmen, Mittelstand und Public Sector. Darüber hinaus vergibt die Jury wieder eine Reihe von Special Awards – unter anderem zu den Themen Artificial Intelligence, Customer Experience, Cloud Excellence und Sustainability. 

Alle Preisträgerinnen und Preisträger sowie die Finalistinnen und Finalisten, die es unter die jeweiligen Top-5 geschafft haben, zeichnen wir im Rahmen unserer feierlichen Award-Gala am 16. Oktober 2025 in München aus. 

Wer wird CIO des Jahres 2025?Foundry

Machen Sie also mit und bewerben Sie sich für den CIO des Jahres 2025. Wir freuen uns auf Ihre Teilnahme. Alle weiteren Informationen zum Wettbewerb und alle Unterlagen finden Sie ab sofort hier. 

CIO des Jahres 2025 – jetzt mitmachen und bis Ende Mai bewerben​ Weiterlesen »

KI fürs Business: ChatGPT Enterprise und Microsoft 365 Copilot im Vergleich​

Allgemein

Wie eignen sich ChatGPT Enterprise und Microsoft 365 Copilot für den Business-Einsatz?Emre Akkoyun – shutterstock.com Zwar sind OpenAI und Microsoft Partner, doch ihre Strategien für den Einsatz von KI im Unternehmensalltag unterscheiden sich stark. In einer Research Note haben die Gartner-Autoren Jason Wong, Ray Valdes, Adam Preset und Max Goss analysiert, inwieweit sich die KI-Assistenten ChatGPT Enterprise und Microsoft 365 Copilot unterscheiden. Die drei wichtigsten Unterscheidungsmerkmale aus Sicht von Gartner sind: Nutzerführung: ChatGPT Enterprise bricht bewusst mit etablierten Workflows, während Copilot tief in die gewohnte Microsoft-Umgebung eingebettet ist. Rollen: ChatGPT agiert kreativer und technikorientierter, Copilot hingegen fokussierter und stärker auf klassische Business-Ziele ausgerichtet. Integrationstiefe: ChatGPT benötigt gezielte Datenanbindungen, Copilot greift direkt auf Microsoft Graph und Office-Daten zu. Weitere wichtige Unterschiede ChatGPT Enterprise und Microsoft 365 (M365) Copilot basieren auf ähnlichen generativen KI-Modellen von OpenAI. Die beiden Produkte bieten jedoch unterschiedliche Ansätze, um KI-Produktivität am digitalen Arbeitsplatz zu steigern. So erfordert ChatGPT Enterprise neue Arbeitsweisen bei der Verwendung generativer KI-Tools (GenAI), während M365 Copilot die Mitarbeiter weitgehend in ihren vertrauten Office-Anwendungen belässt. Ferner reagiert ChatGPT Enterprise in der Regel als ausdrucksstarker, kreativer und entwicklerorientierter KI-Assistent. M365 Copilot liefert dagegen eher prägnante und geschäftsorientierte Antworten. Zudem erfordert ChatGPT einen kuratierten Zugriff auf Ressourcen wie Unternehmensdaten. M365 Copilot ist hier bereits in Microsoft Graph und dessen Anwendungssuite integriert.  Last but not least kostet ChatGPT Enterprise pro Benutzer und Monat mehr als M365 Copilot. Gartner zufolge sind allerdings einige Kunden bereit, mehr zu zahlen, um Zugang zu den Forschungsergebnissen und technischen Ressourcen von OpenAI zu erhalten. Weitere Details Das Gartner Tool zur Bewertung der Reife digitaler Arbeitsplätze zeigt, dass rund 56 Prozent der Befragten den Einsatz von KI für ihre Mitarbeiterschaft zu den fünf wichtigsten Prioritäten im Bereich digitale Arbeitsplätze für die nächsten 12 Monate zählen. Führende Unternehmen im Bereich digitaler Arbeitsplätze wählen dabei nicht einfach ein KI-Tool wie ChatGPT oder Copilot aus. Vielmehr investieren sie in die Vision des jeweiligen Anbieters, wie die digitale Mitarbeitererfahrung durch KI verbessert werden kann. So verwenden ChatGPT und Copilot zwar ähnliche große Sprachmodelle, aber OpenAI und Microsoft haben ihre Tools so konfiguriert, dass die Endbenutzererfahrung sehr unterschiedlich ist. Jedes Produkt bietet, so Gartner, unterschiedliche Wertversprechen für Mitarbeiter und Unternehmen (siehe Tabelle). Die Unterschiede der KI-Ansätze von OpenAI und Microsoft. Gartner Neben den konkreten Produktunterschieden spielen Gartner zufolge bei der Investitionsentscheidung häufig noch Business-Gründe eine Rolle. So entscheiden sich Unternehmen möglicherweise für ChatGPT, weil sie sofort die neuesten OpenAI-Modelle nutzen wollen und Zugang zu den Forschungs- und technischen Ressourcen von OpenAI haben möchten. Andere hingegen entscheiden sich für M365 Copilot, weil sie sich mit den bestehenden Sicherheitsgarantien von Microsoft für Unternehmen und den Vertragsbedingungen des Konzerns Unternehmen wohler fühlen. Außerdem verkürzt Microsoft die Zeit bis zur Verfügbarkeit neuer Modelle von OpenAI über Azure AI Foundry und M365 Copilot. Des Weiteren hat Gartner auch einige Anwenderunternehmen beobachtet, die von M365 Copilot zu ChatGPT Enterprise gewechselt sind. Als Gründe dafür führen die Analysten eine geringer als erwartete Akzeptanz für das Microsoft-Produkt und internen Druck von ChatGPT-Befürwortern, die persönliche Erfahrungen mit dem Tool haben an . Einige Unternehmen verfügen wiederum über beide Produkte, aber Gartner liegen keine Informationen über die Überschneidungen der Mitarbeiter vor, die beide Produkte nutzen. Einige Unternehmen verwenden beide Technologien, weil keine der beiden alle ihre Anforderungen erfüllen. Neue Arbeitsweisen ChatGPT Enterprise erfordert laut Gartner neue Arbeitsweisen mit GenAI-Tools, während M365 Copilot die Mitarbeiter weitgehend in Office-Anwendungen hält. So erweitert ChatGPT Enterprise das Portfolio für den digitalen Arbeitsplatz um eine weitere Anwendung, und „zieht“ die Belegschaft in seinen Arbeitsablauf hinein. Anders formuliert: die Mitarbeiter müssen mit den Modellen und Tools gezielter arbeiten. So kommt zwar eine weitere Anwendung hinzu, aber einige Mitarbeiter verbringen möglicherweise mehr Zeit mit konzentrierter Arbeit mit ChatGPT. Copilot ist dagegen in die M365-Anwendungen eingebettet und „schlägt“ mögliche Aktionen im Arbeitsablauf vor. Dies ermögliche es den Mitarbeitern, Copilot aus der Office-Anwendung heraus aufzurufen, die sie gerade nutzen. Der Erfolg dieses Konzepts ist nicht zwangsläufig gegeben. Auf der einen Seite hat Gartner Mitarbeiter beobachtet, bei denen der Copilot-Einsatz tägliche Routinen ist. Andere haben Schwierigkeiten, die KI regelmäßig in mehreren M365-Anwendungen zu verwenden. Copilot wird am häufigsten in Teams und Outlook verwendet, da diese Anwendungen in Unternehmen weit verbreitet sind. Dies ist jedoch nur eine momentane Bestandsaufnahme, denn Microsoft gestaltet im Mai 2025 die M365 Copilot-App als einheitliche Oberfläche neu. Gartners Empfehlung Letztlich sollten Unternehmen ChatGPT Enterprise den Vorzug geben, wenn Sie die Gewohnheiten und das Verhalten Ihrer Mitarbeiter mit KI ändern möchten. Für M365 Copilot spricht, wenn die Mitarbeiter mit KI in ihren Arbeitsabläufen, also in Teams, Word oder Excel, unterstützt werden sollen. Antwortverhalten der KI Die Antworten von ChatGPT Enterprise sind tendenziell ausdrucksstärker und entwicklerorientiert. Die Copilot-Antworten charakterisiert Gartner dagegen eher als prägnant und geschäftsmäßig. Unternehmen sollten deshalb ChatGPT Enterprise bevorzugen, wenn Ihre Mitarbeiter über die digitale Kompetenz verfügen, die verschiedenen Modelle und Tools zu erlernen und sie dann situationsbezogen auf bestimmte Aufgaben anzuwenden. M365 Copilot sei dagegen besser geeignet, wenn die Mitarbeiter von einem KI-Assistenten sofort einsatzbereite, unkomplizierte Antworten erwarten. Ferner kann sich ChatGPT die individuellen Präferenzen eines Benutzers hinsichtlich der Länge oder Detailgenauigkeit merken, während Microsoft gerade erst Speicher und Personalisierungsfunktionen in die M365-Copilot-App integriert hat. Darüber hinaus sind laut Gartner die Antworten von M365 Copilot tendenziell kürzer und manchmal weniger tiefgehend. Allerdings hängt dies auch von der Frage und Eingabe des Benutzers ab. Datenzugriff ChatGPT erfordert einen kuratierten Zugriff auf Unternehmensdaten. So besteht ChatGPT Enterprise aus Arbeitsbereichen auf Organisations- und Benutzerebene. Alle externen Daten und Inhalte müssten deshalb bewusst in die Arbeitsbereiche geladen werden. Etwa indem ein benutzerdefiniertes GPT erstellt wird, das mit bestimmten Dateien verbunden ist. Oder Dateien werden innerhalb von Projekten hinzugefügt. Mitte 2025 wird ein neuer interner Wissens-Konnektor verfügbar sein, um Inhalte aus Google Drive, SharePoint und anderen Wissensspeichern zu integrieren. M365 Copilot ist bereits in Microsoft Graph integriert und kann auf dessen semantischen Index zugreifen. Dabei ist M365 Copilot an die Unternehmensidentität eines Benutzers gebunden und greift auf Unternehmensdaten auf der Grundlage von Berechtigungen zu, die anhand der ID erteilt werden. Copilot nutzt hierbei die suchgestützte Generierung mit Microsoft Graph, um Antworten auf Unternehmensdaten zu stützen. Je nach Anwendungsfall und Qualität der zugrunde liegenden indizierten Daten kann dies in der KI-Antwort einen zusätzlichen Kontext erzeugen. Andere Inhalte können über Microsoft Graph-Konnektoren oder mithilfe von Copilot Studio eingebracht werden. Gartners Empfehlung Unter dem Strich empfiehlt Gartner mit Blick auf den Datenzugriff ChatGPT Enterprise für Unternehmen, in denen die Mitarbeiter bereit und befugt sind, ihre eigenen Unternehmensdaten und -inhalte in ihren Arbeitsbereichen zu kuratieren und zu verwalten. Dies erfordere jedoch, Tools für das AI Trust, Risk and Security Management (TRiSM) zu implementieren sowie eine entsprechende Governance. Hat ein Unternehmen bereits eine solche Governance in M365 implementiert und die Mitarbeiter ziehen es vor, Inhalte nicht aus der Microsoft-Umgebung zu verschieben, rät Gartner zu Copilot. Kosten Für ChatGPT Enterprise veröffentlicht OpenAI keine Listenpreise. Laut Beobachtungen von Gartner berechnet OpenAI 40 bis 60 Dollar pro Benutzer und Monat, je nach Volumen und strategischer Ausrichtung des Kunden. Spezielle Kunden können möglicherweise auf technische sowie Forschungsressourcen von OpenAI zugreifen, um ihre KI-Initiativen voranzutreiben. M365 Copilot wird häufig zusammen mit anderen Microsoft-Produkten gekauft und verhandelt. Rabatte auf den Listenpreis von 30 Dollar pro Benutzer und Monat sowie Zugeständnisse bei anderen Produkten sind keine Seltenheit. Microsoft bietet strategischen Kunden Unterstützung bei der Vorbereitung und Implementierung von M365 Copilot. Die Produkte sollten nicht ausschließlich anhand der Lizenzkosten beurteilt werden. Ebenso ist zu berücksichtigen, dass ChatGPT und Copilot unterschiedliche Ansätze für die Implementierung, Bereitstellung, das Änderungsmanagement sowie die Governance verfolgen. Deshalb sollte ein Anbieter bevorzugt werden, der den Anforderungen den Mitarbeiter entspricht und diesen dabei hilft, die digitale Arbeitserfahrung durch KI zu verbessern. 

KI fürs Business: ChatGPT Enterprise und Microsoft 365 Copilot im Vergleich​ Wie eignen sich ChatGPT Enterprise und Microsoft 365 Copilot für den Business-Einsatz?Emre Akkoyun – shutterstock.com

Zwar sind OpenAI und Microsoft Partner, doch ihre Strategien für den Einsatz von KI im Unternehmensalltag unterscheiden sich stark. In einer Research Note haben die Gartner-Autoren Jason Wong, Ray Valdes, Adam Preset und Max Goss analysiert, inwieweit sich die KI-Assistenten ChatGPT Enterprise und Microsoft 365 Copilot unterscheiden.

Die drei wichtigsten Unterscheidungsmerkmale aus Sicht von Gartner sind:

Nutzerführung:

ChatGPT Enterprise bricht bewusst mit etablierten Workflows, während Copilot tief in die gewohnte Microsoft-Umgebung eingebettet ist.

Rollen:

ChatGPT agiert kreativer und technikorientierter, Copilot hingegen fokussierter und stärker auf klassische Business-Ziele ausgerichtet.

Integrationstiefe:

ChatGPT benötigt gezielte Datenanbindungen, Copilot greift direkt auf Microsoft Graph und Office-Daten zu.

Weitere wichtige Unterschiede

ChatGPT Enterprise und Microsoft 365 (M365) Copilot basieren auf ähnlichen generativen KI-Modellen von OpenAI. Die beiden Produkte bieten jedoch unterschiedliche Ansätze, um KI-Produktivität am digitalen Arbeitsplatz zu steigern.

So erfordert ChatGPT Enterprise neue Arbeitsweisen bei der Verwendung generativer KI-Tools (GenAI), während M365 Copilot die Mitarbeiter weitgehend in ihren vertrauten Office-Anwendungen belässt. Ferner reagiert ChatGPT Enterprise in der Regel als ausdrucksstarker, kreativer und entwicklerorientierter KI-Assistent. M365 Copilot liefert dagegen eher prägnante und geschäftsorientierte Antworten.

Zudem erfordert ChatGPT einen kuratierten Zugriff auf Ressourcen wie Unternehmensdaten. M365 Copilot ist hier bereits in Microsoft Graph und dessen Anwendungssuite integriert.  Last but not least kostet ChatGPT Enterprise pro Benutzer und Monat mehr als M365 Copilot. Gartner zufolge sind allerdings einige Kunden bereit, mehr zu zahlen, um Zugang zu den Forschungsergebnissen und technischen Ressourcen von OpenAI zu erhalten.

Weitere Details

Das Gartner Tool zur Bewertung der Reife digitaler Arbeitsplätze zeigt, dass rund 56 Prozent der Befragten den Einsatz von KI für ihre Mitarbeiterschaft zu den fünf wichtigsten Prioritäten im Bereich digitale Arbeitsplätze für die nächsten 12 Monate zählen. Führende Unternehmen im Bereich digitaler Arbeitsplätze wählen dabei nicht einfach ein KI-Tool wie ChatGPT oder Copilot aus. Vielmehr investieren sie in die Vision des jeweiligen Anbieters, wie die digitale Mitarbeitererfahrung durch KI verbessert werden kann.

So verwenden ChatGPT und Copilot zwar ähnliche große Sprachmodelle, aber OpenAI und Microsoft haben ihre Tools so konfiguriert, dass die Endbenutzererfahrung sehr unterschiedlich ist. Jedes Produkt bietet, so Gartner, unterschiedliche Wertversprechen für Mitarbeiter und Unternehmen (siehe Tabelle).

Die Unterschiede der KI-Ansätze von OpenAI und Microsoft.
Gartner

Neben den konkreten Produktunterschieden spielen Gartner zufolge bei der Investitionsentscheidung häufig noch Business-Gründe eine Rolle.

So entscheiden sich Unternehmen möglicherweise für ChatGPT, weil sie sofort die neuesten OpenAI-Modelle nutzen wollen und Zugang zu den Forschungs- und technischen Ressourcen von OpenAI haben möchten.

Andere hingegen entscheiden sich für M365 Copilot, weil sie sich mit den bestehenden Sicherheitsgarantien von Microsoft für Unternehmen und den Vertragsbedingungen des Konzerns Unternehmen wohler fühlen. Außerdem verkürzt Microsoft die Zeit bis zur Verfügbarkeit neuer Modelle von OpenAI über Azure AI Foundry und M365 Copilot.

Des Weiteren hat Gartner auch einige Anwenderunternehmen beobachtet, die von M365 Copilot zu ChatGPT Enterprise gewechselt sind. Als Gründe dafür führen die Analysten eine geringer als erwartete Akzeptanz für das Microsoft-Produkt und internen Druck von ChatGPT-Befürwortern, die persönliche Erfahrungen mit dem Tool haben an . Einige Unternehmen verfügen wiederum über beide Produkte, aber Gartner liegen keine Informationen über die Überschneidungen der Mitarbeiter vor, die beide Produkte nutzen. Einige Unternehmen verwenden beide Technologien, weil keine der beiden alle ihre Anforderungen erfüllen.

Neue Arbeitsweisen

ChatGPT Enterprise erfordert laut Gartner neue Arbeitsweisen mit GenAI-Tools, während M365 Copilot die Mitarbeiter weitgehend in Office-Anwendungen hält. So erweitert ChatGPT Enterprise das Portfolio für den digitalen Arbeitsplatz um eine weitere Anwendung, und „zieht“ die Belegschaft in seinen Arbeitsablauf hinein.

Anders formuliert: die Mitarbeiter müssen mit den Modellen und Tools gezielter arbeiten. So kommt zwar eine weitere Anwendung hinzu, aber einige Mitarbeiter verbringen möglicherweise mehr Zeit mit konzentrierter Arbeit mit ChatGPT.

Copilot ist dagegen in die M365-Anwendungen eingebettet und „schlägt“ mögliche Aktionen im Arbeitsablauf vor. Dies ermögliche es den Mitarbeitern, Copilot aus der Office-Anwendung heraus aufzurufen, die sie gerade nutzen. Der Erfolg dieses Konzepts ist nicht zwangsläufig gegeben. Auf der einen Seite hat Gartner Mitarbeiter beobachtet, bei denen der Copilot-Einsatz tägliche Routinen ist. Andere haben Schwierigkeiten, die KI regelmäßig in mehreren M365-Anwendungen zu verwenden. Copilot wird am häufigsten in Teams und Outlook verwendet, da diese Anwendungen in Unternehmen weit verbreitet sind.

Dies ist jedoch nur eine momentane Bestandsaufnahme, denn Microsoft gestaltet im Mai 2025 die M365 Copilot-App als einheitliche Oberfläche neu.

Gartners Empfehlung

Letztlich sollten Unternehmen ChatGPT Enterprise den Vorzug geben, wenn Sie die Gewohnheiten und das Verhalten Ihrer Mitarbeiter mit KI ändern möchten. Für M365 Copilot spricht, wenn die Mitarbeiter mit KI in ihren Arbeitsabläufen, also in Teams, Word oder Excel, unterstützt werden sollen.

Antwortverhalten der KI

Die Antworten von ChatGPT Enterprise sind tendenziell ausdrucksstärker und entwicklerorientiert. Die Copilot-Antworten charakterisiert Gartner dagegen eher als prägnant und geschäftsmäßig.

Unternehmen sollten deshalb ChatGPT Enterprise bevorzugen, wenn Ihre Mitarbeiter über die digitale Kompetenz verfügen, die verschiedenen Modelle und Tools zu erlernen und sie dann situationsbezogen auf bestimmte Aufgaben anzuwenden.

M365 Copilot sei dagegen besser geeignet, wenn die Mitarbeiter von einem KI-Assistenten sofort einsatzbereite, unkomplizierte Antworten erwarten.

Ferner kann sich ChatGPT die individuellen Präferenzen eines Benutzers hinsichtlich der Länge oder Detailgenauigkeit merken, während Microsoft gerade erst Speicher und Personalisierungsfunktionen in die M365-Copilot-App integriert hat. Darüber hinaus sind laut Gartner die Antworten von M365 Copilot tendenziell kürzer und manchmal weniger tiefgehend. Allerdings hängt dies auch von der Frage und Eingabe des Benutzers ab.

Datenzugriff

ChatGPT erfordert einen kuratierten Zugriff auf Unternehmensdaten. So besteht ChatGPT Enterprise aus Arbeitsbereichen auf Organisations- und Benutzerebene.

Alle externen Daten und Inhalte müssten deshalb bewusst in die Arbeitsbereiche geladen werden. Etwa indem ein benutzerdefiniertes GPT erstellt wird, das mit bestimmten Dateien verbunden ist. Oder Dateien werden innerhalb von Projekten hinzugefügt. Mitte 2025 wird ein neuer interner Wissens-Konnektor verfügbar sein, um Inhalte aus Google Drive, SharePoint und anderen Wissensspeichern zu integrieren.

M365 Copilot ist bereits in Microsoft Graph integriert und kann auf dessen semantischen Index zugreifen. Dabei ist M365 Copilot an die Unternehmensidentität eines Benutzers gebunden und greift auf Unternehmensdaten auf der Grundlage von Berechtigungen zu, die anhand der ID erteilt werden.

Copilot nutzt hierbei die suchgestützte Generierung mit Microsoft Graph, um Antworten auf Unternehmensdaten zu stützen. Je nach Anwendungsfall und Qualität der zugrunde liegenden indizierten Daten kann dies in der KI-Antwort einen zusätzlichen Kontext erzeugen. Andere Inhalte können über Microsoft Graph-Konnektoren oder mithilfe von Copilot Studio eingebracht werden.

Gartners Empfehlung

Unter dem Strich empfiehlt Gartner mit Blick auf den Datenzugriff ChatGPT Enterprise für Unternehmen, in denen die Mitarbeiter bereit und befugt sind, ihre eigenen Unternehmensdaten und -inhalte in ihren Arbeitsbereichen zu kuratieren und zu verwalten. Dies erfordere jedoch, Tools für das AI Trust, Risk and Security Management (TRiSM) zu implementieren sowie eine entsprechende Governance.

Hat ein Unternehmen bereits eine solche Governance in M365 implementiert und die Mitarbeiter ziehen es vor, Inhalte nicht aus der Microsoft-Umgebung zu verschieben, rät Gartner zu Copilot.

Kosten

Für ChatGPT Enterprise veröffentlicht OpenAI keine Listenpreise. Laut Beobachtungen von Gartner berechnet OpenAI 40 bis 60 Dollar pro Benutzer und Monat, je nach Volumen und strategischer Ausrichtung des Kunden. Spezielle Kunden können möglicherweise auf technische sowie Forschungsressourcen von OpenAI zugreifen, um ihre KI-Initiativen voranzutreiben.

M365 Copilot wird häufig zusammen mit anderen Microsoft-Produkten gekauft und verhandelt. Rabatte auf den Listenpreis von 30 Dollar pro Benutzer und Monat sowie Zugeständnisse bei anderen Produkten sind keine Seltenheit. Microsoft bietet strategischen Kunden Unterstützung bei der Vorbereitung und Implementierung von M365 Copilot.

Die Produkte sollten nicht ausschließlich anhand der Lizenzkosten beurteilt werden. Ebenso ist zu berücksichtigen, dass ChatGPT und Copilot unterschiedliche Ansätze für die Implementierung, Bereitstellung, das Änderungsmanagement sowie die Governance verfolgen. Deshalb sollte ein Anbieter bevorzugt werden, der den Anforderungen den Mitarbeiter entspricht und diesen dabei hilft, die digitale Arbeitserfahrung durch KI zu verbessern.

KI fürs Business: ChatGPT Enterprise und Microsoft 365 Copilot im Vergleich​ Weiterlesen »

14 effektive Cloud-Spartipps​

Allgemein

Kleinvieh macht auch in Sachen Cloud Mist – im negativen wie im positiven Sinn.OlegRi | shutterstock.com Der Tag im Monat, an dem die Cloud-Rechnung aufschlägt, ist für CFOs regelmäßig gesundheitsgefährdend – schließlich haben nicht wenige Anwenderunternehmen mit explodierenden Kosten zu kämpfen. Um das Herz-Kreislaufsystem von Finanzentscheidern zu schonen (vor allem aber den Kopf der Engineers zu retten, die deren Unmut ausbaden müssen), haben wir in diesem Artikel 14 Spartipps zusammengestellt, die dazu beitragen können, dem Tag der (Cloud-)Abrechnung den Schrecken zu nehmen. Diese sind für sich allein genommen vielleicht kein großer Wurf, in Kombination aber dazu geeignet, die Cloud-Gesamtkosten erheblich zu reduzieren. 1. Entwicklungs-Cluster abschalten In der Praxis dürfte es eher selten vorkommen, dass Development-Cluster mehr als zwölf Stunden pro Tag genutzt werden. Anders ausgedrückt: Wenn Sie und Ihr Team nur ein Viertel der 168 Stunden, die eine Woche hat, arbeiten, können Sie satte 75 Prozent der Kosten einsparen, die der Betrieb der Entwicklungscluster aufwirft. Große Cluster herunterzufahren, kostet möglicherweise Zeit und ist nicht in jedem Fall so einfach umzusetzen, wie es klingt. Deshalb sollten Sie erwägen, Skripte zu schreiben, die im Hintergrund laufen und diese Aspekte für Sie managen. 2. Microservices simulieren Diverse Cloud-Anwendungen laufen auf Microservices-Architekturen. Statt sämtliche Maschinen hochzufahren, könnten Sie auch einen smarten Mock-Services-Ansatz fahren und diejenigen simulieren, die nicht zum täglichen Doing gehören.   Microservices-Mock-Instanzen können den Testing-Aufwand für neuen Code erheblich reduzieren und lassen sich in vielen Fällen per Konfiguration mit besserer Telemetrie für die Fehlersuche ausstatten. 3. Lokalen Speicher begrenzen Viele Cloud-Instanzen beinhalten Standardfestplatten oder persistenten Speicher, der in standardisierten Größen angeboten wird. Das kann ein wesentlicher Kostentreiber sein. Deswegen ist es empfehlenswert, die Speicherzuweisung zu begrenzen: Statt die Standardeinstellung zu nutzen, sollten Sie versuchen, mit so wenig Speicherplatz wie möglich auszukommen. Zu diesem Zweck können Sie etwa Caches leeren oder lokale Kopien von Daten löschen. Mit anderen Worten: Gönnen Sie Ihren Servern eine Entschlackungskur. 4. Instanzen richtig dimensionieren Die Cloud macht es im Regelfall nicht einfach, Ressourcen zu minimieren – insbesondere, wenn Algorithmen zum Einsatz kommen, die diese entsprechend der Nutzlast steuern. Deswegen empfiehlt es sich, die genutzten Ressourcen genau zu überwachen. Nur so können Sie sicherstellen, dass Ihre Cloud-Instanzen nicht mehr Ressourcen als nötig verbrauchen.   5. Cold-Storage-Option ziehen Einige Cloud-Anbieter haben spezielle Services im Angebot, um Daten zu speichern, auf die nicht schnell zugegriffen werden muss. Das senkt die Kosten, bringt im Regelfall aber eine Latenzzeit von mehreren Stunden (oder mehr) mit sich. Dennoch ist es sinnvoll, „kalte“ Daten auf diese Art und Weise zu speichern. Auch die Datensicherheit kann für Cold-Storage-, beziehungsweise Bare-Metal-Optionen ein zusätzliches Argument sein. 6. Günstigere Anbieter wählen Statt auf die Hyperscaler zu setzen, kann es Sinn machen, auf kleinere, alternative Cloud-Anbieter zu setzen. Diese bieten unter Umständen deutlich niedrigere Preise für Services wie Objektspeicher. Auch mit Blick auf die Latenzzeiten für „Hot Storage“, Egress-Kosten oder den Datenzugriff können alternative Cloud-Anbieter erhebliches Einsparpotenzial bieten. 7. Spare Machines nutzen Einige Cloud-Provider auktionieren Spare Machines – teilweise zu verlockend niedrigen Preisen. Diese sind unter Umständen hervorragend für Hintergrund-Tasks wie monatliche Reportings geeignet. Zu beachten ist dabei allerdings, dass solche „Spot-Instanzen“ unter Umständen ohne Vorwarnung beziehungsweise Vorlaufzeit abgeschaltet werden können. Deshalb sollten Applikationen, die auf Spare Machines laufen, idempotent sein. Darüber hinaus sollten Sie im Hinterkopf behalten, dass die Spot-Preise bei entsprechend hoher Nachfrage auch stark ansteigen können. 8. Langfristige Deals machen Anwenderunternehmen, die sich langfristig an einen Provider binden, winken im Regelfall erhebliche, nutzungsabhängige Rabatte (manchmal auch als Reserved Instances bezeichnet). Wenn Sie ziemlich genau wissen, was Sie für die nächsten Jahre brauchen, kann das eine ideale Lösung sein. Der Nachteil: Eine solche Verpflichtung ist für beide Seiten bindend. Die Maschinen lassen sich entsprechend in ruhigeren Zeiten oder bei Projektstornierungen nicht einfach abschalten. 9. Transparenz walten lassen Letztendlich sind Cloud-Kosten auch nur eine weitere Kennzahl, die zu optimieren ist. Das überlassen nicht wenige Teams den DevOps-Profis, die dann einmal im Monat mit einem Vertreter der Finanzabteilung zusammenkommen. Eine bessere Lösung: Teilen Sie die Kosteninformationen mit dem gesamten Team. Mehr Augen heißt auch mehr Potenzial, Einsparmöglichkeiten zu erkennen. Ein qualitativ hochwertiges Dashboard, das die Cloud-Kosten genau aufschlüsselt, kann an dieser Stelle nützlich sein. 10. Auf Serverless umsteigen Im Kern geht es beim Cloud Computing seit jeher darum, Ressourcen zu zentralisieren und den Anwendern einen Service zu bieten, bei dem sie genau so viel bekommen, wie sie benötigen. Eine transaktionsbasierte Abrechnung ist die logische Konsequenz. Das geht auch mit (den etwa unglücklich benannten) Serverless-Architekturen. Insbesondere für Skunk-Work-Projekte oder Proofs of Concept setzen viele Anwender auf Serverless-Optionen, um die Computing-Kosten möglichst niedrig zu halten – bis die Nachfrage (hoffentlich) steigt. 11. Weniger Daten speichern Softwareentwickler gehen oft auf Nummer Sicher und speichern Daten für den Fall, sie noch einmal zu benötigen. Das ist grundsätzlich keine schlechte Angewohnheit – bis die App dann skaliert und sich das Ganze millionenfach wiederholt. Erfassen Sie deshalb keine Daten, die Sie nicht wirklich brauchen. Und sehen Sie davon ab, zusätzliche Protokolldateien oder Backups vorzuhalten, die Sie nie wieder nutzen werden.   12. Daten lokal vorhalten Viele moderne Browser ermöglichen es, Daten in Objektspeichern oder auch einfachen Versionen klassischer Datenbanken abzulegen. Die WebStorage-API etwa bietet einen einfachen Key-Value-Speicher, während IndexedDB hierarchische Tabellen speichert und indiziert. Zwar sind beide Lösungen ursprünglich als intelligente Caches auf lokaler Ebene konzipiert, die möglichst schnell reagieren sollen, ohne dabei die Netzwerkverbindung zu überlasten. Das lässt sich aber auch nutzen, um Storage-Kosten zu sparen. 13. Daten verlagern Viele Cloud-Anbieter verlangen unabhängig vom Speicherort der Daten denselben Preis. Aber nicht alle. Amazon Web Services berechnet etwa für S3-Storage in Frankfurt standardmäßig zwischen 0,0225 und 0,0245 Dollar pro GB – während für Stockholm zwischen 0,021 und 0,023 Dollar pro GB anfallen. Und Alibaba hat vor kurzem Preissenkungen für Offshore-Rechenzentren angekündigt. Leider ist es möglicherweise kein einfaches Unterfangen, von den regionalen Preisunterschieden zu profitieren, wenn es um große Datenmengen geht – auch da einige Provider Gebühren erheben, wenn Daten von einer Region in eine andere verschoben werden. Dennoch kann es – insbesondere bei neuen Initiativen – lohnenswert sein, sich diesbezüglich schlau zu machen. 14. Datenballast abwerfen Der beste Weg, um Geld zu sparen ist Verzicht. Nichts hindert Sie daran, Ihre Daten auf eine Festplatte oder in ein lokales Rechenzentrum zu verlagern. Die Speicherpreise sind auf einem historisch niedrigen Level – und eine Festplatte kauft man eben nur einmal und bezahlt nicht jeden Monat.   Natürlich hat das aber auch zur Folge, dass Sie sowohl die anfallenden Stromkosten, als auch die Verantwortung für die Daten(sicherheit) übernehmen. Geht es um wichtige, geschäftskritische Workloads, ist dieses Modell also eher nicht zu empfehlen. Bei weniger wichtigen Tasks – etwa „kalten“ Backups – ist das Einsparpotenzial hingegen beträchtlich. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

14 effektive Cloud-Spartipps​ Kleinvieh macht auch in Sachen Cloud Mist – im negativen wie im positiven Sinn.OlegRi | shutterstock.com

Der Tag im Monat, an dem die Cloud-Rechnung aufschlägt, ist für CFOs regelmäßig gesundheitsgefährdend – schließlich haben nicht wenige Anwenderunternehmen mit explodierenden Kosten zu kämpfen.

Um das Herz-Kreislaufsystem von Finanzentscheidern zu schonen (vor allem aber den Kopf der Engineers zu retten, die deren Unmut ausbaden müssen), haben wir in diesem Artikel 14 Spartipps zusammengestellt, die dazu beitragen können, dem Tag der (Cloud-)Abrechnung den Schrecken zu nehmen.

Diese sind für sich allein genommen vielleicht kein großer Wurf, in Kombination aber dazu geeignet, die Cloud-Gesamtkosten erheblich zu reduzieren.

1. Entwicklungs-Cluster abschalten

In der Praxis dürfte es eher selten vorkommen, dass Development-Cluster mehr als zwölf Stunden pro Tag genutzt werden. Anders ausgedrückt: Wenn Sie und Ihr Team nur ein Viertel der 168 Stunden, die eine Woche hat, arbeiten, können Sie satte 75 Prozent der Kosten einsparen, die der Betrieb der Entwicklungscluster aufwirft.

Große Cluster herunterzufahren, kostet möglicherweise Zeit und ist nicht in jedem Fall so einfach umzusetzen, wie es klingt. Deshalb sollten Sie erwägen, Skripte zu schreiben, die im Hintergrund laufen und diese Aspekte für Sie managen.

2. Microservices simulieren

Diverse Cloud-Anwendungen laufen auf Microservices-Architekturen. Statt sämtliche Maschinen hochzufahren, könnten Sie auch einen smarten Mock-Services-Ansatz fahren und diejenigen simulieren, die nicht zum täglichen Doing gehören.  

Microservices-Mock-Instanzen können den Testing-Aufwand für neuen Code erheblich reduzieren und lassen sich in vielen Fällen per Konfiguration mit besserer Telemetrie für die Fehlersuche ausstatten.

3. Lokalen Speicher begrenzen

Viele Cloud-Instanzen beinhalten Standardfestplatten oder persistenten Speicher, der in standardisierten Größen angeboten wird. Das kann ein wesentlicher Kostentreiber sein. Deswegen ist es empfehlenswert, die Speicherzuweisung zu begrenzen: Statt die Standardeinstellung zu nutzen, sollten Sie versuchen, mit so wenig Speicherplatz wie möglich auszukommen.

Zu diesem Zweck können Sie etwa Caches leeren oder lokale Kopien von Daten löschen. Mit anderen Worten: Gönnen Sie Ihren Servern eine Entschlackungskur.

4. Instanzen richtig dimensionieren

Die Cloud macht es im Regelfall nicht einfach, Ressourcen zu minimieren – insbesondere, wenn Algorithmen zum Einsatz kommen, die diese entsprechend der Nutzlast steuern.

Deswegen empfiehlt es sich, die genutzten Ressourcen genau zu überwachen. Nur so können Sie sicherstellen, dass Ihre Cloud-Instanzen nicht mehr Ressourcen als nötig verbrauchen.  

5. Cold-Storage-Option ziehen

Einige Cloud-Anbieter haben spezielle Services im Angebot, um Daten zu speichern, auf die nicht schnell zugegriffen werden muss. Das senkt die Kosten, bringt im Regelfall aber eine Latenzzeit von mehreren Stunden (oder mehr) mit sich.

Dennoch ist es sinnvoll, „kalte“ Daten auf diese Art und Weise zu speichern. Auch die Datensicherheit kann für Cold-Storage-, beziehungsweise Bare-Metal-Optionen ein zusätzliches Argument sein.

6. Günstigere Anbieter wählen

Statt auf die Hyperscaler zu setzen, kann es Sinn machen, auf kleinere, alternative Cloud-Anbieter zu setzen. Diese bieten unter Umständen deutlich niedrigere Preise für Services wie Objektspeicher.

Auch mit Blick auf die Latenzzeiten für „Hot Storage“, Egress-Kosten oder den Datenzugriff können alternative Cloud-Anbieter erhebliches Einsparpotenzial bieten.

7. Spare Machines nutzen

Einige Cloud-Provider auktionieren Spare Machines – teilweise zu verlockend niedrigen Preisen. Diese sind unter Umständen hervorragend für Hintergrund-Tasks wie monatliche Reportings geeignet.

Zu beachten ist dabei allerdings, dass solche „Spot-Instanzen“ unter Umständen ohne Vorwarnung beziehungsweise Vorlaufzeit abgeschaltet werden können. Deshalb sollten Applikationen, die auf Spare Machines laufen, idempotent sein. Darüber hinaus sollten Sie im Hinterkopf behalten, dass die Spot-Preise bei entsprechend hoher Nachfrage auch stark ansteigen können.

8. Langfristige Deals machen

Anwenderunternehmen, die sich langfristig an einen Provider binden, winken im Regelfall erhebliche, nutzungsabhängige Rabatte (manchmal auch als Reserved Instances bezeichnet). Wenn Sie ziemlich genau wissen, was Sie für die nächsten Jahre brauchen, kann das eine ideale Lösung sein.

Der Nachteil: Eine solche Verpflichtung ist für beide Seiten bindend. Die Maschinen lassen sich entsprechend in ruhigeren Zeiten oder bei Projektstornierungen nicht einfach abschalten.

9. Transparenz walten lassen

Letztendlich sind Cloud-Kosten auch nur eine weitere Kennzahl, die zu optimieren ist. Das überlassen nicht wenige Teams den DevOps-Profis, die dann einmal im Monat mit einem Vertreter der Finanzabteilung zusammenkommen.

Eine bessere Lösung: Teilen Sie die Kosteninformationen mit dem gesamten Team. Mehr Augen heißt auch mehr Potenzial, Einsparmöglichkeiten zu erkennen. Ein qualitativ hochwertiges Dashboard, das die Cloud-Kosten genau aufschlüsselt, kann an dieser Stelle nützlich sein.

10. Auf Serverless umsteigen

Im Kern geht es beim Cloud Computing seit jeher darum, Ressourcen zu zentralisieren und den Anwendern einen Service zu bieten, bei dem sie genau so viel bekommen, wie sie benötigen. Eine transaktionsbasierte Abrechnung ist die logische Konsequenz.

Das geht auch mit (den etwa unglücklich benannten) Serverless-Architekturen. Insbesondere für Skunk-Work-Projekte oder Proofs of Concept setzen viele Anwender auf Serverless-Optionen, um die Computing-Kosten möglichst niedrig zu halten – bis die Nachfrage (hoffentlich) steigt.

11. Weniger Daten speichern

Softwareentwickler gehen oft auf Nummer Sicher und speichern Daten für den Fall, sie noch einmal zu benötigen. Das ist grundsätzlich keine schlechte Angewohnheit – bis die App dann skaliert und sich das Ganze millionenfach wiederholt.

Erfassen Sie deshalb keine Daten, die Sie nicht wirklich brauchen. Und sehen Sie davon ab, zusätzliche Protokolldateien oder Backups vorzuhalten, die Sie nie wieder nutzen werden.  

12. Daten lokal vorhalten

Viele moderne Browser ermöglichen es, Daten in Objektspeichern oder auch einfachen Versionen klassischer Datenbanken abzulegen. Die WebStorage-API etwa bietet einen einfachen Key-Value-Speicher, während IndexedDB hierarchische Tabellen speichert und indiziert.

Zwar sind beide Lösungen ursprünglich als intelligente Caches auf lokaler Ebene konzipiert, die möglichst schnell reagieren sollen, ohne dabei die Netzwerkverbindung zu überlasten. Das lässt sich aber auch nutzen, um Storage-Kosten zu sparen.

13. Daten verlagern

Viele Cloud-Anbieter verlangen unabhängig vom Speicherort der Daten denselben Preis. Aber nicht alle. Amazon Web Services berechnet etwa für S3-Storage in Frankfurt standardmäßig zwischen 0,0225 und 0,0245 Dollar pro GB – während für Stockholm zwischen 0,021 und 0,023 Dollar pro GB anfallen. Und Alibaba hat vor kurzem Preissenkungen für Offshore-Rechenzentren angekündigt.

Leider ist es möglicherweise kein einfaches Unterfangen, von den regionalen Preisunterschieden zu profitieren, wenn es um große Datenmengen geht – auch da einige Provider Gebühren erheben, wenn Daten von einer Region in eine andere verschoben werden. Dennoch kann es – insbesondere bei neuen Initiativen – lohnenswert sein, sich diesbezüglich schlau zu machen.

14. Datenballast abwerfen

Der beste Weg, um Geld zu sparen ist Verzicht. Nichts hindert Sie daran, Ihre Daten auf eine Festplatte oder in ein lokales Rechenzentrum zu verlagern. Die Speicherpreise sind auf einem historisch niedrigen Level – und eine Festplatte kauft man eben nur einmal und bezahlt nicht jeden Monat.  

Natürlich hat das aber auch zur Folge, dass Sie sowohl die anfallenden Stromkosten, als auch die Verantwortung für die Daten(sicherheit) übernehmen. Geht es um wichtige, geschäftskritische Workloads, ist dieses Modell also eher nicht zu empfehlen. Bei weniger wichtigen Tasks – etwa „kalten“ Backups – ist das Einsparpotenzial hingegen beträchtlich. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

14 effektive Cloud-Spartipps​ Weiterlesen »

Nach oben scrollen
×