Computerhaus Quickborn

Allgemein

Die besten APIs, um KI zu integrieren​

Allgemein

Die richtigen APIs können Ihren Stack ungemein bereichern.Tada Images | shutterstock.com Die virtuelle Welt ist vollgestopft mit Daten – Sie müssen nur danach fragen. Bezogen auf die Welt der Softwareentwicklung müssen Sie das natürlich auch auf die richtige Art und Weise tun. Sprich: Eine API verwenden. Die richtige Kombination aus XML und JSON eröffnet Zugang zu Tausenden von Schnittstellen, respektive Datenquellen. In diesem Artikel haben wir einige der interessantesten und relevantesten APIs zusammengetragen. Dabei haben wir den Fokus vor allem auf solche Schnittstellen gelegt, die dabei unterstützen können, KI-Technologie zu integrieren. 9 APIs für KI-Integrationen Zapier AI Actions Früher waren die meisten APIs so komplex, dass man ohne Bedienungsanleitung nicht weit kam. Zapier AI Actions demonstriert hingegen, wie einfach der Prozess im KI-Zeitalter sein kann: Das Tool ermöglicht, API-Aktionen in natürlicher Sprache anzufordern – und sich nicht mehr um strenge Syntaxregeln kümmern zu müssen. Das ist deutlich flexibler, könnte aber unter Umständen auch zu unerwarteten, beziehungsweise unerwünschten Ergebnissen führen. Die Abkehr vom starren Format der REST-Semantik hat jedenfalls ihre Vorteile – und wird voraussichtlich Schule machen. Seam Die meisten APIs werden genutzt, um Daten zu bearbeiten. Bei Seam handelt es sich hingegen um ein universelles System, um eine ganze IoT-Device-Matrix zu steuern. Das erleichtert es, ein Smart-Home(office) aufzubauen und verlagert zudem den API-Anwendungsbereich von der virtuellen in die reale Welt. Hugging Face Transformers Falls Sie ein KI-Modell trainieren müssen, sorgt die Transformers API von Hugging Face dafür, dass Sie dabei nicht bei null anfangen müssen. Die API erleichtert es erheblich, über PyTorch, TensorFlow oder JAX auf Dutzende von Foundation-Modellen zuzugreifen. Deren Trainingsdatensätze werden mit Ihren Daten zusammengeführt – die Ergebnisse können über Formate wie ONNX oder TorchScript exportiert und überall ausgeführt werden. HumanLayer Normalerweise kommen APIs auf der Grundlage eines menschlichen Auftrags zum Einsatz. HumanLayer kehrt dieses Paradigma mit seinem API-Framework um. Die Idee dahinter: KI-Agenten sind in der Lage, die meisten Probleme selbst zu lösen, die auftreten, wenn Prozesse angefordert werden. Weil es aber eben nur bei den meisten Problemen der Fall ist, bietet HumanLayer die Struktur und das Integrationsformat, damit KIs bei Bedarf menschlichen Kontakt suchen können. Bluesky Firehose Social-Media-Beiträge sind von Natur aus öffentlich, aber nicht alle Plattformen machen es leicht, die Posts herunterzuladen. Das ist bei der Twitter-Alternative Bluesky anders. Die Firehose-API ermöglicht es zum Beispiel, die öffentliche Meinung zu bestimmten Themen zu analysieren oder die Verbreitung spezifischer Memes nachzuverfolgen. OpenAI Batch API Nicht jeder Rechen-Task muss direkt erledigt werden. Einige können um Sekunden, Minuten oder Stunden verschoben werden. Geht’s dabei um KI-Nutzung, ergeben sich erhebliche Einsparmöglichkeiten. Zum Beispiel mit der Batch API von OpenAI, die Workloads (die warten können) bündelt und so eine Kostenreduzierung um bis zu 50 Prozent verspricht. Firecrawl Nicht wenige Entwickler schreiben ihre Dokumente gerne in Markdown und verwenden dann Templates, um diese automatisch in vorzeigbares HTML zu verwandeln. Allerdings ist das Markdown-Format für Datenanalyse- und LLM-Trainingszwecke wesentlich besser geeignet. Deswegen durchsucht die Firecrawl API Webseiten und transformiert gefundenes HTML zurück in Markdown. SignatureAPI Manche Workflows machen Authentifizierung unabdingbar. Das wird mit der SignatureAPI besonders einfach: Sie ergänzt betreffende Prozesse um rechtsverbindliche, digitale Signaturen. Damit stellt das Tool Accountability sicher – und ist dabei auch noch vergleichsweise günstig. Bruno Auch API-Transaktionen sind ein zweischneidiges Schwert. Mit der Bruno API können Entwickler in Testing-Prozessen die Client-Seite simulieren und deren Datenfluss beobachten. Das ist insbesondere hilfreich, wenn die Dokumentation weniger aussagekräftig ist. Die Parameter, die Bruno liefert, beantworten dabei in der Regel mehr Fragen als die beste Dokumentation. Insofern ist Bruno eigentlich weniger eine API, sondern vielmehr ein Tool, um andere APIs zu explorieren. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Die besten APIs, um KI zu integrieren​ Die richtigen APIs können Ihren Stack ungemein bereichern.Tada Images | shutterstock.com

Die virtuelle Welt ist vollgestopft mit Daten – Sie müssen nur danach fragen. Bezogen auf die Welt der Softwareentwicklung müssen Sie das natürlich auch auf die richtige Art und Weise tun. Sprich: Eine API verwenden. Die richtige Kombination aus XML und JSON eröffnet Zugang zu Tausenden von Schnittstellen, respektive Datenquellen.

In diesem Artikel haben wir einige der interessantesten und relevantesten APIs zusammengetragen. Dabei haben wir den Fokus vor allem auf solche Schnittstellen gelegt, die dabei unterstützen können, KI-Technologie zu integrieren.

9 APIs für KI-Integrationen

Zapier AI Actions

Früher waren die meisten APIs so komplex, dass man ohne Bedienungsanleitung nicht weit kam. Zapier AI Actions demonstriert hingegen, wie einfach der Prozess im KI-Zeitalter sein kann: Das Tool ermöglicht, API-Aktionen in natürlicher Sprache anzufordern – und sich nicht mehr um strenge Syntaxregeln kümmern zu müssen. Das ist deutlich flexibler, könnte aber unter Umständen auch zu unerwarteten, beziehungsweise unerwünschten Ergebnissen führen. Die Abkehr vom starren Format der REST-Semantik hat jedenfalls ihre Vorteile – und wird voraussichtlich Schule machen.

Seam

Die meisten APIs werden genutzt, um Daten zu bearbeiten. Bei Seam handelt es sich hingegen um ein universelles System, um eine ganze IoT-Device-Matrix zu steuern. Das erleichtert es, ein Smart-Home(office) aufzubauen und verlagert zudem den API-Anwendungsbereich von der virtuellen in die reale Welt.

Hugging Face Transformers

Falls Sie ein KI-Modell trainieren müssen, sorgt die Transformers API von Hugging Face dafür, dass Sie dabei nicht bei null anfangen müssen. Die API erleichtert es erheblich, über PyTorch, TensorFlow oder JAX auf Dutzende von Foundation-Modellen zuzugreifen. Deren Trainingsdatensätze werden mit Ihren Daten zusammengeführt – die Ergebnisse können über Formate wie ONNX oder TorchScript exportiert und überall ausgeführt werden.

HumanLayer

Normalerweise kommen APIs auf der Grundlage eines menschlichen Auftrags zum Einsatz. HumanLayer kehrt dieses Paradigma mit seinem API-Framework um. Die Idee dahinter: KI-Agenten sind in der Lage, die meisten Probleme selbst zu lösen, die auftreten, wenn Prozesse angefordert werden. Weil es aber eben nur bei den meisten Problemen der Fall ist, bietet HumanLayer die Struktur und das Integrationsformat, damit KIs bei Bedarf menschlichen Kontakt suchen können.

Bluesky Firehose

Social-Media-Beiträge sind von Natur aus öffentlich, aber nicht alle Plattformen machen es leicht, die Posts herunterzuladen. Das ist bei der Twitter-Alternative Bluesky anders. Die Firehose-API ermöglicht es zum Beispiel, die öffentliche Meinung zu bestimmten Themen zu analysieren oder die Verbreitung spezifischer Memes nachzuverfolgen.

OpenAI Batch API

Nicht jeder Rechen-Task muss direkt erledigt werden. Einige können um Sekunden, Minuten oder Stunden verschoben werden. Geht’s dabei um KI-Nutzung, ergeben sich erhebliche Einsparmöglichkeiten. Zum Beispiel mit der Batch API von OpenAI, die Workloads (die warten können) bündelt und so eine Kostenreduzierung um bis zu 50 Prozent verspricht.

Firecrawl

Nicht wenige Entwickler schreiben ihre Dokumente gerne in Markdown und verwenden dann Templates, um diese automatisch in vorzeigbares HTML zu verwandeln. Allerdings ist das Markdown-Format für Datenanalyse- und LLM-Trainingszwecke wesentlich besser geeignet. Deswegen durchsucht die Firecrawl API Webseiten und transformiert gefundenes HTML zurück in Markdown.

SignatureAPI

Manche Workflows machen Authentifizierung unabdingbar. Das wird mit der SignatureAPI besonders einfach: Sie ergänzt betreffende Prozesse um rechtsverbindliche, digitale Signaturen. Damit stellt das Tool Accountability sicher – und ist dabei auch noch vergleichsweise günstig.

Bruno

Auch API-Transaktionen sind ein zweischneidiges Schwert. Mit der Bruno API können Entwickler in Testing-Prozessen die Client-Seite simulieren und deren Datenfluss beobachten. Das ist insbesondere hilfreich, wenn die Dokumentation weniger aussagekräftig ist. Die Parameter, die Bruno liefert, beantworten dabei in der Regel mehr Fragen als die beste Dokumentation. Insofern ist Bruno eigentlich weniger eine API, sondern vielmehr ein Tool, um andere APIs zu explorieren. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Die besten APIs, um KI zu integrieren​ Weiterlesen »

Künstliche Intelligenz erobert das Personalwesen​

Allgemein

loading=”lazy” width=”400px”>KI spielt auch in der Personalverwaltung eine immer wichtigere Rolle. Dabei gilt es jedoch einige wichtige Dinge zu beachten.PeachShutterStock – shutterstock.com Generative KI hat die digitale Transformation beschleunigt. Sprachmodelle wie ChatGPT von OpenAI revolutionieren die Art, wie Menschen mit Software interagieren. Auch Personalabteilungen können davon profitieren: Ob Bewerbervorauswahl, Performance-Gespräche oder Skill-Analysen – Künstliche Intelligenz kann HR-Prozesse effizienter, aber auch „Mitarbeitenden-zentrierter“ gestalten. Für SAP-Anwenderunternehmen, die mit der Software aus Walldorf auch ihre Personalbelange abwickeln, stellt sich damit eine zentrale Frage: Wie genau implementiert SAP KI-Features in seine HR-Lösungen? Die Antwort lautet: Mittels SAP Business AI for HR und auf Basis der SAP Business Technology Plattform (BTP). SAP Business AI: Eigenes Domänenwissen und externe LLMs SAP verfolgt in Sachen KI einen pragmatischen Kurs: Der deutsche Softwarekonzern entwickelt keine eigenen Sprachmodelle (Large Language Models, LLMs), sondern nutzt die KI-Plattformen von Drittanbietern wie etwa AWS (Amazon Bedrock), Meta (LLaMA 3) oder Google Cloud (Gemini). Diese werden über die SAP Business Technology Platform (SAP BTP) in Echtzeit mit Geschäftsdaten aus SAP-Anwendungen angereichert. SAP will KI allgegenwärtig machen Das ist insofern clever von den Walldorfern, da der Aufbau eigener LLMs extrem ressourcenintensiv ist und immense Rechenleistung sowie eine kontinuierliche Weiterentwicklung der Modelle voraussetzt. SAP setzt stattdessen auf die Skalierbarkeit und Innovationskraft spezialisierter KI-Anbieter – und konzentriert sich selbst auf das eigene Domänen-Wissen und die Integration in Geschäftsanwendungen. Dafür nutzt SAP die Retrieval-Augmented-Generation- (RAG-)Technik und verknüpft Unternehmenswissen mit den KI-Modellen. Ziel ist es, GenAI-Anwendungen mit zuverlässigen, kontextbezogenen Business-Informationen anzureichern, um die typischen Schwächen von LLMs wie zum Beispiel Halluzinationen zu vermeiden. Mit anderen Worten: Die KI liefert keine allgemeinen Vermutungen, sondern faktenbasierte, geschäftsprozessnahe Antworten. Innovation nur in der Cloud SAP verfolgt auch im HR-Umfeld eine konsequente „Cloud-First-Strategie“. Während die On-Premises-Systeme SAP ERP Human Capital Management (HCM) sowie SAP HCM for S/4HANA (H4S4) on-premise Edition gemäß der bekannten Roadmaps support werden, bleiben sie bei Innovationsthemen wie KI außen vor. Neue Funktionen, insbesondere im Bereich der Künstlichen Intelligenz, werden ausschließlich für die SAP SuccessFactors HCM-Suite bereitgestellt. Lesen Sie mehr zum Thema HCM-Strategie: Tipps, um SAP-HCM-Projekte zu meistern HR-Transformation Roadmap: So sieht Personalplanung der Zukunft aus HCM On-premises und aus der Cloud: So setzen Sie ein hybrides SAP-HR-System richtig auf Für Anwenderunternehmen bedeutet das: Wer von der rasch wachsenden Zahl an Use-Cases im KI-Umfeld profitieren will, muss auf die Cloud-Lösung umsteigen. Unklar bleibt indes, welche KI-Funktionen künftig im SAP Standard der Privat Cloud, genauer der H4S4 Private Cloud Edition (PCE), bereitgestellt werden. Wünschenswert wäre dies insbesondere für hybride Szenarien mit Bezug auf die SAP SuccessFactors EC Payroll (ECP). Chatbot Joule als User-Interface Im Falle von SAP SuccessFactors ist SAP Business AI längst keine Zukunftsmusik mehr – KI ist an dieser Stelle fester Bestandteil des Arbeitsalltags von Personalern. Besonders deutlich wird dies bei SAPs digitalem Assistenten beziehungsweise Co-Piloten Joule, der sich mehr und mehr zur Schaltzentrale im HR-Umfeld entwickelt. Egal ob Urlaubsanfrage, Rückmeldung zu einem Jahresgespräch oder die Anlage neuer Zielvereinbarungen – Joule soll in Form eines Chatbots die passenden Antworten liefern und die richtigen Prozesse anstoßen. Statt sich durch komplexe Oberflächen zu klicken, reicht ein einfacher Satz – “Wie viele Urlaubstage habe ich noch?” oder “Lege ein Onboarding-Task für Lisa an”. Im Hintergrund greift Joule auf strukturierte wie unstrukturierte SAP-Daten zu, verknüpft diese mit Rollen, Policies und Workflows und liefert unmittelbar verwertbare Ergebnisse. Darüber hinaus plant SAP, bis Ende 2025 mehr als 100 produktive KI-Anwendungsfälle in SAP SuccessFactors bereitzustellen – mit Joule als durchgehender Schnittstelle. Schon heute stehen folgende Funktionen zur Verfügung: Texterstellung mit KI: Feedback, Kursbeschreibungen oder Zielvereinbarungen lassen sich automatisch und stilsicher generieren. Intelligente Zielentwicklung: Stichpunkte werden in konkrete, messbare Ziele umgewandelt. Recruiting und Matching: Bewerberinnen und Bewerber werden automatisch auf Basis von Skills mit offenen Stellen abgeglichen. Talent Intelligence: Mitarbeitende erhalten Lern- und Karriereempfehlungen – datenbasiert und individuell. Manager-Insights: Führungskräfte erhalten konsolidierte Personalanalysen inklusive Handlungsempfehlungen. Was Unternehmen bei KI in HR beachten müssen Der Einsatz von KI im Personalwesen verspricht viele Vorteile – von höherer Effizienz bis zu besseren datenbasierten Entscheidungen. Gleichzeitig stehen die Verantwortlichen in den Unternehmen vor drei zentralen Herausforderungen, die über Erfolg oder Misserfolg ihrer KI-Initiativen entscheiden können: Governance & Ethik: Viele Unternehmen verfügen noch nicht über klare Regeln für den Umgang mit KI. Dabei ist gerade im HR-Kontext wichtig, dass KI fair, nachvollziehbar und diskriminierungsfrei eingesetzt wird. Ein robustes KI-Governance-Modell ist unverzichtbar. Kompetenz & Akzeptanz: Die Nutzung von KI setzt Verständnis voraus. Ohne gezielte Schulung droht Ablehnung durch die Mitarbeitenden. Wer in Aufklärung und KI-Kompetenz investiert, erhöht die Akzeptanz und reduziert Unsicherheit im Umgang mit KI. Datenschutz & Transparenz: KI-Anwendungen müssen mit sensiblen Personaldaten sorgsam umgehen. Mitarbeitende wollen wissen, welche Daten verwendet werden und wie Entscheidungen zustande kommen. Vertrauen entsteht nur durch Transparenz und sichere Architekturen. Fazit: KI ist Pflicht, nicht Kür SAP Business AI ist nicht länger ein Zukunftsthema, sondern eine strategische Notwendigkeit für moderne HR-Organisationen. Wer jetzt handelt, sichert sich Effizienzgewinne, bessere Entscheidungsqualität und eine stärkere Bindung der Mitarbeitenden an das Unternehmen. Entscheidend ist dabei jedoch, die eigene technologische Basis rechtzeitig auf SAP SuccessFactors auszurichten, um Zugang zu aktuellen und kommenden KI-Funktionen zu erhalten. Ebenso wichtig: Der Aufbau interner KI-Kompetenz, die Förderung einer ethisch verantwortlichen Anwendung sowie der Mut, konkrete Pilotprojekte anzustoßen. Unternehmen sollten den Wandel aktiv gestalten – mit klaren Leitlinien, qualifizierten Teams und einem offenen Dialog über Nutzen und Grenzen von KI im Personalwesen. Nur so kann KI ihr volles Potenzial entfalten. (ba) 

Künstliche Intelligenz erobert das Personalwesen​ loading=”lazy” width=”400px”>KI spielt auch in der Personalverwaltung eine immer wichtigere Rolle. Dabei gilt es jedoch einige wichtige Dinge zu beachten.PeachShutterStock – shutterstock.com

Generative KI hat die digitale Transformation beschleunigt. Sprachmodelle wie ChatGPT von OpenAI revolutionieren die Art, wie Menschen mit Software interagieren. Auch Personalabteilungen können davon profitieren: Ob Bewerbervorauswahl, Performance-Gespräche oder Skill-Analysen – Künstliche Intelligenz kann HR-Prozesse effizienter, aber auch „Mitarbeitenden-zentrierter“ gestalten.

Für SAP-Anwenderunternehmen, die mit der Software aus Walldorf auch ihre Personalbelange abwickeln, stellt sich damit eine zentrale Frage: Wie genau implementiert SAP KI-Features in seine HR-Lösungen? Die Antwort lautet: Mittels SAP Business AI for HR und auf Basis der SAP Business Technology Plattform (BTP).

SAP Business AI: Eigenes Domänenwissen und externe LLMs

SAP verfolgt in Sachen KI einen pragmatischen Kurs: Der deutsche Softwarekonzern entwickelt keine eigenen Sprachmodelle (Large Language Models, LLMs), sondern nutzt die KI-Plattformen von Drittanbietern wie etwa AWS (Amazon Bedrock), Meta (LLaMA 3) oder Google Cloud (Gemini). Diese werden über die SAP Business Technology Platform (SAP BTP) in Echtzeit mit Geschäftsdaten aus SAP-Anwendungen angereichert.

SAP will KI allgegenwärtig machen

Das ist insofern clever von den Walldorfern, da der Aufbau eigener LLMs extrem ressourcenintensiv ist und immense Rechenleistung sowie eine kontinuierliche Weiterentwicklung der Modelle voraussetzt. SAP setzt stattdessen auf die Skalierbarkeit und Innovationskraft spezialisierter KI-Anbieter – und konzentriert sich selbst auf das eigene Domänen-Wissen und die Integration in Geschäftsanwendungen.

Dafür nutzt SAP die Retrieval-Augmented-Generation- (RAG-)Technik und verknüpft Unternehmenswissen mit den KI-Modellen. Ziel ist es, GenAI-Anwendungen mit zuverlässigen, kontextbezogenen Business-Informationen anzureichern, um die typischen Schwächen von LLMs wie zum Beispiel Halluzinationen zu vermeiden. Mit anderen Worten: Die KI liefert keine allgemeinen Vermutungen, sondern faktenbasierte, geschäftsprozessnahe Antworten.

Innovation nur in der Cloud

SAP verfolgt auch im HR-Umfeld eine konsequente „Cloud-First-Strategie“. Während die On-Premises-Systeme SAP ERP Human Capital Management (HCM) sowie SAP HCM for S/4HANA (H4S4) on-premise Edition gemäß der bekannten Roadmaps support werden, bleiben sie bei Innovationsthemen wie KI außen vor. Neue Funktionen, insbesondere im Bereich der Künstlichen Intelligenz, werden ausschließlich für die SAP SuccessFactors HCM-Suite bereitgestellt.

Lesen Sie mehr zum Thema HCM-Strategie:

Tipps, um SAP-HCM-Projekte zu meistern

HR-Transformation Roadmap: So sieht Personalplanung der Zukunft aus

HCM On-premises und aus der Cloud: So setzen Sie ein hybrides SAP-HR-System richtig auf

Für Anwenderunternehmen bedeutet das: Wer von der rasch wachsenden Zahl an Use-Cases im KI-Umfeld profitieren will, muss auf die Cloud-Lösung umsteigen. Unklar bleibt indes, welche KI-Funktionen künftig im SAP Standard der Privat Cloud, genauer der H4S4 Private Cloud Edition (PCE), bereitgestellt werden. Wünschenswert wäre dies insbesondere für hybride Szenarien mit Bezug auf die SAP SuccessFactors EC Payroll (ECP).

Chatbot Joule als User-Interface

Im Falle von SAP SuccessFactors ist SAP Business AI längst keine Zukunftsmusik mehr – KI ist an dieser Stelle fester Bestandteil des Arbeitsalltags von Personalern. Besonders deutlich wird dies bei SAPs digitalem Assistenten beziehungsweise Co-Piloten Joule, der sich mehr und mehr zur Schaltzentrale im HR-Umfeld entwickelt.

Egal ob Urlaubsanfrage, Rückmeldung zu einem Jahresgespräch oder die Anlage neuer Zielvereinbarungen – Joule soll in Form eines Chatbots die passenden Antworten liefern und die richtigen Prozesse anstoßen. Statt sich durch komplexe Oberflächen zu klicken, reicht ein einfacher Satz – “Wie viele Urlaubstage habe ich noch?” oder “Lege ein Onboarding-Task für Lisa an”. Im Hintergrund greift Joule auf strukturierte wie unstrukturierte SAP-Daten zu, verknüpft diese mit Rollen, Policies und Workflows und liefert unmittelbar verwertbare Ergebnisse.

Darüber hinaus plant SAP, bis Ende 2025 mehr als 100 produktive KI-Anwendungsfälle in SAP SuccessFactors bereitzustellen – mit Joule als durchgehender Schnittstelle. Schon heute stehen folgende Funktionen zur Verfügung:

Texterstellung mit KI: Feedback, Kursbeschreibungen oder Zielvereinbarungen lassen sich automatisch und stilsicher generieren.

Intelligente Zielentwicklung: Stichpunkte werden in konkrete, messbare Ziele umgewandelt.

Recruiting und Matching: Bewerberinnen und Bewerber werden automatisch auf Basis von Skills mit offenen Stellen abgeglichen.

Talent Intelligence: Mitarbeitende erhalten Lern- und Karriereempfehlungen – datenbasiert und individuell.

Manager-Insights: Führungskräfte erhalten konsolidierte Personalanalysen inklusive Handlungsempfehlungen.

Was Unternehmen bei KI in HR beachten müssen

Der Einsatz von KI im Personalwesen verspricht viele Vorteile – von höherer Effizienz bis zu besseren datenbasierten Entscheidungen. Gleichzeitig stehen die Verantwortlichen in den Unternehmen vor drei zentralen Herausforderungen, die über Erfolg oder Misserfolg ihrer KI-Initiativen entscheiden können:

Governance & Ethik: Viele Unternehmen verfügen noch nicht über klare Regeln für den Umgang mit KI. Dabei ist gerade im HR-Kontext wichtig, dass KI fair, nachvollziehbar und diskriminierungsfrei eingesetzt wird. Ein robustes KI-Governance-Modell ist unverzichtbar.

Kompetenz & Akzeptanz: Die Nutzung von KI setzt Verständnis voraus. Ohne gezielte Schulung droht Ablehnung durch die Mitarbeitenden. Wer in Aufklärung und KI-Kompetenz investiert, erhöht die Akzeptanz und reduziert Unsicherheit im Umgang mit KI.

Datenschutz & Transparenz: KI-Anwendungen müssen mit sensiblen Personaldaten sorgsam umgehen. Mitarbeitende wollen wissen, welche Daten verwendet werden und wie Entscheidungen zustande kommen. Vertrauen entsteht nur durch Transparenz und sichere Architekturen.

Fazit: KI ist Pflicht, nicht Kür

SAP Business AI ist nicht länger ein Zukunftsthema, sondern eine strategische Notwendigkeit für moderne HR-Organisationen. Wer jetzt handelt, sichert sich Effizienzgewinne, bessere Entscheidungsqualität und eine stärkere Bindung der Mitarbeitenden an das Unternehmen. Entscheidend ist dabei jedoch, die eigene technologische Basis rechtzeitig auf SAP SuccessFactors auszurichten, um Zugang zu aktuellen und kommenden KI-Funktionen zu erhalten.

Ebenso wichtig: Der Aufbau interner KI-Kompetenz, die Förderung einer ethisch verantwortlichen Anwendung sowie der Mut, konkrete Pilotprojekte anzustoßen. Unternehmen sollten den Wandel aktiv gestalten – mit klaren Leitlinien, qualifizierten Teams und einem offenen Dialog über Nutzen und Grenzen von KI im Personalwesen. Nur so kann KI ihr volles Potenzial entfalten. (ba)

Künstliche Intelligenz erobert das Personalwesen​ Weiterlesen »

3 Dinge, die Senior Developer auszeichnen​

Allgemein

Junior Developer mit Karriere-Ambitionen sollten auf diese vier Hard Skills hinarbeiten. Foto: DC Studio – shutterstock.comDiverse Onlinebeiträge geben darüber Auskunft, welche Voraussetzungen für eine Rolle als Senior Developer erfüllt sein müssen. Dabei drehen sich die meisten allerdings um das Thema Soft Skills.Die sind ohne Frage ebenfalls wichtig – der wesentliche Unterschied zwischen Junior- und Senior-Entwicklern liegt allerdings in der Berufserfahrung – und den in diesem Rahmen gelernten Lektionen. Vor diesem Hintergrund haben wir drei Hard Skills identifiziert, die für Senior-Entwickler – und damit auch für Junior Developer mit Aufstiegsambitionen – zum A und O gehören (sollten).1. Klaren Code schreibenEs mag sich ziemlich offensichtlich lesen, aber lesbaren Code schreiben zu können, gehört zu den wichtigsten Skills von erfahrenen Entwicklern – oder sollte es zumindest. Leider existiert und entsteht jedoch immer noch jede Menge Code, bei dem dieser Grundsatz mit Füßen getreten und kein Gedanke daran verschwendet wird, dass irgendein armer Tropf das Ganze am Ende auch lesen (können) muss. Und klarer Code ist nicht nur mit Blick auf die Lesbarkeit zu empfehlen, sondern auch wenn es um Debugging geht. Dieser Prozess beschreibt im Wesentlichen, den Zustand einer laufenden Applikation zu einem definierten Zeitpunkt zu verstehen. Sind Funktionen, Klassen und so weiter klar deklariert (während der Code läuft), tut sich der Debugger leichter – und der Code wird gleichzeitig besser lesbar.Davon abgesehen, gewinnt Programmcode auch an Klarheit, wenn er keine Kommentare enthält, beziehungsweise benötigt. Ein Entwickler, der das Bedürfnis verspürt, seinen Code zu kommentieren, sollte diesen stattdessen lieber umschreiben. Oder ihn idealerweise direkt so erstellen, dass Kommentare überflüssig sind. Dieser Punkt ist allerdings umstritten – es gibt auch Organisationen, die explizit Wert darauf legen, dass jede ihrer Codezeilen einen Kommentar enthält.2. Komplexität vermeidenKomplexität zu vermeiden, ist entscheidend für guten Code – und lässt sich auch ganz einfach bewerkstelligen: Hören Sie einfach auf damit, mehrere Fliegen mit einer Klappe schlagen zu wollen. Wenn jede Entität in Ihrer Codebasis nur eine einzige Aufgabe erfüllt, ist sie im Fall von Problemen auch einfacher zu warten, beziehungsweise zu fixen.Deswegen sollte nichts – weder Klassen, noch Methoden oder Funktionen – jemals mehr als einen Task erfüllen. Dabei ist es wichtig zu verstehen, dass sich nicht komplexer Code und komplexe Systeme nicht ausschließen. Stellen Sie sich die Softwareentwicklungsarbeit einfach wie eine hochwertige mechanische Uhr vor: Das Gesamtwerk ist ein hochkomplexes Gerät, das aus relativ simplen Komponenten – im Wesentlichen Zahnräder und Federn – besteht. Diese Komponenten arbeiten zusammen und erzeugen somit die Komplexität.3. Nichts überstürzen“In der Ruhe liegt die Kraft” ist ein Sprichwort, das viele weniger erfahrene Developer im ersten Moment möglicherweise als kontraintuitiv empfinden. Allerdings macht dieses Mantra durchaus auch im Dev-Umfeld Sinn, wie erfahrene Softwareentwickler wissen.Schließlich sorgt Zeitdruck in aller Regel für erhöhte Fehlerquoten. Diese Bugs anschließend zu beheben, kostet wiederum enorm viel Zeit. Ein gewissenhaftes, langsameres Vorgehen kann hingegen Fehler reduzieren und am Ende dafür sorgen, dass der Gesamtprozess deutlich schneller abläuft. Code, der von Anfang an gewissenhaft und vorausschauend aufgesetzt wird, bringt also nicht nur bessere Ergebnisse, sondern ist auch einfacher zu pflegen. (fm) Junior Dev VS Senior Developer 😂 pic.twitter.com/gzQZJAqUVC— Mobirevo (@MobirevoHQ) March 27, 2024 

3 Dinge, die Senior Developer auszeichnen​ Junior Developer mit Karriere-Ambitionen sollten auf diese vier Hard Skills hinarbeiten.
Foto: DC Studio – shutterstock.comDiverse Onlinebeiträge geben darüber Auskunft, welche Voraussetzungen für eine Rolle als Senior Developer erfüllt sein müssen. Dabei drehen sich die meisten allerdings um das Thema Soft Skills.Die sind ohne Frage ebenfalls wichtig – der wesentliche Unterschied zwischen Junior- und Senior-Entwicklern liegt allerdings in der Berufserfahrung – und den in diesem Rahmen gelernten Lektionen. Vor diesem Hintergrund haben wir drei Hard Skills identifiziert, die für Senior-Entwickler – und damit auch für Junior Developer mit Aufstiegsambitionen – zum A und O gehören (sollten).1. Klaren Code schreibenEs mag sich ziemlich offensichtlich lesen, aber lesbaren Code schreiben zu können, gehört zu den wichtigsten Skills von erfahrenen Entwicklern – oder sollte es zumindest. Leider existiert und entsteht jedoch immer noch jede Menge Code, bei dem dieser Grundsatz mit Füßen getreten und kein Gedanke daran verschwendet wird, dass irgendein armer Tropf das Ganze am Ende auch lesen (können) muss. Und klarer Code ist nicht nur mit Blick auf die Lesbarkeit zu empfehlen, sondern auch wenn es um Debugging geht. Dieser Prozess beschreibt im Wesentlichen, den Zustand einer laufenden Applikation zu einem definierten Zeitpunkt zu verstehen. Sind Funktionen, Klassen und so weiter klar deklariert (während der Code läuft), tut sich der Debugger leichter – und der Code wird gleichzeitig besser lesbar.Davon abgesehen, gewinnt Programmcode auch an Klarheit, wenn er keine Kommentare enthält, beziehungsweise benötigt. Ein Entwickler, der das Bedürfnis verspürt, seinen Code zu kommentieren, sollte diesen stattdessen lieber umschreiben. Oder ihn idealerweise direkt so erstellen, dass Kommentare überflüssig sind. Dieser Punkt ist allerdings umstritten – es gibt auch Organisationen, die explizit Wert darauf legen, dass jede ihrer Codezeilen einen Kommentar enthält.2. Komplexität vermeidenKomplexität zu vermeiden, ist entscheidend für guten Code – und lässt sich auch ganz einfach bewerkstelligen: Hören Sie einfach auf damit, mehrere Fliegen mit einer Klappe schlagen zu wollen. Wenn jede Entität in Ihrer Codebasis nur eine einzige Aufgabe erfüllt, ist sie im Fall von Problemen auch einfacher zu warten, beziehungsweise zu fixen.Deswegen sollte nichts – weder Klassen, noch Methoden oder Funktionen – jemals mehr als einen Task erfüllen. Dabei ist es wichtig zu verstehen, dass sich nicht komplexer Code und komplexe Systeme nicht ausschließen. Stellen Sie sich die Softwareentwicklungsarbeit einfach wie eine hochwertige mechanische Uhr vor: Das Gesamtwerk ist ein hochkomplexes Gerät, das aus relativ simplen Komponenten – im Wesentlichen Zahnräder und Federn – besteht. Diese Komponenten arbeiten zusammen und erzeugen somit die Komplexität.3. Nichts überstürzen“In der Ruhe liegt die Kraft” ist ein Sprichwort, das viele weniger erfahrene Developer im ersten Moment möglicherweise als kontraintuitiv empfinden. Allerdings macht dieses Mantra durchaus auch im Dev-Umfeld Sinn, wie erfahrene Softwareentwickler wissen.Schließlich sorgt Zeitdruck in aller Regel für erhöhte Fehlerquoten. Diese Bugs anschließend zu beheben, kostet wiederum enorm viel Zeit. Ein gewissenhaftes, langsameres Vorgehen kann hingegen Fehler reduzieren und am Ende dafür sorgen, dass der Gesamtprozess deutlich schneller abläuft. Code, der von Anfang an gewissenhaft und vorausschauend aufgesetzt wird, bringt also nicht nur bessere Ergebnisse, sondern ist auch einfacher zu pflegen. (fm)

Junior Dev VS Senior Developer 😂 pic.twitter.com/gzQZJAqUVC— Mobirevo (@MobirevoHQ) March 27, 2024

3 Dinge, die Senior Developer auszeichnen​ Weiterlesen »

HPE setzt voll auf agentenbasierte KI​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/12/HPE-building.jpg?quality=50&strip=all 1422w, https://b2b-contenthub.com/wp-content/uploads/2024/12/HPE-building.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/12/HPE-building.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/12/HPE-building.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/12/HPE-building.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/12/HPE-building.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/12/HPE-building.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/12/HPE-building.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/12/HPE-building.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Laut HPE (hier noch mit dem alten Logo) ist KI geradezu prädestiniert für Hybrid-Cloud-Szenarios, hilft aber auch, diese zu managen.Sundry Photography / Shutterstock HPE hat auf seiner diesjährigen Discover-Konferenz seine neueste Vision für Hybrid-IT vorgestellt: GreenLake Intelligence, ein agentenbasiertes KI-Framework für hybride Betriebsabläufe.Angesteuert über den ab dem dritten Quartal 2025 als Beta-Version verfügbaren GreenLake Copilot, soll GreenLake Intelligence ein „einheitliches Hybrid-Cloud-Betriebsmodell auf Basis von agentenbasierten AIOps“ bieten. Dabei kommen KI-Agenten zum Einsatz, die Aufgaben über die gesamte IT-Landschaft hinweg autonom übernehmen. KI gibt Handlungsempfehlungen „Diese Agenten arbeiten autonom, aber bei Bedarf immer mit einem Menschen im Loop“, erklärt Varma Kunaparaju, SVP & GM, OpsRamp Software and Cloud Platforms.„Das Ziel ist letztlich, die Fähigkeit zu erlangen, den gesamten Kontext über mehrere Anbieter, Clouds und Technologie-Stacks hinweg zu erfassen und zu verstehen, um daraus intelligente Handlungsempfehlungen abzuleiten“, so Kunaparaju weiter.  Dies werde sowohl für den gesamten HPE-Stack als auch für die von anderen Anbietern und Multi-Cloud-Umgebungen möglich sein. „Die Grundlage dafür bilden in erster Linie der Kontext, die Topologie, Metriken, Logs, Traces und sämtliche Observability-Daten, die wir über den gesamten Stack hinweg erfassen – sie treiben letztlich die GreenLake Intelligence an“, erläutert der HPE-Manager. Die Agenten sammeln über das Model Context Protocol (MCP) Telemetriedaten aus der Kundenumgebung und kombinieren diese mit dem Domänenwissen von HPE über den gesamten Stack hinweg. So liefern sie laut Kunaparaju Erkenntnisse, die für Menschen „schwierig oder unmöglich“ zugänglich wären und ermöglichten es, Probleme schneller zu erkennen und zu beheben, sowie besser zu planen und zu prognostizieren. Dabei gehe es nicht darum, mehr Dashboards und Berichte zu erstellen, betont der HPE-Mann. „Es geht darum, Intelligenz direkt in den operativen Stack zu integrieren, damit die IT-Teams schnell und sicher handeln können. Mit GreenLake Intelligence möchten wir Kunden dabei unterstützen, Probleme schneller zu beheben, Ausfälle früher zu verhindern, den Fokus auf Innovationen zu verlagern und letztendlich die erwarteten Geschäftsergebnisse zu erzielen.“ Darüber hinaus werden mehrere neue Dienste für FinOps und Nachhaltigkeit in GreenLake Intelligence integriert – darunter: ein neuer Optimierer für Workloads und Kapazitäten, erweiterte Verbrauchsanalysen zur Kostenkontrolle, sowie prognosebasierte Nachhaltigkeitsberichte und ein Managed-Service-Modus im HPE Sustainability Insight Center. Wie ein Teamkollege, der nie schläft Agentic AI hält auch Einzug in Aruba Central: Ein autonomes, überwachendes Modul kommuniziert dort mit mehreren spezialisierten Modellen, um beispielsweise die Ursache eines Problems zu ermitteln und Handlungsempfehlungen auszugeben. „Es ist wie ein Teamkollege, der arbeitet, während Sie schlafen – er analysiert Probleme und wartet am Morgen mit durchdachten Lösungsvorschlägen inklusive nachvollziehbarer Argumentation auf Sie,“ erklärt David Hughes, SVP und Chief Product Officer bei HPE Aruba Networking. Außerdem wird OpsRamp, das 2024 eingeführte Operations-Copilot-System, im vierten Quartal 2025 um Funktionen für agentenbasierte Automatisierung erweitert. Dazu gehören: eine dialoggestützte Hilfe bei Produkten, sowie ein agentenbasiertes Command Center, das KI-/ML-basierte Warnmeldungen, Incident Management und Root-Cause-Analysen über die gesamte Infrastruktur hinweg bereitstellt. OpsRamp wurde zudem als validierte Observability-Lösung für die Nvidia Enterprise AI Factory anerkannt und wird auch Teil der neuen HPE CloudOps-Software-Suite sein, die ebenfalls im vierten Quartal erscheint und HPE Morpheus Enterprise und HPE Zerto umfasst. Laut HPE bietet die neue Suite umfassende Funktionen für Automatisierung, Orchestrierung, Governance, Datenmobilität, Datenschutz und Cyber-Resilienz für Infrastrukturen mit mehreren Anbietern, mehreren Clouds und mehreren Workloads. Matt Kimball, Principal Analyst für Datacenter, Computing und Storage bei Moor Insights & Strategy, sieht HPEs Ankündigungen in engem Einklang mit den Modernisierungsbemühungen vieler Unternehmen: „GreenLake Intelligence ist das Bindeglied, das alles zusammenführt. Ich bin ein großer Fan von Morpheus, weil es eine herstellerunabhängige Orchestrierung ermöglicht – unabhängig vom Betriebssystem-Stack oder Hardware-Anbieter,“ erklärt der Chefanalyst. Es gehe darum, Workloads dort laufen zu lassen, wo sie am sichersten und effizientesten betrieben werden können. AI-Factory-Spielarten HPE erweitert sein Angebot „Nvidia AI Computing by HPE AI Factory“ um validierte Technologie-Stacks für verschiedene Einsatzgebiete: Die „AI Factory at Scale“ richtet sich an Unternehmen wie Dienstleister und Modellentwickler, während die „AI Factory for Sovereigns“ speziell auf Anforderungen von Staaten, Behörden und dem öffentlichen Sektor zugeschnitten ist – etwa mit Funktionen für abgeschottetes (air-gapped) Management. Das Unternehmen hat Konfigurationen auf Basis von HPE ProLiant Gen12-Servern hinzugefügt, die laut HPE Zero-Trust-Sicherheit und Support für Nvidia Blackwell bieten. Zudem stellt die Company eine neue föderierte Architektur vor, mit der GPUs über mehrere Hardware-Generationen hinweg gepoolt und gemeinsam genutzt werden können. Analyst Kimball hebt besonders folgende Punkte der Ankündigungen von HPE zur AI Factory hervor: den stärkeren Fokus auf Inferenz, die seiner Meinung nach von entscheidender Bedeutung ist, vorgefertigte Blueprints, um die KI-Einführung im Unternehmen zu beschleunigen, und schließlich die erweiterte Partnerschaft mit Accenture, um Reibungsverluste bei der Aktivierung zu beseitigen. „Es geht darum, die Herausforderungen der Unternehmens-IT auf dem Weg zur KI zu identifizieren und durch Produkte und Partner zu beheben“, ordnet Kimball ein. HPE Cloud Commit Damit Unternehmen all diese neuen Angebote auch finanzieren können, führt HPE mit Cloud Commit ein neues Modell ein: GreenLake-Kunden können sich zu langfristigen, planbaren Investitionen verpflichten und so Kosten sparen und zusätzliche Services freischalten. Das Programm umfasst Hardware wie HPE Alletra Storage, integrierte Private-Cloud-Systeme, die CloudOps-Suite mit ihren Einzelkomponenten sowie weitere HPE-Dienstleistungen. Kunden können dabei ihre bestehenden Ausgaben mit künftigen Verpflichtungen bündeln, um noch höhere Einsparungen zu erzielen. Das Programm soll ab August 2025 für bestehende und neue GreenLake-Kunden verfügbar sein. Zusätzlich bietet HPE Financial Services neue Finanzierungsprogramme für CloudOps und seine einzelnen Komponenten sowie für HPE Alletra Storage und HPE Private Cloud AI an. Das Fazit von Kimball: „Agentenbasierte KI ist keine Zukunftsmusik – sie ist real. Die große Herausforderung für die Unternehmens-IT ist es, herauszufinden, wie sie den Übergang von traditionellem, manuell geprägtem ML-Ops hin zu einem weitgehend autonomen, intelligenten Betriebsmodell bewältigen kann.“ Es reiche nicht, einfach eine AI Factory beim bevorzugten OEM zu kaufen und dann eine magische Wirkung zu erwarten. Zuvor müsse die bestehende Umgebung modernisiert werden – technologisch, operativ und personell, so Kimball – und genau darauf zielten HPEs Ankündigungen ab. (mb) 

HPE setzt voll auf agentenbasierte KI​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/12/HPE-building.jpg?quality=50&strip=all 1422w, https://b2b-contenthub.com/wp-content/uploads/2024/12/HPE-building.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/12/HPE-building.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/12/HPE-building.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/12/HPE-building.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/12/HPE-building.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/12/HPE-building.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/12/HPE-building.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/12/HPE-building.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Laut HPE (hier noch mit dem alten Logo) ist KI geradezu prädestiniert für Hybrid-Cloud-Szenarios, hilft aber auch, diese zu managen.Sundry Photography / Shutterstock

HPE hat auf seiner diesjährigen Discover-Konferenz seine neueste Vision für Hybrid-IT vorgestellt: GreenLake Intelligence, ein agentenbasiertes KI-Framework für hybride Betriebsabläufe.Angesteuert über den ab dem dritten Quartal 2025 als Beta-Version verfügbaren GreenLake Copilot, soll GreenLake Intelligence ein „einheitliches Hybrid-Cloud-Betriebsmodell auf Basis von agentenbasierten AIOps“ bieten. Dabei kommen KI-Agenten zum Einsatz, die Aufgaben über die gesamte IT-Landschaft hinweg autonom übernehmen.

KI gibt Handlungsempfehlungen

„Diese Agenten arbeiten autonom, aber bei Bedarf immer mit einem Menschen im Loop“, erklärt Varma Kunaparaju, SVP & GM, OpsRamp Software and Cloud Platforms.„Das Ziel ist letztlich, die Fähigkeit zu erlangen, den gesamten Kontext über mehrere Anbieter, Clouds und Technologie-Stacks hinweg zu erfassen und zu verstehen, um daraus intelligente Handlungsempfehlungen abzuleiten“, so Kunaparaju weiter.  Dies werde sowohl für den gesamten HPE-Stack als auch für die von anderen Anbietern und Multi-Cloud-Umgebungen möglich sein.

„Die Grundlage dafür bilden in erster Linie der Kontext, die Topologie, Metriken, Logs, Traces und sämtliche Observability-Daten, die wir über den gesamten Stack hinweg erfassen – sie treiben letztlich die GreenLake Intelligence an“, erläutert der HPE-Manager.

Die Agenten sammeln über das Model Context Protocol (MCP) Telemetriedaten aus der Kundenumgebung und kombinieren diese mit dem Domänenwissen von HPE über den gesamten Stack hinweg. So liefern sie laut Kunaparaju Erkenntnisse, die für Menschen „schwierig oder unmöglich“ zugänglich wären und ermöglichten es, Probleme schneller zu erkennen und zu beheben, sowie besser zu planen und zu prognostizieren.

Dabei gehe es nicht darum, mehr Dashboards und Berichte zu erstellen, betont der HPE-Mann. „Es geht darum, Intelligenz direkt in den operativen Stack zu integrieren, damit die IT-Teams schnell und sicher handeln können. Mit GreenLake Intelligence möchten wir Kunden dabei unterstützen, Probleme schneller zu beheben, Ausfälle früher zu verhindern, den Fokus auf Innovationen zu verlagern und letztendlich die erwarteten Geschäftsergebnisse zu erzielen.“

Darüber hinaus werden mehrere neue Dienste für FinOps und Nachhaltigkeit in GreenLake Intelligence integriert – darunter:

ein neuer Optimierer für Workloads und Kapazitäten,

erweiterte Verbrauchsanalysen zur Kostenkontrolle, sowie

prognosebasierte Nachhaltigkeitsberichte und

ein Managed-Service-Modus im HPE Sustainability Insight Center.

Wie ein Teamkollege, der nie schläft

Agentic AI hält auch Einzug in Aruba Central: Ein autonomes, überwachendes Modul kommuniziert dort mit mehreren spezialisierten Modellen, um beispielsweise die Ursache eines Problems zu ermitteln und Handlungsempfehlungen auszugeben.

„Es ist wie ein Teamkollege, der arbeitet, während Sie schlafen – er analysiert Probleme und wartet am Morgen mit durchdachten Lösungsvorschlägen inklusive nachvollziehbarer Argumentation auf Sie,“ erklärt David Hughes, SVP und Chief Product Officer bei HPE Aruba Networking.

Außerdem wird OpsRamp, das 2024 eingeführte Operations-Copilot-System, im vierten Quartal 2025 um Funktionen für agentenbasierte Automatisierung erweitert. Dazu gehören:

eine dialoggestützte Hilfe bei Produkten, sowie

ein agentenbasiertes Command Center, das KI-/ML-basierte Warnmeldungen, Incident Management und Root-Cause-Analysen über die gesamte Infrastruktur hinweg bereitstellt.

OpsRamp wurde zudem als validierte Observability-Lösung für die Nvidia Enterprise AI Factory anerkannt und wird auch Teil der neuen HPE CloudOps-Software-Suite sein, die ebenfalls im vierten Quartal erscheint und HPE Morpheus Enterprise und HPE Zerto umfasst. Laut HPE bietet die neue Suite umfassende Funktionen für Automatisierung, Orchestrierung, Governance, Datenmobilität, Datenschutz und Cyber-Resilienz für Infrastrukturen mit mehreren Anbietern, mehreren Clouds und mehreren Workloads.

Matt Kimball, Principal Analyst für Datacenter, Computing und Storage bei Moor Insights & Strategy, sieht HPEs Ankündigungen in engem Einklang mit den Modernisierungsbemühungen vieler Unternehmen: „GreenLake Intelligence ist das Bindeglied, das alles zusammenführt. Ich bin ein großer Fan von Morpheus, weil es eine herstellerunabhängige Orchestrierung ermöglicht – unabhängig vom Betriebssystem-Stack oder Hardware-Anbieter,“ erklärt der Chefanalyst. Es gehe darum, Workloads dort laufen zu lassen, wo sie am sichersten und effizientesten betrieben werden können.

AI-Factory-Spielarten

HPE erweitert sein Angebot „Nvidia AI Computing by HPE AI Factory“ um validierte Technologie-Stacks für verschiedene Einsatzgebiete: Die „AI Factory at Scale“ richtet sich an Unternehmen wie Dienstleister und Modellentwickler, während die „AI Factory for Sovereigns“ speziell auf Anforderungen von Staaten, Behörden und dem öffentlichen Sektor zugeschnitten ist – etwa mit Funktionen für abgeschottetes (air-gapped) Management.

Das Unternehmen hat Konfigurationen auf Basis von HPE ProLiant Gen12-Servern hinzugefügt, die laut HPE Zero-Trust-Sicherheit und Support für Nvidia Blackwell bieten. Zudem stellt die Company eine neue föderierte Architektur vor, mit der GPUs über mehrere Hardware-Generationen hinweg gepoolt und gemeinsam genutzt werden können.

Analyst Kimball hebt besonders folgende Punkte der Ankündigungen von HPE zur AI Factory hervor:

den stärkeren Fokus auf Inferenz, die seiner Meinung nach von entscheidender Bedeutung ist,

vorgefertigte Blueprints, um die KI-Einführung im Unternehmen zu beschleunigen, und schließlich

die erweiterte Partnerschaft mit Accenture, um Reibungsverluste bei der Aktivierung zu beseitigen.

„Es geht darum, die Herausforderungen der Unternehmens-IT auf dem Weg zur KI zu identifizieren und durch Produkte und Partner zu beheben“, ordnet Kimball ein.

HPE Cloud Commit

Damit Unternehmen all diese neuen Angebote auch finanzieren können, führt HPE mit Cloud Commit ein neues Modell ein: GreenLake-Kunden können sich zu langfristigen, planbaren Investitionen verpflichten und so Kosten sparen und zusätzliche Services freischalten.

Das Programm umfasst Hardware wie HPE Alletra Storage, integrierte Private-Cloud-Systeme, die CloudOps-Suite mit ihren Einzelkomponenten sowie weitere HPE-Dienstleistungen. Kunden können dabei ihre bestehenden Ausgaben mit künftigen Verpflichtungen bündeln, um noch höhere Einsparungen zu erzielen.

Das Programm soll ab August 2025 für bestehende und neue GreenLake-Kunden verfügbar sein. Zusätzlich bietet HPE Financial Services neue Finanzierungsprogramme für CloudOps und seine einzelnen Komponenten sowie für HPE Alletra Storage und HPE Private Cloud AI an.

Das Fazit von Kimball: „Agentenbasierte KI ist keine Zukunftsmusik – sie ist real. Die große Herausforderung für die Unternehmens-IT ist es, herauszufinden, wie sie den Übergang von traditionellem, manuell geprägtem ML-Ops hin zu einem weitgehend autonomen, intelligenten Betriebsmodell bewältigen kann.“

Es reiche nicht, einfach eine AI Factory beim bevorzugten OEM zu kaufen und dann eine magische Wirkung zu erwarten. Zuvor müsse die bestehende Umgebung modernisiert werden – technologisch, operativ und personell, so Kimball – und genau darauf zielten HPEs Ankündigungen ab. (mb)

HPE setzt voll auf agentenbasierte KI​ Weiterlesen »

Ranking exponiert LLM-Datenkraken​

Allgemein

Eine aktuelle Studie beleuchtet, welche Generative-AI-Tools und -Plattformen besonders invasive Datenpraktiken an den Tag legen.Cagkan Sayin | shutterstock.com Der auf Datenschutz spezialisierte IT-Dienstleister Incogni hat in einer aktuellen Untersuchung neun Large Language Models (LLMs) verschiedener Anbieter hinsichtlich ihres Datenschutzniveaus unter die Lupe genommen – und beunruhigende Erkenntnisse zu Tage gefördert. Dabei hat die Research-Abteilung von Incogni anhand unterschiedlicher Bewertungskriterien (mit diversen Subkategorien) untersucht, in welchem Umfang die Anbieter User-Daten nutzen, um ihre Modelle zu trainieren, wie transparent sie mit ihren Datenpraktiken umgehen, und in welchem Umfang die gesammelten Daten an Dritte fließen.   Diese KI-Plattformen sind besonders invasiv Die wichtigsten, respektive alarmierendsten Ergebnisse der Incogni-Untersuchung im Überblick: Le Chat von Mistral AI ist demnach die Datenschutz-freundlichste Plattform, dicht gefolgt von ChatGPT und Grok. Am anderen Ende des Rankings finden sich hingegen die LLM-Plattformen der Tech-Riesen Microsoft, Google und Meta. Bei Gemini, DeepSeek, Pi AI und Meta AI können die Benutzer offenbar nicht verhindern, dass ihre Prompts zum Modelltraining verwendet werden. ChatGPT ist in Sachen Transparenz Spitzenreiter. Bei Grok (xAI) können Fotos, die von Nutzern bereitgestellt werden, potenziell an Dritte weitergegeben werden. Ranking-Schlusslicht Meta gibt Namen, E-Mail-Adressen und Telefonnummern an Dritte weiter, darunter etwa Research-Partner. Seine Erkenntnisse hat Incogni (unter anderem) auch in einem Privacy-Gesamt-Ranking für das Jahr 2025 visualisiert: Laut Justin St-Maurice, technischer Berater bei der Info-Tech Research Group, ist es aus Unternehmensperspektive von entscheidender Bedeutung, die Belegschaft darin zu schulen, welche Daten nicht in KI-Tools einfließen dürften: “Betrachten Sie die Plattformen als öffentlich. Diese Systeme mit personenbezogenen oder sensiblen Unternehmensdaten zu füttern, ist, wie als würden Sie diese in einem Blog veröffentlichen.” Mit Blick auf die Incogni-Erkenntnisse rät der Research-Experte Unternehmen, mit Bedacht zu evaluieren: “Wenn Sie Bedenken haben, dass Meta oder Google Ihre Daten weitergeben, sollten Sie Ihre Plattformwahl ganz generell überdenken. Es geht hier weniger darum, wie die LLMs Ihre Daten verarbeiten, sondern eher darum, wie die großen Tech-Konzerne im Allgemeinen mit den Daten ihrer Nutzer umgehen.” Unternehmensanwendern, die sichergehen möchten, keinerlei Daten an GenAI-Plattformen weiterzugeben, empfiehlt der Experte, auf lokal gehostete Modelle zu setzen: “Sie brauchen weder OpenAI noch Google, um den Wert von LLMs zu erschließen. Mit eigenen KI-Modellen vermeiden Sie das Risiko vollständig, dass Ihre Daten an Dritte weitergegeben werden.” Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Ranking exponiert LLM-Datenkraken​ Eine aktuelle Studie beleuchtet, welche Generative-AI-Tools und -Plattformen besonders invasive Datenpraktiken an den Tag legen.Cagkan Sayin | shutterstock.com

Der auf Datenschutz spezialisierte IT-Dienstleister Incogni hat in einer aktuellen Untersuchung neun Large Language Models (LLMs) verschiedener Anbieter hinsichtlich ihres Datenschutzniveaus unter die Lupe genommen – und beunruhigende Erkenntnisse zu Tage gefördert.

Dabei hat die Research-Abteilung von Incogni anhand unterschiedlicher Bewertungskriterien (mit diversen Subkategorien) untersucht,

in welchem Umfang die Anbieter User-Daten nutzen, um ihre Modelle zu trainieren,

wie transparent sie mit ihren Datenpraktiken umgehen, und

in welchem Umfang die gesammelten Daten an Dritte fließen.  

Diese KI-Plattformen sind besonders invasiv

Die wichtigsten, respektive alarmierendsten Ergebnisse der Incogni-Untersuchung im Überblick:

Le Chat von Mistral AI ist demnach die Datenschutz-freundlichste Plattform, dicht gefolgt von ChatGPT und Grok.

Am anderen Ende des Rankings finden sich hingegen die LLM-Plattformen der Tech-Riesen Microsoft, Google und Meta.

Bei Gemini, DeepSeek, Pi AI und Meta AI können die Benutzer offenbar nicht verhindern, dass ihre Prompts zum Modelltraining verwendet werden.

ChatGPT ist in Sachen Transparenz Spitzenreiter.

Bei Grok (xAI) können Fotos, die von Nutzern bereitgestellt werden, potenziell an Dritte weitergegeben werden.

Ranking-Schlusslicht Meta gibt Namen, E-Mail-Adressen und Telefonnummern an Dritte weiter, darunter etwa Research-Partner.

Seine Erkenntnisse hat Incogni (unter anderem) auch in einem Privacy-Gesamt-Ranking für das Jahr 2025 visualisiert:

Laut Justin St-Maurice, technischer Berater bei der Info-Tech Research Group, ist es aus Unternehmensperspektive von entscheidender Bedeutung, die Belegschaft darin zu schulen, welche Daten nicht in KI-Tools einfließen dürften: “Betrachten Sie die Plattformen als öffentlich. Diese Systeme mit personenbezogenen oder sensiblen Unternehmensdaten zu füttern, ist, wie als würden Sie diese in einem Blog veröffentlichen.”

Mit Blick auf die Incogni-Erkenntnisse rät der Research-Experte Unternehmen, mit Bedacht zu evaluieren: “Wenn Sie Bedenken haben, dass Meta oder Google Ihre Daten weitergeben, sollten Sie Ihre Plattformwahl ganz generell überdenken. Es geht hier weniger darum, wie die LLMs Ihre Daten verarbeiten, sondern eher darum, wie die großen Tech-Konzerne im Allgemeinen mit den Daten ihrer Nutzer umgehen.”

Unternehmensanwendern, die sichergehen möchten, keinerlei Daten an GenAI-Plattformen weiterzugeben, empfiehlt der Experte, auf lokal gehostete Modelle zu setzen: “Sie brauchen weder OpenAI noch Google, um den Wert von LLMs zu erschließen. Mit eigenen KI-Modellen vermeiden Sie das Risiko vollständig, dass Ihre Daten an Dritte weitergegeben werden.”

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Ranking exponiert LLM-Datenkraken​ Weiterlesen »

Ellisons ambitionierte Pläne für Oracles Cloud-Geschäft​

Allgemein

Oracle-Gründer Larry Ellison will sein Unternehmen in drei Cloud-Bereichen zur Nummer 1 machenOracle Oracle-Chef Larry Ellison – von Haus aus kein Freund bescheidener Worte – kündigte in einem Webcast im Rahmen des Q4-Earning-Calls an, dass Oracle in drei zentralen Bereichen die Nummer eins werden will: Cloud-Datenbanken, Cloud-Anwendungen und Bau sowie Betrieb von Cloud-Infrastruktur-Rechenzentren. Cloud-Datenbanken als zentraler Wachstumstreiber Als wichtigen Faktor, die Pole Position bei den Cloud-Datenbanken erobern zu können, führt Ellison an, dass die meisten der wertvollsten Daten der Welt bereits heute in Oracle-Datenbanken gespeichert seien. Diese Daten würden mittlerweile vermehrt in die Cloud verlagert werden – sei es zu Oracle, Microsoft, Amazon oder Google. Ein weiteres Argument ist laut dem Oracle-Gründer, dass die eigene Multi-Cloud-Strategie Kunden die Möglichkeit gebe, die Oracle-Datenbank in der Cloud-Umgebung ihrer Wahl zu nutzen, inklusive dazugehöriger KI-Funktionen. Dieses flexible Modell erfreue sich Ellison zufolge großer Beliebtheit, mit einem Umsatzwachstum von 115 Prozent von Quartal zu Quartal, was zu einem starkem Umsatzwachstum führe. Zusätzlich sei die neueste Version der Oracle-Datenbank – Oracle 23ai genannt – speziell auf die Anforderungen von KI-Workloads zugeschnitten. Ellison beschrieb Oracle 23ai als eine „KI-Datenplattform, die einzige Datenbank, die alle Daten des Kunden sofort für alle gängigen KI-Modelle verfügbar machen kann, während der Datenschutz für den Kunden vollständig gewahrt bleibt.“ Cloud-Datenbanken und KI Ellison ist überzeugt, dass der Einsatz von KI den Marktanteil von Oracle-Datenbanken weiter steigern werde. Oracle-CEO Safra Catz unterfütterte diese Aussagen mit soliden Wachstumszahlen: Die Cloud-Datenbankdienste wuchsen ihren Angaben zufolge um 31 Prozent, der Umsatz mit der Autonomous Database sogar um 47 Prozent. Die Managerin begründet dies damit, dass immer mehr On-Premise-Datenbanken in die Cloud migriert würden, entweder direkt über OCI oder die Database@Cloud Services. Catz sieht Cloud-Datenbanken künftig als eine der drei zentralen Umsatztreiber neben OCI und SaaS. Zudem baue Oracle sein Multi-Cloud-Angebot weiter stark aus – von aktuell 23 auf bald 70 Regionen weltweit. Große Pläne mit KI-Agenten Die Nummer 1 bei Cloud-Anwendungen zu werden, könnte sich allerdings schwierig gestalten: Obwohl das Anwendungsgeschäft im letzten Quartal besser lief als zuvor, lag der SaaS-Gesamtumsatz für das gesamte Geschäftsjahr bei 13,4 Milliarden Dollar, ein Plus von zehn Prozent. Zum Vergleich: Salesforce erwirtschaftete allein im ersten Quartal des Geschäftsjahres, das am 30. April endete, zehn Milliarden Dollar mit SaaS. Mit KI-Agenten zu mehr Anwendungsgeschäft Oracle-Gründer Ellison legt derweil den Fokus zunehmend auf Innovation statt gegen die Konkurrenz zu wettern. Der Manager sieht enormes Potenzial in KI-Agenten für Unternehmensanwendungen. Er kündigte an, dass Oracle das weltweit größte und profitabelste Cloud-Anwendungsunternehmen werden will. Dafür entwickelt Oracle eigenen Angaben zufolge umfassende KI-gestützte Anwendungssuiten für verschiedene Unternehmensbereiche und Branchen. Mithilfe moderner Technologien und Partnerschaften mit KI-Anbietern wie OpenAI, X.ai und Metas Llama will Oracle dann eine „marktweit einzigartige Tiefe und Breite an KI-basierten Anwendungen“ bieten. Oracle will mehr Data Center aus dem Boden stampfen Im Bereich Cloud-Rechenzentren setzt Oracle auf Infrastrukturtechnologie, die mit viel kleinerer Grundfläche auskommt. Ellison wählte seine Worte hierbei jedoch bewusst und vermied es, Oracle direkt als Nummer eins bei Cloud-Infrastruktur zu bezeichnen. Stattdessen betonte er, dass Oracle mehr Rechenzentren bauen werde als alle Wettbewerber zusammen. Diese Strategie hat maßgeblich zum starken Wachstum von Oracle Cloud Infrastructure (OCI) beigetragen. Alle OCI-Rechenzentren verfügen über sämtliche OCI-Funktionen und setzen stark auf Automatisierung. Ziel hierbei sei es, die Effizienz zu steigern und Fehler zu minimieren. Nachfrage übersteigt Angebot Ellison spricht zudem von einer beispiellosen Nachfrage nach Oracle-Kapazitäten, die das aktuelle Angebot übersteige. Ein Kunde habe beispielsweise erst kürzlich sämtliche verfügbaren Kapazitäten weltweit eingefordert, was laut seiner Aussage ein Novum für Oracle gewesen sein. Trotz intensiver Bemühungen, Rechenzentren schnell auszubauen und Netzwerke zu optimieren, bleibe die Nachfrage weiterhin extrem hoch. Da stoße sogar Oracle bei der Baugeschwindigkeit an seine Grenzen. 

Ellisons ambitionierte Pläne für Oracles Cloud-Geschäft​ Oracle-Gründer Larry Ellison will sein Unternehmen in drei Cloud-Bereichen zur Nummer 1 machenOracle

Oracle-Chef Larry Ellison – von Haus aus kein Freund bescheidener Worte – kündigte in einem Webcast im Rahmen des Q4-Earning-Calls an, dass Oracle in drei zentralen Bereichen die Nummer eins werden will:

Cloud-Datenbanken,

Cloud-Anwendungen und

Bau sowie Betrieb von Cloud-Infrastruktur-Rechenzentren.

Cloud-Datenbanken als zentraler Wachstumstreiber

Als wichtigen Faktor, die Pole Position bei den Cloud-Datenbanken erobern zu können, führt Ellison an, dass die meisten der wertvollsten Daten der Welt bereits heute in Oracle-Datenbanken gespeichert seien. Diese Daten würden mittlerweile vermehrt in die Cloud verlagert werden – sei es zu Oracle, Microsoft, Amazon oder Google.

Ein weiteres Argument ist laut dem Oracle-Gründer, dass die eigene Multi-Cloud-Strategie Kunden die Möglichkeit gebe, die Oracle-Datenbank in der Cloud-Umgebung ihrer Wahl zu nutzen, inklusive dazugehöriger KI-Funktionen. Dieses flexible Modell erfreue sich Ellison zufolge großer Beliebtheit, mit einem Umsatzwachstum von 115 Prozent von Quartal zu Quartal, was zu einem starkem Umsatzwachstum führe.

Zusätzlich sei die neueste Version der Oracle-Datenbank – Oracle 23ai genannt – speziell auf die Anforderungen von KI-Workloads zugeschnitten. Ellison beschrieb Oracle 23ai als eine „KI-Datenplattform, die einzige Datenbank, die alle Daten des Kunden sofort für alle gängigen KI-Modelle verfügbar machen kann, während der Datenschutz für den Kunden vollständig gewahrt bleibt.“

Cloud-Datenbanken und KI

Ellison ist überzeugt, dass der Einsatz von KI den Marktanteil von Oracle-Datenbanken weiter steigern werde. Oracle-CEO Safra Catz unterfütterte diese Aussagen mit soliden Wachstumszahlen: Die Cloud-Datenbankdienste wuchsen ihren Angaben zufolge um 31 Prozent, der Umsatz mit der Autonomous Database sogar um 47 Prozent. Die Managerin begründet dies damit, dass immer mehr On-Premise-Datenbanken in die Cloud migriert würden, entweder direkt über OCI oder die Database@Cloud Services.

Catz sieht Cloud-Datenbanken künftig als eine der drei zentralen Umsatztreiber neben OCI und SaaS. Zudem baue Oracle sein Multi-Cloud-Angebot weiter stark aus – von aktuell 23 auf bald 70 Regionen weltweit.

Große Pläne mit KI-Agenten

Die Nummer 1 bei Cloud-Anwendungen zu werden, könnte sich allerdings schwierig gestalten: Obwohl das Anwendungsgeschäft im letzten Quartal besser lief als zuvor, lag der SaaS-Gesamtumsatz für das gesamte Geschäftsjahr bei 13,4 Milliarden Dollar, ein Plus von zehn Prozent. Zum Vergleich: Salesforce erwirtschaftete allein im ersten Quartal des Geschäftsjahres, das am 30. April endete, zehn Milliarden Dollar mit SaaS.

Mit KI-Agenten zu mehr Anwendungsgeschäft

Oracle-Gründer Ellison legt derweil den Fokus zunehmend auf Innovation statt gegen die Konkurrenz zu wettern. Der Manager sieht enormes Potenzial in KI-Agenten für Unternehmensanwendungen. Er kündigte an, dass Oracle das weltweit größte und profitabelste Cloud-Anwendungsunternehmen werden will.

Dafür entwickelt Oracle eigenen Angaben zufolge umfassende KI-gestützte Anwendungssuiten für verschiedene Unternehmensbereiche und Branchen. Mithilfe moderner Technologien und Partnerschaften mit KI-Anbietern wie OpenAI, X.ai und Metas Llama will Oracle dann eine „marktweit einzigartige Tiefe und Breite an KI-basierten Anwendungen“ bieten.

Oracle will mehr Data Center aus dem Boden stampfen

Im Bereich Cloud-Rechenzentren setzt Oracle auf Infrastrukturtechnologie, die mit viel kleinerer Grundfläche auskommt. Ellison wählte seine Worte hierbei jedoch bewusst und vermied es, Oracle direkt als Nummer eins bei Cloud-Infrastruktur zu bezeichnen. Stattdessen betonte er, dass Oracle mehr Rechenzentren bauen werde als alle Wettbewerber zusammen.

Diese Strategie hat maßgeblich zum starken Wachstum von Oracle Cloud Infrastructure (OCI) beigetragen. Alle OCI-Rechenzentren verfügen über sämtliche OCI-Funktionen und setzen stark auf Automatisierung. Ziel hierbei sei es, die Effizienz zu steigern und Fehler zu minimieren.

Nachfrage übersteigt Angebot

Ellison spricht zudem von einer beispiellosen Nachfrage nach Oracle-Kapazitäten, die das aktuelle Angebot übersteige. Ein Kunde habe beispielsweise erst kürzlich sämtliche verfügbaren Kapazitäten weltweit eingefordert, was laut seiner Aussage ein Novum für Oracle gewesen sein.

Trotz intensiver Bemühungen, Rechenzentren schnell auszubauen und Netzwerke zu optimieren, bleibe die Nachfrage weiterhin extrem hoch. Da stoße sogar Oracle bei der Baugeschwindigkeit an seine Grenzen.

Ellisons ambitionierte Pläne für Oracles Cloud-Geschäft​ Weiterlesen »

Identity & Access Management FAQ: Was Sie über IAM wissen müssen​

Allgemein

Identity und Access Management: Wir sagen Ihnen, was Sie wissen müssen. Foto: ktsdesign – shutterstock.com Identity- und Access-Management (IAM) -Systeme ermöglichen – ganz allgemein gesprochen – die Verwaltung verschiedener Identitäten innerhalb eines Systems. Dabei kann es sich um ein Unternehmen, ein Netzwerk oder ein ganzes Land handeln. Was ist Identity & Access Management? Im Enterprise-IT-Umfeld geht es bei IAM darum, die Rollen, Zugriffsberechtigungen und -voraussetzungen einzelner Nutzer zu managen. Die Kernaufgabe besteht dabei darin, einem Individuum eine digitale Identität zuzuweisen. Wurde diese einmal erstellt, muss sie – über den gesamten Access Lifecycle eines Users hinweg – gewartet, aktualisiert und überwacht werden. IAM-Systeme geben Administratoren die nötigen Tools und Technologien an die Hand, um die Rollen von Nutzern bei Bedarf zu ändern, deren Aktivitäten zu überwachen und Reports darüber zu erstellen – oder auch um Security Policies auf regelmäßiger Basis durchzusetzen. Die Systeme sind so konzipiert, dass sie die Zugriffsberechtigungen eines ganzen Unternehmens abbilden können und dabei die Erfüllung von unternehmenseigenen und externen Compliance-Richtlinien sichergestellt ist. Zu den Technologien des Identity und Access Managements gehören unter anderem: Passwort-Management-Tools Provisioning Software Apps zur Durchsetzung von Security Policies Reporting- und Monitoring-Apps Identity Repositories IAM-Systeme sind sowohl für On-Premise-Systeme wie Microsoft Sharepoint, als auch für cloud-basierte Systeme wie Microsoft 365 verfügbar. Die Systeme zum Identitätsmanagement müssen flexibel und robust genug sein, um den komplexen IT-Umgebungen der heutigen Zeit gerecht zu werden. Früher war ein Unternehmensnetzwerk on premise und die IAM-Systeme haben die User in diesen Systemen authentifiziert und überwacht. “Es gab quasi einen Sicherheitszaun, der um das Werksgelände gespannt war”, sagt Jackson Shaw, vom IAM-Provider One Identity. “Dieser existiert heutzutage nicht mehr.” In der Konsequenz ergeben sich einige Kern-Features, die heutige IAM-Systeme leisten sollten: Einfaches Management von Zugangsberechtigungen für eine Vielzahl von Nutzern – inklusive Mitarbeitern im Home Office und Partnern aus aller Welt; Support für hybride IT-Umgebungen, die On-Premise-Systeme, SaaS-Applikationen, Schatten-IT und BYOD-User umfassen; das Management von IT-Architekturen, auf denen UNIX-, Windows-, Mac-, iOS-, Android- und IoT-Geräte gleichermaßen laufen; In den letzten Jahren haben sich zudem Identity-as-a-Service (IDaaS)-Angebote entwickelt. Diese setzen meist auf ein Cloud-Abo-Modell und bieten den Kunden IAM-Dienste für On-Premise- und Cloud-Systeme. Wozu brauche ich IAM? Identity- und Access-Management ist ein kritischer Part der IT-Security-Strategie aller Unternehmen. Schließlich ist dieser in der heutigen, digitalen Weltwirtschaft untrennbar mit der Sicherheit und Produktivität des gesamten Unternehmens verbunden. Kompromittierte Login-Daten und Zugangsberechtigungen dienen oft als Einfallstor ins Unternehmensnetzwerk. Um die Firmendaten und -Assets gegen Bedrohungen wie Ransomware, Phishing, Malware und ganz generell gegen kriminelle Hacker zu schützen, gibt es IAM. In vielen Unternehmen ist es Usus, dass User mehr Zugangsberechtigungen haben als sie eigentlich brauchen. Ein robustes Identity- und Access-Management-System kann für die Etablierung eines zusätzlichen Sicherheits-Layers sorgen, indem es für das gesamte Unternehmen eine durchgängige Anwendung von Zugangsregeln und -richtlinien sicherstellt. Darüber hinaus können IAM-Systeme auch die Produktivität erhöhen. Denn durch das zentrale Management werden Komplexität und Kosten für den Schutz von Zugangsdaten gesenkt. Gleichzeitig erhöhen die Systeme die Produktivität der Mitarbeiter in einer Vielzahl von Umgebungen ohne Einschränkung der Sicherheit. Es gibt etliche regulatorische Anforderungen, die Unternehmen de facto dazu “zwingen”, sich mit dem Thema Identity- und Access-Management zu befassen. In den USA etwa der Sarbanes-Oxley-Act, der Gramm-Leach-Bliley-Act oder der HIPAA-Act. Unternehmen die in Europa tätig sind, müssen seit dem 25. Mai 2018 den strengen Anforderungen der EU-Datenschutzgrundverordnung (DSGVO/GDPR) genügen. Indem sie banale – aber wichtige – Aufgaben automatisieren, entlasten Identity- und Access-Management-Systeme die IT-Abteilung und helfen dabei, regulatorische Anforderungen zu erfüllen. Dies sind entscheidende Vorteile angesichts des Status Quo: Jeder IT-Job ist inzwischen auch ein Security-Job; auf dem Gebiet der IT Security besteht ein weltweiter Fachkräftemangel; die Strafen bei Compliance-Verstößen können für Unternehmen sehr empfindlich und unter Umständen auch existenzbedrohend ausfallen; Wie bereichert Identity Management mein Geschäft? Die Implementierung eines IAM-Systems und der dazugehörigen Best Practices kann Ihnen in mehrerlei Hinsicht einen Wettbewerbsvorteil bescheren. Heutzutage kommen die meisten Unternehmen nicht umhin, Nutzern von extern Zugang auf das Firmennetz zu gewähren. Die Öffnung Ihres Netzwerks für Kunden, Partner, Lieferanten und natürlich die Mitarbeiter, kann die Effizienz steigern und Betriebskosten senken. Identity- und Access-Management-Systeme erlauben einem Unternehmen die Ausweitung der Zugriffsrechte auf sein Netzwerk über eine Vielzahl von On-Premise-Applikationen, Mobile Apps und SaaS Tools – ohne dabei die IT-Sicherheit aufs Spiel zu setzen. Wenn es Unternehmen gelingt, Außenstehende besser einzubinden, können sie die Kollaboration im ganzen Unternehmen vorantreiben, die Produktivität anschieben, die Zufriedenheit der Mitarbeiter optimieren, Forschung und Entwicklung pushen – und so letztlich auch die Betriebseinnahmen nach oben treiben. Auch die Zahl der eingehenden Anrufe beim IT Help Desk kann durch die Implementierung von IAM reduziert werden. Zum Beispiel, wenn es bei diesen um das Zurücksetzen von Passwörtern geht. Diese und andere zeitraubende – und somit kostenintensive – Aufgaben können von den Administratoren automatisiert werden. Nebenbei ist Identity- und Access-Management auch ein Eckpfeiler eines jeden sicheren Unternehmensnetzwerks. Schließlich ist die Identität eines Benutzers ein wesentlicher Bestandteil des Zugangs-Kontroll-Prozesses. Und ein IAM-System zwingt Unternehmen praktisch dazu, ihre Zugangsrichtlinien zu definieren und dabei auszuweisen, wer auf welche Daten-Ressourcen unter welchen Konditionen Zugriff hat. Gute gemanagte Identitäten bedeuten eine optimierte Kontrolle über den User-Zugriff, was sich wiederum in ein reduziertes Risiko für interne oder externe Angriffe übersetzen lässt. Wie funktionieren IAM-Systeme? In der Vergangenheit bestand ein typisches Identitätsmanagement-System aus vier Grundkomponenten: ein Pool mit persönlichen Daten, über die das System die individuellen Nutzer definiert; ein Toolset, um Daten hinzuzufügen, zu modifizieren oder zu löschen (Access Lifecycle Management); ein System, das den Zugriff der Nutzer reguliert (Durchsetzung von Security Policies und Zugriffsprivilegien); ein Auditing- und Reporting-System (um die Vorgänge im System zu verifizieren); Um den Nutzerzugriff zu regulieren, kommen traditionell verschiedene Authentifizierungs-Methoden zur Anwendung, zum Beispiel Passwörter, digitale Zertifikate, Tokens oder Smart Cards. Hardware Tokens und Smart Cards in Kreditkartengröße dienen dabei als eine Komponente der Zwei-Faktor-Authentifizierung. Diese kombiniert etwas das Sie wissen (das Passwort) mit etwas das Sie in Besitz haben (den Token oder die Smart Card), um Ihre Identität zu verifizieren. Angesichts der sich stets verschärfenden Bedrohungslage und den immer komplexeren IT-Umgebungen, reichen gute Kombinationen aus Nutzernamen und Passwort längst nicht mehr aus. Heutige Identity- und Access-Management-Systeme haben oft bereits Elemente von Biometrie, Machine Learning und Künstlicher Intelligenz sowie risikobasierter Authentifizierung an Bord. Auf User-Level helfen inzwischen auch einige Technologien dabei, digitale Identitäten besser zu schützen. Die durch das iPhone getriebene Popularität der Touch-ID-Fingerabdruckscanner hat dafür gesorgt, dass sich die Konsumenten daran gewohnt haben, ihren Fingerabdruck zur Authentifizierung zu verwenden. Neuere Windows-10-Geräte nutzen ebenfalls biometrische Authentifizierungsmethoden wie Fingerabdruck- und Iris-Scanner. Und beim iPhone X hat die Gesichtserkennung Face ID inzwischen Touch ID ersetzt. Wie Okta-CSO Abousselham weiß, setzen mehr und mehr Unternehmen inzwischen auf Drei- beziehungsweise Multi-, statt Zwei-Faktor-Authentifizierung. Diese stellt auf etwas ab, was die Nutzer kennen (Passwort), etwas das sie bei sich haben (Smartphone) und etwas, das sie “sind” (Gesicht, Fingerabdrücke oder Iris). “Drei Faktoren bieten mehr Sicherheit darüber, dass es sich tatsächlich um den korrekten Benutzer handelt”, erklärt der Experte. Auf dem Administrations-Level bieten die heutigen IAM-Systeme weitergehende Funktionen beim User Auditing und Reporting. Verantwortlich dafür sind vor allem Technologien wie Context-Aware Network Access Control und Risk-Based Authentication (RBA). Was ist “föderiertes” Identity Management? Der “föderierte” Ansatz des Identitätsmanagements bezeichnet einen Authentifizierungs-Mechanismus, bei dem ein User denselben Login für mehr als ein Netzwerk nutzen kann. Im Alltag ist diese Methode mittelerweile weit verbreitet. Beispielsweise bieten viele Online-Plattformen und Dienste ihren Nutzern an, sich mit ihrem Google- oder Facebook-Konto anzumelden, statt neue Zugangsdaten anzulegen. Ein wichtiger Bestandteil des föderierten Identitätsmanagements ist der Single-Sign-On (SSO). Dieser Standard erlaubt es Nutzern, die ihre Identität in einem Netzwerk bereits verifiziert haben, ihren Status “mitzunehmen”, wenn sie sich in ein anderes Netzwerk einwählen. Dieses Modell funktioniert allerdings nur zwischen kooperierenden Parteien – den sogenannten “trusted partners” – die gegenseitig für ihre Nutzer bürgen. Die Nachrichten über Authentifizierung zwischen den “trusted partners” werden oft über das SAML– (Security Assertion Markup Language) Framework verschickt, das eine Interoperabilität zwischen verschiedenen Händler-Plattformen herstellt, die Authentifizierungs- und Autorisierungs-Services anbieten. SAML ist aber nicht das einzige Open-Source-Identitätsprotokoll. Weitere Beispiele sind OpenID, WS-Trust, WS-Federation oder OAuth. Wie finde ich das richtige IAM? Bei so zahlreichen Ansätzen und Komponenten stellt sich die Frage, ob die Größe oder Branche eines Unternehmens eine Rolle bei der Auswahl spielen. Für Eckhard Schaumann, DACH-Manager bei RSA Security, geht es hauptsächlich darum, dass sich IAM immer gleich anfühlt, da die Anforderungen meist einheitlich sind. Da jedes Unternehmen eigene, dynamische Mechanismen, Herangehensweisen und individuelle Prioritäten besitzt, kann es schwierig sein, diese Einheitlichkeit zu erreichen. Als Hilfestellung bei der Konzeption des eigenen IAM rät Schaumann, sich an diesen Fragen zu orientieren: Wer hat Zugriff auf was? Wer hat diese Zugriffe zu überwachen? Wie wird gewährleistet, dass dies alles seine Richtigkeit hat? Wie sind die Mechanismen und Aktionen implementiert die entsprechende Aktion unmittelbar zu ergreifen, wenn dies verletzt wird? Daraus ergeben sich Ansätze für Herangehensweisen an die IAM-Einführung. Der Grund, warum IAM-Projekte oft scheitern oder nicht konsequent zu Ende geführt werden, liegt nicht immer in der Funktionalität der IAM-Softwarelösung. Für Schaumann kann etwa die Frage “Wer hat Zugriff auf was?” unternehmensintern nicht in Silos beantwortet werden. Ein IAM-Projekt ist kein “reines IT-Projekt”. Unternehmen müssen Zugriffs- und Rollenkonzepte etablieren, um die notwendige Integration zwischen den zuständigen Abteilungen und Kompetenzen umzusetzen. Das setzt sie Risiken bei der Einführung neuer Technologien aus. Hier gilt es, mit einem Digital Risk Management eine übergreifende Strategie zu erarbeiten, um zu identifizieren, zu bewerten, zu überwachen und zu schützen was in einer digitalen Welt am wichtigsten ist. Sowohl großen als auch kleinen und mittelständischen Unternehmen rät Schaumann, IAM ganzheitlich anzugehen. Größere Unternehmen müssten jedoch oft mehr und komplexere Systeme integrieren. Zudem gilt es, alle Benutzer einzubeziehen, darunter Subunternehmen, Lieferanten und Kunden. Umso wichtiger sei es in diesem Fall, Systeme einzuführen, die ein durchgängiges Architekturkonzept verfolgen. Bei der Umsetzung gilt es, verschiedene Anforderungen durch Regulatoren und Auditoren, wie die der BaFin im Finanzsektor, je nach Branche zu beachten. Mit Blick auf die Verwaltung von Zugriffszahlen, ergeben sich allerdings durchaus Unterschiede. Beispielsweise werden im Online-Handel jedem Kunden gewisse Zugriffe gewährt. Das können schnell Hundertausende oder gar Millionen von Nutzer werden. Hier brauchen Unternehmen ein System, das skalieren kann, so Schaumann. Wo liegen die Risiken beim Identity & Access Management? Die erfolgreiche Implementierung von Identity- und Access-Management-Systemen erfordert vorausschauendes Denken und abteilungsübergreifende Zusammenarbeit. Unternehmen die vor Projektbeginn eine schlüssige IAM-Strategie erarbeiten, sind dabei in der Regel am erfolgreichsten. Gerade Informationen über die Identität eins Nutzers können oft mehreren Datenquellen entstammen – etwa Microsofts Active Directory oder einer HR-Datenbank. Ein IAM-System muss dazu in der Lage sein, die Informationen zur Nutzeridentität über all diese Systeme zu synchronisieren. Darüber hinaus muss ein solches System das Unternehmen in die Lage versetzen, eine Vielzahl von Benutzern in unterschiedlichen Situationen und Umgebungen zu managen – und zwar automatisiert und in Echtzeit. Eine manuelle Anpassung der Zugangsberechtigungen ist bei hunderten oder gar tausenden von Usern nicht zu stemmen. Die Authentifizierung muss für die Nutzer einfach zu bewerkstelligen und für die IT einfach auszurollen sein, dabei aber ganz allgemein höchsten Sicherheitsstandards genügen. “Deshalb werden mobile Devices gerade zum Centerpiece der Benutzer-Authentifizierung”, weiß Abousselham. “Denn Smartphones können den Aufenthaltsort, die IP-Adresse und andere Informationen über den Nutzer bereitstellen, die für Authentifizierungszwecke verwendet werden können.” Ein Risikofaktor, den Unternehmen dabei im Auge behalten sollten: Zentralisierte Systeme stellen ein attraktives Ziel für Hacker und Cracker dar. Wenn Sie ein Dashboard über die gesamten IAM-Aktivitäten ihres Unternehmens legen, wird die Komplexität nicht nur für die Administratoren reduziert. Einmal kompromittiert, könnten kriminelle Hacker neue Identitäten anlegen, die ihnen weitreichende Zugriffsrechte einräumen. Um diesen Risiken zu begegnen, werden aktuell Ansätze auf Basis neuer Technologien entwickelt. Die dezentrale, als fälschungssicher geltende Blockchain könnte verhindern, dass Angreifer Zugangsdaten nachverfolgen oder aggregieren werden. Zudem könnte diese Methode das Identitätsmanagement und Authorisierungsprozesse vereinfachen. Als Beispiel wäre hier der Dienst Blockstack zu nennen, der eine dezentrale, Blockchain-basierte Datenbank für alle Anwendungen im Bereich Identität, Namensgebung und Authentifizierung implementiert. Separate Nutzerkonten bei einzelnen Applikationen oder auch Unternehmensanwendungen würden entfallen. Identity & Access Management Glossar Buzzwords kommen und gehen. Dennoch sollten Sie einige Schlüsselbegriffe des Identity und Access Managements kennen. Access Management: bezeichnet die Prozesse und Technologien, die zur Überwachung und Kontrolle des Netzwerkzugriffs zum Einsatz kommen. Active Directory (AD): Microsoft entwickelte die AD als User Identity Directory Service für Windows-Netzwerke. Biometrische Authentifizierung: Diese Form der Authentifizierung basiert auf einzigartigen Merkmalen des Users und nutzt dazu Technologien wie Fingerabdruck- und Iris-Scanner oder auch Gesichtserkennung. Context-aware Network Access Control: Dabei handelt es sich um eine Richtlinien-basierte Methode zum Zugriff auf Netzwerkressourcen, die den Kontext des Nutzers berücksichtigt. Der Zugriff von einer IP-Adresse, die nicht auf der Whitelist steht, ist so nicht möglich. Identity Lifecycle Management: Ähnlich wie Access Lifecycle Management beschreibt der Begriff alle Prozesse und Technologien, die zur Vorhaltung, Wartung und Löschung digitaler Identitäten zum Einsatz kommen. Identity synchronisation: Der Prozess, der sicherstellt, dass verschiedene Systeme (etwa nach einer Übernahme) konsistente Informationen über eine bestimmte digitale Identität zur Verfügung stellen. Lightweight Directory Access Protocol (LDAP): LDAP ist ein offenes Protokoll, um auf verteilte Directory Services (wie Microsofts Active Directory) zugreifen und diese managen zu können. Multi-Faktor-Authentifizierung (MFA): Sobald mehr als ein einzelner Faktor für die Authentifizierung nötig ist, spricht man von MFA. Password Reset: In diesem Zusammenhang meint dieser Begriff die Möglichkeit, dass User selbst ein neues Passwort erstellen können und keine Unterstützung durch den Administrator nötig ist. Risk-based Authentication (RBA): Bezeichnet eine dynamische Variante der Authentifizierung, bei der die jeweiligen Umstände des Zugriffs für zusätzliche Sicherheitsmaßnahmen sorgen können. Etwa wenn sich ein User von einem bisher nicht mit ihm in Verbindung stehenden Ort in das Unternehmensnetzwerk einloggen will. User Behavior Analytics (UBA): UBA-Technologien identifizieren Muster im User-Verhalten und wenden automatisiert Algorithmen und Analysen an, um Anomalien aufzuspüren, die auf mögliche Sicherheitsrisiken hindeuten. Zu den überprüften Faktoren zählen beispielsweise der aktuelle Standort des Nutzers, die Uhrzeit des Zugriffs und ob der Nutzer auf Ressourcen zugreift, die normalerweise in seinen Zuständigkeitsbereich fallen. Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Identity & Access Management FAQ: Was Sie über IAM wissen müssen​ Identity und Access Management: Wir sagen Ihnen, was Sie wissen müssen.
Foto: ktsdesign – shutterstock.com

Identity- und Access-Management (IAM) -Systeme ermöglichen – ganz allgemein gesprochen – die Verwaltung verschiedener Identitäten innerhalb eines Systems. Dabei kann es sich um ein Unternehmen, ein Netzwerk oder ein ganzes Land handeln.

Was ist Identity & Access Management?

Im Enterprise-IT-Umfeld geht es bei IAM darum, die Rollen, Zugriffsberechtigungen und -voraussetzungen einzelner Nutzer zu managen. Die Kernaufgabe besteht dabei darin, einem Individuum eine digitale Identität zuzuweisen. Wurde diese einmal erstellt, muss sie – über den gesamten Access Lifecycle eines Users hinweg – gewartet, aktualisiert und überwacht werden.

IAM-Systeme geben Administratoren die nötigen Tools und Technologien an die Hand, um die Rollen von Nutzern bei Bedarf zu ändern, deren Aktivitäten zu überwachen und Reports darüber zu erstellen – oder auch um Security Policies auf regelmäßiger Basis durchzusetzen. Die Systeme sind so konzipiert, dass sie die Zugriffsberechtigungen eines ganzen Unternehmens abbilden können und dabei die Erfüllung von unternehmenseigenen und externen Compliance-Richtlinien sichergestellt ist.

Zu den Technologien des Identity und Access Managements gehören unter anderem:

Passwort-Management-Tools

Provisioning Software

Apps zur Durchsetzung von Security Policies

Reporting- und Monitoring-Apps

Identity Repositories

IAM-Systeme sind sowohl für On-Premise-Systeme wie Microsoft Sharepoint, als auch für cloud-basierte Systeme wie Microsoft 365 verfügbar.

Die Systeme zum Identitätsmanagement müssen flexibel und robust genug sein, um den komplexen IT-Umgebungen der heutigen Zeit gerecht zu werden. Früher war ein Unternehmensnetzwerk on premise und die IAM-Systeme haben die User in diesen Systemen authentifiziert und überwacht. “Es gab quasi einen Sicherheitszaun, der um das Werksgelände gespannt war”, sagt Jackson Shaw, vom IAM-Provider One Identity. “Dieser existiert heutzutage nicht mehr.”

In der Konsequenz ergeben sich einige Kern-Features, die heutige IAM-Systeme leisten sollten:

Einfaches Management von Zugangsberechtigungen für eine Vielzahl von Nutzern – inklusive Mitarbeitern im Home Office und Partnern aus aller Welt;

Support für hybride IT-Umgebungen, die On-Premise-Systeme, SaaS-Applikationen, Schatten-IT und BYOD-User umfassen;

das Management von IT-Architekturen, auf denen UNIX-, Windows-, Mac-, iOS-, Android- und IoT-Geräte gleichermaßen laufen;

In den letzten Jahren haben sich zudem Identity-as-a-Service (IDaaS)-Angebote entwickelt. Diese setzen meist auf ein Cloud-Abo-Modell und bieten den Kunden IAM-Dienste für On-Premise- und Cloud-Systeme.

Wozu brauche ich IAM?

Identity- und Access-Management ist ein kritischer Part der IT-Security-Strategie aller Unternehmen. Schließlich ist dieser in der heutigen, digitalen Weltwirtschaft untrennbar mit der Sicherheit und Produktivität des gesamten Unternehmens verbunden.

Kompromittierte Login-Daten und Zugangsberechtigungen dienen oft als Einfallstor ins Unternehmensnetzwerk. Um die Firmendaten und -Assets gegen Bedrohungen wie Ransomware, Phishing, Malware und ganz generell gegen kriminelle Hacker zu schützen, gibt es IAM.

In vielen Unternehmen ist es Usus, dass User mehr Zugangsberechtigungen haben als sie eigentlich brauchen. Ein robustes Identity- und Access-Management-System kann für die Etablierung eines zusätzlichen Sicherheits-Layers sorgen, indem es für das gesamte Unternehmen eine durchgängige Anwendung von Zugangsregeln und -richtlinien sicherstellt.

Darüber hinaus können IAM-Systeme auch die Produktivität erhöhen. Denn durch das zentrale Management werden Komplexität und Kosten für den Schutz von Zugangsdaten gesenkt. Gleichzeitig erhöhen die Systeme die Produktivität der Mitarbeiter in einer Vielzahl von Umgebungen ohne Einschränkung der Sicherheit.

Es gibt etliche regulatorische Anforderungen, die Unternehmen de facto dazu “zwingen”, sich mit dem Thema Identity- und Access-Management zu befassen. In den USA etwa der Sarbanes-Oxley-Act, der Gramm-Leach-Bliley-Act oder der HIPAA-Act. Unternehmen die in Europa tätig sind, müssen seit dem 25. Mai 2018 den strengen Anforderungen der EU-Datenschutzgrundverordnung (DSGVO/GDPR) genügen.

Indem sie banale – aber wichtige – Aufgaben automatisieren, entlasten Identity- und Access-Management-Systeme die IT-Abteilung und helfen dabei, regulatorische Anforderungen zu erfüllen. Dies sind entscheidende Vorteile angesichts des Status Quo:

Jeder IT-Job ist inzwischen auch ein Security-Job;

auf dem Gebiet der IT Security besteht ein weltweiter Fachkräftemangel;

die Strafen bei Compliance-Verstößen können für Unternehmen sehr empfindlich und unter Umständen auch existenzbedrohend ausfallen;

Wie bereichert Identity Management mein Geschäft?

Die Implementierung eines IAM-Systems und der dazugehörigen Best Practices kann Ihnen in mehrerlei Hinsicht einen Wettbewerbsvorteil bescheren. Heutzutage kommen die meisten Unternehmen nicht umhin, Nutzern von extern Zugang auf das Firmennetz zu gewähren. Die Öffnung Ihres Netzwerks für Kunden, Partner, Lieferanten und natürlich die Mitarbeiter, kann die Effizienz steigern und Betriebskosten senken.

Identity- und Access-Management-Systeme erlauben einem Unternehmen die Ausweitung der Zugriffsrechte auf sein Netzwerk über eine Vielzahl von On-Premise-Applikationen, Mobile Apps und SaaS Tools – ohne dabei die IT-Sicherheit aufs Spiel zu setzen. Wenn es Unternehmen gelingt, Außenstehende besser einzubinden, können sie die Kollaboration im ganzen Unternehmen vorantreiben, die Produktivität anschieben, die Zufriedenheit der Mitarbeiter optimieren, Forschung und Entwicklung pushen – und so letztlich auch die Betriebseinnahmen nach oben treiben.

Auch die Zahl der eingehenden Anrufe beim IT Help Desk kann durch die Implementierung von IAM reduziert werden. Zum Beispiel, wenn es bei diesen um das Zurücksetzen von Passwörtern geht. Diese und andere zeitraubende – und somit kostenintensive – Aufgaben können von den Administratoren automatisiert werden.

Nebenbei ist Identity- und Access-Management auch ein Eckpfeiler eines jeden sicheren Unternehmensnetzwerks. Schließlich ist die Identität eines Benutzers ein wesentlicher Bestandteil des Zugangs-Kontroll-Prozesses. Und ein IAM-System zwingt Unternehmen praktisch dazu, ihre Zugangsrichtlinien zu definieren und dabei auszuweisen, wer auf welche Daten-Ressourcen unter welchen Konditionen Zugriff hat.

Gute gemanagte Identitäten bedeuten eine optimierte Kontrolle über den User-Zugriff, was sich wiederum in ein reduziertes Risiko für interne oder externe Angriffe übersetzen lässt.

Wie funktionieren IAM-Systeme?

In der Vergangenheit bestand ein typisches Identitätsmanagement-System aus vier Grundkomponenten:

ein Pool mit persönlichen Daten, über die das System die individuellen Nutzer definiert;

ein Toolset, um Daten hinzuzufügen, zu modifizieren oder zu löschen (Access Lifecycle Management);

ein System, das den Zugriff der Nutzer reguliert (Durchsetzung von Security Policies und Zugriffsprivilegien);

ein Auditing- und Reporting-System (um die Vorgänge im System zu verifizieren);

Um den Nutzerzugriff zu regulieren, kommen traditionell verschiedene Authentifizierungs-Methoden zur Anwendung, zum Beispiel Passwörter, digitale Zertifikate, Tokens oder Smart Cards. Hardware Tokens und Smart Cards in Kreditkartengröße dienen dabei als eine Komponente der Zwei-Faktor-Authentifizierung. Diese kombiniert etwas das Sie wissen (das Passwort) mit etwas das Sie in Besitz haben (den Token oder die Smart Card), um Ihre Identität zu verifizieren.

Angesichts der sich stets verschärfenden Bedrohungslage und den immer komplexeren IT-Umgebungen, reichen gute Kombinationen aus Nutzernamen und Passwort längst nicht mehr aus. Heutige Identity- und Access-Management-Systeme haben oft bereits Elemente von Biometrie, Machine Learning und Künstlicher Intelligenz sowie risikobasierter Authentifizierung an Bord.

Auf User-Level helfen inzwischen auch einige Technologien dabei, digitale Identitäten besser zu schützen. Die durch das iPhone getriebene Popularität der Touch-ID-Fingerabdruckscanner hat dafür gesorgt, dass sich die Konsumenten daran gewohnt haben, ihren Fingerabdruck zur Authentifizierung zu verwenden. Neuere Windows-10-Geräte nutzen ebenfalls biometrische Authentifizierungsmethoden wie Fingerabdruck- und Iris-Scanner. Und beim iPhone X hat die Gesichtserkennung Face ID inzwischen Touch ID ersetzt.

Wie Okta-CSO Abousselham weiß, setzen mehr und mehr Unternehmen inzwischen auf Drei- beziehungsweise Multi-, statt Zwei-Faktor-Authentifizierung. Diese stellt auf etwas ab, was die Nutzer kennen (Passwort), etwas das sie bei sich haben (Smartphone) und etwas, das sie “sind” (Gesicht, Fingerabdrücke oder Iris). “Drei Faktoren bieten mehr Sicherheit darüber, dass es sich tatsächlich um den korrekten Benutzer handelt”, erklärt der Experte.

Auf dem Administrations-Level bieten die heutigen IAM-Systeme weitergehende Funktionen beim User Auditing und Reporting. Verantwortlich dafür sind vor allem Technologien wie Context-Aware Network Access Control und Risk-Based Authentication (RBA).

Was ist “föderiertes” Identity Management?

Der “föderierte” Ansatz des Identitätsmanagements bezeichnet einen Authentifizierungs-Mechanismus, bei dem ein User denselben Login für mehr als ein Netzwerk nutzen kann. Im Alltag ist diese Methode mittelerweile weit verbreitet. Beispielsweise bieten viele Online-Plattformen und Dienste ihren Nutzern an, sich mit ihrem Google- oder Facebook-Konto anzumelden, statt neue Zugangsdaten anzulegen.

Ein wichtiger Bestandteil des föderierten Identitätsmanagements ist der Single-Sign-On (SSO). Dieser Standard erlaubt es Nutzern, die ihre Identität in einem Netzwerk bereits verifiziert haben, ihren Status “mitzunehmen”, wenn sie sich in ein anderes Netzwerk einwählen. Dieses Modell funktioniert allerdings nur zwischen kooperierenden Parteien – den sogenannten “trusted partners” – die gegenseitig für ihre Nutzer bürgen.

Die Nachrichten über Authentifizierung zwischen den “trusted partners” werden oft über das SAML– (Security Assertion Markup Language) Framework verschickt, das eine Interoperabilität zwischen verschiedenen Händler-Plattformen herstellt, die Authentifizierungs- und Autorisierungs-Services anbieten.

SAML ist aber nicht das einzige Open-Source-Identitätsprotokoll. Weitere Beispiele sind OpenID, WS-Trust, WS-Federation oder OAuth.

Wie finde ich das richtige IAM?

Bei so zahlreichen Ansätzen und Komponenten stellt sich die Frage, ob die Größe oder Branche eines Unternehmens eine Rolle bei der Auswahl spielen. Für Eckhard Schaumann, DACH-Manager bei RSA Security, geht es hauptsächlich darum, dass sich IAM immer gleich anfühlt, da die Anforderungen meist einheitlich sind.

Da jedes Unternehmen eigene, dynamische Mechanismen, Herangehensweisen und individuelle Prioritäten besitzt, kann es schwierig sein, diese Einheitlichkeit zu erreichen. Als Hilfestellung bei der Konzeption des eigenen IAM rät Schaumann, sich an diesen Fragen zu orientieren:

Wer hat Zugriff auf was?

Wer hat diese Zugriffe zu überwachen?

Wie wird gewährleistet, dass dies alles seine Richtigkeit hat?

Wie sind die Mechanismen und Aktionen implementiert die entsprechende Aktion unmittelbar zu ergreifen, wenn dies verletzt wird?

Daraus ergeben sich Ansätze für Herangehensweisen an die IAM-Einführung.

Der Grund, warum IAM-Projekte oft scheitern oder nicht konsequent zu Ende geführt werden, liegt nicht immer in der Funktionalität der IAM-Softwarelösung. Für Schaumann kann etwa die Frage “Wer hat Zugriff auf was?” unternehmensintern nicht in Silos beantwortet werden. Ein IAM-Projekt ist kein “reines IT-Projekt”. Unternehmen müssen Zugriffs- und Rollenkonzepte etablieren, um die notwendige Integration zwischen den zuständigen Abteilungen und Kompetenzen umzusetzen. Das setzt sie Risiken bei der Einführung neuer Technologien aus. Hier gilt es, mit einem Digital Risk Management eine übergreifende Strategie zu erarbeiten, um zu identifizieren, zu bewerten, zu überwachen und zu schützen was in einer digitalen Welt am wichtigsten ist.

Sowohl großen als auch kleinen und mittelständischen Unternehmen rät Schaumann, IAM ganzheitlich anzugehen. Größere Unternehmen müssten jedoch oft mehr und komplexere Systeme integrieren. Zudem gilt es, alle Benutzer einzubeziehen, darunter Subunternehmen, Lieferanten und Kunden. Umso wichtiger sei es in diesem Fall, Systeme einzuführen, die ein durchgängiges Architekturkonzept verfolgen.

Bei der Umsetzung gilt es, verschiedene Anforderungen durch Regulatoren und Auditoren, wie die der BaFin im Finanzsektor, je nach Branche zu beachten. Mit Blick auf die Verwaltung von Zugriffszahlen, ergeben sich allerdings durchaus Unterschiede. Beispielsweise werden im Online-Handel jedem Kunden gewisse Zugriffe gewährt. Das können schnell Hundertausende oder gar Millionen von Nutzer werden. Hier brauchen Unternehmen ein System, das skalieren kann, so Schaumann.

Wo liegen die Risiken beim Identity & Access Management?

Die erfolgreiche Implementierung von Identity- und Access-Management-Systemen erfordert vorausschauendes Denken und abteilungsübergreifende Zusammenarbeit. Unternehmen die vor Projektbeginn eine schlüssige IAM-Strategie erarbeiten, sind dabei in der Regel am erfolgreichsten.

Gerade Informationen über die Identität eins Nutzers können oft mehreren Datenquellen entstammen – etwa Microsofts Active Directory oder einer HR-Datenbank. Ein IAM-System muss dazu in der Lage sein, die Informationen zur Nutzeridentität über all diese Systeme zu synchronisieren. Darüber hinaus muss ein solches System das Unternehmen in die Lage versetzen, eine Vielzahl von Benutzern in unterschiedlichen Situationen und Umgebungen zu managen – und zwar automatisiert und in Echtzeit. Eine manuelle Anpassung der Zugangsberechtigungen ist bei hunderten oder gar tausenden von Usern nicht zu stemmen.

Die Authentifizierung muss für die Nutzer einfach zu bewerkstelligen und für die IT einfach auszurollen sein, dabei aber ganz allgemein höchsten Sicherheitsstandards genügen. “Deshalb werden mobile Devices gerade zum Centerpiece der Benutzer-Authentifizierung”, weiß Abousselham. “Denn Smartphones können den Aufenthaltsort, die IP-Adresse und andere Informationen über den Nutzer bereitstellen, die für Authentifizierungszwecke verwendet werden können.”

Ein Risikofaktor, den Unternehmen dabei im Auge behalten sollten: Zentralisierte Systeme stellen ein attraktives Ziel für Hacker und Cracker dar. Wenn Sie ein Dashboard über die gesamten IAM-Aktivitäten ihres Unternehmens legen, wird die Komplexität nicht nur für die Administratoren reduziert. Einmal kompromittiert, könnten kriminelle Hacker neue Identitäten anlegen, die ihnen weitreichende Zugriffsrechte einräumen.

Um diesen Risiken zu begegnen, werden aktuell Ansätze auf Basis neuer Technologien entwickelt. Die dezentrale, als fälschungssicher geltende Blockchain könnte verhindern, dass Angreifer Zugangsdaten nachverfolgen oder aggregieren werden. Zudem könnte diese Methode das Identitätsmanagement und Authorisierungsprozesse vereinfachen. Als Beispiel wäre hier der Dienst Blockstack zu nennen, der eine dezentrale, Blockchain-basierte Datenbank für alle Anwendungen im Bereich Identität, Namensgebung und Authentifizierung implementiert. Separate Nutzerkonten bei einzelnen Applikationen oder auch Unternehmensanwendungen würden entfallen.

Identity & Access Management Glossar

Buzzwords kommen und gehen. Dennoch sollten Sie einige Schlüsselbegriffe des Identity und Access Managements kennen.

Access Management: bezeichnet die Prozesse und Technologien, die zur Überwachung und Kontrolle des Netzwerkzugriffs zum Einsatz kommen.

Active Directory (AD): Microsoft entwickelte die AD als User Identity Directory Service für Windows-Netzwerke.

Biometrische Authentifizierung: Diese Form der Authentifizierung basiert auf einzigartigen Merkmalen des Users und nutzt dazu Technologien wie Fingerabdruck- und Iris-Scanner oder auch Gesichtserkennung.

Context-aware Network Access Control: Dabei handelt es sich um eine Richtlinien-basierte Methode zum Zugriff auf Netzwerkressourcen, die den Kontext des Nutzers berücksichtigt. Der Zugriff von einer IP-Adresse, die nicht auf der Whitelist steht, ist so nicht möglich.

Identity Lifecycle Management: Ähnlich wie Access Lifecycle Management beschreibt der Begriff alle Prozesse und Technologien, die zur Vorhaltung, Wartung und Löschung digitaler Identitäten zum Einsatz kommen.

Identity synchronisation: Der Prozess, der sicherstellt, dass verschiedene Systeme (etwa nach einer Übernahme) konsistente Informationen über eine bestimmte digitale Identität zur Verfügung stellen.

Lightweight Directory Access Protocol (LDAP): LDAP ist ein offenes Protokoll, um auf verteilte Directory Services (wie Microsofts Active Directory) zugreifen und diese managen zu können.

Multi-Faktor-Authentifizierung (MFA): Sobald mehr als ein einzelner Faktor für die Authentifizierung nötig ist, spricht man von MFA.

Password Reset: In diesem Zusammenhang meint dieser Begriff die Möglichkeit, dass User selbst ein neues Passwort erstellen können und keine Unterstützung durch den Administrator nötig ist.

Risk-based Authentication (RBA): Bezeichnet eine dynamische Variante der Authentifizierung, bei der die jeweiligen Umstände des Zugriffs für zusätzliche Sicherheitsmaßnahmen sorgen können. Etwa wenn sich ein User von einem bisher nicht mit ihm in Verbindung stehenden Ort in das Unternehmensnetzwerk einloggen will.

User Behavior Analytics (UBA): UBA-Technologien identifizieren Muster im User-Verhalten und wenden automatisiert Algorithmen und Analysen an, um Anomalien aufzuspüren, die auf mögliche Sicherheitsrisiken hindeuten. Zu den überprüften Faktoren zählen beispielsweise der aktuelle Standort des Nutzers, die Uhrzeit des Zugriffs und ob der Nutzer auf Ressourcen zugreift, die normalerweise in seinen Zuständigkeitsbereich fallen.

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Identity & Access Management FAQ: Was Sie über IAM wissen müssen​ Weiterlesen »

Tipps zur verbalen und nonverbalen Kommunikation: Körpersprache im Meeting​

Allgemein

Der Körper spricht, auch wenn man nicht verbal kommuniziert. Vor und im Meeting sollte man unbedingt auf seine Gedanken und Gefühle achten. Die eigene sowie die Körperwahrnehmung von anderen kann trainiert werden. In Zeiten von Back to Office sind Präsenzmeetings wieder auf die Tagesordnung. Gerade, wenn es um Kundenprojekte und ähnliches geht, ist ein konsequenter Austausch mit Vorgesetzten und Kollegen besonders wichtig. Vielen Teilnehmern ist dabei gar nicht bewusst, dass sie, auch wenn sie nicht verbal kommunizieren, so doch ständig mit ihrem Körper sprechen. Der Grund: Auch nonverbale Signale, das heißt jede Art von Körpersprache, sei es Mimik, Gestik oder Haltung, transportieren Botschaften. Stimme, Wortwahl, Tonlage und Körpersprache haben großen Einfluss auf die Glaubwürdigkeit und Wirkung. Dessen sind sich die wenigsten wirklich bewusst. Die Mimik der Gesprächspartner in Meetings kann viel über deren Einstellung zum Thema verraten. Foto: Rawpixel.com – shutterstock.com Wer zum Beispiel in ein Meeting geht und dabei schon an eine beteiligte Person denkt, mit der eher negativen Erfahrungen verbindet, wird Körpersprache und Mimik mit großer Wahrscheinlichkeit unbewusst darauf ausrichten. Das heißt, eher einen verärgerten, gestressten und angespannten Eindruck machen. Deshalb der Rat: Vor und im Meeting unbedingt auf Gedanken und Gefühle achten, denn sie werden durch das eigene Verhalten sowie die Körpersprache sichtbar. Verbale und nonverbale Kommunikation Oft ist es auch der Fall, dass man in Meetings, Sitzungen oder Gesprächen nicht immer sagt, was man denkt und wie man sich fühlt. Doch genau das führt häufig zu Irritationen auf der anderen Seite. Vielleicht kennen Sie diese Gefühl? Irgendetwas war da komisch im Meeting, aber man kann nicht genau sagen was… Das kommt von den unbewussten Signalen des Körpers. Mit solchen unbewussten Gesten reagiert der Körper auf seinen Gesprächspartner, auf die Gesprächssituation. Die Signale im Gesicht oder die Körperhaltung verändern sich dabei meist unbewusst. Insbesondere Gefühlszustände wie Freude und Ärger, aber auch Angst und Anspannung machen sich durch unbewusste Körpersignale deutlich bemerkbar. Wir nehmen das Verhalten zumeist unterschwellig wahr, können es dann nicht richtig erklären und doch haben wir ein “Gefühl”… das Meeting ist irgendwie gut gelaufen oder da war etwas, was irgendwie gestört und nicht gepasst hat, etc. Der Grund: Erst wenn verbale und nonverbale Kommunikation zusammenpassen, kommt etwas glaubhaft und authentisch bei uns an. In diesem Fall spricht man von Kongruenz. Mimik und Körpersprache, Stimme und die verbale Aussage passen dann zueinander oder aber auch nicht. Ein Beispiel: Sie erklären vor den IT-Teamleitern den aktuellen Stand eines neuen Projektes und sagen: “Lasst uns starten.” Die Antwort aller ist: “Ja, los…” Doch im Gesicht eines Gesprächspartners sehen Sie zum Beispiel die typische Ärger- beziehungsweise Skepsisfalte auf der Stirn oder einen einseitig hochgezogenen Mundwinkel oder Augenbraue. Das alles passt in diesem Moment nicht mit der verbalen Aussage zusammen. Es ist nicht kongruent. Und genau das lässt Sie unsicher werden. Oder aber durch die Mimik aller Anwesenden entsteht ein stimmiges Bild und damit Glaubwürdigkeit und Authentizität, nämlich exakt dann, wenn das Gesagte, also das verbale mit der Körpersprache, dem nonverbalen übereinstimmt. Die eigene und fremde Körpersprache lesen So gibt es unwahrscheinlich viele körpersprachliche und mimische Gesten, die interpretiert werden können. Zum Beispiel: Schweigend in einem Meeting sitzen, die Vermeidung von Blickkontakten, auf die Uhr, das Smartphone, den Boden oder aus dem Fenster schauen, verschränkte Arme oder das Rümpfen der Nase usw. Doch Vorsicht. Allein ein Kratzen an der Nase, Anfassen am Ohrläppchen, ein durch die Haare streichen, das Verschränken der Arme, Schweigen, oder eine ab- oder zugewandte Arm- oder Fußhaltung etc. heißt nicht zwangsläufig dieses oder jenes, noch macht es eine genaue Analyse der Körpersprache möglich. Man sollte sich hüten, solche Situationen vorschnell zu analysieren und eventuell “falsch” zu interpretieren. Es ist wichtig, sich erst intensiver mit dem Thema Mimik und Körpersprache zu beschäftigen, nicht um bestimmte Posen zu trainieren, sondern vielmehr um die eigene und später dann auch die Körperwahrnehmung von anderen zu verbessern. Das gelingt relativ einfach: Beobachten Sie sich selbst. Nehmen Sie sich selbst einmal wahr. Wie sitzen oder stehen Sie selbst in Meetings oder Besprechungen? Beobachten Sie andere Menschen und ihre Mimik und Gestik (auch oder besonders in Meetings). Wie ergeht es Ihnen dabei? Welche Gefühle, Gedanken und Reaktionen entstehen bei Ihnen als Zuhörer? Wiederholen Sie diese Beobachtungen bei sich selbst. Verändert sich etwas bei Ihnen, was nehmen Sie wahr? Als nächstes sollten Sie versuchen, mit Mimik und Körpersprache zu arbeiten, zu sprechen und zu variieren. Nutzen Sie dafür einen Spiegel. Übertreiben Sie dabei auch gerne, um Veränderungen zu erkennen. Ab wann setzen zum Beispiel Wirkungen ein? Lassen Sie mal ganz bewusst nur Ihr Gesicht sprechen ohne den Körper. Überlegen und üben Sie. Wie sieht es aus, wenn Sie freudig, traurig, überrascht, selbstbewusst, neugierig, verärgert oder gelangweilt schauen? Wie verändern sich Ihr Ausdruck und Ihre Wirkung, wenn Sie den Kopf zur Seite neigen, heben oder absenken? Beobachten und nehmen Sie bewusst wahr, wie die Reaktion Ihrer Gesprächspartner auf Ihre Körpersprache und Mimik ist. Setzen Sie bestimmt und gezielt Gesten ein, um genauer eine Reaktion zu erhalten. Üben Sie und reflektieren Sie Ihr eigenes Verhalten. In welchen Situationen haben Sie welche Reaktionen durch den Einsatz von Körpersprache und Mimik erreicht? Wenn Sie dafür ein Gefühl entwickelt haben, können Sie Ihre Körpersprache gezielter einsetzen. Tipps zur Körpersprache im MeetingIn Besprechungen beachtenMimik, Gestik oder Haltung haben großen Einfluss auf die Glaubwürdigkeit und Wirkung einer Person im Meeting. Dessen sind sich die wenigsten jedoch bewusst. Vier Tipps, worauf Sie in Besprechungen achten sollten.Tipp 1: Offene KörperhaltungBehalten Sie eine offene Körperhaltung und nutzen Sie ruhige und nicht zu ausladende Gesten. Achten Sie darauf, nicht zu viele hektische Handbewegungen zu machen.Tipp 2: BlickkontaktSeien Sie mit Ihrem Körper stets Ihrem Gesprächspartner zugewandt. Bei mehreren Gesprächspartnern wenden Sie sich demjenigen zu, mit dem Sie gerade in dem Moment kommunizieren.Tipp 3: AufmerksamkeitSignalisieren Sie Interesse und Aufmerksamkeit – hören Sie aktiv zu, nicken Sie zustimmend, halten Sie Blickkontakt, lassen Sie Ihren Gesprächspartner ausreden.Tipp 4: NachfragenWenn Sie bewusst oder unbewusst etwas wahrnehmen, was Sie gerade in diesem Moment nicht zuordnen können, was für Sie nicht klar und eindeutig ist, fragen Sie nach, um so Missverständnissen, Vorurteilen und eventuellen Konflikten vorzubeugen. 

Tipps zur verbalen und nonverbalen Kommunikation: Körpersprache im Meeting​ Der Körper spricht, auch wenn man nicht verbal kommuniziert.

Vor und im Meeting sollte man unbedingt auf seine Gedanken und Gefühle achten.

Die eigene sowie die Körperwahrnehmung von anderen kann trainiert werden.

In Zeiten von Back to Office sind Präsenzmeetings wieder auf die Tagesordnung. Gerade, wenn es um Kundenprojekte und ähnliches geht, ist ein konsequenter Austausch mit Vorgesetzten und Kollegen besonders wichtig. Vielen Teilnehmern ist dabei gar nicht bewusst, dass sie, auch wenn sie nicht verbal kommunizieren, so doch ständig mit ihrem Körper sprechen. Der Grund: Auch nonverbale Signale, das heißt jede Art von Körpersprache, sei es Mimik, Gestik oder Haltung, transportieren Botschaften. Stimme, Wortwahl, Tonlage und Körpersprache haben großen Einfluss auf die Glaubwürdigkeit und Wirkung. Dessen sind sich die wenigsten wirklich bewusst.

Die Mimik der Gesprächspartner in Meetings kann viel über deren Einstellung zum Thema verraten.
Foto: Rawpixel.com – shutterstock.com

Wer zum Beispiel in ein Meeting geht und dabei schon an eine beteiligte Person denkt, mit der eher negativen Erfahrungen verbindet, wird Körpersprache und Mimik mit großer Wahrscheinlichkeit unbewusst darauf ausrichten. Das heißt, eher einen verärgerten, gestressten und angespannten Eindruck machen. Deshalb der Rat: Vor und im Meeting unbedingt auf Gedanken und Gefühle achten, denn sie werden durch das eigene Verhalten sowie die Körpersprache sichtbar.

Verbale und nonverbale Kommunikation

Oft ist es auch der Fall, dass man in Meetings, Sitzungen oder Gesprächen nicht immer sagt, was man denkt und wie man sich fühlt. Doch genau das führt häufig zu Irritationen auf der anderen Seite. Vielleicht kennen Sie diese Gefühl? Irgendetwas war da komisch im Meeting, aber man kann nicht genau sagen was… Das kommt von den unbewussten Signalen des Körpers.

Mit solchen unbewussten Gesten reagiert der Körper auf seinen Gesprächspartner, auf die Gesprächssituation. Die Signale im Gesicht oder die Körperhaltung verändern sich dabei meist unbewusst. Insbesondere Gefühlszustände wie Freude und Ärger, aber auch Angst und Anspannung machen sich durch unbewusste Körpersignale deutlich bemerkbar.

Wir nehmen das Verhalten zumeist unterschwellig wahr, können es dann nicht richtig erklären und doch haben wir ein “Gefühl”… das Meeting ist irgendwie gut gelaufen oder da war etwas, was irgendwie gestört und nicht gepasst hat, etc. Der Grund: Erst wenn verbale und nonverbale Kommunikation zusammenpassen, kommt etwas glaubhaft und authentisch bei uns an. In diesem Fall spricht man von Kongruenz. Mimik und Körpersprache, Stimme und die verbale Aussage passen dann zueinander oder aber auch nicht.

Ein Beispiel: Sie erklären vor den IT-Teamleitern den aktuellen Stand eines neuen Projektes und sagen: “Lasst uns starten.” Die Antwort aller ist: “Ja, los…” Doch im Gesicht eines Gesprächspartners sehen Sie zum Beispiel die typische Ärger- beziehungsweise Skepsisfalte auf der Stirn oder einen einseitig hochgezogenen Mundwinkel oder Augenbraue. Das alles passt in diesem Moment nicht mit der verbalen Aussage zusammen.

Es ist nicht kongruent. Und genau das lässt Sie unsicher werden. Oder aber durch die Mimik aller Anwesenden entsteht ein stimmiges Bild und damit Glaubwürdigkeit und Authentizität, nämlich exakt dann, wenn das Gesagte, also das verbale mit der Körpersprache, dem nonverbalen übereinstimmt.

Die eigene und fremde Körpersprache lesen

So gibt es unwahrscheinlich viele körpersprachliche und mimische Gesten, die interpretiert werden können. Zum Beispiel:

Schweigend in einem Meeting sitzen,

die Vermeidung von Blickkontakten,

auf die Uhr, das Smartphone, den Boden oder aus dem Fenster schauen,

verschränkte Arme oder

das Rümpfen der Nase usw.

Doch Vorsicht. Allein ein Kratzen an der Nase, Anfassen am Ohrläppchen, ein durch die Haare streichen, das Verschränken der Arme, Schweigen, oder eine ab- oder zugewandte Arm- oder Fußhaltung etc. heißt nicht zwangsläufig dieses oder jenes, noch macht es eine genaue Analyse der Körpersprache möglich.

Man sollte sich hüten, solche Situationen vorschnell zu analysieren und eventuell “falsch” zu interpretieren. Es ist wichtig, sich erst intensiver mit dem Thema Mimik und Körpersprache zu beschäftigen, nicht um bestimmte Posen zu trainieren, sondern vielmehr um die eigene und später dann auch die Körperwahrnehmung von anderen zu verbessern. Das gelingt relativ einfach:

Beobachten Sie sich selbst. Nehmen Sie sich selbst einmal wahr. Wie sitzen oder stehen Sie selbst in Meetings oder Besprechungen? Beobachten Sie andere Menschen und ihre Mimik und Gestik (auch oder besonders in Meetings). Wie ergeht es Ihnen dabei? Welche Gefühle, Gedanken und Reaktionen entstehen bei Ihnen als Zuhörer? Wiederholen Sie diese Beobachtungen bei sich selbst. Verändert sich etwas bei Ihnen, was nehmen Sie wahr?

Als nächstes sollten Sie versuchen, mit Mimik und Körpersprache zu arbeiten, zu sprechen und zu variieren. Nutzen Sie dafür einen Spiegel. Übertreiben Sie dabei auch gerne, um Veränderungen zu erkennen. Ab wann setzen zum Beispiel Wirkungen ein? Lassen Sie mal ganz bewusst nur Ihr Gesicht sprechen ohne den Körper. Überlegen und üben Sie. Wie sieht es aus, wenn Sie freudig, traurig, überrascht, selbstbewusst, neugierig, verärgert oder gelangweilt schauen? Wie verändern sich Ihr Ausdruck und Ihre Wirkung, wenn Sie den Kopf zur Seite neigen, heben oder absenken?

Beobachten und nehmen Sie bewusst wahr, wie die Reaktion Ihrer Gesprächspartner auf Ihre Körpersprache und Mimik ist. Setzen Sie bestimmt und gezielt Gesten ein, um genauer eine Reaktion zu erhalten.

Üben Sie und reflektieren Sie Ihr eigenes Verhalten. In welchen Situationen haben Sie welche Reaktionen durch den Einsatz von Körpersprache und Mimik erreicht? Wenn Sie dafür ein Gefühl entwickelt haben, können Sie Ihre Körpersprache gezielter einsetzen.

Tipps zur Körpersprache im MeetingIn Besprechungen beachtenMimik, Gestik oder Haltung haben großen Einfluss auf die Glaubwürdigkeit und Wirkung einer Person im Meeting. Dessen sind sich die wenigsten jedoch bewusst. Vier Tipps, worauf Sie in Besprechungen achten sollten.Tipp 1: Offene KörperhaltungBehalten Sie eine offene Körperhaltung und nutzen Sie ruhige und nicht zu ausladende Gesten. Achten Sie darauf, nicht zu viele hektische Handbewegungen zu machen.Tipp 2: BlickkontaktSeien Sie mit Ihrem Körper stets Ihrem Gesprächspartner zugewandt. Bei mehreren Gesprächspartnern wenden Sie sich demjenigen zu, mit dem Sie gerade in dem Moment kommunizieren.Tipp 3: AufmerksamkeitSignalisieren Sie Interesse und Aufmerksamkeit – hören Sie aktiv zu, nicken Sie zustimmend, halten Sie Blickkontakt, lassen Sie Ihren Gesprächspartner ausreden.Tipp 4: NachfragenWenn Sie bewusst oder unbewusst etwas wahrnehmen, was Sie gerade in diesem Moment nicht zuordnen können, was für Sie nicht klar und eindeutig ist, fragen Sie nach, um so Missverständnissen, Vorurteilen und eventuellen Konflikten vorzubeugen.

Tipps zur verbalen und nonverbalen Kommunikation: Körpersprache im Meeting​ Weiterlesen »

WWDC 2025: Was Apple fürs Business plant​

Allgemein

width=”1125″ height=”632″ sizes=”(max-width: 1125px) 100vw, 1125px”>Apple-Experte Mark Zimmermann freute sich insbesondere über die auf der WWDC vorgestellten neuen Funktionen für die Vision Pro. Mark Zimmermann Apples Worldwide Developer Conference (WWDC) ist immer ein besonderes Ereignis im Jahr – und das nicht nur, wie der Name vermuten lässt, für Entwickler. Gleichzeitig interessieren sich nämlich auch viele Apple-Nutzer brennend dafür, was sich in Zukunft auf ihren Geräten so tut. Developer hui, Consumer pfui   Dieses Jahr waren deren Erwartungen allerdings eher gedämpft, unter anderem, nachdem klar war, dass Apple wohl wenig Neues zum Trendthema Künstliche Intelligenz beizutragen hat. Im Gegensatz dazu kam die Developer-Community auf ihre Kosten – sie erwarteten mehr als 100 Sessions und Workshops zu verschiedenen Themen rund um das Apple-Universum. Welche Neuigkeiten von Apple, speziell für den Einsatz im Enterprise, ist Thema der aktuellen Folge von TechTalk, dem Podcast von Computerwoche, CIO und CSO. Mark Zimmermann, Leiter des Center of Excellence für mobile Anwendungsentwicklung bei der EnBW und ausgewiesener Apple-Experte, die aus seiner Sicht spannendsten Ankündigungen für den Einsatz von Apple-Geräten im Business vor. Dazu gehören unter anderem neue Funktionen und Möglichkeiten für Unternehmen mit dem Apple Business Manager sowie weitere Verbesserungen beim Mobile Device Management für iPhone, iPad und Mac. Neben zahlreichen weiteren Neuerungen im Apple-Kosmos hält die Company auch der Vision Pro – zumindest softwaretechnisch – die Stange. So lassen sich die Brillen unter visionOS 26 vollständig automatisiert ins MDM integrieren. Auch manuelle Registrierung mit dem Apple Configurator ist nun möglich – selbst wenn das Gerät nicht direkt bei Apple gekauft wurde. Aber hören Sie selbst! width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/1AhZOkRs5EeiW0YbdHgS6l?utm_source=oembed”> 

WWDC 2025: Was Apple fürs Business plant​ width=”1125″ height=”632″ sizes=”(max-width: 1125px) 100vw, 1125px”>Apple-Experte Mark Zimmermann freute sich insbesondere über die auf der WWDC vorgestellten neuen Funktionen für die Vision Pro. Mark Zimmermann

Apples Worldwide Developer Conference (WWDC) ist immer ein besonderes Ereignis im Jahr – und das nicht nur, wie der Name vermuten lässt, für Entwickler. Gleichzeitig interessieren sich nämlich auch viele Apple-Nutzer brennend dafür, was sich in Zukunft auf ihren Geräten so tut.

Developer hui, Consumer pfui  

Dieses Jahr waren deren Erwartungen allerdings eher gedämpft, unter anderem, nachdem klar war, dass Apple wohl wenig Neues zum Trendthema Künstliche Intelligenz beizutragen hat. Im Gegensatz dazu kam die Developer-Community auf ihre Kosten – sie erwarteten mehr als 100 Sessions und Workshops zu verschiedenen Themen rund um das Apple-Universum.

Welche Neuigkeiten von Apple, speziell für den Einsatz im Enterprise, ist Thema der aktuellen Folge von TechTalk, dem Podcast von Computerwoche, CIO und CSO. Mark Zimmermann, Leiter des Center of Excellence für mobile Anwendungsentwicklung bei der EnBW und ausgewiesener Apple-Experte, die aus seiner Sicht spannendsten Ankündigungen für den Einsatz von Apple-Geräten im Business vor.

Dazu gehören unter anderem neue Funktionen und Möglichkeiten für Unternehmen mit dem Apple Business Manager sowie weitere Verbesserungen beim Mobile Device Management für iPhone, iPad und Mac. Neben zahlreichen weiteren Neuerungen im Apple-Kosmos hält die Company auch der Vision Pro – zumindest softwaretechnisch – die Stange. So lassen sich die Brillen unter visionOS 26 vollständig automatisiert ins MDM integrieren. Auch manuelle Registrierung mit dem Apple Configurator ist nun möglich – selbst wenn das Gerät nicht direkt bei Apple gekauft wurde. Aber hören Sie selbst!

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/1AhZOkRs5EeiW0YbdHgS6l?utm_source=oembed”>

WWDC 2025: Was Apple fürs Business plant​ Weiterlesen »

Microsofts neues GenAI-Modell soll Windows-11-Agenten antreiben​

Allgemein

Das Small Language Model Mu läuft auf der lokalen NPU der Copilot+ PCs.Alexander56891 – Shutterstock.com Microsoft kündigte eine KI-Technologie an, die es ermöglichen soll, generative KI-Agenten direkt auf Windows-Geräten ohne Internetverbindung auszuführen. Das sogenannte „Mu“-Modell, ein kleines Sprachmodell (Small Language Model; SLM), ist darauf ausgelegt, auf natürliche Sprachabfragen innerhalb des Betriebssystems zu reagieren, wie Microsoft in einem Blogbeitrag erklärt. Mu nutze dabei die Neural Processing Units (NPUs) der neuen Copilot-PCs, betont Vivek Pradeep, Vice President und Distinguished Engineer für Windows Applied Sciences bei Microsoft. Mu kommt bereits in einer Vorschauversion von Windows 11 zum Einsatz: Es steuert dort einen Agenten, der Benutzeranfragen in den Systemeinstellungen bearbeitet. Die Funktion ist seit dem 13. Juni in der Preview-Version von Windows 11 (26200.5651) für Nutzer von Copilot+-PCs verfügbar. Fokus auf effizienten Offline-Betrieb Das Modell verstehe Anfragen besser im Kontext und sei für einen effizienten Betrieb und hohe Leistung ohne Cloud-Anbindung konzipiert, schreibt Pradeep. Microsoft treibt die Integration generativer KI-Funktionen sowohl in Windows 11 als auch in Microsoft 365 massiv voran. Im Mai stellte das Unternehmen dazu den neuen Entwickler-Stack „Windows ML 2.0“ vor, mit dem KI-Funktionen einfacher in Software eingebaut werden können. Auch für Microsoft-365-Anwendungen arbeitet man an spezifischen KI-Modellen. Das Mu-Modell verfügt über 330 Millionen Parametern und wurde so angepasst, dass es lokal auf Windows-11-PCs betrieben werden kann. Da Laptops nur begrenzte Hardware-Ressourcen und Akkulaufzeiten haben, benötigen sie normalerweise für komplexe KI-Anwendungen eine Cloud-Anbindung. „Dazu war es notwendig, die Architektur des Modells und die Form der Parameter so anzupassen, dass sie besser zur Parallelverarbeitung und den Speicherbeschränkungen der Hardware passen“, erklärt Pradeep. Das Modell generiert außerdem hochwertige Antworten und versteht Anfragen besser. Microsoft hat eine angepasste Version von Mu speziell für das Einstellungsmenü trainiert, die auch auf unklare oder unvollständige Systemanfragen reagieren kann – etwa wenn nicht klar ist, ob die Helligkeit des Haupt- oder eines Zweitbildschirms angepasst werden soll. Mu basiert auf einem Encoder-Decoder-Ansatz, bei dem große Anfragen zunächst in kompakte Repräsentationen zerlegt werden, die anschließend zur Antwortgenerierung genutzt werden. Das unterscheidet es von großen Sprachmodellen (Large Language Models; LLMs), die in der Regel reine Decoder-Modelle sind und den gesamten Text zur Ausgabe verarbeiten müssen. „Durch die Trennung von Eingabe- und Ausgabetokens ermöglicht Mu eine einmalige Kodierung, was Rechen- und Speicheraufwand erheblich reduziert“, so der Microsoft-Manager weiter. „Beim Vergleich von Mu mit einem ähnlich fein abgestimmten Phi-3.5-mini haben wir festgestellt, dass Mu trotz seiner zehnmal geringeren Größe eine fast vergleichbare Leistung bietet“, so Pradeep. Diese Effizienzgewinne seien entscheidend für Echtzeitanwendungen direkt auf dem Gerät. „Die Verwaltung der Vielzahl an Windows-Einstellungen war eine Herausforderung – insbesondere wegen sich überschneidender Funktionen“. Dem Microsoft-Manager zufolge lag die Reaktionszeit unter 500 Millisekunden, was den Zielen für einen reaktionsschnellen und zuverlässigen Agenten in den Einstellungen, der auf Hunderte von Einstellungen skaliert werden kann, entspreche. Microsoft verfügt über zahlreiche GenAI-Technologien, darunter ChatGPT von OpenAI und das neueste eigene Phi 4-Modell, das Bilder, Videos und Texte generieren kann. (mb) 

Microsofts neues GenAI-Modell soll Windows-11-Agenten antreiben​ Das Small Language Model Mu läuft auf der lokalen NPU der Copilot+ PCs.Alexander56891 – Shutterstock.com

Microsoft kündigte eine KI-Technologie an, die es ermöglichen soll, generative KI-Agenten direkt auf Windows-Geräten ohne Internetverbindung auszuführen. Das sogenannte „Mu“-Modell, ein kleines Sprachmodell (Small Language Model; SLM), ist darauf ausgelegt, auf natürliche Sprachabfragen innerhalb des Betriebssystems zu reagieren, wie Microsoft in einem Blogbeitrag erklärt. Mu nutze dabei die Neural Processing Units (NPUs) der neuen Copilot-PCs, betont Vivek Pradeep, Vice President und Distinguished Engineer für Windows Applied Sciences bei Microsoft.

Mu kommt bereits in einer Vorschauversion von Windows 11 zum Einsatz: Es steuert dort einen Agenten, der Benutzeranfragen in den Systemeinstellungen bearbeitet. Die Funktion ist seit dem 13. Juni in der Preview-Version von Windows 11 (26200.5651) für Nutzer von Copilot+-PCs verfügbar.

Fokus auf effizienten Offline-Betrieb

Das Modell verstehe Anfragen besser im Kontext und sei für einen effizienten Betrieb und hohe Leistung ohne Cloud-Anbindung konzipiert, schreibt Pradeep.

Microsoft treibt die Integration generativer KI-Funktionen sowohl in Windows 11 als auch in Microsoft 365 massiv voran. Im Mai stellte das Unternehmen dazu den neuen Entwickler-Stack „Windows ML 2.0“ vor, mit dem KI-Funktionen einfacher in Software eingebaut werden können. Auch für Microsoft-365-Anwendungen arbeitet man an spezifischen KI-Modellen.

Das Mu-Modell verfügt über 330 Millionen Parametern und wurde so angepasst, dass es lokal auf Windows-11-PCs betrieben werden kann. Da Laptops nur begrenzte Hardware-Ressourcen und Akkulaufzeiten haben, benötigen sie normalerweise für komplexe KI-Anwendungen eine Cloud-Anbindung. „Dazu war es notwendig, die Architektur des Modells und die Form der Parameter so anzupassen, dass sie besser zur Parallelverarbeitung und den Speicherbeschränkungen der Hardware passen“, erklärt Pradeep.

Das Modell generiert außerdem hochwertige Antworten und versteht Anfragen besser. Microsoft hat eine angepasste Version von Mu speziell für das Einstellungsmenü trainiert, die auch auf unklare oder unvollständige Systemanfragen reagieren kann – etwa wenn nicht klar ist, ob die Helligkeit des Haupt- oder eines Zweitbildschirms angepasst werden soll.

Mu basiert auf einem Encoder-Decoder-Ansatz, bei dem große Anfragen zunächst in kompakte Repräsentationen zerlegt werden, die anschließend zur Antwortgenerierung genutzt werden. Das unterscheidet es von großen Sprachmodellen (Large Language Models; LLMs), die in der Regel reine Decoder-Modelle sind und den gesamten Text zur Ausgabe verarbeiten müssen.

„Durch die Trennung von Eingabe- und Ausgabetokens ermöglicht Mu eine einmalige Kodierung, was Rechen- und Speicheraufwand erheblich reduziert“, so der Microsoft-Manager weiter. „Beim Vergleich von Mu mit einem ähnlich fein abgestimmten Phi-3.5-mini haben wir festgestellt, dass Mu trotz seiner zehnmal geringeren Größe eine fast vergleichbare Leistung bietet“, so Pradeep. Diese Effizienzgewinne seien entscheidend für Echtzeitanwendungen direkt auf dem Gerät. „Die Verwaltung der Vielzahl an Windows-Einstellungen war eine Herausforderung – insbesondere wegen sich überschneidender Funktionen“.

Dem Microsoft-Manager zufolge lag die Reaktionszeit unter 500 Millisekunden, was den Zielen für einen reaktionsschnellen und zuverlässigen Agenten in den Einstellungen, der auf Hunderte von Einstellungen skaliert werden kann, entspreche.

Microsoft verfügt über zahlreiche GenAI-Technologien, darunter ChatGPT von OpenAI und das neueste eigene Phi 4-Modell, das Bilder, Videos und Texte generieren kann. (mb)

Microsofts neues GenAI-Modell soll Windows-11-Agenten antreiben​ Weiterlesen »

VMware-Lizenzen zu teuer? Dann machen Sie was falsch​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1969268404_16.jpg?quality=50&strip=all 3947w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1969268404_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1969268404_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1969268404_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1969268404_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1969268404_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1969268404_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1969268404_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1969268404_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1969268404_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1969268404_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Nutzt man mehrere Produkte im VCF-Bundle, relativiert sich der hohe Abo-Preis – meint Broadcom.ZikG – Shutterstock.com Joe Baguley, CTO Emea bei Broadcom, hat eine klare Empfehlung für Kunden, die von Broadcoms Entscheidung, statt Einzellizenzen nur noch kostspielige Softwarepakete wie VMware Cloud Foundation (VCF) anzubieten, enttäuscht sind. Wenn sie mehr der enthaltenen Komponten tatsächlich nutzten, würden sie den Wert dieser Bundles erkennen, erklärte Baguley gegenüber The Register. „Viele dieser Kostengeschichten relativieren sich, wenn wir mit den Kunden ins Gespräch kommen, ihre tatsächlichen Anforderungen verstehen und gemeinsam konkrete Pläne entwickeln“, so der Broadcom-Manager. In der Broadcom-Bubble Broadcom hatte nach der Übernahme von VMware Ende 2023 zahlreiche Produkte abgekündigt und die verbleibenden in zwei Abo-Paketen zusammengefasst, darunter insbesondere die Hybrid-Cloud-Plattform VCF. Das Nachsehen haben dabei insbesondere kleinere und mittlere Unternehmen, die teilweise von Kostensteigerungen um mehrere hundert Prozent betroffen sind. Bei großen Unternehmenskunden scheint die Upselling-Strategie dagegen zu funktionieren. Von unseren 10.000 größten Kunden haben mittlerweile über 87 Prozent VCF eingeführt“, erklärte Hock Tan, CEO von Broadcom, unlängst im Rahmen der Bekanntgabe der Ergebnisse für das zweite Quartal des Geschäftsjahres 2025. „Am Anfang sagen viele: ‚Alles ist teurer geworden.‘ Aber diese 87 Prozent, die verlängert haben, haben sich bewusst für VCF entschieden – als strategische Plattform für die Zukunft“, griff Baguley nun diese Entwicklung im Gespräch mit The Register auf. „Wenn wir uns mit Kunden zusammensetzen und darüber sprechen, welche Kosten sie erwarten – und welchen Nutzen sie tatsächlich aus der Plattform ziehen können –, dann ist das der entscheidende Punkt“, so der EMEA-CTO. Einige Kunden, die inzwischen VCF nutzen, hätten früher nur einzelne Komponenten wie vSphere oder bestimmte Automatisierungswerkzeuge eingesetzt, so der Manager weiter: „Jetzt entdecken sie, was alles möglich ist: Konfigurationsmanagement, Sicherheitsfunktionen, Kostenkontrolle – all die Funktionen, für die sie vorher andere Tools hatten, die aber nie wirklich nahtlos integriert waren.“ Joe Baguley, Emea-CTO von Broadcom und langjähriger VMware-Manager, verteidigt die Preisstrategie seines Arbeitgebers.Broadcom Steve Jobs lässt grüßen “Just avoid holding it in that way!” Marktbeobachter dürfte Baguleys Kommentar an den bekannten Ausspruch von Steve Jobs im Jahr 2010 erinnern. Damals gab der ehemalige Apple-Chef nicht dem schlechten Produktdesign seiner Company, sondern den Nutzern die Schuld an der Signalstörung beim iPhone 4  – weil sie mit ihrer Hand die außen am Gehäuse angebrachte Antenne („Antennagate“) störten. In ähnlicher Weise kann man als Broadcom den Kunden keinen Vorwurf machen, dass sie nicht noch mehr VM-Produkte nutzen wollen. Dabei spielt es keine Rolle, ob sie vielleicht bereits andere Lösungen und Skills im Unternehmen vorhalten, oder sich aus Angst vor einem noch stärkeren Vendor Lock-nicht noch abhängiger von VMware/Broadcom machen wollen. „Wenn Broadcom sich als guter Geschäftspartner erwiesen und gute Beziehungen zu seinen langjährigen Kunden gepflegt hätte, würden möglicherweise mehr Personen mehr Funktionen nutzen“, erklärte ein Nutzer auf Reddit. „Aber wie viele Preis- und Produktänderungen gab es allein in den letzten sechs Monaten, ganz zu schweigen von der Zeit seit Abschluss der Übernahme?“ Die Konsequenz für sein Unternehmen: „Angesichts der ständigen Änderungen würde ich mich derzeit auf keinen Fall weiter in das VMware-Ökosystem begeben. Wir versuchen, unser Risiko zu begrenzen, nicht zu erhöhen“, erklärte er. 

VMware-Lizenzen zu teuer? Dann machen Sie was falsch​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1969268404_16.jpg?quality=50&strip=all 3947w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1969268404_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1969268404_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1969268404_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1969268404_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1969268404_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1969268404_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1969268404_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1969268404_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1969268404_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_1969268404_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Nutzt man mehrere Produkte im VCF-Bundle, relativiert sich der hohe Abo-Preis – meint Broadcom.ZikG – Shutterstock.com

Joe Baguley, CTO Emea bei Broadcom, hat eine klare Empfehlung für Kunden, die von Broadcoms Entscheidung, statt Einzellizenzen nur noch kostspielige Softwarepakete wie VMware Cloud Foundation (VCF) anzubieten, enttäuscht sind. Wenn sie mehr der enthaltenen Komponten tatsächlich nutzten, würden sie den Wert dieser Bundles erkennen, erklärte Baguley gegenüber The Register.

„Viele dieser Kostengeschichten relativieren sich, wenn wir mit den Kunden ins Gespräch kommen, ihre tatsächlichen Anforderungen verstehen und gemeinsam konkrete Pläne entwickeln“, so der Broadcom-Manager.

In der Broadcom-Bubble

Broadcom hatte nach der Übernahme von VMware Ende 2023 zahlreiche Produkte abgekündigt und die verbleibenden in zwei Abo-Paketen zusammengefasst, darunter insbesondere die Hybrid-Cloud-Plattform VCF.

Das Nachsehen haben dabei insbesondere kleinere und mittlere Unternehmen, die teilweise von Kostensteigerungen um mehrere hundert Prozent betroffen sind.

Bei großen Unternehmenskunden scheint die Upselling-Strategie dagegen zu funktionieren. Von unseren 10.000 größten Kunden haben mittlerweile über 87 Prozent VCF eingeführt“, erklärte Hock Tan, CEO von Broadcom, unlängst im Rahmen der Bekanntgabe der Ergebnisse für das zweite Quartal des Geschäftsjahres 2025.

„Am Anfang sagen viele: ‚Alles ist teurer geworden.‘ Aber diese 87 Prozent, die verlängert haben, haben sich bewusst für VCF entschieden – als strategische Plattform für die Zukunft“, griff Baguley nun diese Entwicklung im Gespräch mit The Register auf. „Wenn wir uns mit Kunden zusammensetzen und darüber sprechen, welche Kosten sie erwarten – und welchen Nutzen sie tatsächlich aus der Plattform ziehen können –, dann ist das der entscheidende Punkt“, so der EMEA-CTO.

Einige Kunden, die inzwischen VCF nutzen, hätten früher nur einzelne Komponenten wie vSphere oder bestimmte Automatisierungswerkzeuge eingesetzt, so der Manager weiter: „Jetzt entdecken sie, was alles möglich ist: Konfigurationsmanagement, Sicherheitsfunktionen, Kostenkontrolle – all die Funktionen, für die sie vorher andere Tools hatten, die aber nie wirklich nahtlos integriert waren.“

Joe Baguley, Emea-CTO von Broadcom und langjähriger VMware-Manager, verteidigt die Preisstrategie seines Arbeitgebers.Broadcom

Steve Jobs lässt grüßen

“Just avoid holding it in that way!” Marktbeobachter dürfte Baguleys Kommentar an den bekannten Ausspruch von Steve Jobs im Jahr 2010 erinnern. Damals gab der ehemalige Apple-Chef nicht dem schlechten Produktdesign seiner Company, sondern den Nutzern die Schuld an der Signalstörung beim iPhone 4  – weil sie mit ihrer Hand die außen am Gehäuse angebrachte Antenne („Antennagate“) störten.

In ähnlicher Weise kann man als Broadcom den Kunden keinen Vorwurf machen, dass sie nicht noch mehr VM-Produkte nutzen wollen. Dabei spielt es keine Rolle, ob sie vielleicht bereits andere Lösungen und Skills im Unternehmen vorhalten, oder sich aus Angst vor einem noch stärkeren Vendor Lock-nicht noch abhängiger von VMware/Broadcom machen wollen.

„Wenn Broadcom sich als guter Geschäftspartner erwiesen und gute Beziehungen zu seinen langjährigen Kunden gepflegt hätte, würden möglicherweise mehr Personen mehr Funktionen nutzen“, erklärte ein Nutzer auf Reddit. „Aber wie viele Preis- und Produktänderungen gab es allein in den letzten sechs Monaten, ganz zu schweigen von der Zeit seit Abschluss der Übernahme?“

Die Konsequenz für sein Unternehmen: „Angesichts der ständigen Änderungen würde ich mich derzeit auf keinen Fall weiter in das VMware-Ökosystem begeben. Wir versuchen, unser Risiko zu begrenzen, nicht zu erhöhen“, erklärte er.

VMware-Lizenzen zu teuer? Dann machen Sie was falsch​ Weiterlesen »

So wird man einen Job als Chefentwickler los​

Allgemein

Ziehen Sie Lehren aus den Karrierefehlern unseres Autors.Anton Vierietin | shutterstock.com Im Jahr 2010 war ich als Chefentwickler bei einer ehemaligen Silicon-Valley-Größe tätig – die sich zu diesem Zeitpunkt bereits auf dem absteigenden Ast befand. Ebenso wie ihr Produkt, ein Tool, um Software zu entwickeln. Das Dev-Team, das ich in meiner Position managen durfte, war allerdings ein ausgesprochen talentiertes – und auch das Management-Team war ein umgänglicher Haufen. Ich habe den Job gemocht. Das Produkt war monolithisch – eine einzige große Installation, die am Stück erstellt und bereitgestellt werden musste. Ausgeliefert wurde einmal im Jahr. Das Development war darauf ausgerichtet, zwischen den Releases neue Funktionen zu entwickeln und Bugs zu beheben. Weil es dabei um ein Dev-Tool ging, bestand dieses aus diversen komplexen Komponenten, darunter ein Compiler, eine Runtime-Bibliothek, ein Visual Framework und eine IDE. Um das Produkt weiterhin marktrelevant zu halten, war es vor allem nötig, dieses auf neue Plattformen zu portieren. Was aufgrund der Komponenten alles andere als eine simple Aufgabenstellung war. Aber unsere Entwicklungs- und QA-Teams waren sich der damit verbundenen Aufwände stets bewusst und erfahren genug, um genau zu wissen, wie sie diese Projekte zielführend umsetzen können. Dann wurde das Unternehmen von einer anderen Firma übernommen – einem kleineren Anbieter von Datenbank-Tools. Mit dem neuen Eigentümer wurde auch ein neues Leadership-Team eingesetzt – wie das eben so üblich ist. Wir taten unser Bestes, um uns in die neue Ordnung zu integrieren, beziehungsweise integriert zu werden. Der Anfang vom Ende Obwohl Datenbank- und allgemeiner ausgerichtete Dev-Tools Schnittmengen aufweisen, war unser Produkt komplexer und auf einer tieferen Ebene angesiedelt als das unserer neuen Muttergesellschaft. Diese Diskrepanz wurde bei den Integrationsbemühungen zur Herausforderung, denn die unserem Produkt zugrundeliegenden Komponenten waren um ein Vielfaches komplexer als ein SQL-Parser und -Editor. Dem neuen Leadership-Team leuchtete das leider nicht wirklich ein. Nachdem sie zur Entscheidung gekommen waren, dass wir unser Tool sowohl auf Linux als auch auf MacOS portieren sollten, habe ich mich mit meinem Team beraten und die Anforderungen studiert. Unter dem Strich stand eine Aufwandsschätzung (ich weiß…) von circa 18 Monaten pro Migration. Natürlich haben wir auch Vorschläge erarbeitet, um diesen Zeitraum potenziell zu verkürzen – zum Beispiel indem Projekte verschoben und mehr Personal eingestellt wird (das Brooks’sche Gesetz natürlich stets im Hinterkopf). Das kam bei der neuen Führung nicht gut an. Sie waren schockiert von der Vorstellung, dass es drei Jahre dauern sollte, um die beiden neuen Plattformen zu erschließen. Ihre Schlussfolgerung: Das Team will nur auf Zeit spielen und übertreibt mit Blick auf den Aufwand maßlos, weil es eigentlich keine Lust auf Arbeit hat. Die Konsequenz: Eine Deadline von sechs Monaten – für beide Plattform-Migrationen. Aus meiner Sicht eine absolut absurde Forderung, die unmöglich zu erfüllen war. Das stimmte mich – gelinde gesagt – eher unzufrieden. Nicht nur, weil es sinnlose Nacht- und Wochenend-Schichten nach sich ziehen würde – vor allem die mehr oder weniger subtile Unterstellung, ich und mein Team seien unehrlich und faul, war eher schwierig zu verdauen. Also machte ich meine Position klar, versuchte meine Verärgerungen so gut wie möglich zu verbergen (hat nicht geklappt) – und protestierte, um meine Mannschaft vor einem sinnlosen Projekt zu bewahren, das von vorneherein zum Scheitern verurteilt war. Das stieß natürlich nicht auf viel Verständnis: Mein Vorgesetzter (der wie ich aus der Softwareentwicklung kam), wusste mit Sicherheit, wie unzumutbar die gesetzte Deadline war, vermittelte mir aber klipp und klar, dass wir es einfach versuchen müssten. Für mich war das der Anfang vom Ende: Ich wollte und konnte es nicht über mich bringen, mein Team anzuweisen, dieses Projekt anzugehen – bei dem schon vor dem Startschuss feststand, dass es an der Wand enden wird. Die Lehren der Selbstsabotage Also habe ich (aus heutiger Sicht) alles falsch gemacht, was man falsch machen kann: Ich beharrte auch gegenüber dem Leadership-Team auf meiner Protesthaltung und habe nicht ansatzweise versucht, mich als Teamplayer zu präsentieren. Stattdessen habe ich den Devs in meinem Team klar gesagt, dass ich den Plan der Geschäftsleitung für verrückt halte – und es keinen Sinn macht, das Projekt überhaupt anzugehen. Letztendlich kostete mich meine unreife Haltung dann meinen Job. Natürlich hatte ich in der Sache recht, aber ohne Rücksicht auf Jobverlust auf meinem Standpunkt zu verharren, war ein vermeidbarer, dummer Fehler. Stattdessen hätte ich als Entwickler mit Führungsverantwortung einen Mittelweg finden müssen, der sowohl die Ziele der Geschäftsleitung unterstützt als auch mein Team. Das wäre angesichts der Umstände natürlich eine Herausforderung – aber auch einen Versuch wert – gewesen. Die Lektion, die ich aus dieser Episode meiner Karriere gelernt habe, lässt sich auch auf Management-Positionen außerhalb der Softwareentwicklung übertragen. Eine Rolle dieser Art erfordert, einen Balanceakt zu vollziehen: Einerseits gilt es, gegenüber der Geschäftsleitung Loyalität an den Tag zu legen, andererseits die Mitarbeiter bestmöglich zu schützen, für die man Verantwortung trägt. Und: Manager sollten in der Lage sein, nicht immer Recht haben zu müssen – und das große Ganze über die eigenen Bedürfnisse zu stellen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

So wird man einen Job als Chefentwickler los​ Ziehen Sie Lehren aus den Karrierefehlern unseres Autors.Anton Vierietin | shutterstock.com

Im Jahr 2010 war ich als Chefentwickler bei einer ehemaligen Silicon-Valley-Größe tätig – die sich zu diesem Zeitpunkt bereits auf dem absteigenden Ast befand. Ebenso wie ihr Produkt, ein Tool, um Software zu entwickeln. Das Dev-Team, das ich in meiner Position managen durfte, war allerdings ein ausgesprochen talentiertes – und auch das Management-Team war ein umgänglicher Haufen. Ich habe den Job gemocht.

Das Produkt war monolithisch – eine einzige große Installation, die am Stück erstellt und bereitgestellt werden musste. Ausgeliefert wurde einmal im Jahr. Das Development war darauf ausgerichtet, zwischen den Releases neue Funktionen zu entwickeln und Bugs zu beheben. Weil es dabei um ein Dev-Tool ging, bestand dieses aus diversen komplexen Komponenten, darunter ein Compiler, eine Runtime-Bibliothek, ein Visual Framework und eine IDE. Um das Produkt weiterhin marktrelevant zu halten, war es vor allem nötig, dieses auf neue Plattformen zu portieren. Was aufgrund der Komponenten alles andere als eine simple Aufgabenstellung war. Aber unsere Entwicklungs- und QA-Teams waren sich der damit verbundenen Aufwände stets bewusst und erfahren genug, um genau zu wissen, wie sie diese Projekte zielführend umsetzen können.

Dann wurde das Unternehmen von einer anderen Firma übernommen – einem kleineren Anbieter von Datenbank-Tools. Mit dem neuen Eigentümer wurde auch ein neues Leadership-Team eingesetzt – wie das eben so üblich ist. Wir taten unser Bestes, um uns in die neue Ordnung zu integrieren, beziehungsweise integriert zu werden.

Der Anfang vom Ende

Obwohl Datenbank- und allgemeiner ausgerichtete Dev-Tools Schnittmengen aufweisen, war unser Produkt komplexer und auf einer tieferen Ebene angesiedelt als das unserer neuen Muttergesellschaft. Diese Diskrepanz wurde bei den Integrationsbemühungen zur Herausforderung, denn die unserem Produkt zugrundeliegenden Komponenten waren um ein Vielfaches komplexer als ein SQL-Parser und -Editor.

Dem neuen Leadership-Team leuchtete das leider nicht wirklich ein. Nachdem sie zur Entscheidung gekommen waren, dass wir unser Tool sowohl auf Linux als auch auf MacOS portieren sollten, habe ich mich mit meinem Team beraten und die Anforderungen studiert. Unter dem Strich stand eine Aufwandsschätzung (ich weiß…) von circa 18 Monaten pro Migration. Natürlich haben wir auch Vorschläge erarbeitet, um diesen Zeitraum potenziell zu verkürzen – zum Beispiel indem Projekte verschoben und mehr Personal eingestellt wird (das Brooks’sche Gesetz natürlich stets im Hinterkopf).

Das kam bei der neuen Führung nicht gut an. Sie waren schockiert von der Vorstellung, dass es drei Jahre dauern sollte, um die beiden neuen Plattformen zu erschließen. Ihre Schlussfolgerung: Das Team will nur auf Zeit spielen und übertreibt mit Blick auf den Aufwand maßlos, weil es eigentlich keine Lust auf Arbeit hat. Die Konsequenz: Eine Deadline von sechs Monaten – für beide Plattform-Migrationen.

Aus meiner Sicht eine absolut absurde Forderung, die unmöglich zu erfüllen war. Das stimmte mich – gelinde gesagt – eher unzufrieden. Nicht nur, weil es sinnlose Nacht- und Wochenend-Schichten nach sich ziehen würde – vor allem die mehr oder weniger subtile Unterstellung, ich und mein Team seien unehrlich und faul, war eher schwierig zu verdauen. Also machte ich meine Position klar, versuchte meine Verärgerungen so gut wie möglich zu verbergen (hat nicht geklappt) – und protestierte, um meine Mannschaft vor einem sinnlosen Projekt zu bewahren, das von vorneherein zum Scheitern verurteilt war.

Das stieß natürlich nicht auf viel Verständnis: Mein Vorgesetzter (der wie ich aus der Softwareentwicklung kam), wusste mit Sicherheit, wie unzumutbar die gesetzte Deadline war, vermittelte mir aber klipp und klar, dass wir es einfach versuchen müssten. Für mich war das der Anfang vom Ende: Ich wollte und konnte es nicht über mich bringen, mein Team anzuweisen, dieses Projekt anzugehen – bei dem schon vor dem Startschuss feststand, dass es an der Wand enden wird.

Die Lehren der Selbstsabotage

Also habe ich (aus heutiger Sicht) alles falsch gemacht, was man falsch machen kann: Ich beharrte auch gegenüber dem Leadership-Team auf meiner Protesthaltung und habe nicht ansatzweise versucht, mich als Teamplayer zu präsentieren. Stattdessen habe ich den Devs in meinem Team klar gesagt, dass ich den Plan der Geschäftsleitung für verrückt halte – und es keinen Sinn macht, das Projekt überhaupt anzugehen. Letztendlich kostete mich meine unreife Haltung dann meinen Job. Natürlich hatte ich in der Sache recht, aber ohne Rücksicht auf Jobverlust auf meinem Standpunkt zu verharren, war ein vermeidbarer, dummer Fehler.

Stattdessen hätte ich als Entwickler mit Führungsverantwortung einen Mittelweg finden müssen, der sowohl die Ziele der Geschäftsleitung unterstützt als auch mein Team. Das wäre angesichts der Umstände natürlich eine Herausforderung – aber auch einen Versuch wert – gewesen.

Die Lektion, die ich aus dieser Episode meiner Karriere gelernt habe, lässt sich auch auf Management-Positionen außerhalb der Softwareentwicklung übertragen. Eine Rolle dieser Art erfordert, einen Balanceakt zu vollziehen: Einerseits gilt es, gegenüber der Geschäftsleitung Loyalität an den Tag zu legen, andererseits die Mitarbeiter bestmöglich zu schützen, für die man Verantwortung trägt. Und: Manager sollten in der Lage sein, nicht immer Recht haben zu müssen – und das große Ganze über die eigenen Bedürfnisse zu stellen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

So wird man einen Job als Chefentwickler los​ Weiterlesen »

So gelingt die perfekte Rede – jederzeit​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/11/Rede-shutterstock_1982529155.jpg?quality=50&strip=all 6713w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Rede-shutterstock_1982529155.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Rede-shutterstock_1982529155.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Rede-shutterstock_1982529155.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Rede-shutterstock_1982529155.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Rede-shutterstock_1982529155.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Rede-shutterstock_1982529155.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Rede-shutterstock_1982529155.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Rede-shutterstock_1982529155.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Rede-shutterstock_1982529155.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Rede-shutterstock_1982529155.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Bauen Sie Ihre Rede dramaturgisch auf. Alles sollte auf ein Finale zustreben, das dafür sorgt, dass Ihre Rede dem Publikum im Gedächtnis bleibt – wie bei einem Feuerwerk.Dusan Petkovic -Shutterstock 198252915 Bei Reden erlahmt das Interesse der Zuhörer oft nach wenigen Minuten. Dabei blicken sie beispielsweise der Rede ihres „Chefs“ meist gespannt entgegen – außer sie kennen dessen langatmige „Ansprachen“ bereits. Um nicht für Langeweile zu sorgen, sollten sich Redner im Vorfeld der Rede “strategische” Gedanken machen und bei ihrem Vortrag einige Punkte beachten. Folgende zwölf Tipps helfen, das Publikum zu begeistern.   Tipp 1: Authentisch und glaubwürdig sein Der Erfolg einer Rede hängt stark davon ab, wie sympathisch der Redner den Zuhörern ist. Doch wie gewinnt er deren Sympathie? Vor allem dadurch, dass er authentisch wirkt. Die Rede sollte ihm also auf den Leib geschneidert sein. Unglaubwürdig wirkt es, wenn ein Erbsenzähler sich als Witzbold präsentiert oder ein Einzelkämpfer sich verbal mit den Anwesenden verbrüdert. Dann gehen die Zuhörer auf Distanz.     Tipp 2: Die Zuhörer auf eine Gedankenreise mitnehmen Ein Redner gleicht einem Reiseführer. Er nimmt seine Zuhörer mit auf eine Gedankenreise – zum Beispiel durch das abgelaufene oder kommende Jahr. Also sollte er sich im Vorfeld Folgendes überlegen: Was ist der Anlass der Reise? Wohin soll sie gehen? Und: Wer nimmt daran teil? Erst danach sollte er das Reiseprogramm, also den Inhalt und Ablauf der Rede, planen.    Tipp 3: Sich überlegen: Wer ist mein Gegenüber? Beim Planen Ihrer Rede sollten Sie wissen: Wer sitzt mir gegenüber? Und: Welche Beziehung besteht zwischen den Zuhörern? Kennen sie sich gut oder sehen sie sich nur einmal jährlich? Gehören sie derselben Organisation an oder nicht? Denn wenn Ihre Zuhörer Tag für Tag zusammenarbeiten, haben sie gemeinsame Erfahrungen: Auf diese können Sie sich beziehen. Sehen sie sich hingegen nur einmal pro Jahr, sollten Sie auf andere Elemente zurückgreifen, um ihr Gehör zu finden. Zum Beispiel die Entwicklung der Weltwirtschaft oder in der Branche. Oder solche branchenübergreifenden Themen wie die Digitalisierung, den Fachkräftemangel oder die Inflation.     Tipp 4: Mit den Zuhörern kommunizieren Ein guter Redner kommuniziert mit seinen Zuhörern – auch mit den Augen. Tragen Sie deshalb Ihre Rede so frei wie möglich vor. Sprechen Sie das Publikum auch persönlich an – doch nicht, indem Sie alle zwei, drei Minuten die Floskel „Meine sehr verehrten Damen und Herren“ wiederholen. Stellen Sie den Zuhörern vielmehr rhetorische Fragen wie „Kennen Sie folgende Situation, …?“ oder „Geht es auch Ihnen so, dass …?“. Integrieren Sie zudem Beispiele aus der Erfahrungswelt der Zuhörer in Ihre Rede. Auch etwas Humor und Selbstironie schaden nie.   Tipp 5: Sich kurzfassen Je kürzer eine Rede ist, umso besser ist sie meist. Eine Festrede zur Weihnachtsfeier sollte maximal zehn Minuten dauern. Denn bei diesem Event steht das gemeinsame Feiern im Mittelpunkt. Anders ist es bei einer Rede zum Beispiel bei einem Kick-off zu Jahresbeginn. Sie soll die Zuhörer auf die Herausforderungen im neuen Jahr einstimmen. Also kann die Rede mehr Infos enthalten und einen appellativeren Charakter haben.     Tipp 6: Auf die Kernbotschaften fokussieren Eine Rede sollte höchstens drei Kernbotschaften enthalten. Zum Beispiel: Die Arbeitsplätze sind sicher. Unser Unternehmen sieht trotz der Konjunkturschwäche und Inflation einer positiven Zukunft entgegen. Und: Dass es ihm gutgeht, verdanken wir dem Engagement aller Mitarbeitenden.    Tipp 7: Die Gedankenreise planen Für das inhaltliche Planen Ihrer Rede können Sie die Mindmapping-Methode nutzen. Sie funktioniert wie folgt: Schreiben Sie in die Mitte eines Blatt Papiers das Thema oder den Anlass der Rede. Zum Beispiel: „Strategie 2025“. Notieren Sie dann entlang von Linien, die hiervon ausgehen, alles, was Ihnen hierzu einfällt. Zum Beispiel: „Innovation“, „Mitarbeiter“, „Vertrieb“. So bekommen Sie einen Überblick über die möglichen Redeinhalte. Und wenn Sie merken, es wird zu viel? Dann streichen Sie einfach (Seiten-)Arme.  Tipp 8: Knackig einsteigen, feurig enden Planen Sie den Beginn und Schluss Ihrer Rede besonders sorgfältig. Wie aufmerksam das Publikum Ihnen zuhört, hängt weitgehend vom Einstieg ab. Gute Einstiege sind Anekdoten. Bauen Sie Ihre Rede dramaturgisch auf. Alles sollte auf ein Finale zustreben, das dafür sorgt, dass Ihre Rede dem Publikum im Gedächtnis bleibt – wie bei einem Feuerwerk.     Tipp 9: Kurze und aussagekräftige Sätze Eine Rede sollte aus möglichst kurzen Sätzen bestehen. Bei Schachtelsätzen besteht die Gefahr, dass der Redner sich verheddert. Dann werden ungeübte Redner oft nervös und verhaspeln sich immer häufiger. Und irgendwann wartet das Publikum nur noch auf Versprecher.  Tipp 10: Eine aktive, bildhafte Sprache Wichtig ist eine aktive Sprache. Also zum Beispiel „Wir planen …“ statt „Unsere Planung sieht vor …“ Durchforsten Sie Ihr Manuskript nach substantivierten Verben wie „Durchführung“ und „Neuorientierung“. Taucht ein solches Wort auf, können Sie die Aussage meist „knackiger“ formulieren.     Tipp 11: Die Rede laut üben Sicherheit gewinnen Sie durch eine gute Vorbereitung. Hierzu zählt das laute Üben. Speziell den Einstieg, das Ende und die Übergänge zwischen den Redepassagen sollten Sie so lange üben, bis Sie diese sozusagen auswendig kennen. Stoppen Sie beim Üben die Dauer der Rede, damit Sie die vorgesehene Zeit nicht überschreiten.    Tipp 12: Bei Pannen Ruhe bewahren Geraten Sie nicht in Panik, wenn Sie sich bei Ihrer Rede – trotz guter Vorbereitung – mal versprechen oder den roten Faden verlieren. Denn das Reden-halten ist nicht Ihr Haupt-Job. Deshalb tragen kleine Patzer eher dazu bei, dass Sie authentisch wirken.   

So gelingt die perfekte Rede – jederzeit​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/11/Rede-shutterstock_1982529155.jpg?quality=50&strip=all 6713w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Rede-shutterstock_1982529155.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Rede-shutterstock_1982529155.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Rede-shutterstock_1982529155.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Rede-shutterstock_1982529155.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Rede-shutterstock_1982529155.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Rede-shutterstock_1982529155.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Rede-shutterstock_1982529155.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Rede-shutterstock_1982529155.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Rede-shutterstock_1982529155.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/11/Rede-shutterstock_1982529155.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Bauen Sie Ihre Rede dramaturgisch auf. Alles sollte auf ein Finale zustreben, das dafür sorgt, dass Ihre Rede dem Publikum im Gedächtnis bleibt – wie bei einem Feuerwerk.Dusan Petkovic -Shutterstock 198252915

Bei Reden erlahmt das Interesse der Zuhörer oft nach wenigen Minuten. Dabei blicken sie beispielsweise der Rede ihres „Chefs“ meist gespannt entgegen – außer sie kennen dessen langatmige „Ansprachen“ bereits. Um nicht für Langeweile zu sorgen, sollten sich Redner im Vorfeld der Rede “strategische” Gedanken machen und bei ihrem Vortrag einige Punkte beachten. Folgende zwölf Tipps helfen, das Publikum zu begeistern.

 

Tipp 1: Authentisch und glaubwürdig sein

Der Erfolg einer Rede hängt stark davon ab, wie sympathisch der Redner den Zuhörern ist. Doch wie gewinnt er deren Sympathie? Vor allem dadurch, dass er authentisch wirkt. Die Rede sollte ihm also auf den Leib geschneidert sein. Unglaubwürdig wirkt es, wenn ein Erbsenzähler sich als Witzbold präsentiert oder ein Einzelkämpfer sich verbal mit den Anwesenden verbrüdert. Dann gehen die Zuhörer auf Distanz.  

 

Tipp 2: Die Zuhörer auf eine Gedankenreise mitnehmen

Ein Redner gleicht einem Reiseführer. Er nimmt seine Zuhörer mit auf eine Gedankenreise – zum Beispiel durch das abgelaufene oder kommende Jahr. Also sollte er sich im Vorfeld Folgendes überlegen: Was ist der Anlass der Reise? Wohin soll sie gehen? Und: Wer nimmt daran teil? Erst danach sollte er das Reiseprogramm, also den Inhalt und Ablauf der Rede, planen. 

 

Tipp 3: Sich überlegen: Wer ist mein Gegenüber?

Beim Planen Ihrer Rede sollten Sie wissen: Wer sitzt mir gegenüber? Und: Welche Beziehung besteht zwischen den Zuhörern? Kennen sie sich gut oder sehen sie sich nur einmal jährlich? Gehören sie derselben Organisation an oder nicht? Denn wenn Ihre Zuhörer Tag für Tag zusammenarbeiten, haben sie gemeinsame Erfahrungen: Auf diese können Sie sich beziehen. Sehen sie sich hingegen nur einmal pro Jahr, sollten Sie auf andere Elemente zurückgreifen, um ihr Gehör zu finden. Zum Beispiel die Entwicklung der Weltwirtschaft oder in der Branche. Oder solche branchenübergreifenden Themen wie die Digitalisierung, den Fachkräftemangel oder die Inflation.  

 

Tipp 4: Mit den Zuhörern kommunizieren

Ein guter Redner kommuniziert mit seinen Zuhörern – auch mit den Augen. Tragen Sie deshalb Ihre Rede so frei wie möglich vor. Sprechen Sie das Publikum auch persönlich an – doch nicht, indem Sie alle zwei, drei Minuten die Floskel „Meine sehr verehrten Damen und Herren“ wiederholen. Stellen Sie den Zuhörern vielmehr rhetorische Fragen wie „Kennen Sie folgende Situation, …?“ oder „Geht es auch Ihnen so, dass …?“. Integrieren Sie zudem Beispiele aus der Erfahrungswelt der Zuhörer in Ihre Rede. Auch etwas Humor und Selbstironie schaden nie.  

Tipp 5: Sich kurzfassen

Je kürzer eine Rede ist, umso besser ist sie meist. Eine Festrede zur Weihnachtsfeier sollte maximal zehn Minuten dauern. Denn bei diesem Event steht das gemeinsame Feiern im Mittelpunkt. Anders ist es bei einer Rede zum Beispiel bei einem Kick-off zu Jahresbeginn. Sie soll die Zuhörer auf die Herausforderungen im neuen Jahr einstimmen. Also kann die Rede mehr Infos enthalten und einen appellativeren Charakter haben.  

 

Tipp 6: Auf die Kernbotschaften fokussieren

Eine Rede sollte höchstens drei Kernbotschaften enthalten. Zum Beispiel: Die Arbeitsplätze sind sicher. Unser Unternehmen sieht trotz der Konjunkturschwäche und Inflation einer positiven Zukunft entgegen. Und: Dass es ihm gutgeht, verdanken wir dem Engagement aller Mitarbeitenden. 

 

Tipp 7: Die Gedankenreise planen

Für das inhaltliche Planen Ihrer Rede können Sie die Mindmapping-Methode nutzen. Sie funktioniert wie folgt: Schreiben Sie in die Mitte eines Blatt Papiers das Thema oder den Anlass der Rede. Zum Beispiel: „Strategie 2025“. Notieren Sie dann entlang von Linien, die hiervon ausgehen, alles, was Ihnen hierzu einfällt. Zum Beispiel: „Innovation“, „Mitarbeiter“, „Vertrieb“. So bekommen Sie einen Überblick über die möglichen Redeinhalte. Und wenn Sie merken, es wird zu viel? Dann streichen Sie einfach (Seiten-)Arme. 

Tipp 8: Knackig einsteigen, feurig enden

Planen Sie den Beginn und Schluss Ihrer Rede besonders sorgfältig. Wie aufmerksam das Publikum Ihnen zuhört, hängt weitgehend vom Einstieg ab. Gute Einstiege sind Anekdoten. Bauen Sie Ihre Rede dramaturgisch auf. Alles sollte auf ein Finale zustreben, das dafür sorgt, dass Ihre Rede dem Publikum im Gedächtnis bleibt – wie bei einem Feuerwerk.  

 

Tipp 9: Kurze und aussagekräftige Sätze

Eine Rede sollte aus möglichst kurzen Sätzen bestehen. Bei Schachtelsätzen besteht die Gefahr, dass der Redner sich verheddert. Dann werden ungeübte Redner oft nervös und verhaspeln sich immer häufiger. Und irgendwann wartet das Publikum nur noch auf Versprecher. 

Tipp 10: Eine aktive, bildhafte Sprache

Wichtig ist eine aktive Sprache. Also zum Beispiel „Wir planen …“ statt „Unsere Planung sieht vor …“ Durchforsten Sie Ihr Manuskript nach substantivierten Verben wie „Durchführung“ und „Neuorientierung“. Taucht ein solches Wort auf, können Sie die Aussage meist „knackiger“ formulieren.  

 

Tipp 11: Die Rede laut üben

Sicherheit gewinnen Sie durch eine gute Vorbereitung. Hierzu zählt das laute Üben. Speziell den Einstieg, das Ende und die Übergänge zwischen den Redepassagen sollten Sie so lange üben, bis Sie diese sozusagen auswendig kennen. Stoppen Sie beim Üben die Dauer der Rede, damit Sie die vorgesehene Zeit nicht überschreiten. 

 

Tipp 12: Bei Pannen Ruhe bewahren

Geraten Sie nicht in Panik, wenn Sie sich bei Ihrer Rede – trotz guter Vorbereitung – mal versprechen oder den roten Faden verlieren. Denn das Reden-halten ist nicht Ihr Haupt-Job. Deshalb tragen kleine Patzer eher dazu bei, dass Sie authentisch wirken.  

So gelingt die perfekte Rede – jederzeit​ Weiterlesen »

SAP S/4HANA –Trend geht zu Cloud, KI und höheren Preisen​

Allgemein

width=”1683″ height=”947″ sizes=”(max-width: 1683px) 100vw, 1683px”>Mit dem Umstieg auf S/4HANA hoffen viele Anwenderunternehmen auf mehr Schub in ihrer digitalen Transformation.Photon photo – shutterstock.com 81 Prozent der Unternehmen nutzen ein ERP-System, meist von SAP – das ist erfreulich für den größten deutschen Softwarehersteller. Zwei Drittel davon arbeiten bereits mit SAP S/4HANA, entweder on-premises oder als Cloud-Edition (Public/Private). Das ist angesichts des baldigen Support-Endes für SAP ECC 6.0 erwartbar. SAP S/4HANA dominiert ERP-Markt mit klarem Trend zur Cloud Dennoch setzen 35 Prozent noch ältere SAP-Systeme wie ECC 6.0 oder R/3 ein. Bemerkenswert ist, dass nur ein Fünftel der SAP-S/4HANA-Nutzer die Suite on-premises betreibt; 46 Prozent nutzen sie in der Cloud eines Hyperscalers (Amazon Web Services, Microsoft Azure, Google Cloud Platform) oder eines professionellen Hosting-Anbieters. 26 Prozent arbeiten mit SAPs eigenen Cloud-Editionen (19 Prozent die Public Cloud und sieben Prozent die Private Cloud). Sechs Prozent der Befragten setzen auf hybride Two-Tier-Modelle. SAP S/4HANA wird entweder im Verbund mit einer der Cloud-Editionen eingesetzt oder nach dem Clean-Core-Ansatz durch Cloud-Apps und -Services auf Basis der SAP Business Technology Platform (SAP BTP) erweitert. Der Trend zur Cloud hält an: 85 Prozent der Unternehmen, die derzeit on-premises mit SAP S/4HANA arbeiten, wollen mittelfristig in die Cloud wechseln, davon 58 Prozent zur Hyperscaler-Cloud, 21 Prozent zur Public Cloud und sechs Prozent zur Private Cloud eines Hosting-Anbieters oder zur SAP HANA Enterprise Cloud (HEC). Das ist das Kernergebnis der Studie „SAP S/4HANA 2025“, die CIO und COMPUTERWOCHE gemeinsam mit den Partnern Stibo Systems, All for One Group, Spirit/21 und USU realisiert haben. An der Studie beteiligten sich 307 C-Level-Business- und IT-Entscheiderinnen und -entscheider, IT-Leiterinnen und -Leiter sowie Fachbereichsvertreter aus Unternehmen unterschiedlichster Branchen, Größen und Umsatzklassen in Deutschland. Vorteile im Wettbewerb und Business treiben Umstieg voran SAP S/4HANA wird besonders häufig in größeren Unternehmen mit 1.000 und mehr Beschäftigten (74 Prozent) eingesetzt, aber auch in kleinen Betrieben mit weniger als 250 Beschäftigten (70 Prozent). Überraschend zurückhaltend zeigen sich hingegen mittelgroße Firmen mit 250 bis 999 Beschäftigten (nur 56 Prozent). Möglicherweise haben kleinere Firmen mit vielleicht einfacher gestrickten SAP-Installationen bereits früher migriert, während mittelgroße Betriebe mit komplexeren SAP-Infrastrukturen noch zögern. Grundsätzlich will die Mehrheit der Befragten SAP S/4HANA zügig einführen oder auf das aktuelle Release wechseln: 52 Prozent binnen zwölf Monaten. 13 Prozent stehen kurz vor dem Go-Live. 61 Prozent sehen darin einen Wettbewerbsvorteil. Unabhängig vom Zeitpunkt der Umstellung erwarten die Unternehmen einen klaren Business-Nutzen von SAP S/4HANA, in erster Linie schnellere und flexiblere Prozesse (35 Prozent), Kosteneinsparungen (32 Prozent) und Umsatzwachstum (31 Prozent). Aspekte wie Datenmanagement oder Automatisierung rangieren weiter unten auf der Wunschliste, obwohl auch sie Effizienz bringen und datengetriebene digitale Geschäftsmodelle ermöglichen. Das ist überraschend, da 71 Prozent SAP S/4HANA als wichtig bis entscheidend für ihre digitale Transformation einstufen. Die Mehrheit der Befragten will SAP S/4HANA zügig einführen oder darauf wechseln: 52 Prozent binnen zwölf Monaten. Research Services: Patrick Birnbreier Dabei erfüllt SAP S/4HANA die Anforderungen der Unternehmen im Hinblick auf den geschäftlichen Nutzen offenbar weitgehend: 85 Prozent sind mit der ERP-Suite „sehr zufrieden“ oder „zufrieden“ und 77 Prozent sind es auch mit dem Projektverlauf – unabhängig davon, ob ein Greenfield- oder Brownfield-Ansatz verfolgt wird. Allerdings zeigen sich Unterschiede bei den Funktionsträgern. Während 94 Prozent der C-Level-Verantwortlichen und 83 Prozent der Fachbereiche zufrieden sind, sind es bei den IT-Leitern nur 62 Prozent. Zufriedenheit hoch, Defizite bei Vorbereitung auf den Wechsel Die hohe Zufriedenheitsquote ist auch ein Indiz dafür, dass die mit der Umstellung auf SAP S/4HANA verbundenen Herausforderungen zufriedenstellend gemeistert wurden. Zu den größten Hürden zählen die Anpassung der IT-Landschaft und -Architektur (35 Prozent), die Verwaltung und der Abgleich von Stammdaten aus unterschiedlichen Quellsystemen (33 Prozent) sowie die Einrichtung einer „Single Source of Truth“ für Kunden-, Produkt- oder Lieferantendaten (28 Prozent). Auffallend ist, dass nur elf Prozent der Befragten über einen Personalengpass in der internen IT-Abteilung klagen. Zu den größten Herausforderungen zählen die Anpassung der IT-Landschaft und -Architektur (35 Prozent) und die Verwaltung und der Abgleich von Stammdaten aus unterschiedlichen Quellsystemen (33 Prozent). Research Services: Patrick Birnbreier Defizite zeigen sich allerdings bei der Vorbereitung zur Umstellung: Nur 48 Prozent der Befragten stimmen die SAP-S/4HANA-Einsatzziele mit der IT-Strategie ab, 43 Prozent mit der Gesamtstrategie und 33 Prozent mit den operativen Zielen der Fachbereiche. Entsprechend bewerten nur 35 Prozent ihren Reifegrad in Bezug auf Organisation und Prozesse als „hervorragend” oder „sehr gut”. Geht es um den technischen Umstieg auf SAP S/4HANA, setzen 41 Prozent auf ein hybrides Modell und damit auf den Mix aus Greenfield- und Brownfield-Methode, auch bekannt als Color-Field- oder Selective-Data-Transition-Ansatz. 32 Prozent führen eine System Conversion (Brownfield) und ein Fünftel eine Neueinführung auf der grünen Wiese (Greenfield) durch. Rege Nutzung von SAP BTP und SAP Business AI Wichtige Aufschlüsse liefert die Studie zum Platform-as-a-Service-Angebot (PaaS) SAP BTP und zum Einsatz der SAP-eigenen KI-Lösungen (SAP Business AI). Die SAP BTP nutzen 67 Prozent, um Drittlösungen und Eigenentwicklungen in S/4HANA einzubinden, bei 26 Prozent ist dies geplant. Im SAP-Umfeld ist die SAP BTP somit der „Quasi-Standard“ bei der Anwendungsintegration. Die PaaS-Plattform wird vielerorts auch in anderen Bereichen eingesetzt. Besonders häufig wird sie für die Applikationsentwicklung und Automatisierung (51 Prozent), das Datenbank- und Datenmanagement (36 Prozent) sowie die erweiterte Planung und Analyse (35 Prozent, Extended Planning and Analysis = xP&A) verwendet. Vor dem Hintergrund der Ankündigung von SAP-CEO Christian Klein, KI für Unternehmen greifbar und allgegenwärtig zu machen, ist es besonders interessant, dass über zwei Drittel (67 Prozent) KI-Angebote von SAP (SAP Business AI) bereits umfassend oder gezielt für bestimmte Aufgaben nutzen, 15 Prozent sporadisch. 13 Prozent planen den Einsatz fest ein. Der hohe Nutzungsgrad belegt, dass SAPs KI-Angebot bei Kunden gut ankommt, zumal der Einsatz einen klaren Mehrwert bietet. Dazu zählen in erster Linie eine Prozessbeschleunigung (52 Prozent) und Kostenreduzierung (45 Prozent), aber auch die Prozessautomatisierung und die Einhaltung von Compliance-Anforderungen (jeweils 39 Prozent). Über zwei Drittel (67 Prozent) nutzen KI-Angebote von SAP (SAP Business AI) bereits umfassend oder gezielt für Aufgaben. Research Services: Patrick Birnbreier Investitionsbereitschaft trotz Budgetengpass durch Preisaufschlag Die aktuelle Studie hält darüber hinaus weitere aufschlussreiche und überraschende Ergebnisse bereit. Ein Beispiel ist die Preispolitik von SAP, die seit jeher kontrovers diskutiert und vielfach kritisiert wird. Obwohl jeder Zweite konkrete Probleme hat und 58 Prozent ernsthaft darüber nachdenken, SAP S/4HANA durch ein anderes ERP-System zu ersetzen, halten vier Fünftel der Befragten die aktuellen Preiserhöhungen für Wartung und Support für adäquat und nachvollziehbar. Dieser Widerspruch ist nicht wirklich erklärbar. Nur 17 Prozent bringen „eher kein“ oder „gar kein“ Verständnis dafür auf. Dennoch wollen drei Viertel der Befragten in den kommenden 12 bis 24 Monaten weiter in SAP S/4HANA investieren („auf jeden Fall“ oder „wahrscheinlich“). Ein Fünftel ist unentschieden und sagt „vielleicht“. Ganz oben auf der Prioritätenliste stehen das Rechnungswesen (46 Prozent), der Einkauf/die Beschaffung (39 Prozent) und das Customer-Relationship-Management (CRM mit 36 Prozent). Wer investieren will, benötigt ein entsprechendes Budget. Dieses steigt zwar bei knapp drei Viertel der Befragten, jedoch unterschiedlich stark. Bei zehn Prozent wächst es um mehr als zehn Prozent, bei einem Drittel um fünf bis zehn Prozent und bei etwas mehr als einem Drittel um weniger als fünf Prozent. Das bedeutet: Vielen Unternehmen dürfte aufgrund der Preiserhöhungen von SAP nur wenig Spielraum für zusätzliche Investitionen in SAP S/4HANA bleiben. Die neue Studie “SAP S/4HANA 2025” von CIO Research Services Research Services: Patrick Birnbreier Studiensteckbrief Herausgeber: CIO, CSO und COMPUTERWOCHE Studienpartner: Stibo Systems GmbH; All for One Group SE; SPIRIT/21 GmbH; USU Software AG Grundgesamtheit: Oberste (IT-)Verantwortliche in Unternehmen der DACH-Region: Beteiligte an strategischen (IT-)Entscheidungsprozessen im C-Level-Bereich und in den Fachbereichen (LoBs); Entscheidungsbefugte sowie Experten und Expertinnen aus dem IT-Bereich Teilnehmergenerierung: Persönliche E-Mail-Einladung über die Entscheiderdatenbank von CIO, CSO und COMPUTERWOCHE sowie – zur Erfüllung von Quotenvorgaben – über externe Online-Access-Panels Gesamtstichprobe: 307 abgeschlossene und qualifizierte Interviews Untersuchungszeitraum: 2. bis 5. Mai 2025 Methode: Online-Umfrage (CAWI) Fragebogenentwicklung & Durchführung: Custom Research Team von CIO, CSO und Computerwoche in Abstimmung mit den Studienpartnern 

SAP S/4HANA –Trend geht zu Cloud, KI und höheren Preisen​ width=”1683″ height=”947″ sizes=”(max-width: 1683px) 100vw, 1683px”>Mit dem Umstieg auf S/4HANA hoffen viele Anwenderunternehmen auf mehr Schub in ihrer digitalen Transformation.Photon photo – shutterstock.com

81 Prozent der Unternehmen nutzen ein ERP-System, meist von SAP – das ist erfreulich für den größten deutschen Softwarehersteller. Zwei Drittel davon arbeiten bereits mit SAP S/4HANA, entweder on-premises oder als Cloud-Edition (Public/Private). Das ist angesichts des baldigen Support-Endes für SAP ECC 6.0 erwartbar.

SAP S/4HANA dominiert ERP-Markt mit klarem Trend zur Cloud

Dennoch setzen 35 Prozent noch ältere SAP-Systeme wie ECC 6.0 oder R/3 ein. Bemerkenswert ist, dass nur ein Fünftel der SAP-S/4HANA-Nutzer die Suite on-premises betreibt; 46 Prozent nutzen sie in der Cloud eines Hyperscalers (Amazon Web Services, Microsoft Azure, Google Cloud Platform) oder eines professionellen Hosting-Anbieters. 26 Prozent arbeiten mit SAPs eigenen Cloud-Editionen (19 Prozent die Public Cloud und sieben Prozent die Private Cloud). Sechs Prozent der Befragten setzen auf hybride Two-Tier-Modelle. SAP S/4HANA wird entweder im Verbund mit einer der Cloud-Editionen eingesetzt oder nach dem Clean-Core-Ansatz durch Cloud-Apps und -Services auf Basis der SAP Business Technology Platform (SAP BTP) erweitert.

Der Trend zur Cloud hält an: 85 Prozent der Unternehmen, die derzeit on-premises mit SAP S/4HANA arbeiten, wollen mittelfristig in die Cloud wechseln, davon 58 Prozent zur Hyperscaler-Cloud, 21 Prozent zur Public Cloud und sechs Prozent zur Private Cloud eines Hosting-Anbieters oder zur SAP HANA Enterprise Cloud (HEC).

Das ist das Kernergebnis der Studie „SAP S/4HANA 2025“, die CIO und COMPUTERWOCHE gemeinsam mit den Partnern Stibo Systems, All for One Group, Spirit/21 und USU realisiert haben. An der Studie beteiligten sich 307 C-Level-Business- und IT-Entscheiderinnen und -entscheider, IT-Leiterinnen und -Leiter sowie Fachbereichsvertreter aus Unternehmen unterschiedlichster Branchen, Größen und Umsatzklassen in Deutschland.

Vorteile im Wettbewerb und Business treiben Umstieg voran

SAP S/4HANA wird besonders häufig in größeren Unternehmen mit 1.000 und mehr Beschäftigten (74 Prozent) eingesetzt, aber auch in kleinen Betrieben mit weniger als 250 Beschäftigten (70 Prozent). Überraschend zurückhaltend zeigen sich hingegen mittelgroße Firmen mit 250 bis 999 Beschäftigten (nur 56 Prozent). Möglicherweise haben kleinere Firmen mit vielleicht einfacher gestrickten SAP-Installationen bereits früher migriert, während mittelgroße Betriebe mit komplexeren SAP-Infrastrukturen noch zögern.

Grundsätzlich will die Mehrheit der Befragten SAP S/4HANA zügig einführen oder auf das aktuelle Release wechseln: 52 Prozent binnen zwölf Monaten. 13 Prozent stehen kurz vor dem Go-Live. 61 Prozent sehen darin einen Wettbewerbsvorteil. Unabhängig vom Zeitpunkt der Umstellung erwarten die Unternehmen einen klaren Business-Nutzen von SAP S/4HANA, in erster Linie schnellere und flexiblere Prozesse (35 Prozent), Kosteneinsparungen (32 Prozent) und Umsatzwachstum (31 Prozent). Aspekte wie Datenmanagement oder Automatisierung rangieren weiter unten auf der Wunschliste, obwohl auch sie Effizienz bringen und datengetriebene digitale Geschäftsmodelle ermöglichen. Das ist überraschend, da 71 Prozent SAP S/4HANA als wichtig bis entscheidend für ihre digitale Transformation einstufen.

Die Mehrheit der Befragten will SAP S/4HANA zügig einführen oder darauf wechseln: 52 Prozent binnen zwölf Monaten.
Research Services: Patrick Birnbreier

Dabei erfüllt SAP S/4HANA die Anforderungen der Unternehmen im Hinblick auf den geschäftlichen Nutzen offenbar weitgehend: 85 Prozent sind mit der ERP-Suite „sehr zufrieden“ oder „zufrieden“ und 77 Prozent sind es auch mit dem Projektverlauf – unabhängig davon, ob ein Greenfield- oder Brownfield-Ansatz verfolgt wird. Allerdings zeigen sich Unterschiede bei den Funktionsträgern. Während 94 Prozent der C-Level-Verantwortlichen und 83 Prozent der Fachbereiche zufrieden sind, sind es bei den IT-Leitern nur 62 Prozent.

Zufriedenheit hoch, Defizite bei Vorbereitung auf den Wechsel

Die hohe Zufriedenheitsquote ist auch ein Indiz dafür, dass die mit der Umstellung auf SAP S/4HANA verbundenen Herausforderungen zufriedenstellend gemeistert wurden. Zu den größten Hürden zählen die Anpassung der IT-Landschaft und -Architektur (35 Prozent), die Verwaltung und der Abgleich von Stammdaten aus unterschiedlichen Quellsystemen (33 Prozent) sowie die Einrichtung einer „Single Source of Truth“ für Kunden-, Produkt- oder Lieferantendaten (28 Prozent). Auffallend ist, dass nur elf Prozent der Befragten über einen Personalengpass in der internen IT-Abteilung klagen.

Zu den größten Herausforderungen zählen die Anpassung der IT-Landschaft und -Architektur (35 Prozent) und die Verwaltung und der Abgleich von Stammdaten aus unterschiedlichen Quellsystemen (33 Prozent).
Research Services: Patrick Birnbreier

Defizite zeigen sich allerdings bei der Vorbereitung zur Umstellung: Nur 48 Prozent der Befragten stimmen die SAP-S/4HANA-Einsatzziele mit der IT-Strategie ab, 43 Prozent mit der Gesamtstrategie und 33 Prozent mit den operativen Zielen der Fachbereiche. Entsprechend bewerten nur 35 Prozent ihren Reifegrad in Bezug auf Organisation und Prozesse als „hervorragend” oder „sehr gut”.

Geht es um den technischen Umstieg auf SAP S/4HANA, setzen 41 Prozent auf ein hybrides Modell und damit auf den Mix aus Greenfield- und Brownfield-Methode, auch bekannt als Color-Field- oder Selective-Data-Transition-Ansatz. 32 Prozent führen eine System Conversion (Brownfield) und ein Fünftel eine Neueinführung auf der grünen Wiese (Greenfield) durch.

Rege Nutzung von SAP BTP und SAP Business AI

Wichtige Aufschlüsse liefert die Studie zum Platform-as-a-Service-Angebot (PaaS) SAP BTP und zum Einsatz der SAP-eigenen KI-Lösungen (SAP Business AI). Die SAP BTP nutzen 67 Prozent, um Drittlösungen und Eigenentwicklungen in S/4HANA einzubinden, bei 26 Prozent ist dies geplant. Im SAP-Umfeld ist die SAP BTP somit der „Quasi-Standard“ bei der Anwendungsintegration. Die PaaS-Plattform wird vielerorts auch in anderen Bereichen eingesetzt. Besonders häufig wird sie für die Applikationsentwicklung und Automatisierung (51 Prozent), das Datenbank- und Datenmanagement (36 Prozent) sowie die erweiterte Planung und Analyse (35 Prozent, Extended Planning and Analysis = xP&A) verwendet.

Vor dem Hintergrund der Ankündigung von SAP-CEO Christian Klein, KI für Unternehmen greifbar und allgegenwärtig zu machen, ist es besonders interessant, dass über zwei Drittel (67 Prozent) KI-Angebote von SAP (SAP Business AI) bereits umfassend oder gezielt für bestimmte Aufgaben nutzen, 15 Prozent sporadisch. 13 Prozent planen den Einsatz fest ein. Der hohe Nutzungsgrad belegt, dass SAPs KI-Angebot bei Kunden gut ankommt, zumal der Einsatz einen klaren Mehrwert bietet. Dazu zählen in erster Linie eine Prozessbeschleunigung (52 Prozent) und Kostenreduzierung (45 Prozent), aber auch die Prozessautomatisierung und die Einhaltung von Compliance-Anforderungen (jeweils 39 Prozent).

Über zwei Drittel (67 Prozent) nutzen KI-Angebote von SAP (SAP Business AI) bereits umfassend oder gezielt für Aufgaben.
Research Services: Patrick Birnbreier

Investitionsbereitschaft trotz Budgetengpass durch Preisaufschlag

Die aktuelle Studie hält darüber hinaus weitere aufschlussreiche und überraschende Ergebnisse bereit. Ein Beispiel ist die Preispolitik von SAP, die seit jeher kontrovers diskutiert und vielfach kritisiert wird. Obwohl jeder Zweite konkrete Probleme hat und 58 Prozent ernsthaft darüber nachdenken, SAP S/4HANA durch ein anderes ERP-System zu ersetzen, halten vier Fünftel der Befragten die aktuellen Preiserhöhungen für Wartung und Support für adäquat und nachvollziehbar. Dieser Widerspruch ist nicht wirklich erklärbar. Nur 17 Prozent bringen „eher kein“ oder „gar kein“ Verständnis dafür auf.

Dennoch wollen drei Viertel der Befragten in den kommenden 12 bis 24 Monaten weiter in SAP S/4HANA investieren („auf jeden Fall“ oder „wahrscheinlich“). Ein Fünftel ist unentschieden und sagt „vielleicht“. Ganz oben auf der Prioritätenliste stehen das Rechnungswesen (46 Prozent), der Einkauf/die Beschaffung (39 Prozent) und das Customer-Relationship-Management (CRM mit 36 Prozent). Wer investieren will, benötigt ein entsprechendes Budget. Dieses steigt zwar bei knapp drei Viertel der Befragten, jedoch unterschiedlich stark. Bei zehn Prozent wächst es um mehr als zehn Prozent, bei einem Drittel um fünf bis zehn Prozent und bei etwas mehr als einem Drittel um weniger als fünf Prozent. Das bedeutet: Vielen Unternehmen dürfte aufgrund der Preiserhöhungen von SAP nur wenig Spielraum für zusätzliche Investitionen in SAP S/4HANA bleiben.

Die neue Studie “SAP S/4HANA 2025” von CIO Research Services
Research Services: Patrick Birnbreier

Studiensteckbrief

Herausgeber: CIO, CSO und COMPUTERWOCHE

Studienpartner: Stibo Systems GmbH; All for One Group SE; SPIRIT/21 GmbH; USU Software AG

Grundgesamtheit: Oberste (IT-)Verantwortliche in Unternehmen der DACH-Region: Beteiligte an strategischen (IT-)Entscheidungsprozessen im C-Level-Bereich und in den Fachbereichen (LoBs); Entscheidungsbefugte sowie Experten und Expertinnen aus dem IT-Bereich

Teilnehmergenerierung: Persönliche E-Mail-Einladung über die Entscheiderdatenbank von CIO, CSO und COMPUTERWOCHE sowie – zur Erfüllung von Quotenvorgaben – über externe Online-Access-Panels

Gesamtstichprobe: 307 abgeschlossene und qualifizierte Interviews

Untersuchungszeitraum: 2. bis 5. Mai 2025

Methode: Online-Umfrage (CAWI) Fragebogenentwicklung & Durchführung: Custom Research Team von CIO, CSO und Computerwoche in Abstimmung mit den Studienpartnern

SAP S/4HANA –Trend geht zu Cloud, KI und höheren Preisen​ Weiterlesen »

6 Mittel gegen Cloud Whiplash​

Allgemein

Cloud Journeys die zu rasant ablaufen, können spürbare Folgen nach sich ziehen. Foto: drpnncpptak | shutterstock.comIm englischsprachigen Raum hat sich der Begriff “Cloud Whiplash” (Cloud-Schleudertrauma) etabliert. Er beschreibt den Zustand, der entsteht, wenn Unternehmen Cloud-Infrastrukturen besonders rasant einführen und anschließend von diversen Problemen und Herausforderungen heimgesucht werden, weil sie Mühe haben mit der technologischen Entwicklung, den diversen verschiedenen Services sowie den sich verändernden Business-Anforderungen Schritt zu halten.Die Ursache für Cloud Whiplash liegt in aller Regel darin, dass die Cloud-Strategie (zu) häufig geändert wird, was zu Ineffizienzen, Sicherheitslücken und Betriebsunterbrechungen führen kann. Der Stress, der entsteht, wenn die eigentlich nötige Arbeit nicht verrichtet werden kann oder nicht die nötigen Ressourcen zur Verfügung stehen, bildet die Grundlage für Cloud-Schleudertraumata.Um das zu vermeiden, ist ein strategischer Ansatz notwendig. Den gibt es zum Beispiel bei diversen Beratungshäusern für rund 1.000 Euro die Stunde – was oft kein guter Deal ist, denn eigentlich kommt es dabei im Wesentlichen auf Collaboration an: Unternehmen, die einen Cloud Whiplash erleiden, sind in der Regel silobehaftet und ihre Belegschaft arbeitet nicht darauf hin, ein gemeinsames Geschäftsziel zu erreichen. Gegen Zustände wie diese können die folgenden sechs Maßnahmen helfen – die eher in den Bereich “People” als in den der Technologie fallen.1. Geschäftsbedarf definierenEs mag offensichtlich erscheinen, wird aber oft übersehen: Bevor ein Unternehmen Cloud-Dienste einführt, sollte Klarheit darüber bestehen, welche Ziele erreicht werden sollen und welche Anforderungen dafür erfüllt sein müssen. Anderenfalls enden diese Firmen mit Services, die nicht mit den Geschäftszielen in Einklang stehen – und es nimmt seinen Lauf: Betriebsteams werden von Cloud-Systemen kalt erwischt, Sicherheitsteams sind ebenso schlecht vorbereitet, während die Finance-Abteilung keine Ahnung hat, wie sie die Cloud-Kosten tracken soll und die Rechtsabteilung nicht auf dem aktuellen Stand der Dinge in Sachen Cloud und Compliance ist.Was Unternehmen an dieser Stelle brauchen, ist ein detailliertes Assessment ihrer aktuellen und zukünftigen Bedürfnisse. Das umfasst folgende Aspekte:Workload-Typen,Datenschutzanforderungen,Compliance-Verpflichtungen sowiePerformance-Erwartungen. Mit einem umfassenden Verständnis dieser Faktoren können Unternehmen fundiertere Entscheidungen darüber treffen, welche Cloud-Dienste und -Anbieter am besten zu ihren Anforderungen passen.2. Klare Strategie entwickelnEine gute Cloud-Strategie umreißt:Ziele,Governance-Richtlinien,Security-Protokolle sowieFinanzmanagement.Das beinhaltet falls nötig auch, eine Hybrid– oder Multi-Cloud-Strategie zu entwickeln, die verschiedene Services in ein konsistentes Betriebsmodell einbindet. Eine gut dokumentierte Cloud-Strategie ermöglicht eine bessere Entscheidungsfindung und liefert die Grundlage, um eine Roadmap für die Cloud Journey zu erstellen.Viele Unternehmen denken zwar über diese Dinge nach, halten diesbezüglich aber nichts fest. Das ist ein Fehler, denn eine schriftlich fixierte Cloud-Strategie dient auch als Agreement zwischen allen Beteiligten, auf den Cloud-Erfolg hinzuarbeiten.3. Strenge Richtlinien einziehenWenn die Cloud effektiv genutzt werden soll, sind Use Policies notwendig, denen sich alle Beteiligten verpflichten. Diese sollten die folgenden Bereiche abdecken:Datenmanagement,IT-Sicherheit,Compliance undKostenkontrolle.Um Usage-Exzesse und unnötige Kosten zu vermeiden, empfiehlt es sich außerdem, klare Protokolle mit Blick auf die Bereitstellung und Freigabe von Cloud-Ressourcen zu etablieren.4. In Schulung investierenInadäquate Skills und Kompetenzen sind ebenfalls eine Wurzel des Cloud-Whiplash-Übels. Die Lösung ist denkbar naheliegend: Um Ihre Mitarbeiter in die Lage zu versetzen, Cloud Services effektiv managen zu können, sind Investitionen in Schulungs– und Upskilling-Initiativen notwendig.Leider verfügen die meisten Unternehmen nicht über die erforderlichen Skills, die es bräuchte, um ihre Cloud-Implementierung effektiv zu nutzen. In einem solchen Fall wäre es durchaus angebracht, die Cloud-Migration erst einmal auf Eis zu legen – bis ein Plan existiert, um die Kompetenzlücken zu beseitigen. Firmen, die unter solchen Voraussetzungen ihre Journey trotzdem unbeeindruckt fortsetzen, haben ein enormes Risiko, zu scheitern.5. Automation und KI nutzenAutomatisierungs- und KI-Initiativen können dazu beitragen, die Auswirkungen von Cloud Whiplash zu reduzieren. Schließlich erlauben automatisierte Prozesse, Routineaufgaben effizienter zu erledigen, während die Fehlerrate minimiert wird und sich die menschlichen Mitarbeiter wichtigeren, strategischen Aktivitäten widmen können.6. Agile Kultur fördernUm im hochdynamischen Technologieumfeld erfolgreich sein zu können, ist ein Mindset essenziell, das Change und Innovation positiv gegenübersteht. Schließlich erfordert die Einführung der Cloud einen Kulturwandel, der von oben vorgelebt werden muss – und die grundlegende Bereitschaft, sich mit neuen Ansätzen zu beschäftigen.Um eine bessere Zusammenarbeit und schnellere Entscheidungsfindung zu ermöglichen, empfiehlt es sich, funktionsübergreifende Teams aufzusetzen. (fm)Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Infoworld. 

6 Mittel gegen Cloud Whiplash​ Cloud Journeys die zu rasant ablaufen, können spürbare Folgen nach sich ziehen.
Foto: drpnncpptak | shutterstock.comIm englischsprachigen Raum hat sich der Begriff “Cloud Whiplash” (Cloud-Schleudertrauma) etabliert. Er beschreibt den Zustand, der entsteht, wenn Unternehmen Cloud-Infrastrukturen besonders rasant einführen und anschließend von diversen Problemen und Herausforderungen heimgesucht werden, weil sie Mühe haben mit der technologischen Entwicklung, den diversen verschiedenen Services sowie den sich verändernden Business-Anforderungen Schritt zu halten.Die Ursache für Cloud Whiplash liegt in aller Regel darin, dass die Cloud-Strategie (zu) häufig geändert wird, was zu Ineffizienzen, Sicherheitslücken und Betriebsunterbrechungen führen kann. Der Stress, der entsteht, wenn die eigentlich nötige Arbeit nicht verrichtet werden kann oder nicht die nötigen Ressourcen zur Verfügung stehen, bildet die Grundlage für Cloud-Schleudertraumata.Um das zu vermeiden, ist ein strategischer Ansatz notwendig. Den gibt es zum Beispiel bei diversen Beratungshäusern für rund 1.000 Euro die Stunde – was oft kein guter Deal ist, denn eigentlich kommt es dabei im Wesentlichen auf Collaboration an: Unternehmen, die einen Cloud Whiplash erleiden, sind in der Regel silobehaftet und ihre Belegschaft arbeitet nicht darauf hin, ein gemeinsames Geschäftsziel zu erreichen. Gegen Zustände wie diese können die folgenden sechs Maßnahmen helfen – die eher in den Bereich “People” als in den der Technologie fallen.1. Geschäftsbedarf definierenEs mag offensichtlich erscheinen, wird aber oft übersehen: Bevor ein Unternehmen Cloud-Dienste einführt, sollte Klarheit darüber bestehen, welche Ziele erreicht werden sollen und welche Anforderungen dafür erfüllt sein müssen. Anderenfalls enden diese Firmen mit Services, die nicht mit den Geschäftszielen in Einklang stehen – und es nimmt seinen Lauf: Betriebsteams werden von Cloud-Systemen kalt erwischt, Sicherheitsteams sind ebenso schlecht vorbereitet, während die Finance-Abteilung keine Ahnung hat, wie sie die Cloud-Kosten tracken soll und die Rechtsabteilung nicht auf dem aktuellen Stand der Dinge in Sachen Cloud und Compliance ist.Was Unternehmen an dieser Stelle brauchen, ist ein detailliertes Assessment ihrer aktuellen und zukünftigen Bedürfnisse. Das umfasst folgende Aspekte:Workload-Typen,Datenschutzanforderungen,Compliance-Verpflichtungen sowiePerformance-Erwartungen. Mit einem umfassenden Verständnis dieser Faktoren können Unternehmen fundiertere Entscheidungen darüber treffen, welche Cloud-Dienste und -Anbieter am besten zu ihren Anforderungen passen.2. Klare Strategie entwickelnEine gute Cloud-Strategie umreißt:Ziele,Governance-Richtlinien,Security-Protokolle sowieFinanzmanagement.Das beinhaltet falls nötig auch, eine Hybrid– oder Multi-Cloud-Strategie zu entwickeln, die verschiedene Services in ein konsistentes Betriebsmodell einbindet. Eine gut dokumentierte Cloud-Strategie ermöglicht eine bessere Entscheidungsfindung und liefert die Grundlage, um eine Roadmap für die Cloud Journey zu erstellen.Viele Unternehmen denken zwar über diese Dinge nach, halten diesbezüglich aber nichts fest. Das ist ein Fehler, denn eine schriftlich fixierte Cloud-Strategie dient auch als Agreement zwischen allen Beteiligten, auf den Cloud-Erfolg hinzuarbeiten.3. Strenge Richtlinien einziehenWenn die Cloud effektiv genutzt werden soll, sind Use Policies notwendig, denen sich alle Beteiligten verpflichten. Diese sollten die folgenden Bereiche abdecken:Datenmanagement,IT-Sicherheit,Compliance undKostenkontrolle.Um Usage-Exzesse und unnötige Kosten zu vermeiden, empfiehlt es sich außerdem, klare Protokolle mit Blick auf die Bereitstellung und Freigabe von Cloud-Ressourcen zu etablieren.4. In Schulung investierenInadäquate Skills und Kompetenzen sind ebenfalls eine Wurzel des Cloud-Whiplash-Übels. Die Lösung ist denkbar naheliegend: Um Ihre Mitarbeiter in die Lage zu versetzen, Cloud Services effektiv managen zu können, sind Investitionen in Schulungs– und Upskilling-Initiativen notwendig.Leider verfügen die meisten Unternehmen nicht über die erforderlichen Skills, die es bräuchte, um ihre Cloud-Implementierung effektiv zu nutzen. In einem solchen Fall wäre es durchaus angebracht, die Cloud-Migration erst einmal auf Eis zu legen – bis ein Plan existiert, um die Kompetenzlücken zu beseitigen. Firmen, die unter solchen Voraussetzungen ihre Journey trotzdem unbeeindruckt fortsetzen, haben ein enormes Risiko, zu scheitern.5. Automation und KI nutzenAutomatisierungs- und KI-Initiativen können dazu beitragen, die Auswirkungen von Cloud Whiplash zu reduzieren. Schließlich erlauben automatisierte Prozesse, Routineaufgaben effizienter zu erledigen, während die Fehlerrate minimiert wird und sich die menschlichen Mitarbeiter wichtigeren, strategischen Aktivitäten widmen können.6. Agile Kultur fördernUm im hochdynamischen Technologieumfeld erfolgreich sein zu können, ist ein Mindset essenziell, das Change und Innovation positiv gegenübersteht. Schließlich erfordert die Einführung der Cloud einen Kulturwandel, der von oben vorgelebt werden muss – und die grundlegende Bereitschaft, sich mit neuen Ansätzen zu beschäftigen.Um eine bessere Zusammenarbeit und schnellere Entscheidungsfindung zu ermöglichen, empfiehlt es sich, funktionsübergreifende Teams aufzusetzen. (fm)Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Infoworld.

6 Mittel gegen Cloud Whiplash​ Weiterlesen »

SAP weitet Software-Audits in Europa aus​

Allgemein

width=”4195″ height=”2359″ sizes=”(max-width: 4195px) 100vw, 4195px”>Schön, wenn man einen Haken unter das Software-Audit setzen kann – doch das ganze Prozedere kostet oft viel Geld, Zeit und Nerven. chase4concept – shutterstock.com Der finanzielle Druck auf die IT-Teams und aufwändige Software-Audits entwickeln sich zu einer Dauerbelastung in vielen Unternehmen. Das ist ein Kernergebnis des aktuellen „State of ITAM Report 2025“ (ITAM: IT Asset Management) von Flexera. Fast die Hälfte (45 Prozent) der über 500 weltweit befragten Unternehmen hat in den vergangenen drei Jahren über eine Million Dollar für Software-Audits ausgegeben. Ein knappes Viertel (23 Prozent) der Befragten berichtete von Ausgaben in Höhe von mehr als fünf Millionen Dollar. Microsoft zählt seit Jahren zu den aktivsten Auditoren: Die Hälfte der befragten Betriebe bekam in den vergangenen drei Jahren Besuch von Auditoren des weltgrößten Softwarekonzerns. Auf Platz zwei rangiert IBM mit 37 Prozent, gefolgt von SAP (32 Prozent). In Europa intensivierte SAP indes ihre Audit-Aktivitäten deutlich – 41 Prozent der Unternehmen waren von SAP-Audits betroffen, im Jahr zuvor waren es nicht einmal ein Drittel (32 Prozent). SAP hat seine Audit-Aktivitäten in Europa deutlich ausgeweitet und liegt deutlich vor dem Konkurrenten Oracle.Flexera Lückenhafte IT-Transparenz und wachsender Kostendruck Laut der Flexera-Umfrage kämpfen viele IT-Teams weiterhin mit mangelnder Transparenz über ihren gesamten Technologie-Stack hinweg. Zwar verlagerten immer mehr Unternehmen Software in die Cloud, doch auch dort bleibe die Übersicht oft lückenhaft – insbesondere bei Software as a Service (SaaS) und Bring Your Own License (BYOL). Bei On-Premises-Hardware und -Software gaben immerhin etwa ein Viertel der Befragten an, einen guten Überblick zu haben – das ist besser als in den vergangenen Jahren. In der Cloud wird die Transparenz jedoch schlechter. Nicht einmal zwei Drittel (63 Prozent) erklärten, ihre Cloud-Instanzen gut im Griff zu haben. Bei SaaS fühlt sich nur die Hälfte der IT-Manager ausreichend über die von ihnen eingesetzten Cloud-Anwendungen informiert. Besonders kritisch ist die Lage bei BYOL: Lediglich 27 Prozent haben eigenen Angaben zufolge ausreichende Einblicke in Lizenzstatus, Kosten und Sicherheitsaspekte. Insgesamt ist das Vertrauen in die vollständige IT-Transparenz damit leicht gesunken – von 47 Prozent im Vorjahr auf 43 Prozent. Vor allem die komplexen Nutzungsbedingungen der Softwarehersteller machen den Anwenderunternehmen zu schaffen.Flexera Angesichts dieser Zahlen überrascht es nicht, dass die Eindämmung von SaaS-Sprawl – also der unkontrollierten Verbreitung und Nutzung von Cloud-Anwendungen – stärker in den Fokus rückt. 35 Prozent der befragten Unternehmen räumten ein, dass die Verschwendung durch ungenutzte SaaS-Lösungen im vergangenen Jahr zugenommen hat. Die finanziellen Auswirkungen belasten die ohnehin schon unter Druck stehenden IT-Budgets weiter. Software-Nutzungsrechte werden immer komplizierter Es verwundert daher nicht, dass die Software-Asset-Management- (SAM-)Teams ihre Aktivitäten im SaaS-Management verstärken: 59 Prozent verfolgen laut Umfrage aktiv die Nutzung von Cloud-Anwendungen, 56 Prozent passen Verträge und Abos gezielt an, um unnötige Ausgaben zu vermeiden. Teure Audits: Wenn der Software-Vendor zwei Mal klingelt Das scheint angesichts der wachsenden Komplexität Cloud-basierter Lizenzmodelle keine leichte Aufgabe zu sein. Die Verwaltung von Nutzungsrechten steht der Flexera-Umfrage zufolge inzwischen ganz oben auf der Liste der Herausforderungen: vier von fünf SAM-Teams tun sich damit schwer. Noch im vergangenen Jahr lag dieses Thema lediglich auf Platz sechs. Die Sehkraft in der IT lässt spürbar nach, konstatiert Becky Trevino von Flexera.Flexera „Vollständige Transparenz über alle IT-Assets ist die Grundlage für jede fundierte technologische Entscheidung“, erklärte Becky Trevino, Chief Product Officer bei Flexera. „Doch ausgerechnet jetzt, unter steigendem Kostendruck, lässt die Sehkraft in der IT spürbar nach.“ Ohne klaren Einblick in den gesamten Technologie-Stack ließen sich weder Verschwendung gezielt vermeiden noch Compliance sicherstellen oder Investitionen effizient steuern. 

SAP weitet Software-Audits in Europa aus​ width=”4195″ height=”2359″ sizes=”(max-width: 4195px) 100vw, 4195px”>Schön, wenn man einen Haken unter das Software-Audit setzen kann – doch das ganze Prozedere kostet oft viel Geld, Zeit und Nerven. chase4concept – shutterstock.com

Der finanzielle Druck auf die IT-Teams und aufwändige Software-Audits entwickeln sich zu einer Dauerbelastung in vielen Unternehmen. Das ist ein Kernergebnis des aktuellen „State of ITAM Report 2025“ (ITAM: IT Asset Management) von Flexera. Fast die Hälfte (45 Prozent) der über 500 weltweit befragten Unternehmen hat in den vergangenen drei Jahren über eine Million Dollar für Software-Audits ausgegeben. Ein knappes Viertel (23 Prozent) der Befragten berichtete von Ausgaben in Höhe von mehr als fünf Millionen Dollar.

Microsoft zählt seit Jahren zu den aktivsten Auditoren: Die Hälfte der befragten Betriebe bekam in den vergangenen drei Jahren Besuch von Auditoren des weltgrößten Softwarekonzerns. Auf Platz zwei rangiert IBM mit 37 Prozent, gefolgt von SAP (32 Prozent). In Europa intensivierte SAP indes ihre Audit-Aktivitäten deutlich – 41 Prozent der Unternehmen waren von SAP-Audits betroffen, im Jahr zuvor waren es nicht einmal ein Drittel (32 Prozent).

SAP hat seine Audit-Aktivitäten in Europa deutlich ausgeweitet und liegt deutlich vor dem Konkurrenten Oracle.Flexera

Lückenhafte IT-Transparenz und wachsender Kostendruck

Laut der Flexera-Umfrage kämpfen viele IT-Teams weiterhin mit mangelnder Transparenz über ihren gesamten Technologie-Stack hinweg. Zwar verlagerten immer mehr Unternehmen Software in die Cloud, doch auch dort bleibe die Übersicht oft lückenhaft – insbesondere bei Software as a Service (SaaS) und Bring Your Own License (BYOL).

Bei On-Premises-Hardware und -Software gaben immerhin etwa ein Viertel der Befragten an, einen guten Überblick zu haben – das ist besser als in den vergangenen Jahren. In der Cloud wird die Transparenz jedoch schlechter. Nicht einmal zwei Drittel (63 Prozent) erklärten, ihre Cloud-Instanzen gut im Griff zu haben. Bei SaaS fühlt sich nur die Hälfte der IT-Manager ausreichend über die von ihnen eingesetzten Cloud-Anwendungen informiert. Besonders kritisch ist die Lage bei BYOL: Lediglich 27 Prozent haben eigenen Angaben zufolge ausreichende Einblicke in Lizenzstatus, Kosten und Sicherheitsaspekte. Insgesamt ist das Vertrauen in die vollständige IT-Transparenz damit leicht gesunken – von 47 Prozent im Vorjahr auf 43 Prozent.

Vor allem die komplexen Nutzungsbedingungen der Softwarehersteller machen den Anwenderunternehmen zu schaffen.Flexera

Angesichts dieser Zahlen überrascht es nicht, dass die Eindämmung von SaaS-Sprawl – also der unkontrollierten Verbreitung und Nutzung von Cloud-Anwendungen – stärker in den Fokus rückt. 35 Prozent der befragten Unternehmen räumten ein, dass die Verschwendung durch ungenutzte SaaS-Lösungen im vergangenen Jahr zugenommen hat. Die finanziellen Auswirkungen belasten die ohnehin schon unter Druck stehenden IT-Budgets weiter.

Software-Nutzungsrechte werden immer komplizierter

Es verwundert daher nicht, dass die Software-Asset-Management- (SAM-)Teams ihre Aktivitäten im SaaS-Management verstärken: 59 Prozent verfolgen laut Umfrage aktiv die Nutzung von Cloud-Anwendungen, 56 Prozent passen Verträge und Abos gezielt an, um unnötige Ausgaben zu vermeiden.

Teure Audits: Wenn der Software-Vendor zwei Mal klingelt

Das scheint angesichts der wachsenden Komplexität Cloud-basierter Lizenzmodelle keine leichte Aufgabe zu sein. Die Verwaltung von Nutzungsrechten steht der Flexera-Umfrage zufolge inzwischen ganz oben auf der Liste der Herausforderungen: vier von fünf SAM-Teams tun sich damit schwer. Noch im vergangenen Jahr lag dieses Thema lediglich auf Platz sechs.

Die Sehkraft in der IT lässt spürbar nach, konstatiert Becky Trevino von Flexera.Flexera

„Vollständige Transparenz über alle IT-Assets ist die Grundlage für jede fundierte technologische Entscheidung“, erklärte Becky Trevino, Chief Product Officer bei Flexera. „Doch ausgerechnet jetzt, unter steigendem Kostendruck, lässt die Sehkraft in der IT spürbar nach.“ Ohne klaren Einblick in den gesamten Technologie-Stack ließen sich weder Verschwendung gezielt vermeiden noch Compliance sicherstellen oder Investitionen effizient steuern.

SAP weitet Software-Audits in Europa aus​ Weiterlesen »

Microsoft kündigt Windows 365 Reserve an​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2492776369_16.jpg?quality=50&strip=all 8192w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2492776369_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2492776369_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2492776369_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2492776369_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2492776369_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2492776369_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2492776369_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2492776369_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2492776369_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2492776369_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Windows 365 Reserve soll Anwendern binnen Minuten einen temporären, vorkonfigurierten Cloud-PC bereitstellen.New Africa/Shutterstock.com Microsoft hat die Preview eines neuen Dienstes namens Windows 365 Reserve angekündigt. Ziel der Lösung ist es, Unternehmen Backup-Lösungen für verloren gegangene, gestohlene oder ausgefallene PCs bereitzustellen. Der Dienst bietet dazu einen temporären, vorkonfigurierten Cloud-PC, der über einen Browser zugänglich ist und laut Microsoft „wie ein physischer PC aussieht, sich so anfühlt und von jedem Gerät aus, überall, erreichbar ist.“ Demnächst kostenloser Preview Der Reserve-Cloud-PC wird über Microsoft Intune verwaltet und umfasst Unternehmensanwendungen, Einstellungen und Sicherheitsrichtlinien sowie Microsoft 365-Apps (vorausgesetzt, das Unternehmen hat M365 abonniert) und OneDrive-Datensynchronisierung. Die kostenlose Vorschauversion soll laut Ankündigung „in Kürze“ beginnen und bis zu zwölf Wochen verfügbar sein. Es gibt jedoch Einschränkungen. Teilnehmer der Vorschau müssen über eine Windows-E3-Lizenz, eine Intune-Lizenz und Microsoft Entra ID P1 (ehemals Azure Active Directory Premium Plan 1 oder AADP1) verfügen. Sovereign Cloud-Kunden werden nicht unterstützt. Außerdem müssen die Unternehmen einige Aufgaben erfüllen, darunter laut Anmeldeformular eine Reihe von „Administrator- und Endbenutzer-Validierungsszenarien“ – und anschließend Feedback zu ihren Erfahrungen geben. Andrew Sharp, Research Director bei der Info-Tech Research Group, ist von dem Konzept beeindruckt: „In der Preview verspricht der Dienst, dass ein Admin einen Cloud-PC bereitstellen kann, auf dem bereits die Richtlinien, Apps und Sicherheitskontrollen des Unternehmens installiert sind.” Damit stünde er einem gestrandeten Nutzer binnen weniger Minuten zur Verfügung. „Stellen Sie sich vor, Ihr Laptop fällt bei einem Kunden aus“, führt Sharp aus. „Der Helpdesk schickt einen Link, Sie öffnen ihn im Browser oder in der Windows-App, und schon sind Sie wieder auf einem vertrauten, konformen Desktop – noch bevor Ihr Kaffee kalt ist.” Zumindest werde das versprochen, räumt er ein. Ihm gefällt außerdem die Idee, dass Intune die virtuellen Geräte verwaltet, sodass keine neue Steuerungsebene erlernt werden muss. Außerdem sieht er Potenzial für weitere Anwendungsfälle über reine Backup-Lösungen hinaus. „Reserve könnte auch eine unkomplizierte Möglichkeit sein, mit minimalem Aufwand virtuelle Desktops auszuprobieren“, merkt er an. Allerdings hat er auch Vorbehalte. „Das Wertversprechen von Microsoft ist klar: Eine schnellere und sicherere Wiederherstellung bei Verlust, Diebstahl oder Defekt von Geräten“, erklärt Sharp. „Letztendlich benötigt die IT-Abteilung aber weiterhin ein operatives Playbook.“ Zu klärende Fragen sind aus seiner Sicht etwa: Wie erreicht ein Benutzer den Support, wenn das primäre Gerät ausfällt? Wird ein physischer Ersatz geliefert oder dient Reserve als Übergangslösung? Welche Anwendungen und Richtlinien gehören in das Reserve-Image? IT-Teams müssen diese Workflows klären, damit Windows 365 Reserve ein praktisches Tool für die Ausfallsicherheit wird und nicht nur eine weitere SKU, so der Analyst. (mb) 

Microsoft kündigt Windows 365 Reserve an​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2492776369_16.jpg?quality=50&strip=all 8192w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2492776369_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2492776369_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2492776369_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2492776369_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2492776369_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2492776369_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2492776369_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2492776369_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2492776369_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/06/shutterstock_2492776369_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Windows 365 Reserve soll Anwendern binnen Minuten einen temporären, vorkonfigurierten Cloud-PC bereitstellen.New Africa/Shutterstock.com

Microsoft hat die Preview eines neuen Dienstes namens Windows 365 Reserve angekündigt. Ziel der Lösung ist es, Unternehmen Backup-Lösungen für verloren gegangene, gestohlene oder ausgefallene PCs bereitzustellen. Der Dienst bietet dazu einen temporären, vorkonfigurierten Cloud-PC, der über einen Browser zugänglich ist und laut Microsoft „wie ein physischer PC aussieht, sich so anfühlt und von jedem Gerät aus, überall, erreichbar ist.“

Demnächst kostenloser Preview

Der Reserve-Cloud-PC wird über Microsoft Intune verwaltet und umfasst Unternehmensanwendungen, Einstellungen und Sicherheitsrichtlinien sowie Microsoft 365-Apps (vorausgesetzt, das Unternehmen hat M365 abonniert) und OneDrive-Datensynchronisierung. Die kostenlose Vorschauversion soll laut Ankündigung „in Kürze“ beginnen und bis zu zwölf Wochen verfügbar sein.

Es gibt jedoch Einschränkungen. Teilnehmer der Vorschau müssen über eine Windows-E3-Lizenz, eine Intune-Lizenz und Microsoft Entra ID P1 (ehemals Azure Active Directory Premium Plan 1 oder AADP1) verfügen. Sovereign Cloud-Kunden werden nicht unterstützt. Außerdem müssen die Unternehmen einige Aufgaben erfüllen, darunter laut Anmeldeformular eine Reihe von „Administrator- und Endbenutzer-Validierungsszenarien“ – und anschließend Feedback zu ihren Erfahrungen geben.

Andrew Sharp, Research Director bei der Info-Tech Research Group, ist von dem Konzept beeindruckt: „In der Preview verspricht der Dienst, dass ein Admin einen Cloud-PC bereitstellen kann, auf dem bereits die Richtlinien, Apps und Sicherheitskontrollen des Unternehmens installiert sind.” Damit stünde er einem gestrandeten Nutzer binnen weniger Minuten zur Verfügung.

„Stellen Sie sich vor, Ihr Laptop fällt bei einem Kunden aus“, führt Sharp aus. „Der Helpdesk schickt einen Link, Sie öffnen ihn im Browser oder in der Windows-App, und schon sind Sie wieder auf einem vertrauten, konformen Desktop – noch bevor Ihr Kaffee kalt ist.” Zumindest werde das versprochen, räumt er ein.

Ihm gefällt außerdem die Idee, dass Intune die virtuellen Geräte verwaltet, sodass keine neue Steuerungsebene erlernt werden muss. Außerdem sieht er Potenzial für weitere Anwendungsfälle über reine Backup-Lösungen hinaus. „Reserve könnte auch eine unkomplizierte Möglichkeit sein, mit minimalem Aufwand virtuelle Desktops auszuprobieren“, merkt er an.

Allerdings hat er auch Vorbehalte. „Das Wertversprechen von Microsoft ist klar: Eine schnellere und sicherere Wiederherstellung bei Verlust, Diebstahl oder Defekt von Geräten“, erklärt Sharp. „Letztendlich benötigt die IT-Abteilung aber weiterhin ein operatives Playbook.“

Zu klärende Fragen sind aus seiner Sicht etwa:

Wie erreicht ein Benutzer den Support, wenn das primäre Gerät ausfällt?

Wird ein physischer Ersatz geliefert oder dient Reserve als Übergangslösung?

Welche Anwendungen und Richtlinien gehören in das Reserve-Image?

IT-Teams müssen diese Workflows klären, damit Windows 365 Reserve ein praktisches Tool für die Ausfallsicherheit wird und nicht nur eine weitere SKU, so der Analyst. (mb)

Microsoft kündigt Windows 365 Reserve an​ Weiterlesen »

AWS zeigt Flagge in Deutschland​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/04/shutterstock_1584762601.jpg?quality=50&strip=all 6000w, https://b2b-contenthub.com/wp-content/uploads/2024/04/shutterstock_1584762601.jpg?resize=300%2C200&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/04/shutterstock_1584762601.jpg?resize=768%2C512&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/04/shutterstock_1584762601.jpg?resize=1024%2C683&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/04/shutterstock_1584762601.jpg?resize=1536%2C1024&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/04/shutterstock_1584762601.jpg?resize=2048%2C1365&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/04/shutterstock_1584762601.jpg?resize=1240%2C826&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/04/shutterstock_1584762601.jpg?resize=150%2C100&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/04/shutterstock_1584762601.jpg?resize=1046%2C697&quality=50&strip=all 1046w, https://b2b-contenthub.com/wp-content/uploads/2024/04/shutterstock_1584762601.jpg?resize=252%2C168&quality=50&strip=all 252w, https://b2b-contenthub.com/wp-content/uploads/2024/04/shutterstock_1584762601.jpg?resize=126%2C84&quality=50&strip=all 126w, https://b2b-contenthub.com/wp-content/uploads/2024/04/shutterstock_1584762601.jpg?resize=720%2C480&quality=50&strip=all 720w, https://b2b-contenthub.com/wp-content/uploads/2024/04/shutterstock_1584762601.jpg?resize=540%2C360&quality=50&strip=all 540w, https://b2b-contenthub.com/wp-content/uploads/2024/04/shutterstock_1584762601.jpg?resize=375%2C250&quality=50&strip=all 375w” width=”1024″ height=”683″ sizes=”(max-width: 1024px) 100vw, 1024px”>Die European Sovereign Cloud stand im Mittelpunkt auf AWS Summit in Hamburg.Michael Vi / Shutterstock Amazon will in Deutschland hoch hinaus: Auf 142 Metern Höhe ist der am 16. Juni 2025 eröffnete „Amazon Tower“ an der Warschauer Brücke derzeit das höchste Gebäude in Berlin. „Die ersten 700 Mitarbeiterinnen und Mitarbeiter sind eingezogen, die anderen werden sukzessive folgen, wenn weitere Stockwerke fertig ausgebaut sind“, erklärt Jonathan Weiss, Managing Director Amazon Development Center GmbH. Sieben Stockwerke hat der Konzern inzwischen belegt, insgesamt stehen ihm 33 der 35 Etagen zur Verfügung. „Wir haben Platz für bis zu 3.000 Arbeitsplätze“, verkündet Weiss. Derzeit beschäftigt der Konzern in Berlin 2.500 Personen, die an drei größeren Standorten verteilt arbeiten. Der sukzessive Einzug soll bis Anfang 2026 abgeschlossen sein. Berlin ist für Amazon Web Services (AWS) in erster Linie ein Forschungsstandort. Weiss, der die Niederlassung leitet, erklärt: „Wir beschäftigen im Forschungszentrum in Berlin 2.500 Mitarbeiter. Der generative KI Assistant Amazon Q, der seit letztem Jahr allgemein verfügbar ist, wurde in Deutschland mitentwickelt. Aus Q sind jetzt die Produktlinien Amazon Q Business, Amazon Q Developer und ganz neu Amazon Transform hervorgegangen.“ Dies sei eine echte Revolution bei der Software-Entwicklung, so Weiss. Was vorher 4.500 Mitarbeiterjahre beansprucht habe, sei jetzt in Wochen möglich. Wie der Amazon-Manager ausführt, beschleunige AWS Transform als erster agentenbasierter KI-Dienst der Company die Modernisierung von .NET-, Mainframe- und VMware-Workloads in Unternehmen. So nutze er spezialisierte KI-Agenten, um komplexe Aufgaben zu automatisieren und damit die Projektlaufzeiten drastisch zu verkürzen. Dazu gehörten beispielsweise: Bewertungen, Code-Analysen, Refactoring, Zerlegung, Abhängigkeitszuordnung, Validierung und Transformationsplanung. Auf diese Weise, so Weiss, ließen sich sowohl die Modernisierungs- als auch die laufenden Wartungskosten senken und gleichzeitig die Lizenzgebühren für Altsysteme drastisch reduzieren. European Sovereign Cloud in Brandenburg Der Amazon Tower ist nicht das einzige Zeichen für ein verstärktes Commitment des Hyperscalers in Deutschland. So will der Konzern mit der AWS European Sovereign Cloud in Potsdam, Brandenburg eine vollumfängliche, unabhängig betriebene souveräne Cloud anbieten – abgesichert durch starke technische Kontrollen, souveräne Zusicherungen und rechtliche Schutzmaßnahmen. Auf dem AWS Summit Anfang Juni 2025 in Hamburg lobte Stefan Höchbauer, Managing Director Germany and Europe Central, Amazon Web Services, das Konzept: „Wir bieten digitale Souveränität für Deutschland. Siemens beispielsweise nutzt Amazon Nova und Amazon Bedrock für die weltweite Suche, und erreicht damit eine 1,5-mal bessere Latenz sowie eine 4,4-mal bessere Kosteneffizienz. Auch der BMW AI Assistant, der über 50.000 Mitarbeitenden Agentic-AI-Funktionen in rund 130 öffentlichen und 8.000 privaten Apps zur Verfügung stellt, läuft auf AWS.“ Zehntausende Kunden in Deutschland würden AWS vertrauen, betonte Höchbauer bei seiner Präsentation – und fügte hinzu: „Wir stehen für Souveränität und Informationssicherheit – auch dank unserer Zusammenarbeit mit dem Bundesamt für Sicherheit in der Informationstechnik.“ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/06/250605_AWS_Summit_Press_Kit-5_neu.jpg?quality=50&strip=all 1969w, https://b2b-contenthub.com/wp-content/uploads/2025/06/250605_AWS_Summit_Press_Kit-5_neu.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/06/250605_AWS_Summit_Press_Kit-5_neu.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/06/250605_AWS_Summit_Press_Kit-5_neu.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/06/250605_AWS_Summit_Press_Kit-5_neu.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/06/250605_AWS_Summit_Press_Kit-5_neu.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/06/250605_AWS_Summit_Press_Kit-5_neu.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/06/250605_AWS_Summit_Press_Kit-5_neu.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/06/250605_AWS_Summit_Press_Kit-5_neu.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/06/250605_AWS_Summit_Press_Kit-5_neu.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Stefan Höchbauer, Managing Director Germany and Europe Central, Amazon Web Services, stellte in Hamburg das Konzept der souveränen Cloud in Brandenburg vor.AWS Europäische Kontrolle, Governance und Betrieb „Wir sind uns bewusst, dass es bestimmte Kunden in Europa gibt, die insbesondere bei Workloads im öffentlichen Sektor oder stärker regulierten Branchen ein noch höheres Maß an Sicherheit suchen. Das hat uns dazu veranlasst, die europäische souveräne Cloud anzukündigen“, ergänzt Kevin Miller, Vice President, Global Data Centers bei AWS. Das besondere am AWS-Konzept sei dabei, dass es von EU-Bürgern in der EU betrieben und kontrolliert wird, so Miller. Es werde eine neue Muttergesellschaft geben, die als EU-Unternehmen gegründet werden soll. Das Managementteam, das diese neue Muttergesellschaft leitet, soll aus einer Geschäftsführerin sowie Beauftragten für Sicherheit und Datenschutz bestehen, die alle Staatsbürger in EU-Mitgliedsstaaten mit Wohnsitz in der EU sind. Außerdem werde AWS einen unabhängigen vierköpfigen Beirat einrichten, der rechtlich dazu verpflichtet ist, im besten Interesse der AWS European Sovereign Cloud zu handeln. Ein weiterer Punkt: Die AWS European Sovereign Cloud ist den Betreibern zufolge so aufgebaut, dass sie unbegrenzt weiter betrieben werden kann, selbst im Fall von Unterbrechungen der Konnektivität zwischen der AWS European Sovereign Cloud und dem Rest der Welt. Und um die Business Continuity auch unter extremen Umständen zu gewährleisten, sollen autorisierte AWS-Mitarbeiter der AWS European Sovereign Cloud, die in der EU ansässig sind, unabhängigen Zugang zu einer Kopie der Quellcodes erhalten, die für die Aufrechterhaltung der Dienste erforderlich sind. „Viele unserer Kunden möchten in erster Linie wissen, wo sich ihre Daten befinden, und AWS hat von Anfang an sehr deutlich gemacht, dass seine Kunden stets die Kontrolle über ihre Daten haben. Wir verschieben also keine Kundendaten ohne deren ausdrückliche Aufforderung dazu.“ Erfahrene europäische Führung Mit Kathrin Renz erhält die AWS European Sovereign Cloud außerdem eine Geschäftsführerin mit mehr als zwei Jahrzehnten Erfahrung im globalen Technologiesektor, einschließlich Schlüsselpositionen im europäischen Technologieumfeld bei großen Unternehmen. Als ranghöchste Führungskraft der AWS European Sovereign Cloud wird Renz für die Überwachung von Entscheidungen in Bezug auf Unternehmensführung, Compliance und Sicherheit verantwortlich sein, und sicherstellen, dass die AWS European Sovereign Cloud allen geltenden Gesetzen und Rechtsvorschriften in Deutschland und der EU entspricht. „Wir verfolgen mit der AWS European Sovereign Cloud einen einzigartigen Ansatz. Kunden sagen uns, dass sie nicht zwischen funktional eingeschränkten Lösungen und der vollen Leistungsfähigkeit von AWS wählen möchten. Deshalb haben wir die AWS European Sovereign Cloud so konzipiert, dass sie europäische Anforderungen an die digitale Souveränität erfüllt und dabei das Serviceportfolio, die Sicherheit, Zuverlässigkeit und Leistung bietet, die Kunden von AWS erwarten“, so Renz. „Die Förderung von Cloud und KI steht im Mittelpunkt der europäischen Innovationsagenda, und diese Lösung wird es Kunden ermöglichen, Innovationen voranzutreiben und dabei ihre Anforderungen an die digitale Souveränität zu erfüllen.“ RZ-Optimierung schreitet voran Allgemein arbeitet AWS laut Data-Center-Chef Miller an der Optimierung der Rechenzentren: „Wir sind bereits in der sechsten Generation von Rechenzentrumsdesigns, wobei jedes einzelne zunehmend für Nachhaltigkeit, Energieeffizienz und Wassereffizienz optimiert wird. Daher haben wir im letzten Jahr eine Reihe von Verbesserungen in unseren Rechenzentren angekündigt, die den Energiebedarf unserer Kühlsysteme um 46 Prozent reduzieren. Wir haben kohlenstoffärmeren Beton angekündigt, der den Kohlenstoffgehalt um 35 Prozent reduziert. Wenn es um KI gehe, stiegen natürlich die Anforderungen an die Leistungsdichte, was zu einigen Änderungen und Verbesserungen bei der Stromverteilung in den Rechenzentren führe, räumte Miller ein. Dies sei auch ein Grund dafür, dass AWS zunehmend flüssigkeitsbasierte Kühlung oder gezielte Chip-Kühlung einsetze, anstatt nur reine Luftkühlung: Flüssigkeitskühlung könne mehr Wärme aus einem dicht gepackten Satz von Chips abführen. (mb) 

AWS zeigt Flagge in Deutschland​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/04/shutterstock_1584762601.jpg?quality=50&strip=all 6000w, https://b2b-contenthub.com/wp-content/uploads/2024/04/shutterstock_1584762601.jpg?resize=300%2C200&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/04/shutterstock_1584762601.jpg?resize=768%2C512&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/04/shutterstock_1584762601.jpg?resize=1024%2C683&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/04/shutterstock_1584762601.jpg?resize=1536%2C1024&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2024/04/shutterstock_1584762601.jpg?resize=2048%2C1365&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2024/04/shutterstock_1584762601.jpg?resize=1240%2C826&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/04/shutterstock_1584762601.jpg?resize=150%2C100&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/04/shutterstock_1584762601.jpg?resize=1046%2C697&quality=50&strip=all 1046w, https://b2b-contenthub.com/wp-content/uploads/2024/04/shutterstock_1584762601.jpg?resize=252%2C168&quality=50&strip=all 252w, https://b2b-contenthub.com/wp-content/uploads/2024/04/shutterstock_1584762601.jpg?resize=126%2C84&quality=50&strip=all 126w, https://b2b-contenthub.com/wp-content/uploads/2024/04/shutterstock_1584762601.jpg?resize=720%2C480&quality=50&strip=all 720w, https://b2b-contenthub.com/wp-content/uploads/2024/04/shutterstock_1584762601.jpg?resize=540%2C360&quality=50&strip=all 540w, https://b2b-contenthub.com/wp-content/uploads/2024/04/shutterstock_1584762601.jpg?resize=375%2C250&quality=50&strip=all 375w” width=”1024″ height=”683″ sizes=”(max-width: 1024px) 100vw, 1024px”>Die European Sovereign Cloud stand im Mittelpunkt auf AWS Summit in Hamburg.Michael Vi / Shutterstock

Amazon will in Deutschland hoch hinaus: Auf 142 Metern Höhe ist der am 16. Juni 2025 eröffnete „Amazon Tower“ an der Warschauer Brücke derzeit das höchste Gebäude in Berlin. „Die ersten 700 Mitarbeiterinnen und Mitarbeiter sind eingezogen, die anderen werden sukzessive folgen, wenn weitere Stockwerke fertig ausgebaut sind“, erklärt Jonathan Weiss, Managing Director Amazon Development Center GmbH.

Sieben Stockwerke hat der Konzern inzwischen belegt, insgesamt stehen ihm 33 der 35 Etagen zur Verfügung. „Wir haben Platz für bis zu 3.000 Arbeitsplätze“, verkündet Weiss. Derzeit beschäftigt der Konzern in Berlin 2.500 Personen, die an drei größeren Standorten verteilt arbeiten. Der sukzessive Einzug soll bis Anfang 2026 abgeschlossen sein.

Berlin ist für Amazon Web Services (AWS) in erster Linie ein Forschungsstandort. Weiss, der die Niederlassung leitet, erklärt: „Wir beschäftigen im Forschungszentrum in Berlin 2.500 Mitarbeiter. Der generative KI Assistant Amazon Q, der seit letztem Jahr allgemein verfügbar ist, wurde in Deutschland mitentwickelt. Aus Q sind jetzt die Produktlinien Amazon Q Business, Amazon Q Developer und ganz neu Amazon Transform hervorgegangen.“ Dies sei eine echte Revolution bei der Software-Entwicklung, so Weiss. Was vorher 4.500 Mitarbeiterjahre beansprucht habe, sei jetzt in Wochen möglich.

Wie der Amazon-Manager ausführt, beschleunige AWS Transform als erster agentenbasierter KI-Dienst der Company die Modernisierung von .NET-, Mainframe- und VMware-Workloads in Unternehmen. So nutze er spezialisierte KI-Agenten, um komplexe Aufgaben zu automatisieren und damit die Projektlaufzeiten drastisch zu verkürzen. Dazu gehörten beispielsweise:

Bewertungen,

Code-Analysen,

Refactoring,

Zerlegung,

Abhängigkeitszuordnung,

Validierung und

Transformationsplanung.

Auf diese Weise, so Weiss, ließen sich sowohl die Modernisierungs- als auch die laufenden Wartungskosten senken und gleichzeitig die Lizenzgebühren für Altsysteme drastisch reduzieren.

European Sovereign Cloud in Brandenburg

Der Amazon Tower ist nicht das einzige Zeichen für ein verstärktes Commitment des Hyperscalers in Deutschland. So will der Konzern mit der AWS European Sovereign Cloud in Potsdam, Brandenburg eine vollumfängliche, unabhängig betriebene souveräne Cloud anbieten – abgesichert durch starke technische Kontrollen, souveräne Zusicherungen und rechtliche Schutzmaßnahmen.

Auf dem AWS Summit Anfang Juni 2025 in Hamburg lobte Stefan Höchbauer, Managing Director Germany and Europe Central, Amazon Web Services, das Konzept: „Wir bieten digitale Souveränität für Deutschland. Siemens beispielsweise nutzt Amazon Nova und Amazon Bedrock für die weltweite Suche, und erreicht damit eine 1,5-mal bessere Latenz sowie eine 4,4-mal bessere Kosteneffizienz. Auch der BMW AI Assistant, der über 50.000 Mitarbeitenden Agentic-AI-Funktionen in rund 130 öffentlichen und 8.000 privaten Apps zur Verfügung stellt, läuft auf AWS.“

Zehntausende Kunden in Deutschland würden AWS vertrauen, betonte Höchbauer bei seiner Präsentation – und fügte hinzu: „Wir stehen für Souveränität und Informationssicherheit – auch dank unserer Zusammenarbeit mit dem Bundesamt für Sicherheit in der Informationstechnik.“

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/06/250605_AWS_Summit_Press_Kit-5_neu.jpg?quality=50&strip=all 1969w, https://b2b-contenthub.com/wp-content/uploads/2025/06/250605_AWS_Summit_Press_Kit-5_neu.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/06/250605_AWS_Summit_Press_Kit-5_neu.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/06/250605_AWS_Summit_Press_Kit-5_neu.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/06/250605_AWS_Summit_Press_Kit-5_neu.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/06/250605_AWS_Summit_Press_Kit-5_neu.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/06/250605_AWS_Summit_Press_Kit-5_neu.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/06/250605_AWS_Summit_Press_Kit-5_neu.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/06/250605_AWS_Summit_Press_Kit-5_neu.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/06/250605_AWS_Summit_Press_Kit-5_neu.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Stefan Höchbauer, Managing Director Germany and Europe Central, Amazon Web Services, stellte in Hamburg das Konzept der souveränen Cloud in Brandenburg vor.AWS

Europäische Kontrolle, Governance und Betrieb

„Wir sind uns bewusst, dass es bestimmte Kunden in Europa gibt, die insbesondere bei Workloads im öffentlichen Sektor oder stärker regulierten Branchen ein noch höheres Maß an Sicherheit suchen. Das hat uns dazu veranlasst, die europäische souveräne Cloud anzukündigen“, ergänzt Kevin Miller, Vice President, Global Data Centers bei AWS.

Das besondere am AWS-Konzept sei dabei, dass es von EU-Bürgern in der EU betrieben und kontrolliert wird, so Miller. Es werde eine neue Muttergesellschaft geben, die als EU-Unternehmen gegründet werden soll.

Das Managementteam, das diese neue Muttergesellschaft leitet, soll aus einer Geschäftsführerin sowie Beauftragten für Sicherheit und Datenschutz bestehen, die alle Staatsbürger in EU-Mitgliedsstaaten mit Wohnsitz in der EU sind. Außerdem werde AWS einen unabhängigen vierköpfigen Beirat einrichten, der rechtlich dazu verpflichtet ist, im besten Interesse der AWS European Sovereign Cloud zu handeln.

Ein weiterer Punkt: Die AWS European Sovereign Cloud ist den Betreibern zufolge so aufgebaut, dass sie unbegrenzt weiter betrieben werden kann, selbst im Fall von Unterbrechungen der Konnektivität zwischen der AWS European Sovereign Cloud und dem Rest der Welt.

Und um die Business Continuity auch unter extremen Umständen zu gewährleisten, sollen autorisierte AWS-Mitarbeiter der AWS European Sovereign Cloud, die in der EU ansässig sind, unabhängigen Zugang zu einer Kopie der Quellcodes erhalten, die für die Aufrechterhaltung der Dienste erforderlich sind.

„Viele unserer Kunden möchten in erster Linie wissen, wo sich ihre Daten befinden, und AWS hat von Anfang an sehr deutlich gemacht, dass seine Kunden stets die Kontrolle über ihre Daten haben. Wir verschieben also keine Kundendaten ohne deren ausdrückliche Aufforderung dazu.“

Erfahrene europäische Führung

Mit Kathrin Renz erhält die AWS European Sovereign Cloud außerdem eine Geschäftsführerin mit mehr als zwei Jahrzehnten Erfahrung im globalen Technologiesektor, einschließlich Schlüsselpositionen im europäischen Technologieumfeld bei großen Unternehmen. Als ranghöchste Führungskraft der AWS European Sovereign Cloud wird Renz für die Überwachung von Entscheidungen in Bezug auf Unternehmensführung, Compliance und Sicherheit verantwortlich sein, und sicherstellen, dass die AWS European Sovereign Cloud allen geltenden Gesetzen und Rechtsvorschriften in Deutschland und der EU entspricht.

„Wir verfolgen mit der AWS European Sovereign Cloud einen einzigartigen Ansatz. Kunden sagen uns, dass sie nicht zwischen funktional eingeschränkten Lösungen und der vollen Leistungsfähigkeit von AWS wählen möchten. Deshalb haben wir die AWS European Sovereign Cloud so konzipiert, dass sie europäische Anforderungen an die digitale Souveränität erfüllt und dabei das Serviceportfolio, die Sicherheit, Zuverlässigkeit und Leistung bietet, die Kunden von AWS erwarten“, so Renz. „Die Förderung von Cloud und KI steht im Mittelpunkt der europäischen Innovationsagenda, und diese Lösung wird es Kunden ermöglichen, Innovationen voranzutreiben und dabei ihre Anforderungen an die digitale Souveränität zu erfüllen.“

RZ-Optimierung schreitet voran

Allgemein arbeitet AWS laut Data-Center-Chef Miller an der Optimierung der Rechenzentren: „Wir sind bereits in der sechsten Generation von Rechenzentrumsdesigns, wobei jedes einzelne zunehmend für Nachhaltigkeit, Energieeffizienz und Wassereffizienz optimiert wird. Daher haben wir im letzten Jahr eine Reihe von Verbesserungen in unseren Rechenzentren angekündigt, die den Energiebedarf unserer Kühlsysteme um 46 Prozent reduzieren. Wir haben kohlenstoffärmeren Beton angekündigt, der den Kohlenstoffgehalt um 35 Prozent reduziert.

Wenn es um KI gehe, stiegen natürlich die Anforderungen an die Leistungsdichte, was zu einigen Änderungen und Verbesserungen bei der Stromverteilung in den Rechenzentren führe, räumte Miller ein. Dies sei auch ein Grund dafür, dass AWS zunehmend flüssigkeitsbasierte Kühlung oder gezielte Chip-Kühlung einsetze, anstatt nur reine Luftkühlung: Flüssigkeitskühlung könne mehr Wärme aus einem dicht gepackten Satz von Chips abführen. (mb)

AWS zeigt Flagge in Deutschland​ Weiterlesen »

6 Maßnahmen für bessere CI/CD-Pipelines​

Allgemein

Pipelines optimal zu gestalten, ist Schwerstarbeit. Foto: stetsko | shutterstock.com Pipelines für Continuous Integration und Continuous Delivery (CI/CD) zu konfigurieren, um Code automatisiert zu verpacken, zu kompilieren und zu veröffentlichen, wird als grundlegende DevSecOps-Methodik angesehen. Indem sie den Weg des Codes in die Produktion automatisieren, können DevSecOps-Teams: Fehler reduzieren, die Deployment-Frequenz erhöhen, Produktionsprobleme schneller lösen, sowie ihre Teamkultur optimieren. Wenn es darum geht, diese CI/CD Pipelines – und die zugrundeliegenden Plattformen – möglichst sinnstiftend und zukunftsfähig zu entwickeln, besteht in vielen Fällen noch Luft nach oben. Im Gespräch mit Experten auf dem Gebiet der Softwareentwicklung haben wir sechs Möglichkeiten identifiziert, wie DevSecOps-Teams ihre CI/CD Pipelines optimieren und maximalen Business Impact erzielen können. 1. Continuous Testing mit GenAI vorantreiben Im Rahmen des “World Quality Report 2023-24” (PDF) von Capgemini und Opentext geben 80 Prozent der Befragten an, sie hätten ein Viertel bis die Hälfte ihrer Testautomatisierungs-Initiativen in Delivery-Pipelines integriert. Von daher ist es nicht überraschend, dass 39 Prozent der Befragten CI/CD als zweitwichtigste Kompetenz für Experten auf dem Gebiet der Qualitätssicherung ansehen – hinter Coding-Skills. “Man sollte meinen, dass die Testautomatisierung gut angenommen wird”, kommentiert David Brooks, SVP of Evangelism bei Copado das Ergebnis, und fügt hinzu: “Die Wahrheit ist, dass sich viele Unternehmen immer noch auf manuelle Tests verlassen. Und diejenigen, die automatisieren, decken kaum ein Drittel ihrer Funktionen ab. In der Praxis erweisen sich vor allem die Wartungsarbeiten als zu aufwändig.” Die Wartungsarbeiten, auf die sich der Manager bezieht, beinhalten beispielsweise: Automatisierungssoftware bei Code-Änderungen zu aktualisieren, die Test-Performance zu verbessern und die Testdaten zu erweitern. Generative AI könnte sich dabei als Game Changer für die Qualitätssicherung erweisen, wie beispielsweise Gevorg Hovsepyan, Head of Product bei Mabl, prophezeiht: “KI wird automatisierte Tests endlich zu einem verlässlichen Bestandteil von CI/CD-Pipelines machen. Zwar setzen die meisten Entwicklungsteams bereits auf GenAI, um Test Cases zu erstellen. Wenn diese aber ständig nur fehlschlagen, kommen die Pipelines zum Erliegen. Generative KI stattdessen dazu zu nutzen, Tests automatisiert zu aktualisieren, sobald sich das Produkt verändert, ist der sinnvollere Weg.” Ein weiteres Mittel, um Ihre Continuous-Testing-Bemühungen voranzutreiben: Statten Sie CI/CD Pipelines mit Performance-, Stress- und Scalability-Tests aus. Dazu empfehlen sich Performance Testing Tools mit CI/CD-Integrationsmöglichkeiten, wie zum Beispiel: Gatling, LoadNinja, LoadRunner oder Katalon. 2. Continuous Deployment anstreben Continuous Testing stellt neben Feature Flags, Canary-Release-Strategie und AIOps-Plattform eine wesentliche Voraussetzung für Continuous Deployment dar – ein Prozess, bei dem DevSecOps-Teams CI/CD erweitern, um in Produktionsumgebungen auszuliefern. Ein Continuous-Deployment-Ansatz kann insbesondere für Unternehmen von Bedeutung sein, für die es essenziell ist, Änderungen in hoher Frequenz durchzuführen und Probleme in der Applikations-Produktion möglichst schnell zu beheben. Das betrifft zum Beispiel diverse SaaS-Unternehmen und solche, die kundenorientierte oder auch geschäftskritische, interne Anwendungen entwickeln. Um zu messen, wie sich Continuous Deployment (und andere DevSecOps-Methoden) auf das Business auswirken, nutzen diese Firmen die sogenannten DORA-Metriken. Eine DORA-Metrik ist die “lead time for code changes” – also der Zeitraum zwischen Code-Commit und erfolgreichem Produktionseinsatz. Laut dem “State of CI/CD Report 2024” (PDF) kann Continuous Deployment diese Kennzahl wesentlich verringern und damit einer schlechten User Experience, möglicher Downtime und/oder Workflow-Unterbrechungen vorbeugen. Auch in diesem Bereich soll künstliche Intelligenz künftig weiter unterstützen, wie Kumar Chivukula, Gründer und CEO von Opsera, deutlich macht: “KI-gestützte DevOps-Tools versprechen eine Steigerung der Entwicklerproduktivität um 30 Prozent oder mehr. Nach der ersten Implementierungswelle suchen Unternehmen inzwischen verzweifelt nach einem automatisierten Mechanismus, um Insights, KPIs und DORA-Metriken zu erfassen, um die von den Anbieter versprochenen Benefits und den letztlich realisierten Return on Investment nachzuweisen.” 3. Hybrides CI/CD verinnerlichen Eine überraschende Erkenntnis des “State of CI/CD Report” bezieht sich auf die Anzahl der CI/CD-Plattformen, die die befragten Unternehmen einsetzen – und wie sich das auf die DORA-Metriken auswirkt. Demnach schneiden Firmen, die auf einen hybriden Ansatz aus selbst gehosteten und gemanagten CI/CD-Plattformen setzen, besser ab als diejenigen, die sich auf einen Ansatz beschränken oder die Plattformen überhaupt nicht einsetzen. Die Studie kommt darüber hinaus zu dem Schluss, dass Unternehmen, die drei oder weniger CI/CD-Plattformen einsetzen, besser fahren als solche, die mehr als drei Tools verwenden. Die Gründe, warum Unternehmen mehrere CI/CD-Plattformen einsetzen, variieren dabei. So könnte eine Firma in der Praxis beispielsweise: Copado oder Opsera verwenden, um Applikationen in Salesforce bereitzustellen, Jenkins nutzen, um Anwendungen im Rechenzentrum einsetzen, GitHub Actions für Cloud-native Anwendungen nutzen und nach der Übernahme eines Konkurrenten Implementierungen mit AWS CodeBuild und AWS CodePipeline übernehmen. 4. Shift-Left-Security mit Plugins umsetzen Ein wichtiger Aspekt in Sachen CI/CD-Pipeline-Optimierung sind Plugins von Drittanbietern. Jenkins, die CI/CD-Plattform mit dem höchsten Marktanteil, bietet etwa mehr als 1.900 solcher Plugins an – zum Beispiel Konnektoren für Git, Jira und Kubernetes. Unabdingbar ist dabei, die Plugins von Drittanbietern ausführlich zu evaluieren – insbesondere, wenn es um solche geht, die die Codequalität sicherstellen und mögliche Schwachstellen identifizieren sollen. Diese Erfordernisse führen dazu, dass solche Tools meist in bedächtigerem Tempo eingesetzt werden können, wie Aislinn Wright, VP of Product Management bei EDB, konstatiert: “Zu den Funktionen, die noch zu wenig genutzt werden gehören prädiktive Analysen, um potenzielle Deployment-Fehler zu identifizieren sowie der Einsatz von KI, um die Codequalität zu überprüfen und Fehler, Sicherheitslücken und Data-Governance-Probleme aufzuspüren. Diese Tools können die Agilität und Effizienz von DevOps-Prozessen erheblich verbessern, erfordern jedoch einen höheren Grad an technologischer Reife und erhöhten Integrationsaufwand.” Zu den Sicherheitsfunktionen, die über Plugins in CI/CD-Pipelines integriert werden können, zählen: Container Security Scanning, Static Application Security Testing, Code Quality Scanning sowie Software Supply Chain Vulnerability Checking. 5. Pipeline Observability optimieren Darüber hinaus sollten DevSecOps-Teams weitere Schritte unternehmen, um CI/CD-Pipelines abzusichern. Eine gute Ressource, um sich einen Überblick über Best Practices in diesem Bereich zu verschaffen, ist das “CI/CD Security Cheat Sheet” von OWASP. Zu den wichtigsten CI/CD-Sicherheitsrisiken gehören: Pipelines ohne Autorisierungsmaßnahmen, die versehentliche oder schadhafte Code Pushes verhindern. Lieferkettenprobleme, wenn über Dev-Workstations oder Build-Umgebungen bösartige Packages abgerufen werden. Drittanbieter-Services, die eingesetzt werden, ohne vorher angemessen validiert worden zu sein. Die Kunst für DevSecOps-Teams besteht dabei darin, eine Balance zwischen den CI/CD-Optimierungen, die die Deployment-Frequenz erhöhen und denen, die Sicherheitsrisiken minimieren, zu finden. Um Performance-Probleme erkennen, Testengpässe verfolgen und Fehler bei Problemen mit Drittanbieterdiensten suchen zu können, gilt es, auch die Observability zu optimieren. Ein Ansatz, um Security- und Operations-Überlegungen zusammenzubringen: Tools zu nutzen, die den Policy-as-Code (PaC)-Ansatz unterstützen. Diese Systeme bieten DevSecOps-Teams eine skalierbare Möglichkeit, um Security- und Operations-Regeln zu erfassen, zu implementieren und zu skalieren. Mike Scott, CISO bei Immuta, erklärt: “Policy as Code ist eine leistungsstarke Funktion, um kritische Richtlinien für hochsensible Daten konsistent zu managen und bietet ein selbstdokumentierendes, automatisiertes System für Sicherheits-, Governance- und DevOps-Teams. PaC kann mit CI/CD-Pipelines implementiert werden und stellt validierte Richtlinien automatisch in Produktionsumgebungen bereit.” DevSecOps-Organisationen mit vielen aktiven Pipelines, integrierten Services und Plugins können zudem wiederverwendbare Pipelines realisieren, wenn die zugrundeliegenden Geschäftsregeln mit PaC-Plattformen und -Services entwickelt werden. 6. Business Impact verstehen Letztlich besteht der Sinn und Zweck eines jeden technologischen Systems darin, dem Unternehmen zu dienen – meint zumindest Srikumar Ramanathan, Chief Solutions Officer bei Mphasis: “Oft lassen wir uns als Tech-Experten dazu hinreißen, die neueste und ausgefallenste Technologie zu implementieren, nur um ihrer selbst willen. ‘Shift Left’ heißt, die Dinge aus Unternehmenssicht zu betrachten. Das ist besonders wichtig, wenn es um Qualitätssicherung, Security, Observability und Automatisierung geht.” Eine Best Practice besteht darin, Nutzen- und Wertvorschläge derjenigen aufzunehmen, die von den betrieblichen und sicherheitstechnischen DevSecOps-Verbesserungen profitieren. Anschließend können DevSecOps-Teams entscheiden, welche Fähigkeiten im Fokus stehen sollten und welche Performance-Metriken echten Geschäftswert widerspiegeln. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

6 Maßnahmen für bessere CI/CD-Pipelines​ Pipelines optimal zu gestalten, ist Schwerstarbeit.
Foto: stetsko | shutterstock.com

Pipelines für Continuous Integration und Continuous Delivery (CI/CD) zu konfigurieren, um Code automatisiert zu verpacken, zu kompilieren und zu veröffentlichen, wird als grundlegende DevSecOps-Methodik angesehen. Indem sie den Weg des Codes in die Produktion automatisieren, können DevSecOps-Teams:

Fehler reduzieren,

die Deployment-Frequenz erhöhen,

Produktionsprobleme schneller lösen, sowie

ihre Teamkultur optimieren.

Wenn es darum geht, diese CI/CD Pipelines – und die zugrundeliegenden Plattformen – möglichst sinnstiftend und zukunftsfähig zu entwickeln, besteht in vielen Fällen noch Luft nach oben. Im Gespräch mit Experten auf dem Gebiet der Softwareentwicklung haben wir sechs Möglichkeiten identifiziert, wie DevSecOps-Teams ihre CI/CD Pipelines optimieren und maximalen Business Impact erzielen können.

1. Continuous Testing mit GenAI vorantreiben

Im Rahmen des “World Quality Report 2023-24” (PDF) von Capgemini und Opentext geben 80 Prozent der Befragten an, sie hätten ein Viertel bis die Hälfte ihrer Testautomatisierungs-Initiativen in Delivery-Pipelines integriert. Von daher ist es nicht überraschend, dass 39 Prozent der Befragten CI/CD als zweitwichtigste Kompetenz für Experten auf dem Gebiet der Qualitätssicherung ansehen – hinter Coding-Skills.

“Man sollte meinen, dass die Testautomatisierung gut angenommen wird”, kommentiert David Brooks, SVP of Evangelism bei Copado das Ergebnis, und fügt hinzu: “Die Wahrheit ist, dass sich viele Unternehmen immer noch auf manuelle Tests verlassen. Und diejenigen, die automatisieren, decken kaum ein Drittel ihrer Funktionen ab. In der Praxis erweisen sich vor allem die Wartungsarbeiten als zu aufwändig.”

Die Wartungsarbeiten, auf die sich der Manager bezieht, beinhalten beispielsweise:

Automatisierungssoftware bei Code-Änderungen zu aktualisieren,

die Test-Performance zu verbessern und

die Testdaten zu erweitern.

Generative AI könnte sich dabei als Game Changer für die Qualitätssicherung erweisen, wie beispielsweise Gevorg Hovsepyan, Head of Product bei Mabl, prophezeiht: “KI wird automatisierte Tests endlich zu einem verlässlichen Bestandteil von CI/CD-Pipelines machen. Zwar setzen die meisten Entwicklungsteams bereits auf GenAI, um Test Cases zu erstellen. Wenn diese aber ständig nur fehlschlagen, kommen die Pipelines zum Erliegen. Generative KI stattdessen dazu zu nutzen, Tests automatisiert zu aktualisieren, sobald sich das Produkt verändert, ist der sinnvollere Weg.”

Ein weiteres Mittel, um Ihre Continuous-Testing-Bemühungen voranzutreiben: Statten Sie CI/CD Pipelines mit Performance-, Stress- und Scalability-Tests aus. Dazu empfehlen sich Performance Testing Tools mit CI/CD-Integrationsmöglichkeiten, wie zum Beispiel:

Gatling,

LoadNinja,

LoadRunner oder

Katalon.

2. Continuous Deployment anstreben

Continuous Testing stellt neben Feature Flags, Canary-Release-Strategie und AIOps-Plattform eine wesentliche Voraussetzung für Continuous Deployment dar – ein Prozess, bei dem DevSecOps-Teams CI/CD erweitern, um in Produktionsumgebungen auszuliefern.

Ein Continuous-Deployment-Ansatz kann insbesondere für Unternehmen von Bedeutung sein, für die es essenziell ist, Änderungen in hoher Frequenz durchzuführen und Probleme in der Applikations-Produktion möglichst schnell zu beheben. Das betrifft zum Beispiel diverse SaaS-Unternehmen und solche, die kundenorientierte oder auch geschäftskritische, interne Anwendungen entwickeln. Um zu messen, wie sich Continuous Deployment (und andere DevSecOps-Methoden) auf das Business auswirken, nutzen diese Firmen die sogenannten DORA-Metriken. Eine DORA-Metrik ist die “lead time for code changes” – also der Zeitraum zwischen Code-Commit und erfolgreichem Produktionseinsatz. Laut dem “State of CI/CD Report 2024” (PDF) kann Continuous Deployment diese Kennzahl wesentlich verringern und damit einer schlechten User Experience, möglicher Downtime und/oder Workflow-Unterbrechungen vorbeugen.

Auch in diesem Bereich soll künstliche Intelligenz künftig weiter unterstützen, wie Kumar Chivukula, Gründer und CEO von Opsera, deutlich macht: “KI-gestützte DevOps-Tools versprechen eine Steigerung der Entwicklerproduktivität um 30 Prozent oder mehr. Nach der ersten Implementierungswelle suchen Unternehmen inzwischen verzweifelt nach einem automatisierten Mechanismus, um Insights, KPIs und DORA-Metriken zu erfassen, um die von den Anbieter versprochenen Benefits und den letztlich realisierten Return on Investment nachzuweisen.”

3. Hybrides CI/CD verinnerlichen

Eine überraschende Erkenntnis des “State of CI/CD Report” bezieht sich auf die Anzahl der CI/CD-Plattformen, die die befragten Unternehmen einsetzen – und wie sich das auf die DORA-Metriken auswirkt. Demnach schneiden Firmen, die auf einen hybriden Ansatz aus selbst gehosteten und gemanagten CI/CD-Plattformen setzen, besser ab als diejenigen, die sich auf einen Ansatz beschränken oder die Plattformen überhaupt nicht einsetzen. Die Studie kommt darüber hinaus zu dem Schluss, dass Unternehmen, die drei oder weniger CI/CD-Plattformen einsetzen, besser fahren als solche, die mehr als drei Tools verwenden.

Die Gründe, warum Unternehmen mehrere CI/CD-Plattformen einsetzen, variieren dabei. So könnte eine Firma in der Praxis beispielsweise:

Copado oder Opsera verwenden, um Applikationen in Salesforce bereitzustellen,

Jenkins nutzen, um Anwendungen im Rechenzentrum einsetzen,

GitHub Actions für Cloud-native Anwendungen nutzen und

nach der Übernahme eines Konkurrenten Implementierungen mit AWS CodeBuild und AWS CodePipeline übernehmen.

4. Shift-Left-Security mit Plugins umsetzen

Ein wichtiger Aspekt in Sachen CI/CD-Pipeline-Optimierung sind Plugins von Drittanbietern. Jenkins, die CI/CD-Plattform mit dem höchsten Marktanteil, bietet etwa mehr als 1.900 solcher Plugins an – zum Beispiel Konnektoren für Git, Jira und Kubernetes. Unabdingbar ist dabei, die Plugins von Drittanbietern ausführlich zu evaluieren – insbesondere, wenn es um solche geht, die die Codequalität sicherstellen und mögliche Schwachstellen identifizieren sollen.

Diese Erfordernisse führen dazu, dass solche Tools meist in bedächtigerem Tempo eingesetzt werden können, wie Aislinn Wright, VP of Product Management bei EDB, konstatiert: “Zu den Funktionen, die noch zu wenig genutzt werden gehören prädiktive Analysen, um potenzielle Deployment-Fehler zu identifizieren sowie der Einsatz von KI, um die Codequalität zu überprüfen und Fehler, Sicherheitslücken und Data-Governance-Probleme aufzuspüren. Diese Tools können die Agilität und Effizienz von DevOps-Prozessen erheblich verbessern, erfordern jedoch einen höheren Grad an technologischer Reife und erhöhten Integrationsaufwand.”

Zu den Sicherheitsfunktionen, die über Plugins in CI/CD-Pipelines integriert werden können, zählen:

Container Security Scanning,

Static Application Security Testing,

Code Quality Scanning sowie

Software Supply Chain Vulnerability Checking.

5. Pipeline Observability optimieren

Darüber hinaus sollten DevSecOps-Teams weitere Schritte unternehmen, um CI/CD-Pipelines abzusichern. Eine gute Ressource, um sich einen Überblick über Best Practices in diesem Bereich zu verschaffen, ist das “CI/CD Security Cheat Sheet” von OWASP.

Zu den wichtigsten CI/CD-Sicherheitsrisiken gehören:

Pipelines ohne Autorisierungsmaßnahmen, die versehentliche oder schadhafte Code Pushes verhindern.

Lieferkettenprobleme, wenn über Dev-Workstations oder Build-Umgebungen bösartige Packages abgerufen werden.

Drittanbieter-Services, die eingesetzt werden, ohne vorher angemessen validiert worden zu sein.

Die Kunst für DevSecOps-Teams besteht dabei darin, eine Balance zwischen den CI/CD-Optimierungen, die die Deployment-Frequenz erhöhen und denen, die Sicherheitsrisiken minimieren, zu finden. Um Performance-Probleme erkennen, Testengpässe verfolgen und Fehler bei Problemen mit Drittanbieterdiensten suchen zu können, gilt es, auch die Observability zu optimieren.

Ein Ansatz, um Security- und Operations-Überlegungen zusammenzubringen: Tools zu nutzen, die den Policy-as-Code (PaC)-Ansatz unterstützen. Diese Systeme bieten DevSecOps-Teams eine skalierbare Möglichkeit, um Security- und Operations-Regeln zu erfassen, zu implementieren und zu skalieren. Mike Scott, CISO bei Immuta, erklärt: “Policy as Code ist eine leistungsstarke Funktion, um kritische Richtlinien für hochsensible Daten konsistent zu managen und bietet ein selbstdokumentierendes, automatisiertes System für Sicherheits-, Governance- und DevOps-Teams. PaC kann mit CI/CD-Pipelines implementiert werden und stellt validierte Richtlinien automatisch in Produktionsumgebungen bereit.”

DevSecOps-Organisationen mit vielen aktiven Pipelines, integrierten Services und Plugins können zudem wiederverwendbare Pipelines realisieren, wenn die zugrundeliegenden Geschäftsregeln mit PaC-Plattformen und -Services entwickelt werden.

6. Business Impact verstehen

Letztlich besteht der Sinn und Zweck eines jeden technologischen Systems darin, dem Unternehmen zu dienen – meint zumindest Srikumar Ramanathan, Chief Solutions Officer bei Mphasis: “Oft lassen wir uns als Tech-Experten dazu hinreißen, die neueste und ausgefallenste Technologie zu implementieren, nur um ihrer selbst willen. ‘Shift Left’ heißt, die Dinge aus Unternehmenssicht zu betrachten. Das ist besonders wichtig, wenn es um Qualitätssicherung, Security, Observability und Automatisierung geht.”

Eine Best Practice besteht darin, Nutzen- und Wertvorschläge derjenigen aufzunehmen, die von den betrieblichen und sicherheitstechnischen DevSecOps-Verbesserungen profitieren. Anschließend können DevSecOps-Teams entscheiden, welche Fähigkeiten im Fokus stehen sollten und welche Performance-Metriken echten Geschäftswert widerspiegeln. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

6 Maßnahmen für bessere CI/CD-Pipelines​ Weiterlesen »

9 Naming-Praktiken zum Abgewöhnen​

Allgemein

Geht’s um Naming, sollten Sie als Dev am besten so agieren, als würde Ihr Code von einem Psychopathen gewartet – der ganz genau weiß, wo Sie wohnen.Master1305 | shutterstock.com Ein betagter, aber immer noch beliebter Witz in Programmiererkreisen: Es gibt zwei schwierige Dinge bei der Programmierarbeit: Cache Invalidation, Naming und Off-by-One-Fehler. Während Erstgenanntes tatsächlich komplex ist und Letztgenanntes die Pointe darstellt, wirft die Einordnung von Naming Fragen auf. Denn Dinge in der Softwareentwicklung zu benennen, ist eigentlich simpel. Zumindest sollte es das sein. Leider legen jedoch nicht wenige Developer aus Gründen eine gewisse Aversion an den Tag, wenn es um Naming geht – und machen sich (und anderen) damit das Leben unnötig schwer. Schließlich können sinnvolle Benennungen nicht nur die kognitive Belastung bei der Codepflege erheblich reduzieren. Sie tragen auch dazu bei, Fehler zu vermeiden und Bugs zu verhindern.   In diesem Artikel beleuchten wir neun ausgesprochen schlechte Naming-Angewohnheiten, die Entwickler dringend abstellen sollten. Und geben einige Tipps, wie es besser geht.   1. Wissen voraussetzen Wissen vorauszusetzen, ist in vielen Fällen der erste Schritt in den Naming-Untergang. Sie wissen vielleicht mit Sicherheit, dass EmpNo für „Employee Number“ steht und es sich um die unique ID in der Datenbank handelt. Ein neuer Dev hält es hingegen für etwas anderes, das nichts mit den Werten in der DB zu tun hat. Wieso also nicht einfach die Dinge eindeutig beim Namen nennen? Zum Beispiel in Form von EmployeeUniqueIDInDatabase. Das ist zugegeben etwas lang, dafür sind folgenreiche Verwechslungen aber dank des klaren, deskriptiven Namings ausgeschlossen. Das Argument “zu viel Tipparbeit” greift auch an dieser Stelle nicht. Erstens ist Faulheit keine Option. Zweitens übernimmt heutzutage die IDE das Gros der Tastaturarbeit.   2. Präzision vernachlässigen Manchmal ist die Semantik einer Benennung nicht präzise genug – was im Laufe der Zeit zu “inhaltlichen Verschiebungen” führen kann. Sie könnten etwa die Methode SaveReceipt implementieren, um eine Kopie von Belegen in der Datenbank abzulegen. Nachträglich erweitern Sie die Routine dann vielleicht um Printing und verlagern den eigentlichen Speichervorgang in eine andere Methode. Und schon führt das gewählte Naming auf den Holzweg.   Die Wahrscheinlichkeit, dass es dazu kommt, sinkt dramatisch, wenn Sie von Anfang an auf eine eindeutige Benennung im Stil von SaveReceiptToTheDatabase setzen. 3. Faulenzerei vorziehen Naming ist zwar nicht diffizil, verlangt aber ein bisschen Denkarbeit – die Zeit kostet. Weil viele Devs sich diese nicht nehmen wollen (oder können), kommt es immer wieder zu Dummheiten wie Variablennamen, die aus einem einzelnen Buchstaben bestehen (einzige Ausnahme: i als Variable in einem Loop, aber selbst dann wäre Index die deutlich bessere Wahl). Stattdessen sollten Sie einer Variablen einen wirklich aussagekräftigen Namen zugestehen. Es mag etwas Zeit und Mühe kosten, lohnt sich aber. Sparen Sie sich zum Beispiel so etwas:   If (EmployeeNumber > 0) and (OrderNumber > 0) { // … } Und gehen Sie stattdessen die Extrameile: EmployeeIsValid = EmployeeUniqueIDInDatabase > 0; ThereIsAnOrder = OrderNumber > 0; ItIsOkayToProcessTheOrder := EmployeeIsValid and ThereIsAnOrder; If ItIsOkayToProcessTheOrder { // … } Das ist um Welten besser lesbar – und den Variablennamen ist klar zu entnehmen, wofür sie stehen. 4. Abkürzungen verfallen Faulheit ist zwar keine Option, Hektik aber ebenso wenig. Denn die führt im Regelfall nur dazu, dass eindeutiges Naming unklaren und vor allem unnötigen Abkürzungen weichen muss. Die 0,876 Sekunden, die Sie mit acctBlnc im Vergleich zu accountBalance sparen, sind wertlos, wenn es dadurch zig Stunden länger dauert, den Code zu warten. Und davon abgesehen: Um welche Account Balance geht es überhaupt? Die des Unternehmens? Die des Kunden?   Auch an dieser Stelle hilft nur: Austippen. Kürzen Sie am besten einfach gar nichts ab (von Standards wie URL und http einmal abgesehen). Das kann auch dazu beitragen, die unbegründete “Angst” vor erklärendem, klaren Naming abzustreifen. 5. Funktionen schwammig benennen Methoden sollten mit Verben benannt werden und vollständig beschreiben, was sie tun. So ist getCustomer ein guter Anfang – lässt aber Fragen offen: Woher wird der Kunde geholt? Und was genau wird dabei geholt? Die bessere Option: getCustomerInstanceFromDatabase. 6. Konsistenz über Bord werfen Wenn Sie Customer verwenden, um einen Kunden zu bezeichnen, der etwas am Point-of-Sale-System kauft, sollten Sie auch sicherstellen, dass dieses Naming überall zum Zuge kommt. Den Kunden in anderen Modulen als Client oder Buyer zu bezeichnen, führt ins Unglück. Nutzen Sie dieselben Begrifflichkeiten konsistent in Ihrem gesamten Repository. 7. Ins Negativ abdriften Insbesondere, wenn es um Booleans geht, sollten Sie auf ein positives Naming setzen, statt auf Grausamkeiten wie isNotValid oder denyAccess: if (!IsNotValid) or (!denyAccess) {   // … } Vermeiden Sie doppelte Verneinungen in Ihrem Code unter allen Umständen. 8. Präfixe einsetzen In früheren Zeiten war die ungarische Notation sehr beliebt: Dabei wurden sämtliche Namen mit einem Präfix versehen, das definierte, um was es sich genau handelt. Das ist allerdings inzwischen aus der Mode gekommen, weil es zu komplex wurde. Ich für meinen Teil bevorzuge Namen, die aussagekräftig genug sind, um dem Maintainer zu vermitteln, was Sache ist. Beispielsweise handelt es sich bei EmployeeCount offensichtlich um eine Ganzzahl, bei FirstName um einen String. Manche Devs nutzen auch ein Buchstaben-Präfix für ihre Variablennamen, um deren Rolle in einer Methode anzugeben – etwa l für lokale Variablen und a für Methodenargumente oder Parameter. Ich bin davon nicht überzeugt. Im Gegenteil: Wenn Ihre Methoden so ausufern, dass nicht auf den ersten Blick ersichtlich ist, welche Rolle eine Variable spielt, ist Refactoring angebracht. 9. Kauderwelsch nutzen Zu vermeiden sind in Sachen Naming außerdem auch Wörter, die keine wirkliche Bedeutung aufweisen. Sehen Sie von “Naming-Junkfood” ab wie: Helper, Handler, Service, Util, Process, Info, Data, Task, Object oder Stuff. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

9 Naming-Praktiken zum Abgewöhnen​ Geht’s um Naming, sollten Sie als Dev am besten so agieren, als würde Ihr Code von einem Psychopathen gewartet – der ganz genau weiß, wo Sie wohnen.Master1305 | shutterstock.com

Ein betagter, aber immer noch beliebter Witz in Programmiererkreisen:

Es gibt zwei schwierige Dinge bei der Programmierarbeit: Cache Invalidation, Naming und Off-by-One-Fehler.

Während Erstgenanntes tatsächlich komplex ist und Letztgenanntes die Pointe darstellt, wirft die Einordnung von Naming Fragen auf. Denn Dinge in der Softwareentwicklung zu benennen, ist eigentlich simpel. Zumindest sollte es das sein. Leider legen jedoch nicht wenige Developer aus Gründen eine gewisse Aversion an den Tag, wenn es um Naming geht – und machen sich (und anderen) damit das Leben unnötig schwer. Schließlich können sinnvolle Benennungen nicht nur die kognitive Belastung bei der Codepflege erheblich reduzieren. Sie tragen auch dazu bei, Fehler zu vermeiden und Bugs zu verhindern.  

In diesem Artikel beleuchten wir neun ausgesprochen schlechte Naming-Angewohnheiten, die Entwickler dringend abstellen sollten. Und geben einige Tipps, wie es besser geht.  

1. Wissen voraussetzen

Wissen vorauszusetzen, ist in vielen Fällen der erste Schritt in den Naming-Untergang. Sie wissen vielleicht mit Sicherheit, dass EmpNo für „Employee Number“ steht und es sich um die unique ID in der Datenbank handelt. Ein neuer Dev hält es hingegen für etwas anderes, das nichts mit den Werten in der DB zu tun hat.

Wieso also nicht einfach die Dinge eindeutig beim Namen nennen? Zum Beispiel in Form von EmployeeUniqueIDInDatabase. Das ist zugegeben etwas lang, dafür sind folgenreiche Verwechslungen aber dank des klaren, deskriptiven Namings ausgeschlossen. Das Argument “zu viel Tipparbeit” greift auch an dieser Stelle nicht. Erstens ist Faulheit keine Option. Zweitens übernimmt heutzutage die IDE das Gros der Tastaturarbeit.  

2. Präzision vernachlässigen

Manchmal ist die Semantik einer Benennung nicht präzise genug – was im Laufe der Zeit zu “inhaltlichen Verschiebungen” führen kann. Sie könnten etwa die Methode SaveReceipt implementieren, um eine Kopie von Belegen in der Datenbank abzulegen. Nachträglich erweitern Sie die Routine dann vielleicht um Printing und verlagern den eigentlichen Speichervorgang in eine andere Methode. Und schon führt das gewählte Naming auf den Holzweg.  

Die Wahrscheinlichkeit, dass es dazu kommt, sinkt dramatisch, wenn Sie von Anfang an auf eine eindeutige Benennung im Stil von SaveReceiptToTheDatabase setzen.

3. Faulenzerei vorziehen

Naming ist zwar nicht diffizil, verlangt aber ein bisschen Denkarbeit – die Zeit kostet. Weil viele Devs sich diese nicht nehmen wollen (oder können), kommt es immer wieder zu Dummheiten wie Variablennamen, die aus einem einzelnen Buchstaben bestehen (einzige Ausnahme: i als Variable in einem Loop, aber selbst dann wäre Index die deutlich bessere Wahl). Stattdessen sollten Sie einer Variablen einen wirklich aussagekräftigen Namen zugestehen. Es mag etwas Zeit und Mühe kosten, lohnt sich aber.

Sparen Sie sich zum Beispiel so etwas:  

If (EmployeeNumber > 0) and (OrderNumber > 0) {
// …
}

Und gehen Sie stattdessen die Extrameile:

EmployeeIsValid = EmployeeUniqueIDInDatabase > 0;
ThereIsAnOrder = OrderNumber > 0;
ItIsOkayToProcessTheOrder := EmployeeIsValid and ThereIsAnOrder;
If ItIsOkayToProcessTheOrder {
// …
}

Das ist um Welten besser lesbar – und den Variablennamen ist klar zu entnehmen, wofür sie stehen.

4. Abkürzungen verfallen

Faulheit ist zwar keine Option, Hektik aber ebenso wenig. Denn die führt im Regelfall nur dazu, dass eindeutiges Naming unklaren und vor allem unnötigen Abkürzungen weichen muss. Die 0,876 Sekunden, die Sie mit acctBlnc im Vergleich zu accountBalance sparen, sind wertlos, wenn es dadurch zig Stunden länger dauert, den Code zu warten. Und davon abgesehen: Um welche Account Balance geht es überhaupt? Die des Unternehmens? Die des Kunden?  

Auch an dieser Stelle hilft nur: Austippen. Kürzen Sie am besten einfach gar nichts ab (von Standards wie URL und http einmal abgesehen). Das kann auch dazu beitragen, die unbegründete “Angst” vor erklärendem, klaren Naming abzustreifen.

5. Funktionen schwammig benennen

Methoden sollten mit Verben benannt werden und vollständig beschreiben, was sie tun. So ist getCustomer ein guter Anfang – lässt aber Fragen offen: Woher wird der Kunde geholt? Und was genau wird dabei geholt?

Die bessere Option: getCustomerInstanceFromDatabase.

6. Konsistenz über Bord werfen

Wenn Sie Customer verwenden, um einen Kunden zu bezeichnen, der etwas am Point-of-Sale-System kauft, sollten Sie auch sicherstellen, dass dieses Naming überall zum Zuge kommt. Den Kunden in anderen Modulen als Client oder Buyer zu bezeichnen, führt ins Unglück.

Nutzen Sie dieselben Begrifflichkeiten konsistent in Ihrem gesamten Repository.

7. Ins Negativ abdriften

Insbesondere, wenn es um Booleans geht, sollten Sie auf ein positives Naming setzen, statt auf Grausamkeiten wie isNotValid oder denyAccess:

if (!IsNotValid) or (!denyAccess) {
  // …
}

Vermeiden Sie doppelte Verneinungen in Ihrem Code unter allen Umständen.

8. Präfixe einsetzen

In früheren Zeiten war die ungarische Notation sehr beliebt: Dabei wurden sämtliche Namen mit einem Präfix versehen, das definierte, um was es sich genau handelt. Das ist allerdings inzwischen aus der Mode gekommen, weil es zu komplex wurde. Ich für meinen Teil bevorzuge Namen, die aussagekräftig genug sind, um dem Maintainer zu vermitteln, was Sache ist. Beispielsweise handelt es sich bei EmployeeCount offensichtlich um eine Ganzzahl, bei FirstName um einen String.

Manche Devs nutzen auch ein Buchstaben-Präfix für ihre Variablennamen, um deren Rolle in einer Methode anzugeben – etwa l für lokale Variablen und a für Methodenargumente oder Parameter. Ich bin davon nicht überzeugt. Im Gegenteil: Wenn Ihre Methoden so ausufern, dass nicht auf den ersten Blick ersichtlich ist, welche Rolle eine Variable spielt, ist Refactoring angebracht.

9. Kauderwelsch nutzen

Zu vermeiden sind in Sachen Naming außerdem auch Wörter, die keine wirkliche Bedeutung aufweisen.

Sehen Sie von “Naming-Junkfood” ab wie:

Helper,

Handler,

Service,

Util,

Process,

Info,

Data,

Task,

Object oder

Stuff.

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

9 Naming-Praktiken zum Abgewöhnen​ Weiterlesen »

Nach oben scrollen
×