Computerhaus Quickborn

Juni 2025

Gartner warnt vor Hype um KI-Agenten​

Allgemein

Trotz des großen Potenzials und des Hypes um Agentic AI sollten Unternehmen besonnen vorgehen, rät Gartner.Poca Wander Stock – shutterstock.com Laut Prognosen von Gartner werden bis Ende 2027 mehr als 40 Prozent der Projekte im Bereich Agentic AI wieder eingestellt. Als Gründe nennen die Marktforscher wachsende Kosten, unklare geschäftliche Vorteile und unzureichende Sicherheit. „Die meisten dieser Projekte befinden sich noch in einer frühen Phase – es sind meist Experimente oder Proof of Concepts (PoCs), die durch den aktuellen Hype entstanden sind und häufig falsch eingesetzt werden“, erklärt Anushree Verma, Senior Director Analyst bei Gartner. Dies führe oft dazu, dass Unternehmen die tatsächlichen Kosten und die Komplexität der Einführung von KI-Agenten in großem Maßstab unterschätzen, weshalb es viele dieser Projekte gar nicht erst in den produktiven Betrieb schafften. „Unternehmen müssen den Hype durchschauen und sorgfältige, strategische Entscheidungen darüber treffen, wo und wie sie diese aufkommende Technologie einsetzen“, so Verma. Wie eine Umfrage von Gartner unter mehr als 3.000 Teilnehmern bei einem Webinar herausfand, sind zahlreiche Unternehmen bereits auf den Agentic-AI-Zug aufgesprungen: 19 Prozent der Befragten gaben an, dass ihr Unternehmen bereits signifikant in agentische KI investiert hat; 42 Prozent berichteten von eher vorsichtigen Investitionen; Acht Prozent hatten bislang gar nicht investiert; Die restlichen 31 Prozent zeigten sich entweder unentschlossen oder abwartend. “Agent Washing“ – das neue KI-Washing Nachdem zahlreiche Anbieter sich das Thema auf die Fahnen geschrieben haben, ist es allerdings schwierig, sich dem Hype zu widersetzen – und Mogelpackungen zu entdecken. Viele Anbieter betreiben sogenanntes „Agent Washing“, warnt Gartner, also die Umbenennung bestehender Technologien wie KI-Assistenten, RPA- oder Chatbots zu angeblich agentenbasierten Lösungen – obwohl diesen oft die entscheidenden Merkmale echter Agenten fehlen. Die Marktforscher schätzen, dass von den tausenden Anbietern lediglich rund 130 tatsächlich authentische, agentenbasierte KI-Technologien anbieten. „Die meisten angeblich agentenbasierten KI-Lösungen bieten keinen nennenswerten Mehrwert oder Return on Investment (ROI), da die aktuellen Modelle weder die Reife noch die nötige Eigenständigkeit besitzen, um komplexe Geschäftsziele autonom zu erreichen oder über längere Zeit hinweg differenzierte Anweisungen zu befolgen“, betont Verma. Viele Anwendungsfälle, die heute als agentenbasiert dargestellt würden, erforderten in Wirklichkeit keine derartigen Implementierungen von KI-Agenten. In dieser frühen Phase empfiehlt Gartner entsprechend, agentenbasierte KI nur dort einzusetzen, wo sie klaren Mehrwert oder ROI liefert. Die Integration von Agentic AI in bestehende Altsysteme könne technisch komplex sein, Arbeitsabläufe stören und kostspielige Anpassungen erfordern, erklärt die Analystin. In vielen Fällen sei es sinnvoller, Prozesse mit agentenbasierter KI von Grund auf neu zu denken, um eine erfolgreiche Implementierung zu gewährleisten. Trotz der anfänglichen Herausforderungen sieht Gartner in Agentic AI einen bedeutenden technologischen Fortschritt und große Marktchancen. Agentenbasierte KI werde neue Möglichkeiten bieten, um Ressourceneffizienz zu steigern, komplexe Aufgaben zu automatisieren und Innovationen im Geschäftsbereich einzuführen, heißt es in dem Report „Emerging Tech: Avoid Agentic AI Failure: Build Success Using Right Use Cases“ ($). Sie gingen über das hinaus, was mit skriptgesteuerten Automatisierungsbots und virtuellen Assistenten möglich sei. Um echten Nutzen aus agentenbasierter KI zu ziehen, müssten Organisationen den Fokus jedoch auf die Produktivität des gesamten Unternehmens legen, erklärt Verma, nicht nur auf die Unterstützung einzelner Aufgaben. Ein sinnvoller Einstieg ist aus ihrer Sicht, KI-Agenten bei Entscheidungsfindungen, der Automatisierung von Routineprozessen und als Assistenten für einfache Informationsabfragen einzusetzen. „Es geht darum, geschäftlichen Mehrwert durch Kostenersparnis, Qualität, Geschwindigkeit und Skalierbarkeit zu schaffen“, so Verma. Richtig angewendet, ist die Technologie dann mehr als ein vorübergehender Hype: Gartner prognostiziert, dass bis 2028 mindestens 15 Prozent der alltäglichen Arbeitsentscheidungen autonom durch agentenbasierte KI getroffen werden – nach null Prozent im vergangenen Jahr. Zudem schätzen die Auguren, dass bis 2028 rund ein Drittel der Enterprise-Softwarelösungen agentenbasierte KI enthalten, verglichen mit weniger als einem Prozent im Jahr 2024. 

Gartner warnt vor Hype um KI-Agenten​ Trotz des großen Potenzials und des Hypes um Agentic AI sollten Unternehmen besonnen vorgehen, rät Gartner.Poca Wander Stock – shutterstock.com

Laut Prognosen von Gartner werden bis Ende 2027 mehr als 40 Prozent der Projekte im Bereich Agentic AI wieder eingestellt. Als Gründe nennen die Marktforscher wachsende Kosten, unklare geschäftliche Vorteile und unzureichende Sicherheit.

„Die meisten dieser Projekte befinden sich noch in einer frühen Phase – es sind meist Experimente oder Proof of Concepts (PoCs), die durch den aktuellen Hype entstanden sind und häufig falsch eingesetzt werden“, erklärt Anushree Verma, Senior Director Analyst bei Gartner. Dies führe oft dazu, dass Unternehmen die tatsächlichen Kosten und die Komplexität der Einführung von KI-Agenten in großem Maßstab unterschätzen, weshalb es viele dieser Projekte gar nicht erst in den produktiven Betrieb schafften.

„Unternehmen müssen den Hype durchschauen und sorgfältige, strategische Entscheidungen darüber treffen, wo und wie sie diese aufkommende Technologie einsetzen“, so Verma.

Wie eine Umfrage von Gartner unter mehr als 3.000 Teilnehmern bei einem Webinar herausfand, sind zahlreiche Unternehmen bereits auf den Agentic-AI-Zug aufgesprungen:

19 Prozent der Befragten gaben an, dass ihr Unternehmen bereits signifikant in agentische KI investiert hat;

42 Prozent berichteten von eher vorsichtigen Investitionen;

Acht Prozent hatten bislang gar nicht investiert;

Die restlichen 31 Prozent zeigten sich entweder unentschlossen oder abwartend.

“Agent Washing“ – das neue KI-Washing

Nachdem zahlreiche Anbieter sich das Thema auf die Fahnen geschrieben haben, ist es allerdings schwierig, sich dem Hype zu widersetzen – und Mogelpackungen zu entdecken. Viele Anbieter betreiben sogenanntes „Agent Washing“, warnt Gartner, also die Umbenennung bestehender Technologien wie KI-Assistenten, RPA- oder Chatbots zu angeblich agentenbasierten Lösungen – obwohl diesen oft die entscheidenden Merkmale echter Agenten fehlen. Die Marktforscher schätzen, dass von den tausenden Anbietern lediglich rund 130 tatsächlich authentische, agentenbasierte KI-Technologien anbieten.

„Die meisten angeblich agentenbasierten KI-Lösungen bieten keinen nennenswerten Mehrwert oder Return on Investment (ROI), da die aktuellen Modelle weder die Reife noch die nötige Eigenständigkeit besitzen, um komplexe Geschäftsziele autonom zu erreichen oder über längere Zeit hinweg differenzierte Anweisungen zu befolgen“, betont Verma. Viele Anwendungsfälle, die heute als agentenbasiert dargestellt würden, erforderten in Wirklichkeit keine derartigen Implementierungen von KI-Agenten.

In dieser frühen Phase empfiehlt Gartner entsprechend, agentenbasierte KI nur dort einzusetzen, wo sie klaren Mehrwert oder ROI liefert. Die Integration von Agentic AI in bestehende Altsysteme könne technisch komplex sein, Arbeitsabläufe stören und kostspielige Anpassungen erfordern, erklärt die Analystin. In vielen Fällen sei es sinnvoller, Prozesse mit agentenbasierter KI von Grund auf neu zu denken, um eine erfolgreiche Implementierung zu gewährleisten.

Trotz der anfänglichen Herausforderungen sieht Gartner in Agentic AI einen bedeutenden technologischen Fortschritt und große Marktchancen. Agentenbasierte KI werde neue Möglichkeiten bieten, um Ressourceneffizienz zu steigern, komplexe Aufgaben zu automatisieren und Innovationen im Geschäftsbereich einzuführen, heißt es in dem Report „Emerging Tech: Avoid Agentic AI Failure: Build Success Using Right Use Cases“ ($). Sie gingen über das hinaus, was mit skriptgesteuerten Automatisierungsbots und virtuellen Assistenten möglich sei.

Um echten Nutzen aus agentenbasierter KI zu ziehen, müssten Organisationen den Fokus jedoch auf die Produktivität des gesamten Unternehmens legen, erklärt Verma, nicht nur auf die Unterstützung einzelner Aufgaben. Ein sinnvoller Einstieg ist aus ihrer Sicht, KI-Agenten bei Entscheidungsfindungen, der Automatisierung von Routineprozessen und als Assistenten für einfache Informationsabfragen einzusetzen. „Es geht darum, geschäftlichen Mehrwert durch Kostenersparnis, Qualität, Geschwindigkeit und Skalierbarkeit zu schaffen“, so Verma.

Richtig angewendet, ist die Technologie dann mehr als ein vorübergehender Hype: Gartner prognostiziert, dass bis 2028 mindestens 15 Prozent der alltäglichen Arbeitsentscheidungen autonom durch agentenbasierte KI getroffen werden – nach null Prozent im vergangenen Jahr. Zudem schätzen die Auguren, dass bis 2028 rund ein Drittel der Enterprise-Softwarelösungen agentenbasierte KI enthalten, verglichen mit weniger als einem Prozent im Jahr 2024.

Gartner warnt vor Hype um KI-Agenten​ Weiterlesen »

COMPUTERWOCHE in eigener Sache: Mit Smart Answers zu mehr Information​

Allgemein

loading=”lazy” width=”400px”>Mit Smart Answers werden alle Ihre Fragen bei uns auf der COMPUTERWOCHE-Website beantwortet.lassedesignen – shutterstock.com Warum bevorzugen SAP-Kunden oft On-Premises-Lösungen statt Cloud? Welche Vorteile bieten lokale Cloud-Provider für die Datensouveränität? Wie beeinflussen Quantencomputer die zukünftige Cybersicherheit? Diese und viele weitere Fragen beantworten wir Ihnen auf der Website der COMPUTERWOCHE über unser neues KI-Tool „Smart Answers“. Smart Answers ist in allen Artikeln auf der COMPUTERWOCHE eingebaut.Foundry Bei Smart Answers handelt es sich um einen Chatbot, der Leserinnen und Lesern dabei helfen soll, drängende Fragen rund um Business-IT-Themen zu beantworten, Inhalte auf unseren Webseiten zu entdecken und sich eingehend mit den IT-Themen zu befassen, die für IT-Entscheiderinnen und -Entscheider wichtig sind. Das Tool ist praktisch in allen Artikeln auf der Website der COMPUTERWOCHE eingebettet. Um loszulegen, können Sie Ihre Fragen direkt in das Smart-Answers-Suchfeld eingeben. Alternativ können Sie auch aus einer Reihe zum Thema passender, vorkonfektionierter Fragen auswählen, um tiefer in ein Thema einzusteigen. Klar strukturiert gibt Smart Answers Antworten auf Ihre Fragen.Foundry In den Antworten finden Sie Links zu den Quelldokumenten sowie zusätzliches Informationsmaterial und Artikelempfehlungen. Darüber hinaus können Sie weitere Detailfragen stellen, um noch detaillierter in ein bestimmtes Thema einzusteigen. Alternativ schlagen wir Ihnen außerdem weitere Fragen vor, über die Sie zusätzliche Aspekte zu dem von Ihnen angefragten Thema beleuchten können. Über die Quellenangaben zu den Antworten von Smart Answers können Sie Inhalte prüfen und tiefer in bestimmte Themen eintauchen.Foundry Smart Answers basiert auf einer Generative-AI-Plattform, die in Zusammenarbeit mit unserem Partner Miso.ai entwickelt wurde. Das KI-Tool greift ausschließlich auf redaktionelle Inhalte aus dem Netzwerk unserer deutschsprachigen Medienmarken zurück – CIO, COMPUTERWOCHE, CSO und ChannelPartner – und wurde mit Fragen trainiert, die für professionelle IT-Anwender aus Unternehmen relevant sind. Tauchen mit den von Smart Answers gelieferten Antworten weitere Fragen auf, können Sie diese im Tool ganz einfach stellen.Foundry Wir haben uns viel Mühe gegeben, um sicherzustellen, dass Smart Answers eine hochwertige Benutzererfahrung bietet. Die Antworten basieren ausschließlich auf Artikeln, die von unseren Journalistinnen und Journalisten verfasst wurden. Smart Answers verwendet keine Daten aus externen Quellen. Hinter den Kulissen wurden umfangreiche Tests durchgeführt, um das Modell zu trainieren, sodass wir davon überzeugt sind, Ihnen mit Smart Answers zuverlässige Informationen für Ihre Arbeit an die Hand geben zu können. Probieren Sie Smart Answers aus und teilen Sie Ihr Feedback Wie bei allen von KI generierten Inhalten empfehlen wir jedoch, diese zu überprüfen. Wir haben intensiv mit unserem Partner Miso.ai zusammengearbeitet, um „Halluzinationen“ zu vermeiden. Irreführende oder falsche Informationen, die ausgegeben werden können, wenn die Antwort nicht bekannt ist oder die zur Beantwortung der Frage erforderlichen Daten unvollständig sind, sollten so weitgehend ausgeschlossen sein. Wenn Smart Answers Ihre Frage nicht beantworten kann, teilt Ihnen das KI-Tool dies mit. Angezeigt wird außerdem, wenn die Antwort von Smart Answers vor allem auf Inhalten beruht, die vor dem Jahr 2020 veröffentlicht wurden.  Wir laden Sie ein, mit Smart Answers zu experimentieren. Stellen unser neues KI-Tool auf die Probe. Wir hoffen, ihnen damit weiteren wertvollen Content und Input für Ihre Arbeit zur Verfügung stellen zu können. Und wir sind natürlich gespannt auf Ihr Feedback. Teilen Sie uns gerne Ihre Erfahrungen mit Smart Answers mit und schicken Sie uns Ihre Anmerkungen an info@computerwoche.de. 

COMPUTERWOCHE in eigener Sache: Mit Smart Answers zu mehr Information​ loading=”lazy” width=”400px”>Mit Smart Answers werden alle Ihre Fragen bei uns auf der COMPUTERWOCHE-Website beantwortet.lassedesignen – shutterstock.com

Warum bevorzugen SAP-Kunden oft On-Premises-Lösungen statt Cloud? Welche Vorteile bieten lokale Cloud-Provider für die Datensouveränität? Wie beeinflussen Quantencomputer die zukünftige Cybersicherheit? Diese und viele weitere Fragen beantworten wir Ihnen auf der Website der COMPUTERWOCHE über unser neues KI-Tool „Smart Answers“.

Smart Answers ist in allen Artikeln auf der COMPUTERWOCHE eingebaut.Foundry

Bei Smart Answers handelt es sich um einen Chatbot, der Leserinnen und Lesern dabei helfen soll, drängende Fragen rund um Business-IT-Themen zu beantworten, Inhalte auf unseren Webseiten zu entdecken und sich eingehend mit den IT-Themen zu befassen, die für IT-Entscheiderinnen und -Entscheider wichtig sind. Das Tool ist praktisch in allen Artikeln auf der Website der COMPUTERWOCHE eingebettet. Um loszulegen, können Sie Ihre Fragen direkt in das Smart-Answers-Suchfeld eingeben. Alternativ können Sie auch aus einer Reihe zum Thema passender, vorkonfektionierter Fragen auswählen, um tiefer in ein Thema einzusteigen.

Klar strukturiert gibt Smart Answers Antworten auf Ihre Fragen.Foundry

In den Antworten finden Sie Links zu den Quelldokumenten sowie zusätzliches Informationsmaterial und Artikelempfehlungen. Darüber hinaus können Sie weitere Detailfragen stellen, um noch detaillierter in ein bestimmtes Thema einzusteigen. Alternativ schlagen wir Ihnen außerdem weitere Fragen vor, über die Sie zusätzliche Aspekte zu dem von Ihnen angefragten Thema beleuchten können.

Über die Quellenangaben zu den Antworten von Smart Answers können Sie Inhalte prüfen und tiefer in bestimmte Themen eintauchen.Foundry

Smart Answers basiert auf einer Generative-AI-Plattform, die in Zusammenarbeit mit unserem Partner Miso.ai entwickelt wurde. Das KI-Tool greift ausschließlich auf redaktionelle Inhalte aus dem Netzwerk unserer deutschsprachigen Medienmarken zurück – CIO, COMPUTERWOCHE, CSO und ChannelPartner – und wurde mit Fragen trainiert, die für professionelle IT-Anwender aus Unternehmen relevant sind.

Tauchen mit den von Smart Answers gelieferten Antworten weitere Fragen auf, können Sie diese im Tool ganz einfach stellen.Foundry

Wir haben uns viel Mühe gegeben, um sicherzustellen, dass Smart Answers eine hochwertige Benutzererfahrung bietet. Die Antworten basieren ausschließlich auf Artikeln, die von unseren Journalistinnen und Journalisten verfasst wurden. Smart Answers verwendet keine Daten aus externen Quellen. Hinter den Kulissen wurden umfangreiche Tests durchgeführt, um das Modell zu trainieren, sodass wir davon überzeugt sind, Ihnen mit Smart Answers zuverlässige Informationen für Ihre Arbeit an die Hand geben zu können.

Probieren Sie Smart Answers aus und teilen Sie Ihr Feedback

Wie bei allen von KI generierten Inhalten empfehlen wir jedoch, diese zu überprüfen. Wir haben intensiv mit unserem Partner Miso.ai zusammengearbeitet, um „Halluzinationen“ zu vermeiden. Irreführende oder falsche Informationen, die ausgegeben werden können, wenn die Antwort nicht bekannt ist oder die zur Beantwortung der Frage erforderlichen Daten unvollständig sind, sollten so weitgehend ausgeschlossen sein. Wenn Smart Answers Ihre Frage nicht beantworten kann, teilt Ihnen das KI-Tool dies mit. Angezeigt wird außerdem, wenn die Antwort von Smart Answers vor allem auf Inhalten beruht, die vor dem Jahr 2020 veröffentlicht wurden. 

Wir laden Sie ein, mit Smart Answers zu experimentieren. Stellen unser neues KI-Tool auf die Probe. Wir hoffen, ihnen damit weiteren wertvollen Content und Input für Ihre Arbeit zur Verfügung stellen zu können. Und wir sind natürlich gespannt auf Ihr Feedback. Teilen Sie uns gerne Ihre Erfahrungen mit Smart Answers mit und schicken Sie uns Ihre Anmerkungen an info@computerwoche.de.

COMPUTERWOCHE in eigener Sache: Mit Smart Answers zu mehr Information​ Weiterlesen »

Das sind die stressigsten Jobs in Deutschland​

Allgemein

width=”2500″ height=”1406″ sizes=”(max-width: 2500px) 100vw, 2500px”>Hohes Tempo, knappe Fristen und viele Arbeitsstunden – das belastet die Beschäftigten in Deutschland. Es gibt aber deutliche Unterschiede zwischen den Branchen.alphaspirit.it – shutterstock.com In der Informations- und Kommunikationsbranche sind die Arbeitsbedingungen hierzulande am stressigsten. Das hat eine Analyse der Karriereplattform JobLeads ergeben. Dafür wurden Daten des Statistischen Bundesamtes analysiert, um herauszufinden, welche Branchen die anstrengendsten Arbeitsbedingungen haben. Die Experten ermittelten dazu Belastungsfaktoren wie lange Arbeitszeiten, hohes Arbeitstempo und knappe Fristen. Die Studie hat ergeben, dass Information und Kommunikation die anstrengendste Branche in Deutschland ist. Mehr als sechs von zehn Arbeitnehmerinnen und Arbeitnehmern in diesem Bereich klagten über ein hohes Arbeitstempo und oft knappe Fristen einhalten zu müssen. Auch die durchschnittliche Arbeitszeit von 39,2 Stunden pro Woche rangiert unter den höheren Werten in der Tabelle. Insgesamt erhielt die Branche einen Indexwert von 6,96 von 10, wobei höhere Werte ein höheres Belastungslevel anzeigen. JobLeads Auf Rang 2 im Stress-Ranking liegen freiberufliche, wissenschaftliche und technische Dienstleistungen mit 6,72 von 10 Punkten. In dieser Branche gaben 61 Prozent der Erwerbstätigen an, dass von ihnen ein hohes Arbeitstempo verlangt werde. 64 Prozent sprachen davon, knappe Fristen einhalten zu müssen – das ist der höchste Wert im Ranking. Wie Sie Überlastung, Stress und Burnout vorbeugen: Burnout, Boreout, Ängste: Karriere geht auch ohne Überforderung Stress im Job: So vermeiden Sie Burn-out-Fallen Tipps, um Stress abzubauen: 5 Mittel gegen Tech-Burnout Mitarbeiterzufriedenheit: Digitalen Burnout vermeiden Die Top-3 komplettiert das Baugewerbe mit einem Indexwert von 6,52. Danach folgen schon mit etwas Abstand im 5er Bereich das Gastgewerbe (5,66) sowie die Verkehrs- und Lagerei-Branche (5,33). Während die Beschäftigten im Gastgewerbe vor allem ein hohes Arbeitstempo vorlegen müssen (71 Prozent), müssen die Mitarbeitenden im Verkehrs- und Lagerei-Gewerbe besonders lange arbeiten – im Durchschnitt 40,2 Wochenstunden. Erzieher und Lehrer am entspanntesten Am entspanntesten scheint es im Bereich Erziehung und Unterricht zuzugehen. Der Indexwert liegt hier bei 2,54 Zählern. 43 Prozent der Befragten sprachen von einem hohen Arbeitstempo, und nur ein Drittel nannte knappe Fristen. Beide Werte sind die niedrigsten im Ranking für ihre jeweilige Kategorie. 

Das sind die stressigsten Jobs in Deutschland​ width=”2500″ height=”1406″ sizes=”(max-width: 2500px) 100vw, 2500px”>Hohes Tempo, knappe Fristen und viele Arbeitsstunden – das belastet die Beschäftigten in Deutschland. Es gibt aber deutliche Unterschiede zwischen den Branchen.alphaspirit.it – shutterstock.com

In der Informations- und Kommunikationsbranche sind die Arbeitsbedingungen hierzulande am stressigsten. Das hat eine Analyse der Karriereplattform JobLeads ergeben. Dafür wurden Daten des Statistischen Bundesamtes analysiert, um herauszufinden, welche Branchen die anstrengendsten Arbeitsbedingungen haben. Die Experten ermittelten dazu Belastungsfaktoren wie lange Arbeitszeiten, hohes Arbeitstempo und knappe Fristen.

Die Studie hat ergeben, dass Information und Kommunikation die anstrengendste Branche in Deutschland ist. Mehr als sechs von zehn Arbeitnehmerinnen und Arbeitnehmern in diesem Bereich klagten über ein hohes Arbeitstempo und oft knappe Fristen einhalten zu müssen. Auch die durchschnittliche Arbeitszeit von 39,2 Stunden pro Woche rangiert unter den höheren Werten in der Tabelle. Insgesamt erhielt die Branche einen Indexwert von 6,96 von 10, wobei höhere Werte ein höheres Belastungslevel anzeigen.

JobLeads

Auf Rang 2 im Stress-Ranking liegen freiberufliche, wissenschaftliche und technische Dienstleistungen mit 6,72 von 10 Punkten. In dieser Branche gaben 61 Prozent der Erwerbstätigen an, dass von ihnen ein hohes Arbeitstempo verlangt werde. 64 Prozent sprachen davon, knappe Fristen einhalten zu müssen – das ist der höchste Wert im Ranking.

Wie Sie Überlastung, Stress und Burnout vorbeugen:

Burnout, Boreout, Ängste: Karriere geht auch ohne Überforderung

Stress im Job: So vermeiden Sie Burn-out-Fallen

Tipps, um Stress abzubauen: 5 Mittel gegen Tech-Burnout

Mitarbeiterzufriedenheit: Digitalen Burnout vermeiden

Die Top-3 komplettiert das Baugewerbe mit einem Indexwert von 6,52. Danach folgen schon mit etwas Abstand im 5er Bereich das Gastgewerbe (5,66) sowie die Verkehrs- und Lagerei-Branche (5,33). Während die Beschäftigten im Gastgewerbe vor allem ein hohes Arbeitstempo vorlegen müssen (71 Prozent), müssen die Mitarbeitenden im Verkehrs- und Lagerei-Gewerbe besonders lange arbeiten – im Durchschnitt 40,2 Wochenstunden.

Erzieher und Lehrer am entspanntesten

Am entspanntesten scheint es im Bereich Erziehung und Unterricht zuzugehen. Der Indexwert liegt hier bei 2,54 Zählern. 43 Prozent der Befragten sprachen von einem hohen Arbeitstempo, und nur ein Drittel nannte knappe Fristen. Beide Werte sind die niedrigsten im Ranking für ihre jeweilige Kategorie.

Das sind die stressigsten Jobs in Deutschland​ Weiterlesen »

Wird Windows 10 wirklich eingestellt?​

Allgemein

Um Windows-10-Nutzer zum Update zu bewegen, zieht Microsoft sämtliche Register.Hadrian / Shutterstock.com Während Microsoft in groß angelegten Kampagnen die Vorteile von Windows 11 und insbesondere seiner neuen Copilot+-PCs bewirbt, ändert sich die Tonalität mit dem näher rückenden Oktober-Stichtag deutlich: Statt Performance-Vorteilen rücken nun Sicherheitsrisiken für Windows-10-Nutzer in den Fokus. Doch Microsoft ist bekannt dafür, bei Bedarf eigene Richtlinien zu lockern – wie bereits bei Windows XP, als noch Jahre nach dem offiziellen Support-Ende kritische Sicherheitslücken geschlossen wurden. Entsprechend wenig überraschend kam der jüngste Kompromiss: Privatanwender erhalten ein zusätzliches Jahr Sicherheitsupdates kostenlos – entweder durch Nutzung der Windows-Backup-Funktion zur Cloud-Synchronisierung oder durch Einlösen von 1.000 Microsoft Rewards-Punkten. Das bedeutet: Melden Sie sich mit Ihrem Microsoft-Konto an, aktivieren Sie die Sicherung über Windows Backup, und schon erhalten Sie ein weiteres Jahr Sicherheitsupdates – ohne Zusatzkosten. Ein Assistent in den Einstellungen wird Sie durch diesen Prozess führen. Unternehmen hingegen müssen zahlen. Was passiert aktuell mit Windows 10? Microsoft plant, den offiziellen Support für Windows 10 am 14. Oktober 2025 zu beenden. Ab diesem Datum sollen keine Sicherheits-Updates mehr bereitgestellt werden – laut aktuellem Stand. Zwar werden bestehende Windows-10-Geräte weiterhin funktionieren, sie werden aber zunehmend zu einem Sicherheitsrisiko – sowohl im privaten als auch im geschäftlichen Umfeld. Für Nutzer, die nicht sofort auf Windows 11 umsteigen möchten oder können, gibt es das kostenpflichtige Extended Security Updates (ESU)-Programm. In diesem Rahmen erhalten Privatanwender: ein Jahr Sicherheitsupdates für 30 Dollar – oder kostenlos über Backup, beziehungsweise Rewards-Punkte. Für Unternehmen gilt hingegen: 61 Dollar pro Gerät im 1. Jahr 122 Dollar pro Gerät im 2. Jahr 244 Dollar pro Gerät im 3. Jahr Zu beachten ist, dass diese Regelung nur für die Standard-Editionen von Windows 10 gilt. Unternehmen, die die Long-Term Servicing Channel (LTSC)-Version einsetzen, erhalten über 2025 hinaus Sicherheits-Updates. Wird Microsoft seine Pläne ändern? Trotz zahlreicher Diskussionen hält Microsoft größtenteils an seinen Plänen fest. Allerdings ist die Situation beispiellos: Noch nie war eine Windows-Version so weit verbreitet, kurz bevor der Support endet. Drittanbieter-Schätzungen zufolge läuft Windows 10 derzeit auf rund 53 Prozent aller Windows-PCs weltweit. Ursprünglich plante Microsoft, auch den Support für Microsoft-365-Apps auf Windows 10 zum 14. Oktober 2025 zu beenden. Nun hat man diesen Zeitraum verlängert: Die Sicherheitsupdates für diese Apps laufen nun bis zum 10. Oktober 2028 weiter. Auch das Angebot für Privatanwender, ein zusätzliches Jahr Sicherheitsupdates zu erhalten – kostenpflichtig oder kostenlos – ist neu und richtungsweisend. Zuvor waren solche Angebote ausschließlich Unternehmen vorbehalten. Jetzt kann Microsoft sagen: Jeder, der Windows 10 sicher nutzen möchte, hat eine Möglichkeit – und Privatanwender sogar eine kostenlose. Ein kompletter Rückzieher vom Support-Ende im Oktober 2025 gilt als unwahrscheinlich. Dennoch hat Microsoft die Maßnahme abgemildert, indem man Privatanwendern einen kostenfreien Einstieg ins ESU-Programm ermöglicht. Sollte der Anteil von Windows 10 im Oktober 2026 noch immer hoch sein, wäre auch ein zweites kostenloses ESU-Jahr denkbar. Zugleich stärkt dieser Schritt Microsofts Position im Fall möglicher Sicherheitsvorfälle: Sollte es zu einem größeren Vorfall kommen, kann das Unternehmen darauf verweisen, dass Sicherheits-Updates gegen Registrierung angeboten wurden. Das ist auch deutlich günstiger zu kommunizieren als kostenpflichtige Updates für Unternehmen als einzige Option. Die Lehren aus Windows XP Falls sich in Zukunft eine kritische Sicherheitslücke in Windows 10 auftut, ist es sehr wahrscheinlich, dass Microsoft trotzdem ein Update bereitstellt – so wie bei Windows XP mehrfach geschehen. Obwohl der offizielle XP-Support bereits 2014 endete, veröffentlichte Microsoft 2017 (etwa WannaCry) und 2019 weiterhin Patches, um gefährliche Schwachstellen zu schließen – teils fünf Jahre nach dem offiziellen Ende. Das machte Windows XP nicht wirklich sicher, aber es zeigt: Bei globalen Bedrohungen greift Microsoft ein, um das Risiko für Nutzer und das Internet insgesamt zu minimieren. Dasselbe ist auch für Windows 10 nicht ausgeschlossen. So nutzen Sie Windows-10-PCs weiter Microsoft möchte Sie lieber zum Kauf eines neuen PCs bewegen – genau darum geht es bei der 30-Dollar-Gebühr für zusätzliche Sicherheitsupdates. Das Marketing von Microsoft setzt dabei auf eine Doppelstrategie: Sicherheitsrisiken werden betont, wenn Sie bei Windows 10 bleiben. Gleichzeitig unterstreicht der Konzern die Vorteile moderner Geräte, besonders, wenn es um Copilot+-PCs geht. Auch Unternehmen sollen durch jährlich steigende ESU-Gebühren zum Umstieg auf neue Hardware motiviert werden. Doch Sie müssen dem Microsoft-Pfad nicht folgen. Es gibt mehrere Alternativen, wie Sie Ihren Windows-10-PC weiterhin sicher und kostenfrei betreiben können: 1. Auf Linux umsteigen Wenn Sie ein sicheres Betriebssystem wünschen, können Sie Windows durch eine Linux-Distribution ersetzen. Moderne Linux-Systeme wie Ubuntu, Linux Mint oder Fedora sind kostenlos, einfach zu bedienen und bestens für alltägliche Aufgaben geeignet. 2. ChromeOS Flex installieren Google bietet mit ChromeOS Flex eine Variante von ChromeOS an, die speziell für ältere PCs entwickelt wurde. Auch hier handelt es sich um eine kostenfreie Lösung, die sich ideal für Surfen, Office-Aufgaben und Streaming eignet. 3. Inoffizielles Upgrade auf Windows 11 Viele Windows-10-PCs lassen sich trotz fehlender offizieller Freigabe auf Windows 11 aktualisieren. Besonders Geräte aus den Jahren 2018 bis 2020 liegen oft nur knapp unter den Hardware-Anforderungen – mit einem manuellen Upgrade funktionieren sie dennoch stabil und sicher. Hinweis: Bei sehr alten Geräten kann es zu Leistungseinbußen kommen. 4. Sicherheits-Tool „0Patch“ verwenden Der Dienst 0Patch bietet sogenannte „Mikropatches“, die im Hintergrund laufen und gezielt bekannte Sicherheitslücken schließen – ideal für Windows 10 nach dem offiziellen Support-Ende. Zwar ist dieser Dienst nicht kostenlos, aber deutlich günstiger als ein vollständiges ESU-Abonnement. Das Unternehmen hinter 0Patch hat erklärt, dass es Windows 10 weiterhin unterstützen möchte, solange wirtschaftlich sinnvoll – ein baldiger Ausstieg ist nicht geplant. Warum Microsoft den Schritt nachvollziehbar findet Betrachten wir die Lage aus Sicht von Microsoft: Windows 10 wurde am 29. Juli 2015 veröffentlicht – das bedeutet über zehn Jahre Produktunterstützung. Im selben Jahr brachte Google das Nexus 6P mit Android 6.0 Marshmallow auf den Markt. Doch bereits 2018 endete der Support sowohl für das Gerät als auch für diese Android-Version. Im Vergleich dazu ist Microsofts Support-Zeitraum also großzügig. Windows 11 erschien im Oktober 2021, doch viele PCs aus den Jahren 2019 bis 2020 sind kompatibel und upgradefähig. Selbst Geräte aus den Jahren 2018 oder früher lassen sich über Umwege häufig auf Windows 11 aktualisieren. Das realistischste Worst-Case-Szenario: Sie haben 2019 einen PC mit Windows 10 gekauft, der nicht offiziell für Windows 11 freigegeben ist. Selbst dann haben Sie etwa sechs Jahre Nutzungsdauer erreicht – ein solider Zeitraum für ein Gerät der Mittelklasse. Und ist Ihr Gerät nur knapp unter den Hardware-Anforderungen, lässt sich Windows 11 oft inoffiziell installieren. Microsoft blockiert solche Upgrades nicht aktiv – vielmehr scheint man diese Möglichkeit stillschweigend zu dulden. Trotzdem ist es ärgerlich, wenn Sie mit Ihrem Windows-10-PC vollkommen zufrieden sind – und sich jetzt durch das Support-Ende zu einem Upgrade gezwungen fühlen. Doch warum eigentlich? Moderne Computer sind heute so leistungsfähig, dass viele Nutzer sie wie Haushaltsgeräte verwenden: Solange sie starten, stabil laufen und ihre Aufgaben erfüllen, besteht kein Upgrade-Bedarf. Und: Wer sein altes Gerät weiterverwendet, vermeidet Elektroschrott – und unterstützt damit sogar Microsofts eigene Nachhaltigkeitsziele. Ein Argument, das in der aktuellen Zeit durchaus Gewicht hat. Wenn Ihr PC jedoch so alt ist, dass ein Upgrade wirklich nicht mehr sinnvoll möglich ist, hat Microsoft natürlich recht: Moderne Geräte sind deutlich schneller, und selbst günstige Windows-11-PCs bieten eine spürbar bessere Benutzererfahrung. (mb) 

Wird Windows 10 wirklich eingestellt?​ Um Windows-10-Nutzer zum Update zu bewegen, zieht Microsoft sämtliche Register.Hadrian / Shutterstock.com

Während Microsoft in groß angelegten Kampagnen die Vorteile von Windows 11 und insbesondere seiner neuen Copilot+-PCs bewirbt, ändert sich die Tonalität mit dem näher rückenden Oktober-Stichtag deutlich: Statt Performance-Vorteilen rücken nun Sicherheitsrisiken für Windows-10-Nutzer in den Fokus.

Doch Microsoft ist bekannt dafür, bei Bedarf eigene Richtlinien zu lockern – wie bereits bei Windows XP, als noch Jahre nach dem offiziellen Support-Ende kritische Sicherheitslücken geschlossen wurden. Entsprechend wenig überraschend kam der jüngste Kompromiss: Privatanwender erhalten ein zusätzliches Jahr Sicherheitsupdates kostenlos – entweder durch Nutzung der Windows-Backup-Funktion zur Cloud-Synchronisierung oder durch Einlösen von 1.000 Microsoft Rewards-Punkten.

Das bedeutet: Melden Sie sich mit Ihrem Microsoft-Konto an, aktivieren Sie die Sicherung über Windows Backup, und schon erhalten Sie ein weiteres Jahr Sicherheitsupdates – ohne Zusatzkosten. Ein Assistent in den Einstellungen wird Sie durch diesen Prozess führen. Unternehmen hingegen müssen zahlen.

Was passiert aktuell mit Windows 10?

Microsoft plant, den offiziellen Support für Windows 10 am 14. Oktober 2025 zu beenden. Ab diesem Datum sollen keine Sicherheits-Updates mehr bereitgestellt werden – laut aktuellem Stand. Zwar werden bestehende Windows-10-Geräte weiterhin funktionieren, sie werden aber zunehmend zu einem Sicherheitsrisiko – sowohl im privaten als auch im geschäftlichen Umfeld.

Für Nutzer, die nicht sofort auf Windows 11 umsteigen möchten oder können, gibt es das kostenpflichtige Extended Security Updates (ESU)-Programm. In diesem Rahmen erhalten Privatanwender:

ein Jahr Sicherheitsupdates für 30 Dollar – oder kostenlos über Backup, beziehungsweise Rewards-Punkte.

Für Unternehmen gilt hingegen:

61 Dollar pro Gerät im 1. Jahr

122 Dollar pro Gerät im 2. Jahr

244 Dollar pro Gerät im 3. Jahr

Zu beachten ist, dass diese Regelung nur für die Standard-Editionen von Windows 10 gilt. Unternehmen, die die Long-Term Servicing Channel (LTSC)-Version einsetzen, erhalten über 2025 hinaus Sicherheits-Updates.

Wird Microsoft seine Pläne ändern?

Trotz zahlreicher Diskussionen hält Microsoft größtenteils an seinen Plänen fest. Allerdings ist die Situation beispiellos: Noch nie war eine Windows-Version so weit verbreitet, kurz bevor der Support endet. Drittanbieter-Schätzungen zufolge läuft Windows 10 derzeit auf rund 53 Prozent aller Windows-PCs weltweit.

Ursprünglich plante Microsoft, auch den Support für Microsoft-365-Apps auf Windows 10 zum 14. Oktober 2025 zu beenden. Nun hat man diesen Zeitraum verlängert: Die Sicherheitsupdates für diese Apps laufen nun bis zum 10. Oktober 2028 weiter.

Auch das Angebot für Privatanwender, ein zusätzliches Jahr Sicherheitsupdates zu erhalten – kostenpflichtig oder kostenlos – ist neu und richtungsweisend. Zuvor waren solche Angebote ausschließlich Unternehmen vorbehalten. Jetzt kann Microsoft sagen: Jeder, der Windows 10 sicher nutzen möchte, hat eine Möglichkeit – und Privatanwender sogar eine kostenlose.

Ein kompletter Rückzieher vom Support-Ende im Oktober 2025 gilt als unwahrscheinlich. Dennoch hat Microsoft die Maßnahme abgemildert, indem man Privatanwendern einen kostenfreien Einstieg ins ESU-Programm ermöglicht. Sollte der Anteil von Windows 10 im Oktober 2026 noch immer hoch sein, wäre auch ein zweites kostenloses ESU-Jahr denkbar.

Zugleich stärkt dieser Schritt Microsofts Position im Fall möglicher Sicherheitsvorfälle: Sollte es zu einem größeren Vorfall kommen, kann das Unternehmen darauf verweisen, dass Sicherheits-Updates gegen Registrierung angeboten wurden. Das ist auch deutlich günstiger zu kommunizieren als kostenpflichtige Updates für Unternehmen als einzige Option.

Die Lehren aus Windows XP

Falls sich in Zukunft eine kritische Sicherheitslücke in Windows 10 auftut, ist es sehr wahrscheinlich, dass Microsoft trotzdem ein Update bereitstellt – so wie bei Windows XP mehrfach geschehen.

Obwohl der offizielle XP-Support bereits 2014 endete, veröffentlichte Microsoft 2017 (etwa WannaCry) und 2019 weiterhin Patches, um gefährliche Schwachstellen zu schließen – teils fünf Jahre nach dem offiziellen Ende.

Das machte Windows XP nicht wirklich sicher, aber es zeigt: Bei globalen Bedrohungen greift Microsoft ein, um das Risiko für Nutzer und das Internet insgesamt zu minimieren. Dasselbe ist auch für Windows 10 nicht ausgeschlossen.

So nutzen Sie Windows-10-PCs weiter

Microsoft möchte Sie lieber zum Kauf eines neuen PCs bewegen – genau darum geht es bei der 30-Dollar-Gebühr für zusätzliche Sicherheitsupdates.

Das Marketing von Microsoft setzt dabei auf eine Doppelstrategie:

Sicherheitsrisiken werden betont, wenn Sie bei Windows 10 bleiben.

Gleichzeitig unterstreicht der Konzern die Vorteile moderner Geräte, besonders, wenn es um Copilot+-PCs geht.

Auch Unternehmen sollen durch jährlich steigende ESU-Gebühren zum Umstieg auf neue Hardware motiviert werden.

Doch Sie müssen dem Microsoft-Pfad nicht folgen. Es gibt mehrere Alternativen, wie Sie Ihren Windows-10-PC weiterhin sicher und kostenfrei betreiben können:

1. Auf Linux umsteigen

Wenn Sie ein sicheres Betriebssystem wünschen, können Sie Windows durch eine Linux-Distribution ersetzen. Moderne Linux-Systeme wie Ubuntu, Linux Mint oder Fedora sind kostenlos, einfach zu bedienen und bestens für alltägliche Aufgaben geeignet.

2. ChromeOS Flex installieren

Google bietet mit ChromeOS Flex eine Variante von ChromeOS an, die speziell für ältere PCs entwickelt wurde. Auch hier handelt es sich um eine kostenfreie Lösung, die sich ideal für Surfen, Office-Aufgaben und Streaming eignet.

3. Inoffizielles Upgrade auf Windows 11

Viele Windows-10-PCs lassen sich trotz fehlender offizieller Freigabe auf Windows 11 aktualisieren. Besonders Geräte aus den Jahren 2018 bis 2020 liegen oft nur knapp unter den Hardware-Anforderungen – mit einem manuellen Upgrade funktionieren sie dennoch stabil und sicher.

Hinweis: Bei sehr alten Geräten kann es zu Leistungseinbußen kommen.

4. Sicherheits-Tool „0Patch“ verwenden

Der Dienst 0Patch bietet sogenannte „Mikropatches“, die im Hintergrund laufen und gezielt bekannte Sicherheitslücken schließen – ideal für Windows 10 nach dem offiziellen Support-Ende. Zwar ist dieser Dienst nicht kostenlos, aber deutlich günstiger als ein vollständiges ESU-Abonnement.

Das Unternehmen hinter 0Patch hat erklärt, dass es Windows 10 weiterhin unterstützen möchte, solange wirtschaftlich sinnvoll – ein baldiger Ausstieg ist nicht geplant.

Warum Microsoft den Schritt nachvollziehbar findet

Betrachten wir die Lage aus Sicht von Microsoft: Windows 10 wurde am 29. Juli 2015 veröffentlicht – das bedeutet über zehn Jahre Produktunterstützung. Im selben Jahr brachte Google das Nexus 6P mit Android 6.0 Marshmallow auf den Markt. Doch bereits 2018 endete der Support sowohl für das Gerät als auch für diese Android-Version. Im Vergleich dazu ist Microsofts Support-Zeitraum also großzügig.

Windows 11 erschien im Oktober 2021, doch viele PCs aus den Jahren 2019 bis 2020 sind kompatibel und upgradefähig. Selbst Geräte aus den Jahren 2018 oder früher lassen sich über Umwege häufig auf Windows 11 aktualisieren.

Das realistischste Worst-Case-Szenario: Sie haben 2019 einen PC mit Windows 10 gekauft, der nicht offiziell für Windows 11 freigegeben ist. Selbst dann haben Sie etwa sechs Jahre Nutzungsdauer erreicht – ein solider Zeitraum für ein Gerät der Mittelklasse.

Und ist Ihr Gerät nur knapp unter den Hardware-Anforderungen, lässt sich Windows 11 oft inoffiziell installieren. Microsoft blockiert solche Upgrades nicht aktiv – vielmehr scheint man diese Möglichkeit stillschweigend zu dulden.

Trotzdem ist es ärgerlich, wenn Sie mit Ihrem Windows-10-PC vollkommen zufrieden sind – und sich jetzt durch das Support-Ende zu einem Upgrade gezwungen fühlen. Doch warum eigentlich? Moderne Computer sind heute so leistungsfähig, dass viele Nutzer sie wie Haushaltsgeräte verwenden: Solange sie starten, stabil laufen und ihre Aufgaben erfüllen, besteht kein Upgrade-Bedarf.

Und: Wer sein altes Gerät weiterverwendet, vermeidet Elektroschrott – und unterstützt damit sogar Microsofts eigene Nachhaltigkeitsziele. Ein Argument, das in der aktuellen Zeit durchaus Gewicht hat.

Wenn Ihr PC jedoch so alt ist, dass ein Upgrade wirklich nicht mehr sinnvoll möglich ist, hat Microsoft natürlich recht: Moderne Geräte sind deutlich schneller, und selbst günstige Windows-11-PCs bieten eine spürbar bessere Benutzererfahrung. (mb)

Wird Windows 10 wirklich eingestellt?​ Weiterlesen »

Anwenderprobleme: Die 4 häufigsten Cloud-Fehler​

Allgemein

Fehler im System? An der Technologie liegt’s in den seltensten Fällen. Foto: Rroselavy | shutterstock.comBetrachtet man Cloud Computing genauer, stellt man fest, dass die Technologie stets gehalten hat, was sie versprochen hat. Über die verschiedenen Cloud-Generationen hinweg hat sich eine wesentliche Ursache für Ausfälle und Fehlzündungen herauskristallisiert: der Anwender. Dabei zeigt sich immer wieder das identische Muster: Technische Missverständnisse, mangelnde Führung und nicht-existentes Knowhow sorgen regelmäßig dafür, dass Cloud-Initiativen in die Hose gehen.Mit dem Hype um Generative AI und Large Language Models werden in naher Zukunft diverse neue Cloud-Projekte entstehen. Der Zeitpunkt ist also günstig, sich jetzt zu vergegenwärtigen, was über die Jahre aus menschlicher respektive Anwenderperspektive schiefgelaufen ist. 4 wesentliche Cloud-FehlerDie Gründe für die Misserfolge sind dabei sehr unterschiedlicher Natur. Zu den aus unserer Sicht vier häufigsten Gründen gehören:Ungeeignete Architektur: Allzu oft migrieren Unternehmen in die Cloud, ohne eine Strategie oder Knowhow vorweisen zu können. Das kann zu erheblichen Performance- und Zuverlässigkeitsproblemen führen. Noch wahrscheinlicher sind allerdings grob unteroptimierte Systeme in der Cloud, die fünf- bis zehnmal mehr kosten als sie sollten.Unzureichende Service-Level-Vereinbarungen: Dass erwartete Leistungsstandards nicht erfüllt werden, liegt in erster Linie an schlecht vereinbarten Service Level Agreements (SLAs) zwischen Anwenderunternehmen und Cloud-Service-Anbieter. SLAs können zwar höchst verwirrend sein, uns ist allerdings kein Fall bekannt, in dem ein Anbieter seinen daraus erwachsenden Verpflichtungen nicht nachgekommen wäre. Vielmehr kommt es in diesem Bereich regelmäßig zu unschönen Überraschungen, weil die Anwender sich nicht wirklich mit den SLAs beschäftigt haben.Ressourcen-Missmanagement: Wenn Ressourcen falsch gemanagt werden, kann es zu Budgetüberschreitungen oder Performance-Engpässen kommen. Das wird dann oft fälschlicherweise als Cloud-Mangel wahrgenommen. Deswegen gibt es inzwischen auch den Finops-Ansatz.Laxe Sicherheits- und Compliance-Prozesse: Uninformierte Anwender gehen häufig davon aus, dass ihr Cloud-Anbieter für alle Sicherheitsanforderungen zuständig ist. Eine Fehlannahme, die eigentlich schon durch das Shared-Responsibility-Modell ausgeschlossen ist. Damit die Anwender ihrer Verpflichtung zum Schutz ihrer Daten und Anwendungen innerhalb der Cloud nachkommen können, brauchen Sie tiefgehende Kenntnisse in Sachen Identity und Access Management, Kryptografie und Monitoring. In vielen Fällen ist das nötige Fachwissen, um diese Probleme zu bewältigen, nicht vorhanden. Dann wird regelmäßig auf das Beste gehofft – und Sicherheitsvorfälle sind nur eine Frage der Zeit.Wie Cloud besser gehtDas größte Problem im Hintergrund dürfte bei all dem der fortwährende Mangel an qualifiziertem Personal sein. Die Technologie wird immer komplexer, die Lösungen sind zunehmend heterogen und haben viele bewegliche Teile. Auf der anderen Seite wächst die Zahl qualifizierter Cloud-Computing-Architekten, Security- und Datenbank-Profis nicht in gleichem Maße wie die Nachfrage nach ihnen. Wenn Unternehmen dann dazu übergehen, weniger qualifizierte Kandidaten einstellen, die dumme Fehler machen, kann es dazu kommen, dass die resultierenden Probleme erst nach Monaten oder Jahren auffallen.Unternehmen müssen sich also der Realität stellen: Es ist an der Zeit, strategische Schulungen und zusätzliche Einstellungen vorzunehmen und die Kandidaten dabei sehr genau zu prüfen. Soll heißen: Sie müssen Geld ausgeben. Für Unternehmen, die die IT ausschließlich als Kostenfaktor betrachten, kommt das vermutlich erst einmal nicht in Frage. Sie sollten sich vergegenwärtigen, dass ihre Versuche zu sparen, am Ende nur Mehrkosten verursachen. Und zwar nicht zu knapp. (fm)Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Infoworld.Experten diskutieren “Cloud Transformation”Andreas Bachmann, Adacor Foto: Tim Frankenheim / Adacor Hosting GmbH„Man muss beim Thema Cloud-Migration genau hinschauen, wie einzelne Maßnahmen von den Mitarbeitern wahrgenommen werden. Eine On-Premises-Anwendung in die Cloud zu verlagern und dann als SaaS-Lösung zu nutzen, wird in der Regel als reines IT-Projekt angesehen. Anders verhält es sich, wenn mehrere strategische Workloads gleichzeitig in die Cloud transferiert werden, denn dies zieht ja meistens auch signifikante Veränderungen in den Geschäftsprozessen nach sich.“ Andre Engelbertz, T-Systems Foto: T-Systems International GmbH„Man muss bei der Cloud-Reife von Unternehmen deutlich differenzieren. Nahezu jedes Großunternehmen verfügt heutzutage über eine ausformulierte Cloud-Strategie, die auch umgesetzt wird. Es gibt dort also hinlänglich Erfahrung bei Themen wie Multi-Cloud, der Modernisierung von Legacy-Applikationen oder dem Vendor-Management. Häufig arbeitet man bereits mit mindestens zwei der etablierten Hyperscalern zusammen. Ganz anders sieht es bei den Mittelständlern aus. Dort liegt häufig der Fokus bei den Business Operations. Die IT ist lediglich Mittel zum Zweck. Im Hinblick auf die notwendige Modernisierung und Digitalisierung fehlt es an Know-how, Ressourcen und zum Teil auch noch am Willen zur Umsetzung.“Bernd König, Fortinet Foto: Fortinet GmbH„Es geht nicht darum, in die Cloud um ihrer selbst willen zu gehen, nur weil es gerade populär ist. Die essenzielle Frage für jedes Unternehmen ist: Wo will das Business hin und inwieweit kann eine Cloudifizierung dabei helfen?“Thomas Strigel, SPIRIT/21 Foto: SPIRIT/21„Viele Firmen nehmen lediglich eine Migration, aber keine Transformation in Angriff. Die Cloud kommt häufig in Form einer vom Fachbereich initiierten SaaS-Lösung oder U-Boot-mäßig aufgesetzten Umgebungen bei Hyperscalern in das Unternehmen. Die IT versucht dann, mit möglichst geringem Aufwand die Infrastruktur zu modernisieren – auch da kommt dann sehr schnell die Cloud ins Spiel. In Summe führt dies häufig zu einem Wirrwarr in den Prozessen sowie Applikationen und trägt zur Verunsicherung der Mitarbeiter bei. Gleichzeitig ist diese Vorgehensweise Spiegelbild einer in sich nicht konsistenten Strategie.“ Orli Shahidi, Getronics Foto: Getronics Germany GmbH„Ein entscheidender Treiber für die Cloud war auch die Covid-19-Pandemie. Als es darum ging, quasi über Nacht im großen Stil Home-Office-Arbeitsplätze einzurichten, lernten viele Unternehmen die Vorzüge der Office-365-Welt kennen.“ Benedikt Ernst, Kyndryl Foto: Franka Beutner Fotografie / Kyndryl Deutschland GmbH„Ein CCoE kann wichtig und hilfreich sein – aber immer nur temporär. Wichtig ist, dass Unternehmen dabei über den Tellerrand hinausblicken und sich in dieses Gremium auch externes Know-how sowie detaillierte Branchenkompetenz holen. Intern geht es darum, alle Stake Holder an einen Tisch zu bekommen, insbesondere auch Architekten, IT-Risk- und Security-Verantwortliche sowie die führenden Applications Engineers.“ Mario-Leander Reimer, QAware Foto: QAware GmbH„Der größte Treiber für die Cloud ist die Digitalisierung vieler Produkte sowie Dienstleistungen und in Konsequenz daraus vieler Geschäftsprozesse. Jedes Unternehmen, auch die kleinen Mittelständler, müssen daher massiv in ihre Modernisierung investieren und sich neu erfinden.“Ralf Schnell, ServiceNow Foto: Andrew Wilkinson / Service-now.com GmbH„Im Gegensatz zu dem einen oder anderen Mittelständler, wo die Familienpolitik auch die IT-Strategie und die Digitalisierung bestimmt, sehe ich bei fast allen größeren Unternehmen einen hohen Professionalisierungsgrad – sei es in der IT, in der Produktentwicklung oder bei den Business-Verantwortlichen. Das Problem dort ist aber, dass diese unterschiedlichen Bereiche sehr unterschiedlich arbeiten und nicht kontinuierlich miteinander reden. Sie verfügen über kein adäquates Tool für die abteilungsübergreifende Kommunikation und Zusammenarbeit, und sie werden an unterschiedlichen KPIs gemessen, was zu Konfliktpotenzial führt.“Thomas Linde, plusserver Foto: plusserver„Unternehmen sollten nicht länger warten, sondern umgehend mit der Cloud-Transformation beginnnen. Andernfalls laufen sie Gefahr, Innovationen zu verschlafen und vom Wettbewerb überholt zu werden. Selbst wenn noch nicht alle Workloads Cloud-ready sind, ist es wichtig, jetzt anzufangen. Die Modernisierung kann nur Schritt für Schritt gelingen – und wer früher startet, verliert nicht den Anschluss. Mit dem richtigen Partner an der Seite ist die Transformation zudem einfacher umzusetzen.“ 

Anwenderprobleme: Die 4 häufigsten Cloud-Fehler​ Fehler im System? An der Technologie liegt’s in den seltensten Fällen.
Foto: Rroselavy | shutterstock.comBetrachtet man Cloud Computing genauer, stellt man fest, dass die Technologie stets gehalten hat, was sie versprochen hat. Über die verschiedenen Cloud-Generationen hinweg hat sich eine wesentliche Ursache für Ausfälle und Fehlzündungen herauskristallisiert: der Anwender. Dabei zeigt sich immer wieder das identische Muster: Technische Missverständnisse, mangelnde Führung und nicht-existentes Knowhow sorgen regelmäßig dafür, dass Cloud-Initiativen in die Hose gehen.Mit dem Hype um Generative AI und Large Language Models werden in naher Zukunft diverse neue Cloud-Projekte entstehen. Der Zeitpunkt ist also günstig, sich jetzt zu vergegenwärtigen, was über die Jahre aus menschlicher respektive Anwenderperspektive schiefgelaufen ist. 4 wesentliche Cloud-FehlerDie Gründe für die Misserfolge sind dabei sehr unterschiedlicher Natur. Zu den aus unserer Sicht vier häufigsten Gründen gehören:Ungeeignete Architektur: Allzu oft migrieren Unternehmen in die Cloud, ohne eine Strategie oder Knowhow vorweisen zu können. Das kann zu erheblichen Performance- und Zuverlässigkeitsproblemen führen. Noch wahrscheinlicher sind allerdings grob unteroptimierte Systeme in der Cloud, die fünf- bis zehnmal mehr kosten als sie sollten.Unzureichende Service-Level-Vereinbarungen: Dass erwartete Leistungsstandards nicht erfüllt werden, liegt in erster Linie an schlecht vereinbarten Service Level Agreements (SLAs) zwischen Anwenderunternehmen und Cloud-Service-Anbieter. SLAs können zwar höchst verwirrend sein, uns ist allerdings kein Fall bekannt, in dem ein Anbieter seinen daraus erwachsenden Verpflichtungen nicht nachgekommen wäre. Vielmehr kommt es in diesem Bereich regelmäßig zu unschönen Überraschungen, weil die Anwender sich nicht wirklich mit den SLAs beschäftigt haben.Ressourcen-Missmanagement: Wenn Ressourcen falsch gemanagt werden, kann es zu Budgetüberschreitungen oder Performance-Engpässen kommen. Das wird dann oft fälschlicherweise als Cloud-Mangel wahrgenommen. Deswegen gibt es inzwischen auch den Finops-Ansatz.Laxe Sicherheits- und Compliance-Prozesse: Uninformierte Anwender gehen häufig davon aus, dass ihr Cloud-Anbieter für alle Sicherheitsanforderungen zuständig ist. Eine Fehlannahme, die eigentlich schon durch das Shared-Responsibility-Modell ausgeschlossen ist. Damit die Anwender ihrer Verpflichtung zum Schutz ihrer Daten und Anwendungen innerhalb der Cloud nachkommen können, brauchen Sie tiefgehende Kenntnisse in Sachen Identity und Access Management, Kryptografie und Monitoring. In vielen Fällen ist das nötige Fachwissen, um diese Probleme zu bewältigen, nicht vorhanden. Dann wird regelmäßig auf das Beste gehofft – und Sicherheitsvorfälle sind nur eine Frage der Zeit.Wie Cloud besser gehtDas größte Problem im Hintergrund dürfte bei all dem der fortwährende Mangel an qualifiziertem Personal sein. Die Technologie wird immer komplexer, die Lösungen sind zunehmend heterogen und haben viele bewegliche Teile. Auf der anderen Seite wächst die Zahl qualifizierter Cloud-Computing-Architekten, Security- und Datenbank-Profis nicht in gleichem Maße wie die Nachfrage nach ihnen. Wenn Unternehmen dann dazu übergehen, weniger qualifizierte Kandidaten einstellen, die dumme Fehler machen, kann es dazu kommen, dass die resultierenden Probleme erst nach Monaten oder Jahren auffallen.Unternehmen müssen sich also der Realität stellen: Es ist an der Zeit, strategische Schulungen und zusätzliche Einstellungen vorzunehmen und die Kandidaten dabei sehr genau zu prüfen. Soll heißen: Sie müssen Geld ausgeben. Für Unternehmen, die die IT ausschließlich als Kostenfaktor betrachten, kommt das vermutlich erst einmal nicht in Frage. Sie sollten sich vergegenwärtigen, dass ihre Versuche zu sparen, am Ende nur Mehrkosten verursachen. Und zwar nicht zu knapp. (fm)Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Infoworld.Experten diskutieren “Cloud Transformation”Andreas Bachmann, Adacor
Foto: Tim Frankenheim / Adacor Hosting GmbH„Man muss beim Thema Cloud-Migration genau hinschauen, wie einzelne Maßnahmen von den Mitarbeitern wahrgenommen werden. Eine On-Premises-Anwendung in die Cloud zu verlagern und dann als SaaS-Lösung zu nutzen, wird in der Regel als reines IT-Projekt angesehen. Anders verhält es sich, wenn mehrere strategische Workloads gleichzeitig in die Cloud transferiert werden, denn dies zieht ja meistens auch signifikante Veränderungen in den Geschäftsprozessen nach sich.“ Andre Engelbertz, T-Systems
Foto: T-Systems International GmbH„Man muss bei der Cloud-Reife von Unternehmen deutlich differenzieren. Nahezu jedes Großunternehmen verfügt heutzutage über eine ausformulierte Cloud-Strategie, die auch umgesetzt wird. Es gibt dort also hinlänglich Erfahrung bei Themen wie Multi-Cloud, der Modernisierung von Legacy-Applikationen oder dem Vendor-Management. Häufig arbeitet man bereits mit mindestens zwei der etablierten Hyperscalern zusammen. Ganz anders sieht es bei den Mittelständlern aus. Dort liegt häufig der Fokus bei den Business Operations. Die IT ist lediglich Mittel zum Zweck. Im Hinblick auf die notwendige Modernisierung und Digitalisierung fehlt es an Know-how, Ressourcen und zum Teil auch noch am Willen zur Umsetzung.“Bernd König, Fortinet
Foto: Fortinet GmbH„Es geht nicht darum, in die Cloud um ihrer selbst willen zu gehen, nur weil es gerade populär ist. Die essenzielle Frage für jedes Unternehmen ist: Wo will das Business hin und inwieweit kann eine Cloudifizierung dabei helfen?“Thomas Strigel, SPIRIT/21
Foto: SPIRIT/21„Viele Firmen nehmen lediglich eine Migration, aber keine Transformation in Angriff. Die Cloud kommt häufig in Form einer vom Fachbereich initiierten SaaS-Lösung oder U-Boot-mäßig aufgesetzten Umgebungen bei Hyperscalern in das Unternehmen. Die IT versucht dann, mit möglichst geringem Aufwand die Infrastruktur zu modernisieren – auch da kommt dann sehr schnell die Cloud ins Spiel. In Summe führt dies häufig zu einem Wirrwarr in den Prozessen sowie Applikationen und trägt zur Verunsicherung der Mitarbeiter bei. Gleichzeitig ist diese Vorgehensweise Spiegelbild einer in sich nicht konsistenten Strategie.“ Orli Shahidi, Getronics
Foto: Getronics Germany GmbH„Ein entscheidender Treiber für die Cloud war auch die Covid-19-Pandemie. Als es darum ging, quasi über Nacht im großen Stil Home-Office-Arbeitsplätze einzurichten, lernten viele Unternehmen die Vorzüge der Office-365-Welt kennen.“ Benedikt Ernst, Kyndryl
Foto: Franka Beutner Fotografie / Kyndryl Deutschland GmbH„Ein CCoE kann wichtig und hilfreich sein – aber immer nur temporär. Wichtig ist, dass Unternehmen dabei über den Tellerrand hinausblicken und sich in dieses Gremium auch externes Know-how sowie detaillierte Branchenkompetenz holen. Intern geht es darum, alle Stake Holder an einen Tisch zu bekommen, insbesondere auch Architekten, IT-Risk- und Security-Verantwortliche sowie die führenden Applications Engineers.“ Mario-Leander Reimer, QAware
Foto: QAware GmbH„Der größte Treiber für die Cloud ist die Digitalisierung vieler Produkte sowie Dienstleistungen und in Konsequenz daraus vieler Geschäftsprozesse. Jedes Unternehmen, auch die kleinen Mittelständler, müssen daher massiv in ihre Modernisierung investieren und sich neu erfinden.“Ralf Schnell, ServiceNow
Foto: Andrew Wilkinson / Service-now.com GmbH„Im Gegensatz zu dem einen oder anderen Mittelständler, wo die Familienpolitik auch die IT-Strategie und die Digitalisierung bestimmt, sehe ich bei fast allen größeren Unternehmen einen hohen Professionalisierungsgrad – sei es in der IT, in der Produktentwicklung oder bei den Business-Verantwortlichen. Das Problem dort ist aber, dass diese unterschiedlichen Bereiche sehr unterschiedlich arbeiten und nicht kontinuierlich miteinander reden. Sie verfügen über kein adäquates Tool für die abteilungsübergreifende Kommunikation und Zusammenarbeit, und sie werden an unterschiedlichen KPIs gemessen, was zu Konfliktpotenzial führt.“Thomas Linde, plusserver
Foto: plusserver„Unternehmen sollten nicht länger warten, sondern umgehend mit der Cloud-Transformation beginnnen. Andernfalls laufen sie Gefahr, Innovationen zu verschlafen und vom Wettbewerb überholt zu werden. Selbst wenn noch nicht alle Workloads Cloud-ready sind, ist es wichtig, jetzt anzufangen. Die Modernisierung kann nur Schritt für Schritt gelingen – und wer früher startet, verliert nicht den Anschluss. Mit dem richtigen Partner an der Seite ist die Transformation zudem einfacher umzusetzen.“

Anwenderprobleme: Die 4 häufigsten Cloud-Fehler​ Weiterlesen »

Tutorial: Java-Apps mit JUnit 5 testen​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/06/dotshock_shutterstock_2311984335_16z9.jpg?quality=50&strip=all 8224w, https://b2b-contenthub.com/wp-content/uploads/2025/06/dotshock_shutterstock_2311984335_16z9.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/06/dotshock_shutterstock_2311984335_16z9.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/06/dotshock_shutterstock_2311984335_16z9.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/06/dotshock_shutterstock_2311984335_16z9.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/06/dotshock_shutterstock_2311984335_16z9.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/06/dotshock_shutterstock_2311984335_16z9.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/06/dotshock_shutterstock_2311984335_16z9.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/06/dotshock_shutterstock_2311984335_16z9.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/06/dotshock_shutterstock_2311984335_16z9.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/06/dotshock_shutterstock_2311984335_16z9.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Dieses Tutorial bringt Ihnen Testing mit JUnit 5 näher.dotshock | shutterstock.com JUnit 5 ist der De-facto-Standard, um Unit-Tests in Java zu entwickeln. Eine robuste Testing-Suite gibt Ihnen nicht nur die Sicherheit, dass sich Ihre Applikationen wie gewünscht verhalten, sondern kann auch verhindern, dass sich bei Änderungen unabsichtlich Fehler einschleichen. Dieser Artikel vermittelt Ihnen die Grundlagen, um Ihre Java-Anwendungen mit JUnit 5 zu testen. Ganz konkret erfahren Sie in diesem Tutorial, wie Sie: ein Maven-Projekt für JUnit konfigurieren, grundlegende und parametrisierte Unit-Tests schreiben und die in JUnit 5 integrierten Assertions, Annotationen und Tags nutzen. Den Quellcode für sämtliche Beispiele in diesem Artikel können Sie hier direkt herunterladen (Zip-Archiv). Unit-Testing mit JUnit 5 Sehen wir uns zum Start ein Beispiel dafür an, wie ein Projekt für Unit-Tests mit JUnit 5 konfiguriert wird. Das folgende Listing zeigt eine MathTools-Klasse, deren Methode einen Zähler und einen Nenner zu einem Double-Wert konvertiert.   Listing 1: JUnit-5-Beispielprojekt (MathTools.java) package com.javaworld.geekcap.math; public class MathTools { public static double convertToDecimal(int numerator, int denominator) { if (denominator == 0) { throw new IllegalArgumentException(“Denominator must not be 0”); } return (double)numerator / (double)denominator; } } Um die MathTools-Klasse und ihre Methode zu testen, stehen zwei primäre Szenarien zur Verfügung: Ein validierter Test, bei dem eine Ganzzahl ungleich Null an den Nenner übergeben wird. Ein Fehlerszenario, bei dem ein Nullwert an den Nenner übergeben wird. Um diese beiden Szenarien zu testen, ist eine JUnit-5-Testklasse nötig. Listing 2: Eine JUnit 5-Testklasse (MathToolsTest.java) package com.javaworld.geekcap.math; import java.lang.IllegalArgumentException; import org.junit.jupiter.api.Assertions; import org.junit.jupiter.api.Test; class MathToolsTest { @Test void testConvertToDecimalSuccess() { double result = MathTools.convertToDecimal(3, 4); Assertions.assertEquals(0.75, result); } @Test void testConvertToDecimalInvalidDenominator() { Assertions.assertThrows(IllegalArgumentException.class, () -> MathTools.convertToDecimal(3, 0)); } } In Listing 2 führt die testConvertToDecimalInvalidDenominator-Methode die MathTools::convertToDecimal-Methode innerhalb eines assertThrows-Calls aus. Das erste Argument ist der erwartete Typ der auszulösenden Ausnahme. Das zweite Argument ist eine Funktion, die diese Ausnahme auslöst. Die assertThrows-Methode führt die Funktion aus und überprüft, ob der erwartete Ausnahmetyp ausgelöst wird. Die Assertions-Klasse und ihre Methoden Die Annotation org.junit.jupiter.api.Test kennzeichnet eine Testmethode. Zunächst führt testConvertToDecimalSuccess die MathTools::convertToDecimal-Methode mit einem Zähler von 3 und einem Nenner von 4 aus und überprüft dann, ob das Ergebnis 0,75 ist. Die org.junit.jupiter.api.Assertions-Klasse bietet eine Reihe statischer Methoden, um tatsächliche und erwartete Ergebnisse zu vergleichen. Die Methoden der Assertions-Klasse decken die meisten primitiven Datentypen ab: assertArrayEquals vergleicht den Inhalt eines tatsächlichen Arrays mit einem erwarteten Array. assertEquals vergleicht einen tatsächlichen Wert mit einem erwarteten Wert. assertNotEquals vergleicht zwei Werte, um zu überprüfen, ob sie ungleich sind. assertTrue überprüft, ob der angegebene Wert true ist. assertFalse überprüft, ob der angegebene Wert false ist. assertLinesMatch vergleicht zwei String-Listen. assertNull überprüft, ob der angegebene Wert null ist. assertNotNull überprüft, ob der angegebene Wert nicht null ist. assertSame überprüft, ob zwei Werte auf dasselbe Objekt verweisen. assertNotSame überprüft, ob zwei Werte nicht auf dasselbe Objekt verweisen. assertThrows überprüft, ob eine Methode eine erwartete Ausnahme auslöst, wenn sie ausgeführt wird. assertTimeout überprüft, ob eine angegebene Funktion innerhalb eines definierten Timout-Rahmens abgeschlossen wird. assertTimeoutPreemptively überprüft, ob eine angegebene Funktion innerhalb eines bestimmten Timout-Fensters abgeschlossen wird – führt diese jedoch nicht mehr aus, sobald die definierte Zeit verstrichen ist. Schlägt eine dieser Assertion-Methoden fehl, scheitert auch der Unit-Test und wird entsprechend markiert. Die Fehlermeldung wird bei der Ausführung des Tests auf dem Bildschirm angezeigt und anschließend in einer Berichtsdatei gespeichert. Delta mit assertEquals verwenden Wenn Sie in einem assertEquals Float- und Double-Werte verwenden, können Sie auch ein Delta angeben, das einen Schwellenwert für die Differenz zwischen den beiden verglichenen Werten darstellt. Beispielsweise wird 22/7 häufig als Annäherungswert für PI oder 3,14 verwendet. Allerdings erhalten wir nicht 3,14 wenn wir 22 durch 7 dividieren, sondern 3,14285. Das nachfolgende Listing demonstriert, wie Sie mit einem delta-Wert überprüfen können, ob 22/7 einen Wert zwischen 3,141 und 3,143 zurückgibt. Listing 3: assertEquals mit einem Delta testen @Test void testConvertToDecimalWithDeltaSuccess () { double result = MathTools.convertToDecimal(22, 7); Assertions.assertEquals(3.142, result, 0.001); } In diesem Beispiel erwarten wir 3,142 +/- 0,001, was allen Werten zwischen 3,141 und 3,143 entspricht. Sowohl 3,140 als auch 3,144 würden dazu führen, dass der Test fehlschlägt – mit 3,142857 würde er klappen. Testergebnisse analysieren Assert-Methoden können nicht nur Werte oder Verhalten validieren, sondern akzeptieren auch eine textuelle Beschreibung des Fehlers. Das kann Sie bei der Diagnose unterstützen. Vergegenwärtigen Sie sich anhand des folgenden Outputs zwei Varianten: Assertions.assertEquals(0.75, result, “The MathTools::convertToDecimal value did not return the correct value of 0.75 for 3/4”); Assertions.assertEquals(0.75, result, () -> “The MathTools::convertToDecimal value did not return the correct value of 0.75 for 3/4”); Der Output zeigt den erwarteten Wert 0,75 sowie den tatsächlichen Wert. Außerdem wird die spezifizierte Meldung angezeigt, die dabei helfen kann, den Fehlerkontext zu verstehen. Der Unterschied zwischen den beiden Varianten: Erstere erstellt immer die Meldung, auch wenn sie nicht angezeigt wird. Zweitere nur dann, wenn die Assertion fehlschlägt. In diesem Fall ist es trivial, die Meldung zu erstellen. Trotzdem ist es nicht erforderlich, eine Fehlermeldung für einen Test zu erstellen, der bestanden wurde. Es empfiehlt sich daher in der Regel, auf den zweitgenannten Ansatz zu setzen. Falls Sie für Ihre Tests eine Java-IDE wie IntelliJ einsetzen, wird jede Testmethode mit ihrem Methodennamen angezeigt. Das erfordert, dass Ihre Methodennamen auch lesbar sind. Ansonsten können Sie Ihre Testmethoden auch um @DisplayName-Annotations erweitern, um sie “identifizierbarer” zu gestalten: @Test @DisplayName(“Test successful decimal conversion”) void testConvertToDecimalSuccess() { double result = MathTools.convertToDecimal(3, 4); Assertions.assertEquals(0.751, result); } Unit-Tests mit Maven fahren Um JUnit-5-Tests aus einem Maven-Projekt heraus auszuführen, müssen Sie das maven-surefire-plugin in die pom.xml-Datei aufnehmen und eine neue Abhängigkeit hinzufügen. Das folgende Listing zeigt pom.xml für dieses Projekt. Listing 4: Maven pom.xml für ein Beispielprojekt mit JUnit 5 4.0.0 org.example JUnitExample 1.0-SNAPSHOT 24 24 UTF-8 org.apache.maven.plugins maven-surefire-plugin 3.5.3 org.junit.jupiter junit-jupiter 5.12.2 test JUnit 5 verpackt seine Komponenten in der org.junit.jupiter-Gruppe und nutzt das Aggregator-Artefakt junit-jupiter, um Abhängigkeiten zu importieren: junit-jupiter-api definiert die API, um Tests und Erweiterungen zu erstellen. junit-jupiter-engine ist die Test-Engine-Implementierung, die die Unit-Tests ausführt. junit-jupiter-params unterstützt parametrisierte Tests. Im nächsten Schritt fügen wir das Maven-Build-Plugin hinzu, um die Tests auszuführen. Schließlich richten wir unseren Build mit den Eigenschaften maven.compiler.source und maven.compiler.target auf Java 24 aus. Testklasse ausführen Jetzt können wir unsere Testklasse ausführen. Dazu nutzen Sie folgenden Befehl: mvn clean test Im Erfolgsfall sollten Sie (in etwa) folgenden Output zu sehen bekommen: [INFO] ——————————————————- [INFO] T E S T S [INFO] ——————————————————- [INFO] Running com.javaworld.geekcap.math.MathToolsTest [INFO] Tests run: 2, Failures: 0, Errors: 0, Skipped: 0, Time elapsed: 0.04 s – in com.javaworld.geekcap.math.MathToolsTest [INFO] [INFO] Results: [INFO] [INFO] Tests run: 2, Failures: 0, Errors: 0, Skipped: 0 [INFO] [INFO] ———————————————————————— [INFO] BUILD SUCCESS [INFO] ———————————————————————— [INFO] Total time: 3.832 s [INFO] Finished at: 2025-05-21T08:21:15-05:00 [INFO] ———————————————————————— Parametrisierte Tests mit JUnit 5 Da Sie nun wissen, wie man einen simplen Unit-Test mit JUnit 5 erstellt, gehen wir einen Schritt weiter: Die Testklasse in diesem Abschnitt basiert ebenfalls auf der MathTools-Klasse – allerdings nutzen wir nun parametrisierte Tests, um unseren Code gründlicher auf die Probe zu stellen. Dazu ergänzen wir MathTools zunächst um eine weitere Methode namens isEven: public static boolean isEven(int number) { return number % 2 == 0; } Wir könnten diesen Code auf dieselbe Weise testen wie im vorherigen Abschnitt, indem wir verschiedene Zahlen an die isEven-Methode übergeben und die Antwort validieren: @Test void testIsEvenSuccessful() { Assertions.assertTrue(MathTools.isEven(2)); Assertions.assertFalse(MathTools.isEven(1)); } Diese Methodik funktioniert zwar, wird jedoch schnell mühsam, wenn Sie eine große Anzahl von Werten testen möchten und diese manuell eingeben müssen. Um die Werte zu definieren, die wir testen möchten, nutzen wir einen parametrisierten Test: @ParameterizedTest @ValueSource(ints = {0, 2, 4, 6, 8, 10, 100, 1000}) void testIsEven(int number) { Assertions.assertTrue(MathTools.isEven(number)); } Anstelle der @Test-Annotation verwenden wir an dieser Stelle @ParameterizedTest. Außerdem ist es nötig, eine Quelle für die Parameter anzugeben: A note about the ValueSource annotation The ValueSource in the above example accepts an integer array by specifying an ints argument, but the ValueSource annotation also supports booleans, bytes, chars, classes, doubles, floats, longs, shorts, and strings. For example, you might supply a list of String literals: @ValueSource(strings = {“foo”, “bar”, “baz”}). Quellen in parametrisierten Tests nutzen Es gibt verschiedene Arten von Quellen. Mit der einfachsten – @ValueSource – lässt sich eine Integer- oder String-Liste angeben. Der Parameter wird dabei als Argument an die Testmethode übergeben und kann anschließend im Test genutzt werden. In unserem Beispiel übergeben wir acht gerade Zahlen und überprüfen, ob die Methode MathTools::isEven diese korrekt identifiziert. Bleibt das Problem, sämtliche Werte manuell eingeben zu müssen, die getestet werden sollen. Wollten Sie sämtliche Ganzzahlen zwischen 0 und 1.000 testen, könnten Sie @ValueSource durch @MethodSource ersetzen, um die Zahlenliste zu generieren. Ein Beispiel: @ParameterizedTest @MethodSource(“generateEvenNumbers”) void testIsEvenRange(int number) { Assertions.assertTrue(MathTools.isEven(number)); } static IntStream generateEvenNumbers() { return IntStream.iterate(0, i -> i + 2).limit(500); } Kommt @MethodSource zum Einsatz, definieren wir eine statische Methode, die einen Stream oder eine Collection zurückgibt. Dabei wird jeder Wert als Methodenargument an unsere Testmethode gesendet. In unserem Beispiel erstellen wir einen IntStream (Integer-Stream). Dieser beginnt bei 0, erhöht sich um jeweils zwei und begrenzt die Gesamtzahl der Elemente im Stream auf 500. Die isEven-Methode wird also 500 Mal aufgerufen, wobei alle geraden Zahlen zwischen 0 und 998 verwendet werden. Parametrisierte Tests unterstützen folgende Quelltypen: ValueSource spezifiziert eine hartkodierte Liste von Ganzzahlen oder Strings. MethodSource ruft eine statische Methode auf, die einen Stream oder eine Collection von Elementen generiert. EnumSource gibt eine Enumeration an, deren Werte an die Testmethode übergeben werden. Das ermöglicht, über sämtliche Enum-Werte zu iterieren oder bestimmte Werte ein- und auszuschließen. CsvSource gibt eine durch Kommas getrennte Liste von Werten an. CsvFileSource spezifiziert einen Pfad zu einer durch Kommas getrennten Value-Datei mit Testdaten. ArgumentsSource ermöglicht, eine Klasse anzugeben, die das ArgumentsProvider-Interface implementiert. Dieses generiert einen Stream von Argumenten, die an die Testmethode übergeben werden. NullSource übergibt null an Ihre Testmethode, wenn Sie mit Strings, Collections oder Arrays arbeiten. Diese Annotation lässt sich in andere (wie ValueSource) inkludieren, um eine Sammlung von Werten (und null) zu testen. EmptySource fügt einen leeren Wert ein, wenn Sie mit Strings, Collections oder Arrays arbeiten. NullAndEmptySource inkludiert sowohl null als auch einen leeren Wert, wenn Sie mit Strings, Collections oder Arrays arbeiten. FieldSource ermöglicht, auf ein oder mehrere Felder der Testklasse (oder externer Klassen) zu verweisen. Darüber hinaus können Sie mit JUnit mehrere “wiederholbare” Quellen nutzen, indem Sie mehrere Quell-Annotationen in Ihrer parametrisierten Testmethode spezifizieren. Zu diesen wiederholbaren Quellen gehören: ValueSource, EnumSource, MethodSource, FieldSource, CsvSource, CsvFileSource , sowie ArgumentsSource. Der Test-Lifecycle von JUnit 5 Bei den meisten Softwaretests empfiehlt es sich, vor und nach jedem Testlauf (beziehungsweise vor und nach allen Testläufen) bestimmte Dinge zu tun. Wollen Sie beispielsweise Datenbankabfragen testen, ist es möglicherweise sinnvoll: vor allen Testläufen eine Verbindung zu einer Datenbank herzustellen und ein Schema importieren,   vor jedem einzelnen Test Testdaten einzufügen, nach jedem Test die Datenbank zu bereinigen, sowie nach allen Testläufen das Schema zu löschen und die Datenbankverbindung schließen. Zu diesem Zweck bietet JUnit 5 folgenden Annotationen, die Sie den Methoden Ihrer Testklasse hinzufügen können: @BeforeAll ist eine statische Methode in Ihrer Testklasse, die aufgerufen wird, bevor sie Tests durchführt. @AfterAll ist eine statische Methode in Ihrer Testklasse, die aufgerufen wird, nachdem alle Tests durchgeführt wurden. @BeforeEach ist eine Methode, die vor jedem einzelnen Test aufgerufen wird. @AfterEach ist eine Methode, die nach jedem einzelnen Test aufgerufen wird. Das nachfolgende Listing zeigt ein einfaches Beispiel, das die Aufrufe der verschiedenen Lebenszyklusmethoden protokolliert. Listing 5: JUnit-5-Lebenszyklusmethoden loggen (LifecycleDemoTest.java) package com.javaworld.geekcap.lifecycle; import org.junit.jupiter.api.*; public class LifecycleDemoTest { @BeforeAll static void beforeAll() { System.out.println(“Connect to the database”); } @BeforeEach void beforeEach() { System.out.println(“Load the schema”); } @AfterEach void afterEach() { System.out.println(“Drop the schema”); } @AfterAll static void afterAll() { System.out.println(“Disconnect from the database”); } @Test void testOne() { System.out.println(“Test One”); } @Test void testTwo() { System.out.println(“Test Two”); } } Wenn Sie diesen Test ausführen, erwartet Sie folgender Konsolen-Output: Connect to the database Load the schema Test One Drop the schema Load the schema Test Two Drop the schema Disconnect from the database Hier wird die beforeAll-Methode aufgerufen, die etwa eine Verbindung zu einer Datenbank herstellen oder eine große Datenstruktur im Arbeitsspeicher erstellen könnte. Im nächsten Schritt sorgt die beforeEach-Methode dafür, dass die Daten für jeden Test vorbereitet werden – etwa, indem sie eine Testdatenbank mit einem erwarteten Datensatz befüllt. Anschließend wird der erste Test ausgeführt, gefolgt von der afterEach-Methode. Dieser Prozess (beforeEach—> Test—>afterEach) wird solange fortgesetzt, bis alle Tests abgeschlossen sind. Abschließend bereinigt die afterAll-Methode die Testumgebung, beispielsweise, indem sie die Verbindung zur Datenbank trennt. Tags & Filtering in JUnit 5 Abschließend werfen wir nun noch einen Blick darauf, wie Sie Tags nutzen können, um verschiedene Testfälle selektiv auszuführen. Tags identifizieren und filtern bestimmte Tests, die Sie in verschiedenen Szenarien ausführen möchten. Die Bennenung und der Verwendungszweck von Tags sind frei wählbar. Nachfolgend erstellen wir drei neue Testklassen und kennzeichnen zwei davon als “Development” und eine als “Integration”: Listing 6: JUnit 5-Tags, Test 1 (TestOne.java) package com.javaworld.geekcap.tags; import org.junit.jupiter.api.Tag; import org.junit.jupiter.api.Test; @Tag(“Development”) class TestOne { @Test void testOne() { System.out.println(“Test 1”); } } Listing 7: JUnit 5 tags, test 2 (TestTwo.java) package com.javaworld.geekcap.tags; import org.junit.jupiter.api.Tag; import org.junit.jupiter.api.Test; @Tag(“Development”) class TestTwo { @Test void testTwo() { System.out.println(“Test 2”); } } Listing 8: JUnit 5 tags, test 3 (TestThree.java) package com.javaworld.geekcap.tags; import org.junit.jupiter.api.Tag; import org.junit.jupiter.api.Test; @Tag(“Integration”) class TestThree { @Test void testThree() { System.out.println(“Test 3”); } } Implementiert werden Tags durch Annotationen. Dabei können Sie entweder eine gesamte Test-Klasse oder einzelne Methoden innerhalb einer solchen mit Anmerkungen versehen. Darüber hinaus können Klassen und Methoden auch mehrere Tags aufweisen. In unseren Beispielen sind TestOne und TestTwo mit dem “Development”-, TestThree mit dem “Integration”-Tag versehen. Mit Hilfe der Tags können Sie Testläufe auf verschiedene Weisen filtern. Am einfachsten ist es, einen Test über Ihre Maven-Kommandozeile anzugeben. Im folgenden Beispiel werden beispielsweise nur Tests ausgeführt, die das “Development”-Tag aufweisen: mvn clean test -Dgroups=”Development” Die Property groups erlaubt Ihnen, eine durch Kommas getrennte Liste von Tag-Namen für die Tests zu spezifizieren, die JUnit 5 ausführen soll. Das resultiert in folgendem Output: [INFO] ——————————————————- [INFO] T E S T S [INFO] ——————————————————- [INFO] Running com.javaworld.geekcap.tags.TestOne Test 1 [INFO] Tests run: 1, Failures: 0, Errors: 0, Skipped: 0, Time elapsed: 0.029 s – in com.javaworld.geekcap.tags.TestOne [INFO] Running com.javaworld.geekcap.tags.TestTwo Test 2 [INFO] Tests run: 1, Failures: 0, Errors: 0, Skipped: 0, Time elapsed: 0.001 s – in com.javaworld.geekcap.tags.TestTwo Folgendermaßen könnten Sie nur die Integrationstests ausführen: mvn clean test -Dgroups=”Integration” Oder sowohl Development- als auch Integrationstests: mvn clean test -Dgroups=”Development, Integration” Zusätzlich zur Eigenschaft groups können Sie in JUnit 5 auch excludedGroups verwenden, um alle Tests auszuführen, die nicht über das angegebene Tag verfügen. In einer Entwicklungsumgebung möchten wir beispielsweise auf Integrationstests verzichten. Wir könnten deshalb folgendermaßen verfahren: mvn clean test -DexcludedGroups=”Integration” Das ist besonders im Fall von großen Anwendungen hilfreich, die Tausende von Tests umfassen können: Wenn Sie später neue Produktionstests hinzufügen möchten, müssen Sie nicht einen Schritt zurückgehen und die anderen 10.000 Tests um ein “Development”-Tag ergänzen. Last, but not least ist es auch möglich, das surefire-Plugin sowohl um groups als auch um excludedGroups zu ergänzen und diese Felder über Maven-Profile zu steuern. Weitere Informationen zu Tags entnehmen Sie dem JUnit 5-Benutzerhandbuch. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Tutorial: Java-Apps mit JUnit 5 testen​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/06/dotshock_shutterstock_2311984335_16z9.jpg?quality=50&strip=all 8224w, https://b2b-contenthub.com/wp-content/uploads/2025/06/dotshock_shutterstock_2311984335_16z9.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/06/dotshock_shutterstock_2311984335_16z9.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/06/dotshock_shutterstock_2311984335_16z9.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/06/dotshock_shutterstock_2311984335_16z9.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/06/dotshock_shutterstock_2311984335_16z9.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/06/dotshock_shutterstock_2311984335_16z9.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/06/dotshock_shutterstock_2311984335_16z9.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/06/dotshock_shutterstock_2311984335_16z9.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/06/dotshock_shutterstock_2311984335_16z9.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/06/dotshock_shutterstock_2311984335_16z9.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Dieses Tutorial bringt Ihnen Testing mit JUnit 5 näher.dotshock | shutterstock.com

JUnit 5 ist der De-facto-Standard, um Unit-Tests in Java zu entwickeln. Eine robuste Testing-Suite gibt Ihnen nicht nur die Sicherheit, dass sich Ihre Applikationen wie gewünscht verhalten, sondern kann auch verhindern, dass sich bei Änderungen unabsichtlich Fehler einschleichen.

Dieser Artikel vermittelt Ihnen die Grundlagen, um Ihre Java-Anwendungen mit JUnit 5 zu testen. Ganz konkret erfahren Sie in diesem Tutorial, wie Sie:

ein Maven-Projekt für JUnit konfigurieren,

grundlegende und parametrisierte Unit-Tests schreiben und

die in JUnit 5 integrierten Assertions, Annotationen und Tags nutzen.

Den Quellcode für sämtliche Beispiele in diesem Artikel können Sie hier direkt herunterladen (Zip-Archiv).

Unit-Testing mit JUnit 5

Sehen wir uns zum Start ein Beispiel dafür an, wie ein Projekt für Unit-Tests mit JUnit 5 konfiguriert wird. Das folgende Listing zeigt eine MathTools-Klasse, deren Methode einen Zähler und einen Nenner zu einem Double-Wert konvertiert.  

Listing 1: JUnit-5-Beispielprojekt (MathTools.java)

package com.javaworld.geekcap.math;

public class MathTools {
public static double convertToDecimal(int numerator, int denominator) {
if (denominator == 0) {
throw new IllegalArgumentException(“Denominator must not be 0”);
}
return (double)numerator / (double)denominator;
}
}

Um die MathTools-Klasse und ihre Methode zu testen, stehen zwei primäre Szenarien zur Verfügung:

Ein validierter Test, bei dem eine Ganzzahl ungleich Null an den Nenner übergeben wird.

Ein Fehlerszenario, bei dem ein Nullwert an den Nenner übergeben wird.

Um diese beiden Szenarien zu testen, ist eine JUnit-5-Testklasse nötig.

Listing 2: Eine JUnit 5-Testklasse (MathToolsTest.java)

package com.javaworld.geekcap.math;

import java.lang.IllegalArgumentException;
import org.junit.jupiter.api.Assertions;
import org.junit.jupiter.api.Test;

class MathToolsTest {
@Test
void testConvertToDecimalSuccess() {
double result = MathTools.convertToDecimal(3, 4);
Assertions.assertEquals(0.75, result);
}

@Test
void testConvertToDecimalInvalidDenominator() {
Assertions.assertThrows(IllegalArgumentException.class, () -> MathTools.convertToDecimal(3, 0));
}
}

In Listing 2 führt die testConvertToDecimalInvalidDenominator-Methode die MathTools::convertToDecimal-Methode innerhalb eines assertThrows-Calls aus. Das erste Argument ist der erwartete Typ der auszulösenden Ausnahme. Das zweite Argument ist eine Funktion, die diese Ausnahme auslöst. Die assertThrows-Methode führt die Funktion aus und überprüft, ob der erwartete Ausnahmetyp ausgelöst wird.

Die Assertions-Klasse und ihre Methoden

Die Annotation org.junit.jupiter.api.Test kennzeichnet eine Testmethode. Zunächst führt testConvertToDecimalSuccess die MathTools::convertToDecimal-Methode mit einem Zähler von 3 und einem Nenner von 4 aus und überprüft dann, ob das Ergebnis 0,75 ist. Die org.junit.jupiter.api.Assertions-Klasse bietet eine Reihe statischer Methoden, um tatsächliche und erwartete Ergebnisse zu vergleichen. Die Methoden der Assertions-Klasse decken die meisten primitiven Datentypen ab:

assertArrayEquals vergleicht den Inhalt eines tatsächlichen Arrays mit einem erwarteten Array.

assertEquals vergleicht einen tatsächlichen Wert mit einem erwarteten Wert.

assertNotEquals vergleicht zwei Werte, um zu überprüfen, ob sie ungleich sind.

assertTrue überprüft, ob der angegebene Wert true ist.

assertFalse überprüft, ob der angegebene Wert false ist.

assertLinesMatch vergleicht zwei String-Listen.

assertNull überprüft, ob der angegebene Wert null ist.

assertNotNull überprüft, ob der angegebene Wert nicht null ist.

assertSame überprüft, ob zwei Werte auf dasselbe Objekt verweisen.

assertNotSame überprüft, ob zwei Werte nicht auf dasselbe Objekt verweisen.

assertThrows überprüft, ob eine Methode eine erwartete Ausnahme auslöst, wenn sie ausgeführt wird.

assertTimeout überprüft, ob eine angegebene Funktion innerhalb eines definierten Timout-Rahmens abgeschlossen wird.

assertTimeoutPreemptively überprüft, ob eine angegebene Funktion innerhalb eines bestimmten Timout-Fensters abgeschlossen wird – führt diese jedoch nicht mehr aus, sobald die definierte Zeit verstrichen ist.

Schlägt eine dieser Assertion-Methoden fehl, scheitert auch der Unit-Test und wird entsprechend markiert. Die Fehlermeldung wird bei der Ausführung des Tests auf dem Bildschirm angezeigt und anschließend in einer Berichtsdatei gespeichert.

Delta mit assertEquals verwenden

Wenn Sie in einem assertEquals Float- und Double-Werte verwenden, können Sie auch ein Delta angeben, das einen Schwellenwert für die Differenz zwischen den beiden verglichenen Werten darstellt. Beispielsweise wird 22/7 häufig als Annäherungswert für PI oder 3,14 verwendet. Allerdings erhalten wir nicht 3,14 wenn wir 22 durch 7 dividieren, sondern 3,14285. Das nachfolgende Listing demonstriert, wie Sie mit einem delta-Wert überprüfen können, ob 22/7 einen Wert zwischen 3,141 und 3,143 zurückgibt.

Listing 3: assertEquals mit einem Delta testen

@Test
void testConvertToDecimalWithDeltaSuccess () {
double result = MathTools.convertToDecimal(22, 7);
Assertions.assertEquals(3.142, result, 0.001);
}

In diesem Beispiel erwarten wir 3,142 +/- 0,001, was allen Werten zwischen 3,141 und 3,143 entspricht. Sowohl 3,140 als auch 3,144 würden dazu führen, dass der Test fehlschlägt – mit 3,142857 würde er klappen.

Testergebnisse analysieren

Assert-Methoden können nicht nur Werte oder Verhalten validieren, sondern akzeptieren auch eine textuelle Beschreibung des Fehlers. Das kann Sie bei der Diagnose unterstützen. Vergegenwärtigen Sie sich anhand des folgenden Outputs zwei Varianten:

Assertions.assertEquals(0.75, result, “The MathTools::convertToDecimal value did not return the correct value of 0.75 for 3/4”);

Assertions.assertEquals(0.75, result, () -> “The MathTools::convertToDecimal value did not return the correct value of 0.75 for 3/4”);

Der Output zeigt den erwarteten Wert 0,75 sowie den tatsächlichen Wert. Außerdem wird die spezifizierte Meldung angezeigt, die dabei helfen kann, den Fehlerkontext zu verstehen. Der Unterschied zwischen den beiden Varianten: Erstere erstellt immer die Meldung, auch wenn sie nicht angezeigt wird. Zweitere nur dann, wenn die Assertion fehlschlägt. In diesem Fall ist es trivial, die Meldung zu erstellen. Trotzdem ist es nicht erforderlich, eine Fehlermeldung für einen Test zu erstellen, der bestanden wurde. Es empfiehlt sich daher in der Regel, auf den zweitgenannten Ansatz zu setzen.

Falls Sie für Ihre Tests eine Java-IDE wie IntelliJ einsetzen, wird jede Testmethode mit ihrem Methodennamen angezeigt. Das erfordert, dass Ihre Methodennamen auch lesbar sind. Ansonsten können Sie Ihre Testmethoden auch um @DisplayName-Annotations erweitern, um sie “identifizierbarer” zu gestalten:

@Test
@DisplayName(“Test successful decimal conversion”)
void testConvertToDecimalSuccess() {
double result = MathTools.convertToDecimal(3, 4);
Assertions.assertEquals(0.751, result);
}

Unit-Tests mit Maven fahren

Um JUnit-5-Tests aus einem Maven-Projekt heraus auszuführen, müssen Sie das maven-surefire-plugin in die pom.xml-Datei aufnehmen und eine neue Abhängigkeit hinzufügen. Das folgende Listing zeigt pom.xml für dieses Projekt.

Listing 4: Maven pom.xml für ein Beispielprojekt mit JUnit 5

4.0.0

org.example
JUnitExample
1.0-SNAPSHOT

24
24
UTF-8

org.apache.maven.plugins
maven-surefire-plugin
3.5.3

org.junit.jupiter
junit-jupiter
5.12.2
test

JUnit 5 verpackt seine Komponenten in der org.junit.jupiter-Gruppe und nutzt das Aggregator-Artefakt junit-jupiter, um Abhängigkeiten zu importieren:

junit-jupiter-api definiert die API, um Tests und Erweiterungen zu erstellen.

junit-jupiter-engine ist die Test-Engine-Implementierung, die die Unit-Tests ausführt.

junit-jupiter-params unterstützt parametrisierte Tests.

Im nächsten Schritt fügen wir das Maven-Build-Plugin hinzu, um die Tests auszuführen. Schließlich richten wir unseren Build mit den Eigenschaften maven.compiler.source und maven.compiler.target auf Java 24 aus.

Testklasse ausführen

Jetzt können wir unsere Testklasse ausführen. Dazu nutzen Sie folgenden Befehl:

mvn clean test

Im Erfolgsfall sollten Sie (in etwa) folgenden Output zu sehen bekommen:

[INFO] ——————————————————-
[INFO] T E S T S
[INFO] ——————————————————-
[INFO] Running com.javaworld.geekcap.math.MathToolsTest
[INFO] Tests run: 2, Failures: 0, Errors: 0, Skipped: 0, Time elapsed: 0.04 s – in com.javaworld.geekcap.math.MathToolsTest
[INFO]
[INFO] Results:
[INFO]
[INFO] Tests run: 2, Failures: 0, Errors: 0, Skipped: 0
[INFO]
[INFO] ————————————————————————
[INFO] BUILD SUCCESS
[INFO] ————————————————————————
[INFO] Total time: 3.832 s
[INFO] Finished at: 2025-05-21T08:21:15-05:00
[INFO] ————————————————————————

Parametrisierte Tests mit JUnit 5

Da Sie nun wissen, wie man einen simplen Unit-Test mit JUnit 5 erstellt, gehen wir einen Schritt weiter: Die Testklasse in diesem Abschnitt basiert ebenfalls auf der MathTools-Klasse – allerdings nutzen wir nun parametrisierte Tests, um unseren Code gründlicher auf die Probe zu stellen. Dazu ergänzen wir MathTools zunächst um eine weitere Methode namens isEven:

public static boolean isEven(int number) {
return number % 2 == 0;
}

Wir könnten diesen Code auf dieselbe Weise testen wie im vorherigen Abschnitt, indem wir verschiedene Zahlen an die isEven-Methode übergeben und die Antwort validieren:

@Test
void testIsEvenSuccessful() {
Assertions.assertTrue(MathTools.isEven(2));
Assertions.assertFalse(MathTools.isEven(1));
}

Diese Methodik funktioniert zwar, wird jedoch schnell mühsam, wenn Sie eine große Anzahl von Werten testen möchten und diese manuell eingeben müssen. Um die Werte zu definieren, die wir testen möchten, nutzen wir einen parametrisierten Test:

@ParameterizedTest
@ValueSource(ints = {0, 2, 4, 6, 8, 10, 100, 1000})
void testIsEven(int number) {
Assertions.assertTrue(MathTools.isEven(number));
}

Anstelle der @Test-Annotation verwenden wir an dieser Stelle @ParameterizedTest. Außerdem ist es nötig, eine Quelle für die Parameter anzugeben:

A note about the ValueSource annotation

The ValueSource in the above example accepts an integer array by specifying an ints argument, but the ValueSource annotation also supports booleans, bytes, chars, classes, doubles, floats, longs, shorts, and strings. For example, you might supply a list of String literals: @ValueSource(strings = {“foo”, “bar”, “baz”}).

Quellen in parametrisierten Tests nutzen

Es gibt verschiedene Arten von Quellen. Mit der einfachsten – @ValueSource – lässt sich eine Integer- oder String-Liste angeben. Der Parameter wird dabei als Argument an die Testmethode übergeben und kann anschließend im Test genutzt werden. In unserem Beispiel übergeben wir acht gerade Zahlen und überprüfen, ob die Methode MathTools::isEven diese korrekt identifiziert.

Bleibt das Problem, sämtliche Werte manuell eingeben zu müssen, die getestet werden sollen. Wollten Sie sämtliche Ganzzahlen zwischen 0 und 1.000 testen, könnten Sie @ValueSource durch @MethodSource ersetzen, um die Zahlenliste zu generieren. Ein Beispiel:

@ParameterizedTest
@MethodSource(“generateEvenNumbers”)
void testIsEvenRange(int number) {
Assertions.assertTrue(MathTools.isEven(number));
}

static IntStream generateEvenNumbers() {
return IntStream.iterate(0, i -> i + 2).limit(500);
}

Kommt @MethodSource zum Einsatz, definieren wir eine statische Methode, die einen Stream oder eine Collection zurückgibt. Dabei wird jeder Wert als Methodenargument an unsere Testmethode gesendet. In unserem Beispiel erstellen wir einen IntStream (Integer-Stream). Dieser beginnt bei 0, erhöht sich um jeweils zwei und begrenzt die Gesamtzahl der Elemente im Stream auf 500. Die isEven-Methode wird also 500 Mal aufgerufen, wobei alle geraden Zahlen zwischen 0 und 998 verwendet werden.

Parametrisierte Tests unterstützen folgende Quelltypen:

ValueSource spezifiziert eine hartkodierte Liste von Ganzzahlen oder Strings.

MethodSource ruft eine statische Methode auf, die einen Stream oder eine Collection von Elementen generiert.

EnumSource gibt eine Enumeration an, deren Werte an die Testmethode übergeben werden. Das ermöglicht, über sämtliche Enum-Werte zu iterieren oder bestimmte Werte ein- und auszuschließen.

CsvSource gibt eine durch Kommas getrennte Liste von Werten an.

CsvFileSource spezifiziert einen Pfad zu einer durch Kommas getrennten Value-Datei mit Testdaten.

ArgumentsSource ermöglicht, eine Klasse anzugeben, die das ArgumentsProvider-Interface implementiert. Dieses generiert einen Stream von Argumenten, die an die Testmethode übergeben werden.

NullSource übergibt null an Ihre Testmethode, wenn Sie mit Strings, Collections oder Arrays arbeiten. Diese Annotation lässt sich in andere (wie ValueSource) inkludieren, um eine Sammlung von Werten (und null) zu testen.

EmptySource fügt einen leeren Wert ein, wenn Sie mit Strings, Collections oder Arrays arbeiten.

NullAndEmptySource inkludiert sowohl null als auch einen leeren Wert, wenn Sie mit Strings, Collections oder Arrays arbeiten.

FieldSource ermöglicht, auf ein oder mehrere Felder der Testklasse (oder externer Klassen) zu verweisen.

Darüber hinaus können Sie mit JUnit mehrere “wiederholbare” Quellen nutzen, indem Sie mehrere Quell-Annotationen in Ihrer parametrisierten Testmethode spezifizieren. Zu diesen wiederholbaren Quellen gehören:

ValueSource,

EnumSource,

MethodSource,

FieldSource,

CsvSource,

CsvFileSource , sowie

ArgumentsSource.

Der Test-Lifecycle von JUnit 5

Bei den meisten Softwaretests empfiehlt es sich, vor und nach jedem Testlauf (beziehungsweise vor und nach allen Testläufen) bestimmte Dinge zu tun. Wollen Sie beispielsweise Datenbankabfragen testen, ist es möglicherweise sinnvoll:

vor allen Testläufen eine Verbindung zu einer Datenbank herzustellen und ein Schema importieren,  

vor jedem einzelnen Test Testdaten einzufügen,

nach jedem Test die Datenbank zu bereinigen, sowie

nach allen Testläufen das Schema zu löschen und die Datenbankverbindung schließen.

Zu diesem Zweck bietet JUnit 5 folgenden Annotationen, die Sie den Methoden Ihrer Testklasse hinzufügen können:

@BeforeAll ist eine statische Methode in Ihrer Testklasse, die aufgerufen wird, bevor sie Tests durchführt.

@AfterAll ist eine statische Methode in Ihrer Testklasse, die aufgerufen wird, nachdem alle Tests durchgeführt wurden.

@BeforeEach ist eine Methode, die vor jedem einzelnen Test aufgerufen wird.

@AfterEach ist eine Methode, die nach jedem einzelnen Test aufgerufen wird.

Das nachfolgende Listing zeigt ein einfaches Beispiel, das die Aufrufe der verschiedenen Lebenszyklusmethoden protokolliert.

Listing 5: JUnit-5-Lebenszyklusmethoden loggen (LifecycleDemoTest.java)

package com.javaworld.geekcap.lifecycle;

import org.junit.jupiter.api.*;

public class LifecycleDemoTest {

@BeforeAll
static void beforeAll() {
System.out.println(“Connect to the database”);
}

@BeforeEach
void beforeEach() {
System.out.println(“Load the schema”);
}

@AfterEach
void afterEach() {
System.out.println(“Drop the schema”);
}

@AfterAll
static void afterAll() {
System.out.println(“Disconnect from the database”);
}

@Test
void testOne() {
System.out.println(“Test One”);
}

@Test
void testTwo() {
System.out.println(“Test Two”);
}
}

Wenn Sie diesen Test ausführen, erwartet Sie folgender Konsolen-Output:

Connect to the database
Load the schema
Test One
Drop the schema
Load the schema
Test Two
Drop the schema
Disconnect from the database

Hier wird die beforeAll-Methode aufgerufen, die etwa eine Verbindung zu einer Datenbank herstellen oder eine große Datenstruktur im Arbeitsspeicher erstellen könnte. Im nächsten Schritt sorgt die beforeEach-Methode dafür, dass die Daten für jeden Test vorbereitet werden – etwa, indem sie eine Testdatenbank mit einem erwarteten Datensatz befüllt. Anschließend wird der erste Test ausgeführt, gefolgt von der afterEach-Methode. Dieser Prozess (beforeEach—> Test—>afterEach) wird solange fortgesetzt, bis alle Tests abgeschlossen sind. Abschließend bereinigt die afterAll-Methode die Testumgebung, beispielsweise, indem sie die Verbindung zur Datenbank trennt.

Tags & Filtering in JUnit 5

Abschließend werfen wir nun noch einen Blick darauf, wie Sie Tags nutzen können, um verschiedene Testfälle selektiv auszuführen. Tags identifizieren und filtern bestimmte Tests, die Sie in verschiedenen Szenarien ausführen möchten. Die Bennenung und der Verwendungszweck von Tags sind frei wählbar.

Nachfolgend erstellen wir drei neue Testklassen und kennzeichnen zwei davon als “Development” und eine als “Integration”:

Listing 6: JUnit 5-Tags, Test 1 (TestOne.java)

package com.javaworld.geekcap.tags;

import org.junit.jupiter.api.Tag;
import org.junit.jupiter.api.Test;

@Tag(“Development”)
class TestOne {
@Test
void testOne() {
System.out.println(“Test 1”);
}
}

Listing 7: JUnit 5 tags, test 2 (TestTwo.java)

package com.javaworld.geekcap.tags;

import org.junit.jupiter.api.Tag;
import org.junit.jupiter.api.Test;

@Tag(“Development”)
class TestTwo {
@Test
void testTwo() {
System.out.println(“Test 2”);
}
}

Listing 8: JUnit 5 tags, test 3 (TestThree.java)

package com.javaworld.geekcap.tags;

import org.junit.jupiter.api.Tag;
import org.junit.jupiter.api.Test;

@Tag(“Integration”)
class TestThree {
@Test
void testThree() {
System.out.println(“Test 3”);
}
}

Implementiert werden Tags durch Annotationen. Dabei können Sie entweder eine gesamte Test-Klasse oder einzelne Methoden innerhalb einer solchen mit Anmerkungen versehen. Darüber hinaus können Klassen und Methoden auch mehrere Tags aufweisen. In unseren Beispielen sind TestOne und TestTwo mit dem “Development”-, TestThree mit dem “Integration”-Tag versehen.

Mit Hilfe der Tags können Sie Testläufe auf verschiedene Weisen filtern. Am einfachsten ist es, einen Test über Ihre Maven-Kommandozeile anzugeben. Im folgenden Beispiel werden beispielsweise nur Tests ausgeführt, die das “Development”-Tag aufweisen:

mvn clean test -Dgroups=”Development”

Die Property groups erlaubt Ihnen, eine durch Kommas getrennte Liste von Tag-Namen für die Tests zu spezifizieren, die JUnit 5 ausführen soll. Das resultiert in folgendem Output:

[INFO] ——————————————————-
[INFO] T E S T S
[INFO] ——————————————————-
[INFO] Running com.javaworld.geekcap.tags.TestOne
Test 1
[INFO] Tests run: 1, Failures: 0, Errors: 0, Skipped: 0, Time elapsed: 0.029 s – in com.javaworld.geekcap.tags.TestOne
[INFO] Running com.javaworld.geekcap.tags.TestTwo
Test 2
[INFO] Tests run: 1, Failures: 0, Errors: 0, Skipped: 0, Time elapsed: 0.001 s – in com.javaworld.geekcap.tags.TestTwo

Folgendermaßen könnten Sie nur die Integrationstests ausführen:

mvn clean test -Dgroups=”Integration”

Oder sowohl Development- als auch Integrationstests:

mvn clean test -Dgroups=”Development, Integration”

Zusätzlich zur Eigenschaft groups können Sie in JUnit 5 auch excludedGroups verwenden, um alle Tests auszuführen, die nicht über das angegebene Tag verfügen. In einer Entwicklungsumgebung möchten wir beispielsweise auf Integrationstests verzichten. Wir könnten deshalb folgendermaßen verfahren:

mvn clean test -DexcludedGroups=”Integration”

Das ist besonders im Fall von großen Anwendungen hilfreich, die Tausende von Tests umfassen können: Wenn Sie später neue Produktionstests hinzufügen möchten, müssen Sie nicht einen Schritt zurückgehen und die anderen 10.000 Tests um ein “Development”-Tag ergänzen.

Last, but not least ist es auch möglich, das surefire-Plugin sowohl um groups als auch um excludedGroups zu ergänzen und diese Felder über Maven-Profile zu steuern. Weitere Informationen zu Tags entnehmen Sie dem JUnit 5-Benutzerhandbuch. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Tutorial: Java-Apps mit JUnit 5 testen​ Weiterlesen »

Schwarzer Bildschirm unter Windows – das hilft​

Allgemein

Black Screens verfinstern die Windows-Benutzererfahrung. Lesen Sie, was dagegen hilft.Ed Tittel | Foundry Das Phänomen des schwarzen Bildschirms unter Windows 11 (und 10) hält sich hartnäckig und beunruhigt vor allem neue Windows-Benutzer rund um den Globus regelmäßig mit nicht-existentem Einblick in die (Nicht-)Aktivitäten ihres Geräts. Sind Windows-Veteranen hingegen mit einem Black Screen konfrontiert, wissen sie, dass: etwas mit ihrem Device nicht stimmt, und dabei wahrscheinlich das Grafik-Subsystem involviert ist.   In diesem Artikel lesen Sie, welche Formen der schwarze Bildschirm unter Windows annehmen kann – und mit welchen Methoden sich die Black-Screen-Probleme nachhaltig beheben lassen. Black-Screen-Varianten Grundsätzlich tritt der schwarze Bildschirm unter Windows 10 und 11 in zwei verschiedenen Formen auf: Entweder der Bildschirm bleibt komplett schwarz, oder es handelt sich um das Phänomen des Black Screen mit Mauszeiger. Ist Ersteres der Fall, empfiehlt es sich, zunächst zu überprüfen, ob der Windows-Rechner tatsächlich eingeschaltet ist und alle Kabelverbindungen in Ordnung sind. Nach unserer Erfahrung tritt zweitgenanntes Phänomen jedoch deutlich häufiger auf. Wird nach dem Windows-Boot-Vorgang ein schwarzer Bildschirm mit Mauszeiger angezeigt, deutet das im Regelfall auf zwei mögliche Probleme hin: einen Fehler des Grafik-Subsystems bei der Interaktion mit dem Bildschirm nach dem Aufwachen aus dem Ruhezustand. ein Problem mit dem Grafiktreiber – also der Software, die “im Auftrag” des Grafik-Subsystems mit dem Bildschirm interagiert, um Pixel darauf darzustellen. Dabei ist es eigentlich ein gutes Zeichen, wenn der Cursor der Maus noch angezeigt wird: Schließlich heißt das, dass das Betriebssystem (zumindest bis zu einem gewissen Grad) im Hintergrund noch funktioniert und der Maustreiber die Position des Zeigers auf dem Bildschirm tracken kann. Die Wahrscheinlichkeit, dass sich das Black-Screen-Problem unter Windows mit bewährten Shortcuts beheben lässt, ist entsprechend hoch. Shortcuts gegen schwarze Bildschirme Die folgenden Tastenkombinationen auszuprobieren, kann übrigens auch dann nicht schaden, wenn Sie es mit einem schwarzen Bildschirm ohne Cursor zu tun haben. 1. Grafiktreiber neu starten Die meisten Windows-Systeme verwenden einen Grafiktreiber. Kommen hingegen mehrere Grafikkarten oder Bildschirme zum Einsatz, können auch mehrere Grafiktreiber ausgeführt werden. Mit der Tastenkombination Windows + Strg + Shift + B weisen Sie Windows an, sämtliche Treiber, die derzeit ausgeführt werden, zu beenden und neu zu starten. Nach einigen Sekunden sollte der schwarze Bildschirm sich in Luft auflösen und alles normal laufen. Hält sich der Black Screen unter Windows, ist es Zeit, die zweite Option zu testen. 2. Sperrbildschirm aufrufen Dieser Shortcut begleitet Windows bereits seit seinen Kindertagen: Die Kombination Strg + Alt + Entf ruft den Windows-Sperrbildschirm auf – inklusive der Option “Abbrechen“. Nach einem Klick auf den Cancel-Button sollte der schwarze Bildschirm Geschichte sein. 3. System neu starten Wenn beide Tastenkombinationen nicht helfen sollten, bleibt Ihnen noch die “Kaltstart”-Option: Halten Sie den Power-Button Ihres Geräts für einige Sekunden gedrückt, um das System zwangsweise herunterzufahren und trennen Sie es danach vom Stromnetz (beziehungsweise entfernen Sie falls möglich den Akku). Nach circa 30 Sekunden können Sie das System wieder in Betrieb nehmen – dann hoffentlich ohne Black-Screen-Erlebnis und mit funktionalem Grafiksubsystem. Bleibt Ihr Bildschirm trotzdem weiterhin schwarz, sind weitere Fehlerbehebungsmaßnahmen erforderlich. Wenn der Bildschirm weiter schwarz bleibt Im Folgenden haben wir einige Maßnahmen zur weitergehenden Fehlerbehebung für Sie zusammengestellt. Je weiter Sie in dieser Troubleshooting-Liste “vordringen” müssen, umso wahrscheinlicher ist es, dass ein Hardwarefehler hinter dem Windows Black Screen steckt. Testen Sie einen anderen Bildschirm: Sollte der alternative Screen das gewohnte Bild liefern, liegt der Fehler im Bildschirm – ein Grafik-Hardware- oder -Treiberfehler kann damit ausgeschlossen werden.    Testen Sie das Betriebssystem: Hierzu benötigen Sie Zugriff auf Boot-fähige Windows-10- oder 11-Wiederherstellungsmedien. Sollte der Rechner damit starten und wie erwartet funktionieren, hängt das Black-Screen-Problem vermutlich mit dem Windows Boot-Image zusammen. Testen Sie das Grafik-Setup: Um diese Troubleshooting-Technik umzusetzen, benötigen Sie eine externe GPU. Wenn Ihr Rechner mit dieser normal funktioniert, liegt das Problem an der bisherigen Grafik-Hardware. Ersetzen Sie die Hardware: Je nachdem, welches Device Sie einsetzen (und wie es um Ihre handwerklichen Fähigkeiten bestellt ist), können Sie diesen Schritt selbst erledigen oder entsprechende Services in Anspruch nehmen. Dabei sollten Sie vorab ergründen, ob eine Neuanschaffung eventuell sinnvoller ist als die Hardware auszutauschen. Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Schwarzer Bildschirm unter Windows – das hilft​ Black Screens verfinstern die Windows-Benutzererfahrung. Lesen Sie, was dagegen hilft.Ed Tittel | Foundry

Das Phänomen des schwarzen Bildschirms unter Windows 11 (und 10) hält sich hartnäckig und beunruhigt vor allem neue Windows-Benutzer rund um den Globus regelmäßig mit nicht-existentem Einblick in die (Nicht-)Aktivitäten ihres Geräts. Sind Windows-Veteranen hingegen mit einem Black Screen konfrontiert, wissen sie, dass:

etwas mit ihrem Device nicht stimmt, und

dabei wahrscheinlich das Grafik-Subsystem involviert ist.  

In diesem Artikel lesen Sie, welche Formen der schwarze Bildschirm unter Windows annehmen kann – und mit welchen Methoden sich die Black-Screen-Probleme nachhaltig beheben lassen.

Black-Screen-Varianten

Grundsätzlich tritt der schwarze Bildschirm unter Windows 10 und 11 in zwei verschiedenen Formen auf:

Entweder der Bildschirm bleibt komplett schwarz, oder

es handelt sich um das Phänomen des Black Screen mit Mauszeiger.

Ist Ersteres der Fall, empfiehlt es sich, zunächst zu überprüfen, ob der Windows-Rechner tatsächlich eingeschaltet ist und alle Kabelverbindungen in Ordnung sind. Nach unserer Erfahrung tritt zweitgenanntes Phänomen jedoch deutlich häufiger auf. Wird nach dem Windows-Boot-Vorgang ein schwarzer Bildschirm mit Mauszeiger angezeigt, deutet das im Regelfall auf zwei mögliche Probleme hin:

einen Fehler des Grafik-Subsystems bei der Interaktion mit dem Bildschirm nach dem Aufwachen aus dem Ruhezustand.

ein Problem mit dem Grafiktreiber – also der Software, die “im Auftrag” des Grafik-Subsystems mit dem Bildschirm interagiert, um Pixel darauf darzustellen.

Dabei ist es eigentlich ein gutes Zeichen, wenn der Cursor der Maus noch angezeigt wird: Schließlich heißt das, dass das Betriebssystem (zumindest bis zu einem gewissen Grad) im Hintergrund noch funktioniert und der Maustreiber die Position des Zeigers auf dem Bildschirm tracken kann. Die Wahrscheinlichkeit, dass sich das Black-Screen-Problem unter Windows mit bewährten Shortcuts beheben lässt, ist entsprechend hoch.

Shortcuts gegen schwarze Bildschirme

Die folgenden Tastenkombinationen auszuprobieren, kann übrigens auch dann nicht schaden, wenn Sie es mit einem schwarzen Bildschirm ohne Cursor zu tun haben.

1. Grafiktreiber neu starten

Die meisten Windows-Systeme verwenden einen Grafiktreiber. Kommen hingegen mehrere Grafikkarten oder Bildschirme zum Einsatz, können auch mehrere Grafiktreiber ausgeführt werden. Mit der Tastenkombination Windows + Strg + Shift + B weisen Sie Windows an, sämtliche Treiber, die derzeit ausgeführt werden, zu beenden und neu zu starten. Nach einigen Sekunden sollte der schwarze Bildschirm sich in Luft auflösen und alles normal laufen. Hält sich der Black Screen unter Windows, ist es Zeit, die zweite Option zu testen.

2. Sperrbildschirm aufrufen

Dieser Shortcut begleitet Windows bereits seit seinen Kindertagen: Die Kombination Strg + Alt + Entf ruft den Windows-Sperrbildschirm auf – inklusive der Option “Abbrechen“. Nach einem Klick auf den Cancel-Button sollte der schwarze Bildschirm Geschichte sein.

3. System neu starten

Wenn beide Tastenkombinationen nicht helfen sollten, bleibt Ihnen noch die “Kaltstart”-Option: Halten Sie den Power-Button Ihres Geräts für einige Sekunden gedrückt, um das System zwangsweise herunterzufahren und trennen Sie es danach vom Stromnetz (beziehungsweise entfernen Sie falls möglich den Akku). Nach circa 30 Sekunden können Sie das System wieder in Betrieb nehmen – dann hoffentlich ohne Black-Screen-Erlebnis und mit funktionalem Grafiksubsystem.

Bleibt Ihr Bildschirm trotzdem weiterhin schwarz, sind weitere Fehlerbehebungsmaßnahmen erforderlich.

Wenn der Bildschirm weiter schwarz bleibt

Im Folgenden haben wir einige Maßnahmen zur weitergehenden Fehlerbehebung für Sie zusammengestellt. Je weiter Sie in dieser Troubleshooting-Liste “vordringen” müssen, umso wahrscheinlicher ist es, dass ein Hardwarefehler hinter dem Windows Black Screen steckt.

Testen Sie einen anderen Bildschirm: Sollte der alternative Screen das gewohnte Bild liefern, liegt der Fehler im Bildschirm – ein Grafik-Hardware- oder -Treiberfehler kann damit ausgeschlossen werden.   

Testen Sie das Betriebssystem: Hierzu benötigen Sie Zugriff auf Boot-fähige Windows-10- oder 11-Wiederherstellungsmedien. Sollte der Rechner damit starten und wie erwartet funktionieren, hängt das Black-Screen-Problem vermutlich mit dem Windows Boot-Image zusammen.

Testen Sie das Grafik-Setup: Um diese Troubleshooting-Technik umzusetzen, benötigen Sie eine externe GPU. Wenn Ihr Rechner mit dieser normal funktioniert, liegt das Problem an der bisherigen Grafik-Hardware.

Ersetzen Sie die Hardware: Je nachdem, welches Device Sie einsetzen (und wie es um Ihre handwerklichen Fähigkeiten bestellt ist), können Sie diesen Schritt selbst erledigen oder entsprechende Services in Anspruch nehmen. Dabei sollten Sie vorab ergründen, ob eine Neuanschaffung eventuell sinnvoller ist als die Hardware auszutauschen.

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Schwarzer Bildschirm unter Windows – das hilft​ Weiterlesen »

OneDrive for Web erklärt​

Allgemein

OneDrive steht auch per Browser zur Verfügung – mit Extras. Foto: Postmodern Studio | shutterstock.com Microsoft OneDrive ist nicht nur über den Datei-Explorer von Windows (11) zugänglich, sondern auch als Web-Applikation über jeden modernen Browser. Vor kurzem haben die Redmonder diese mit einer neuen Benutzeroberfläche ausgestattet – inklusive einiger Funktionen, die die in Windows integrierte Version nicht bieten kann. Dieser Leitfaden erklärt, wie Sie die neue Oberfläche von OneDrive for Web optimal nutzen. Hinweis Um OneDrive nutzen zu können, benötigen Sie ein kostenloses Microsoft-Konto. Dann stehen Ihnen 5 GB Cloud-Speicherplatz zur Verfügung. Mit einem kostenpflichtigen Microsoft-365-Abonnement erhöht sich der Storage-Umfang. Wir haben OneDrive for Web für diesen Artikel mit einem Business-Abo genutzt. Die OneDrive-for-Web-Benutzeroberfläche Nachdem Sie sich mit Ihrem Microsoft-Account bei OneDrive angemeldet haben, können Sie die Web-Applikation auf direktem Wege aufrufen. Nun präsentiert sich Ihnen der Homescreen beziehungsweise die Startseite von OneDrive for Web: Im oberen Teil des Fensters schlägt Ihnen die Microsoft-KI in Kartenform Dateien vor, die sie für wichtig hält. Darunter sehen Sie die zuletzt geöffneten Dateien (chronologisch absteigend). Diese lassen sich über die entsprechenden Schaltflächen auch nach Dateityp filtern – oder über das Suchfeld nach Namen oder Personen durchsuchen. Die Startseite der OneDrive-Web-App rückt wichtige – und zuletzt genutzte – Dateien in den Benutzerfokus. Foto: Howard Wen | IDG Im Menüband auf der linken Seite bieten sich unter “Startseite” noch weitere Ansichtsoptionen: Meine Dateien: In dieser Ansicht werden alle Ihre Dateien und Ordner aufgelistet. Geteilt: Dies sind Dateien, die Sie für andere freigeben und die von anderen Personen für Sie freigegeben werden. Favoriten: Hier werden alle Dateien oder Ordner angezeigt, die Sie im Hauptfenster als Favoriten markiert haben. Papierkorb: Alle Dateien, die Sie aus Ihrem OneDrive-Ordner gelöscht haben. Personen: In dieser Ansicht sehen Sie eine Liste der Personen, die Dateien mit Ihnen geteilt haben. Das ist vor allem dann praktisch, wenn Sie sich zwar daran erinnern, wer eine Datei für Sie freigegeben hat, aber nicht, wann oder wie deren Dateiname lautet. Die Personen-Ansicht bietet vergesslichen Benutzern eine Hilfestellung. Foto: Howard Wen | IDG Besprechungen: Hier finden Sie Dateien, die über Microsoft Teams freigegeben wurden. Dateien, die an geplante Besprechungen angehängt sind, die noch nicht stattgefunden haben, werden hier ebenfalls aufgelistet. Medien: Diese neu hinzugekommene Ansicht (wird schrittweise ausgerollt, falls noch nicht verfügbar) bietet einen Überblick über die Bilder und Videos, die sich in Ihrem Cloud-Speicher befinden. Schnellzugriff: Sobald Sie Dateien und Ordner öffnen, die in SharePoint-Dokumentenbibliotheken gespeichert sind, werden diese hier hinzugefügt. Tipp Die neue Oberfläche von OneDrive for Web ist inzwischen sowohl in Outlook als auch in Teams (neue Version) integriert und über das entsprechende Symbol abrufbar. OneDrive for Web innerhalb von Microsoft Teams. Foto: Howard Wen | IDG Dateien mit OneDrive for Web speichern Um eine Datei von Ihrem Rechner auf OneDrive hochzuladen, nutzen Sie die “+ Neu hinzufügen“-Schaltfläche. Anschließend können Sie über den Dateimanager die entsprechenden Files auswählen und hochladen. Über dasselbe Menü können Sie außerdem auch neue Ordner erstellen oder Sie in Gänze hochladen sowie diverse neue Microsoft-365-Dateien anlegen – etwa Excel-Tabellen, Powerpoint-Präsentationen oder Clipchamp-Videos. Sollten Sie sich für eine der letztgenannten Optionen entscheiden, wird die Web-Version der entsprechenden Anwendung in einem neuen Browser-Tab geöffnet. Tipp OneDrive erstellt neue Dateien oder Ordner immer dort, wo sie sich gerade in der Folder-Hierarchie befinden. Ist das zum Beispiel die Startseite, wird die Datei dort abgelegt. Wenn Sie sie in einem Unterordner speichern möchten, wählen Sie über das linke Menüband zunächst “Meine Dateien” und anschließend den enstprechenden Ordner. OneDrive for Web offline nutzen Bislang konnten Sie in OneDrive gespeicherte Dateien über die Web-Oberfläche ohne Internetverbindung nicht abrufen. Stattdessen mussten Sie dazu einen Umweg über den Windows Datei-Explorer (oder den Finder) nehmen und per Rechtsklick die Option “Immer auf diesem Gerät beibehalten” auswählen, um die benötigten Dateien lokal zu speichern. Was soll dann dieser Absatz? Vor kurzem hat Microsoft neue Offline-Funktionalitäten für OneDrive for Web angekündigt. Diese sollen es nicht nur ermöglichen, Dateien direkt über die Web-Oberfläche lokal abzuspeichern, sondern erlauben Ihnen auch, die restlichen Elemente von OneDrive for Web offline zu nutzen. Die Offline-Funktionen werden zunächst für OneDrive-for-Business-Kunden ausgerollt. Verknüpfungen erstellen mit OneDrive for Web Sie können zu jeder Datei in OneDrive (for Web) eine Verknüpfung erstellen – beispielsweise, um einfacher und schneller auf Inhalte aus verschiedenen Ordnern zuzugreifen, ohne diese kopieren oder verschieben zu müssen. Verknüpfungen werden in OneDrive wie eine eigene Datei behandelt. Sie können diese löschen oder umbenennen – aber diese Aktionen werden sich nicht auf die verlinkte Datei auswirken. Um eine Verknüpfung zu einer Datei zu erstellen, bewegen Sie den Mauszeiger über die Datei und klicken Sie auf das Symbol mit den drei Punkten, das neben dem Dateinamen erscheint. Wählen Sie im folgenden Menü “Verknüpfung hinzufügen” – und den Ordner, in dem diese gespeichert werden soll. Shortcuts eröffnen schnellere Zugriffswege auf wichtige Dateien. Foto: Howard Wen | IDG Dateien freigeben mit OneDrive for Web Direkt rechts neben dem eben behandelten Drei-Punkte-Menü finden Sie das Share-Symbol, um Dateien oder Ordner für Dritte – mit verschiedenen Berechtigungen – freizugeben. Nach einem Klick auf das “Teilen”-Symbol, öffnet sich das bekannte Share-Panel aus OneDrive für Windows. Foto: Howard Wen | IDG Dateien und Ordner für bestimmte Personen freigeben Über das Share Panel können Sie bestimmten Personen Zugriff auf Dateien oder Ordner in Ihrem OneDrive verleihen. Dazu tragen Sie deren E-Mail-Adressen ein. Das Bleistift-Symbol rechts daneben ermöglicht Ihnen zudem, die Zugriffsberechtigungen zu konfigurieren. Das Access Level lässt sich für Dateifreigaben in OneDrive konfigurieren. Foto: Howard Wen | IDG Dazu stehen Ihnen folgende Optionen zur Wahl: Can edit: Personen können Dateien oder Ordner anzeigen, herunterladen, den Link an andere weiterleiten und Änderungen daran vornehmen. In letzterem Fall wird die Originalkopie in Ihrem OneDrive überschrieben. Can view: Personen können Dateien oder Ordner anzeigen, herunterladen und den Link an andere weiterleiten – allerdings keine Änderungen vornehmen. Can’t download: Personen können Dateien oder Ordner anzeigen, aber nicht herunterladen. Darüber hinaus können Sie auch noch eine kurze Nachricht an die Empfänger übermitteln. Diese werden anschließend per E-Mail über die Dateifreigabe – inklusive individuellem Link – informiert. Dateien und Ordner mit Gruppen teilen Wenn Sie Informationen nicht nur an bestimmte Personen, sondern beispielsweise für alle Mitarbeiter in Ihrem Unternehmen freigeben möchten, klicken Sie im unteren Rand des Share Panels auf das Zahnrad-Symbol neben “Copy Link”. Im folgenden Menü “Link settings” finden Sie die entsprechende Option. Auch hier dürfen Sie die oben beschriebenen Access Level konfigurieren. Dateien und Ordner über öffentlichen Link freigeben Im selben Menü können Sie über die Option “Anyone” auch einen Link erstellen, den Sie mit Jedermann teilen können. Selbstredend empfiehlt sich diese Option keinesfalls für sensible Informationen. Deshalb sollten Sie in diesem Fall auch ein besonderes Augenmerk auf die Berechtigungen legen: Standardmäßig kann jeder, der auf den öffentlichen Link klickt, Ihre Datei oder Ihren Ordner (und dessen Inhalt) anzeigen, herunterladen, den Link an andere weiterleiten und Änderungen an der Datei oder dem Ordner vornehmen. Über die “Link settings” können Sie das ändern – und zusätzlich ein Ablaufdatum sowie Kennwortschutz aktivieren. Das “Link settings”-Menü in OneDrive for Web bietet Zugriff auf hilfreiche Access-Optionen. Foto: Howard Wen | IDG Freigaben für Dateien und Ordner widerrufen Wählen Sie im Menüband links die Option “Meine Dateien” und bewegen Sie den Mauszeiger über die betreffende Datei, respektive den jeweiligen Ordner. Navigieren Sie anschließend über das Drei-Punkte-Menü zur Option “Manage Access”. Im folgenden Fenster können Sie die Freigabe mit einem Klick auf “Stop Sharing” beenden. Über dieses Menü lassen sich auch die Zugriffsberechtigungen für alle Personen oder Gruppen mit Zugriff auf die Datei verwalten. Im ersteren Fall klicken Sie dazu auf der Registerkarte “People”, in zweiterem auf “Groups”. Über das Bleistift-Symbol neben den einzelnen Namen können Sie die Berechtigungen editieren. Ein Blick auf das “Notaus-Menü” für Dateifreigaben in OneDrive for Web. Foto: Howard Wen | IDG Freigegebene Links managen Sie über die Registerkarte “Links”. Um eine Freigabe zu beenden, klicken Sie einfach auf das Papierkorb-Symbol neben dem entsprechenden Link. Über das Zahnrad-Symbol passen Sie die Berechtigungen an. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

OneDrive for Web erklärt​ OneDrive steht auch per Browser zur Verfügung – mit Extras.
Foto: Postmodern Studio | shutterstock.com

Microsoft OneDrive ist nicht nur über den Datei-Explorer von Windows (11) zugänglich, sondern auch als Web-Applikation über jeden modernen Browser. Vor kurzem haben die Redmonder diese mit einer neuen Benutzeroberfläche ausgestattet – inklusive einiger Funktionen, die die in Windows integrierte Version nicht bieten kann. Dieser Leitfaden erklärt, wie Sie die neue Oberfläche von OneDrive for Web optimal nutzen.

Hinweis

Um OneDrive nutzen zu können, benötigen Sie ein kostenloses Microsoft-Konto. Dann stehen Ihnen 5 GB Cloud-Speicherplatz zur Verfügung. Mit einem kostenpflichtigen Microsoft-365-Abonnement erhöht sich der Storage-Umfang. Wir haben OneDrive for Web für diesen Artikel mit einem Business-Abo genutzt.

Die OneDrive-for-Web-Benutzeroberfläche

Nachdem Sie sich mit Ihrem Microsoft-Account bei OneDrive angemeldet haben, können Sie die Web-Applikation auf direktem Wege aufrufen. Nun präsentiert sich Ihnen der Homescreen beziehungsweise die Startseite von OneDrive for Web: Im oberen Teil des Fensters schlägt Ihnen die Microsoft-KI in Kartenform Dateien vor, die sie für wichtig hält. Darunter sehen Sie die zuletzt geöffneten Dateien (chronologisch absteigend). Diese lassen sich über die entsprechenden Schaltflächen auch nach Dateityp filtern – oder über das Suchfeld nach Namen oder Personen durchsuchen.

Die Startseite der OneDrive-Web-App rückt wichtige – und zuletzt genutzte – Dateien in den Benutzerfokus.
Foto: Howard Wen | IDG

Im Menüband auf der linken Seite bieten sich unter “Startseite” noch weitere Ansichtsoptionen:

Meine Dateien: In dieser Ansicht werden alle Ihre Dateien und Ordner aufgelistet.

Geteilt: Dies sind Dateien, die Sie für andere freigeben und die von anderen Personen für Sie freigegeben werden.

Favoriten: Hier werden alle Dateien oder Ordner angezeigt, die Sie im Hauptfenster als Favoriten markiert haben.

Papierkorb: Alle Dateien, die Sie aus Ihrem OneDrive-Ordner gelöscht haben.

Personen: In dieser Ansicht sehen Sie eine Liste der Personen, die Dateien mit Ihnen geteilt haben. Das ist vor allem dann praktisch, wenn Sie sich zwar daran erinnern, wer eine Datei für Sie freigegeben hat, aber nicht, wann oder wie deren Dateiname lautet.

Die Personen-Ansicht bietet vergesslichen Benutzern eine Hilfestellung.
Foto: Howard Wen | IDG

Besprechungen: Hier finden Sie Dateien, die über Microsoft Teams freigegeben wurden. Dateien, die an geplante Besprechungen angehängt sind, die noch nicht stattgefunden haben, werden hier ebenfalls aufgelistet.

Medien: Diese neu hinzugekommene Ansicht (wird schrittweise ausgerollt, falls noch nicht verfügbar) bietet einen Überblick über die Bilder und Videos, die sich in Ihrem Cloud-Speicher befinden.

Schnellzugriff: Sobald Sie Dateien und Ordner öffnen, die in SharePoint-Dokumentenbibliotheken gespeichert sind, werden diese hier hinzugefügt.

Tipp

Die neue Oberfläche von OneDrive for Web ist inzwischen sowohl in Outlook als auch in Teams (neue Version) integriert und über das entsprechende Symbol abrufbar.

OneDrive for Web innerhalb von Microsoft Teams.
Foto: Howard Wen | IDG

Dateien mit OneDrive for Web speichern

Um eine Datei von Ihrem Rechner auf OneDrive hochzuladen, nutzen Sie die “+ Neu hinzufügen“-Schaltfläche. Anschließend können Sie über den Dateimanager die entsprechenden Files auswählen und hochladen.

Über dasselbe Menü können Sie außerdem auch neue Ordner erstellen oder Sie in Gänze hochladen sowie diverse neue Microsoft-365-Dateien anlegen – etwa Excel-Tabellen, Powerpoint-Präsentationen oder Clipchamp-Videos. Sollten Sie sich für eine der letztgenannten Optionen entscheiden, wird die Web-Version der entsprechenden Anwendung in einem neuen Browser-Tab geöffnet.

Tipp

OneDrive erstellt neue Dateien oder Ordner immer dort, wo sie sich gerade in der Folder-Hierarchie befinden. Ist das zum Beispiel die Startseite, wird die Datei dort abgelegt. Wenn Sie sie in einem Unterordner speichern möchten, wählen Sie über das linke Menüband zunächst “Meine Dateien” und anschließend den enstprechenden Ordner.

OneDrive for Web offline nutzen

Bislang konnten Sie in OneDrive gespeicherte Dateien über die Web-Oberfläche ohne Internetverbindung nicht abrufen. Stattdessen mussten Sie dazu einen Umweg über den Windows Datei-Explorer (oder den Finder) nehmen und per Rechtsklick die Option “Immer auf diesem Gerät beibehalten” auswählen, um die benötigten Dateien lokal zu speichern.

Was soll dann dieser Absatz? Vor kurzem hat Microsoft neue Offline-Funktionalitäten für OneDrive for Web angekündigt. Diese sollen es nicht nur ermöglichen, Dateien direkt über die Web-Oberfläche lokal abzuspeichern, sondern erlauben Ihnen auch, die restlichen Elemente von OneDrive for Web offline zu nutzen. Die Offline-Funktionen werden zunächst für OneDrive-for-Business-Kunden ausgerollt.

Verknüpfungen erstellen mit OneDrive for Web

Sie können zu jeder Datei in OneDrive (for Web) eine Verknüpfung erstellen – beispielsweise, um einfacher und schneller auf Inhalte aus verschiedenen Ordnern zuzugreifen, ohne diese kopieren oder verschieben zu müssen. Verknüpfungen werden in OneDrive wie eine eigene Datei behandelt. Sie können diese löschen oder umbenennen – aber diese Aktionen werden sich nicht auf die verlinkte Datei auswirken.

Um eine Verknüpfung zu einer Datei zu erstellen, bewegen Sie den Mauszeiger über die Datei und klicken Sie auf das Symbol mit den drei Punkten, das neben dem Dateinamen erscheint. Wählen Sie im folgenden Menü “Verknüpfung hinzufügen” – und den Ordner, in dem diese gespeichert werden soll.

Shortcuts eröffnen schnellere Zugriffswege auf wichtige Dateien.
Foto: Howard Wen | IDG

Dateien freigeben mit OneDrive for Web

Direkt rechts neben dem eben behandelten Drei-Punkte-Menü finden Sie das Share-Symbol, um Dateien oder Ordner für Dritte – mit verschiedenen Berechtigungen – freizugeben.

Nach einem Klick auf das “Teilen”-Symbol, öffnet sich das bekannte Share-Panel aus OneDrive für Windows.
Foto: Howard Wen | IDG

Dateien und Ordner für bestimmte Personen freigeben

Über das Share Panel können Sie bestimmten Personen Zugriff auf Dateien oder Ordner in Ihrem OneDrive verleihen. Dazu tragen Sie deren E-Mail-Adressen ein. Das Bleistift-Symbol rechts daneben ermöglicht Ihnen zudem, die Zugriffsberechtigungen zu konfigurieren.

Das Access Level lässt sich für Dateifreigaben in OneDrive konfigurieren.
Foto: Howard Wen | IDG

Dazu stehen Ihnen folgende Optionen zur Wahl:

Can edit: Personen können Dateien oder Ordner anzeigen, herunterladen, den Link an andere weiterleiten und Änderungen daran vornehmen. In letzterem Fall wird die Originalkopie in Ihrem OneDrive überschrieben.

Can view: Personen können Dateien oder Ordner anzeigen, herunterladen und den Link an andere weiterleiten – allerdings keine Änderungen vornehmen.

Can’t download: Personen können Dateien oder Ordner anzeigen, aber nicht herunterladen.

Darüber hinaus können Sie auch noch eine kurze Nachricht an die Empfänger übermitteln. Diese werden anschließend per E-Mail über die Dateifreigabe – inklusive individuellem Link – informiert.

Dateien und Ordner mit Gruppen teilen

Wenn Sie Informationen nicht nur an bestimmte Personen, sondern beispielsweise für alle Mitarbeiter in Ihrem Unternehmen freigeben möchten, klicken Sie im unteren Rand des Share Panels auf das Zahnrad-Symbol neben “Copy Link”. Im folgenden Menü “Link settings” finden Sie die entsprechende Option.

Auch hier dürfen Sie die oben beschriebenen Access Level konfigurieren.

Dateien und Ordner über öffentlichen Link freigeben

Im selben Menü können Sie über die Option “Anyone” auch einen Link erstellen, den Sie mit Jedermann teilen können. Selbstredend empfiehlt sich diese Option keinesfalls für sensible Informationen.

Deshalb sollten Sie in diesem Fall auch ein besonderes Augenmerk auf die Berechtigungen legen: Standardmäßig kann jeder, der auf den öffentlichen Link klickt, Ihre Datei oder Ihren Ordner (und dessen Inhalt) anzeigen, herunterladen, den Link an andere weiterleiten und Änderungen an der Datei oder dem Ordner vornehmen. Über die “Link settings” können Sie das ändern – und zusätzlich ein Ablaufdatum sowie Kennwortschutz aktivieren.

Das “Link settings”-Menü in OneDrive for Web bietet Zugriff auf hilfreiche Access-Optionen.
Foto: Howard Wen | IDG

Freigaben für Dateien und Ordner widerrufen

Wählen Sie im Menüband links die Option “Meine Dateien” und bewegen Sie den Mauszeiger über die betreffende Datei, respektive den jeweiligen Ordner. Navigieren Sie anschließend über das Drei-Punkte-Menü zur Option “Manage Access”. Im folgenden Fenster können Sie die Freigabe mit einem Klick auf “Stop Sharing” beenden.

Über dieses Menü lassen sich auch die Zugriffsberechtigungen für alle Personen oder Gruppen mit Zugriff auf die Datei verwalten. Im ersteren Fall klicken Sie dazu auf der Registerkarte “People”, in zweiterem auf “Groups”. Über das Bleistift-Symbol neben den einzelnen Namen können Sie die Berechtigungen editieren.

Ein Blick auf das “Notaus-Menü” für Dateifreigaben in OneDrive for Web.
Foto: Howard Wen | IDG

Freigegebene Links managen Sie über die Registerkarte “Links”. Um eine Freigabe zu beenden, klicken Sie einfach auf das Papierkorb-Symbol neben dem entsprechenden Link. Über das Zahnrad-Symbol passen Sie die Berechtigungen an. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

OneDrive for Web erklärt​ Weiterlesen »

Google und Linux Foundation treiben offenen KI-Standard voran​

Allgemein

Mit dem Open-Source-Protokoll A2A will Google zusammen mit der Linux Foundation die Grundlage für eine bessere Zusammenarbeit autonomer KI-Agenten schaffen. T. Schneider – shutterstock.com KI-Agenten wollen Mitarbeitende produktiver machen, indem sie wiederkehrende oder komplexe Aufgaben autonom übernehmen. Unternehmen setzen sie deshalb zunehmend ein, um Arbeitsprozessen zu automatisieren und zu optimieren. Um ihr volles Potenzial auszuschöpfen, sollen diese Agenten über verschiedene Systeme hinweg zusammenarbeiten können, auch wenn sie aus unterschiedlichen Quellen stammen. Ziel ist es, Autonomie und Effizienz zu erhöhen sowie Kosten zu senken. Standardisierte Verwaltung über Clouds hinweg Das von Google entwickelte Open-Source-Protokoll Agent2Agent (A2A) hat sich als Ziel gesetzt, sichere, plattformübergreifende Zusammenarbeit von KI-Agenten in komplexen Unternehmensumgebungen zu bieten. Unterstützt wurde es von über 100 Technologie- und Beratungspartnern wie Amazon Web Services, Cisco, Microsoft, Salesforce, SAP und ServiceNow. Das Protokoll beabsichtigt, Skalierbarkeit, Interoperabilität und Modularität zu fördern, die Abhängigkeit von Anbietern zu verringern und Innovation zu beschleunigen. A2A soll bestehende Standards wie das Model Context Protocol (MCP) ergänzen und Unternehmen eine offene, standardisierte Lösung bieten, um Agenten über verschiedene Plattformen und Clouds hinweg flexibel zu verwalten. Agentenfreiheit ohne gemeinsame Tools Das A2A-Protokoll soll unter Leitung der Linux Foundation herstellerneutral bleiben und den Fokus auf Erweiterbarkeit, Sicherheit und praxisnahe Anwendbarkeit in verschiedenen Branchen legen. Das A2A-Protokoll wurde hierfür auf Basis fünf zentraler Prinzipien entwickelt: Agenten können ohne gemeinsame Tools oder Speicher natürlich zusammenarbeiten. Integration in bestehende IT-Systeme ist einfach durch Standards wie HTTP, SSE und JSON-RPC. Unternehmensgerechte Authentifizierung und Autorisierung sind von Anfang an integriert. A2A unterstützt sowohl kurze als auch langwierige Aufgaben mit Echtzeit-Feedback und Statusmeldungen. Das Protokoll funktioniert nicht nur mit Text, sondern auch mit Audio- und Videodaten. Offener Standard und klare Rollen Absicht des Unterfangens ist es, als offener Standard für interoperable KI-Agenten zu dienen. Die Kommunikation erfolgt hierfür zwischen einem Client-Agenten, der Aufgaben erstellt, und einem Remote-Agenten, der sie ausführt. Dabei unterstützt A2A vier zentrale Funktionen: Agenten veröffentlichen ihre Fähigkeiten über eine JSON-basierte Agentenkarte, sodass passende Agenten identifiziert werden können. Aufgaben haben einen definierten Lebenszyklus und können auch über längere Zeiträume hinweg bearbeitet werden. Die Ergebnisse heißen „Artefakte“. Agenten tauschen Nachrichten aus, um Informationen, Kontexte und Anweisungen zu teilen. Inhalte werden so strukturiert, dass Agenten gemeinsam über das passende Format für die Darstellung (etwa Bilder, Videos, Webformulare) verhandeln können. Effiziente, systemübergreifende Agenten-Kollaboration Ein Praxisbeispiel von Linux soll zeigen, wie A2A den Einstellungsprozess für Softwareingenieure vereinfachen kann: Ein Personalverantwortlicher beauftragt seinen Agenten, passende Kandidaten zu finden. Dieser arbeitet mit anderen spezialisierten Agenten zusammen, um Vorschläge zu liefern, Vorstellungsgespräche zu organisieren und Hintergrundprüfungen durchzuführen. So demonstriert laut den Entwicklern A2A die effiziente, systemübergreifende Zusammenarbeit von KI-Agenten im Bewerbungsprozess. 

Google und Linux Foundation treiben offenen KI-Standard voran​ Mit dem Open-Source-Protokoll A2A will Google zusammen mit der Linux Foundation die Grundlage für eine bessere Zusammenarbeit autonomer KI-Agenten schaffen.
T. Schneider – shutterstock.com

KI-Agenten wollen Mitarbeitende produktiver machen, indem sie wiederkehrende oder komplexe Aufgaben autonom übernehmen. Unternehmen setzen sie deshalb zunehmend ein, um Arbeitsprozessen zu automatisieren und zu optimieren.

Um ihr volles Potenzial auszuschöpfen, sollen diese Agenten über verschiedene Systeme hinweg zusammenarbeiten können, auch wenn sie aus unterschiedlichen Quellen stammen. Ziel ist es, Autonomie und Effizienz zu erhöhen sowie Kosten zu senken.

Standardisierte Verwaltung über Clouds hinweg

Das von Google entwickelte Open-Source-Protokoll Agent2Agent (A2A) hat sich als Ziel gesetzt, sichere, plattformübergreifende Zusammenarbeit von KI-Agenten in komplexen Unternehmensumgebungen zu bieten. Unterstützt wurde es von über 100 Technologie- und Beratungspartnern wie Amazon Web Services, Cisco, Microsoft, Salesforce, SAP und ServiceNow. Das Protokoll beabsichtigt,

Skalierbarkeit, Interoperabilität und Modularität zu fördern,

die Abhängigkeit von Anbietern zu verringern und

Innovation zu beschleunigen.

A2A soll bestehende Standards wie das Model Context Protocol (MCP) ergänzen und Unternehmen eine offene, standardisierte Lösung bieten, um Agenten über verschiedene Plattformen und Clouds hinweg flexibel zu verwalten.

Agentenfreiheit ohne gemeinsame Tools

Das A2A-Protokoll soll unter Leitung der Linux Foundation herstellerneutral bleiben und den Fokus auf Erweiterbarkeit, Sicherheit und praxisnahe Anwendbarkeit in verschiedenen Branchen legen.

Das A2A-Protokoll wurde hierfür auf Basis fünf zentraler Prinzipien entwickelt:

Agenten können ohne gemeinsame Tools oder Speicher natürlich zusammenarbeiten.

Integration in bestehende IT-Systeme ist einfach durch Standards wie HTTP, SSE und JSON-RPC.

Unternehmensgerechte Authentifizierung und Autorisierung sind von Anfang an integriert.

A2A unterstützt sowohl kurze als auch langwierige Aufgaben mit Echtzeit-Feedback und Statusmeldungen.

Das Protokoll funktioniert nicht nur mit Text, sondern auch mit Audio- und Videodaten.

Offener Standard und klare Rollen

Absicht des Unterfangens ist es, als offener Standard für interoperable KI-Agenten zu dienen. Die Kommunikation erfolgt hierfür zwischen einem Client-Agenten, der Aufgaben erstellt, und einem Remote-Agenten, der sie ausführt.

Dabei unterstützt A2A vier zentrale Funktionen:

Agenten veröffentlichen ihre Fähigkeiten über eine JSON-basierte Agentenkarte, sodass passende Agenten identifiziert werden können.

Aufgaben haben einen definierten Lebenszyklus und können auch über längere Zeiträume hinweg bearbeitet werden. Die Ergebnisse heißen „Artefakte“.

Agenten tauschen Nachrichten aus, um Informationen, Kontexte und Anweisungen zu teilen.

Inhalte werden so strukturiert, dass Agenten gemeinsam über das passende Format für die Darstellung (etwa Bilder, Videos, Webformulare) verhandeln können.

Effiziente, systemübergreifende Agenten-Kollaboration

Ein Praxisbeispiel von Linux soll zeigen, wie A2A den Einstellungsprozess für Softwareingenieure vereinfachen kann: Ein Personalverantwortlicher beauftragt seinen Agenten, passende Kandidaten zu finden. Dieser arbeitet mit anderen spezialisierten Agenten zusammen, um

Vorschläge zu liefern,

Vorstellungsgespräche zu organisieren und

Hintergrundprüfungen durchzuführen.

So demonstriert laut den Entwicklern A2A die effiziente, systemübergreifende Zusammenarbeit von KI-Agenten im Bewerbungsprozess.

Google und Linux Foundation treiben offenen KI-Standard voran​ Weiterlesen »

Die besten Multicloud-Management-Lösungen​

Allgemein

Viel Cloud, viel Verwaltungsaufwand – lesen Sie, welche Softwarelösungen helfen.luca pbl | shutterstock.com Multicloud-Architekturen setzen sich im Unternehmensumfeld zunehmend durch. So nutzen Firmen laut Flexeras “2025 State of the Cloud Report” (Download gegen Daten) inzwischen durchschnittlich bereits 2,4 Public-Cloud-Anbieter. Dieser Wert dürfte im Zuge der aktuellen Agentic-AI– und Souvereign-Cloud-Trends weiter steigen. Doch die Anwender reichern ihr persönliches Cloud-Potpourri darüber hinaus auch mit lokalen Rechenzentren, Private-Cloud- sowie Bare-Metal und Edge-Computing-Instanzen an.   (Hybride) Multicloud-Management-Lösungen helfen dabei, Funktionen über diese Umgebungen hinweg zu vereinheitlichen und Komplexitäten zu reduzieren. Dabei deckt allerdings bislang keine Einzellösung sämtliche Bereiche ab, weswegen für tiefgehender Anpassungen einige Nischen-Tools entwickelt wurden. Wir haben die aktuell wichtigsten Lösungen sowie einige (teilweise quelloffene) Alternativen und Spezial-Optionen für Sie zusammengetragen, die Multicloud- (und teilweise auch Hybrid-Cloud-)Landschaften ihren Schrecken nehmen können. Google Cloud Anthos Mit Anthos stellt Google Cloud Platform (GCP) eine vollumfängliche, verwaltete Plattform zur Verfügung, um Container-Applikationen auf Kubernetes-Basis in Hybrid- und Multicloud-Umgebungen zu erstellen und zu managen. Die Plattform funktioniert nicht nur mit GCP, sondern auch mit AWS und Azure sowie mit Edge- und On-Premises-Workloads. Google Cloud Die singuläre Steuerungsebene der Google-Plattform verspricht mit deklarativen Richtlinien Konsistenz zu schaffen in Sachen: Konfigurationsverwaltung, Service Mesh, Security, Zugriffsrichtlinien, Telemetrie sowie Observability. Um Cluster und Ressourcen zu Multicloud-Zwecken zu organisieren, lassen sich sogenannte “Fleets” organisieren. Das Herzstück von Anthos bilden diverse Open-Source-Projekte wie Kubernetes, Istio, Knative und Tekton. Darüber hinaus beinhaltet Anthos auch Tools, die dabei unterstützen, VMs auf Container zu migrieren sowie einen Marktplatz für Drittanbieter-Addons. Fans von Vanilla Kubernetes könnten den Hang der Plattform zu Google Kubernetes Engine (GKE) als hinderlich empfinden. Ansonsten ist Anthos eine sehr performante Option für Cloud-übergreifendes Management, die Sie auf dem Zettel haben sollten. HCP Terraform Terraform ist ein Befehlszeilen-Tool und eine Konfigurationssprache für Infrastructure as Code (IaC). Es ist für Multicloud-Umgebungen konzipiert und automatisiert alle möglichen Provisioning- und Management-Tasks. Aufbauend auf Terraform bietet HashiCorp mit HCP Terraform auch eine gehostete Plattform (eine Self-Hosted-Option steht ebenfalls zur Verfügung), um auf skalierbarer IaC-Basis zu standardisieren und zu kollaborieren. Diese Lösung abstrahiert das Konfigurationsmanagement mit Funktionen wie: Registries für Module und Secrets, Policy Enforcement, State Storage und Governance-Kontrollen. Terraform selbst ist Cloud-unabhängig und funktioniert sowohl mit AWS, Azure und Google Cloud als auch mit Kubernetes, Oracle Cloud Infrastructure (OCI) sowie Alibaba Cloud (und weiteren Optionen). HashiCorp HashiCorps Tool ist weit verbreitet – und ausgereift: Erstmals veröffentlicht wurde Terraform bereits im Jahr 2014, damals noch in Open-Source-Form. Inzwischen unterliegt es allerdings der kommerziellen Business Source License von HashiCorp, was zum Weggang einiger wichtiger Entwickler führte. Und dem quelloffenen Fork OpenTofu. Obwohl es selbst mit der gehosteten Option komplex sein kann, Module in großem Maßstab zu schreiben und zu managen, ist Terraform weiterhin der De-Facto-Standard für Cloud-übergreifendes IaC. Wenn Sie die Bindung an HashiCorp verschmerzen können, bietet HCP Terraform granulare Kontrollmöglichkeiten für Cloud-Ressourcen, gepaart mit Usability im SaaS-Stil. HPE Morpheus Enterprise Mit Morpheus Enterprise stellt Hewlett Packard Enterprise (HPE) eine Hybrid-Multicloud-Management-Lösung zur Verfügung, die sich durch einen breitgefächerten Funktionsumfang und Support für visuelle sowie programmierbare Infrastrukturautomatisierungen auszeichnet. Diese Lösung unterstützt sowohl die Hyperscaler als auch OCI, Nutanix, KVM, Kubernetes und diverse Nischen-Clouds (und damit verbundene Technologien). HPE HPE Morpheus Enterprise ermöglicht wahlweise per API, Kommandozeilen-Interface oder grafischer Benutzeroberfläche unter anderem: Self-Service-Provisioning, Backups, Compliance-Prüfungen, Kostenanalysen, Policy Enforcement, sowie Automatisierung. Damit ist die HPE-Lösung stärker auf die Governance-Seite der Multicloud-Gleichung ausgerichtet als die anderen hier gelisteten Lösungen. Insbesondere wegen seiner strikten rollenbasierten Zugriffskontrollen ist Morpheus Enterprise für regulierte Umgebungen eine gute Wahl. Darüber hinaus bietet das HPE-Tool flexible Möglichkeiten, um verschiedene Plattform-Stacks aufzubauen und lässt sich mit einer Vielzahl von Enterprise-Tools und -Services integrieren. Allerdings ist Morpheus unter Umständen auch etwas eigenwillig und (im Vergleich zu anderen Optionen) weniger stark auf Open Source ausgerichtet. Diese Lösung empfiehlt sich für Unternehmen, die eine flexible All-in-One-Lösung suchen, um hybride Infrastrukturen inklusive lokaler Rechenzentren, Edge-Bereitstellungen und mehrerer Clouds zu verwalten. Humanitec Der Platform-Engineering-Trend hat dazu geführt, dass Multicloud-Management durch Internal Developer Platforms (IDPs) neu interpretiert werden. Sie abstrahieren die Devops-Komplexität und ermöglichen Self-Service-Workflows. Ein Vorreiter in diesem Bereich ist Humanitec. Das Unternehmen bietet einen Cloud-agnostischen Infrastruktur-Management-Layer an – eine Plattform für Plattformen sozusagen, die es ermöglicht, einen persönlichen Stack zusammenzubauen. Dabei: definieren Entwickler Workloads mithilfe der Workload-Spezifikation Score, generieren mit dem Platform Orchestrator Konfigurationen und nutzen eine grafische Benutzeroberfläche für Deployment und Management. Humanitec Das Tool von Humanitec wurde speziell dafür konzipiert, den Cloud-nativen Deployment-Feeedback-Loop zu optimieren und lässt sich für alle gängigen Clouds konfigurieren. Im Gegensatz zu traditionellen Multicloud-Management-Suiten liegt der Fokus jedoch nicht auf Kostentransparenz oder Legacy-VM-Orchestrierung. Und: Die Humanitec-Lösung ersetzt weder Observability- noch Security-Tools. Wenn Sie für Ihr Plattformteam einen flexiblen, entwicklerfreundlichen Layer für Cloud-übergreifende Bereitstellungen und Prozesse aufbauen möchten, ist Humanitec eine gute Wahl. Allerdings ist es nicht alternativlos: Port, Crossplane oder Backstage bieten beispielsweise eigenständige Interpretationen des IDP-Ansatzes. Nutanix Cloud Platform Die hybride Multicloud-Plattform von Nutanix ist universell einsetzbar und eignet sich, um virtuelle Maschinen und Container in Public und Private Clouds sowie Edge-Umgebungen auszuführen, zu verwalten und abzusichern. In diesem Zuge konsolidiert die Cloud Platform von Nutanix diverse Funktionen in einer einzelnen Steuerungsebene, die normalerweise auf mehrere Tools verteilt sind. Zum Beispiel in den Bereichen: Kostenanalyse, Automatisierung, Kubernetes-Management, Datensicherheit, Monitoring, Self-Healing oder Disaster Recovery. Nutanix hat seine Cloud Platform speziell darauf ausgerichtet, Enterprise-Applikationen in diverse Umgebungen zu migrieren und dort bereitzustellen: Die Anwender wählen Hardware, Hypervisor, Cloud-Anbieter und Kubernetes-Plattform – die Nutanix-Lösung fügt alles zusammen. Nutanix Für IT-Teams ohne etablierte IaC-Workflows kann die Nutanix-Lösung von Vorteil sein, weil sie den Schwerpunkt auf “Click Ops” statt auf Code legt. DevOps-Profis, die es auf Code-basierte, deklarative Steuerungsmöglichkeiten abgesehen haben, werden davon wahrscheinlich eher abgeschreckt. Für Unternehmensanwender, denen das nichts ausmacht und die in erster Linie auf einen möglichst breiten Funktionsumfang sowie Support für On-Premises- und Multicloud-Umgebungen Wert legen, ist die Nutanix-Plattform eine gute Wahl. Spectro Cloud Palette Palette von Spectro Cloud richtet sich an Unternehmen, die auf Kubernetes ausgerichtet sind und einen Management-Layer für Multicloud-Umgebungen benötigen. Die Plattform nutzt eine modulare Architektur, um Cluster-Prozesse über den gesamten Stack hinweg zu managen – inklusive: Deployment, Security-Richtlinien, Networking, und Monitoring. Dabei unterstützt die Lösung sowohl alle wichtigen Clouds als auch Bare-Metal-, Edge- und Datacenter-Deployments mit einem deklarativen Modell, das auf der Cluster API (CAPI) der Cloud Native Computing Foundation (CNCF) basiert. Spectro Cloud Spectro Cloud bietet bei Palette ein mehrschichtiges Stack-Konzept in Form von sogenannten “Packs”, die eine Vielzahl von Integrationen für diverse Bereiche ermöglichen. Somit können Anwender die Lösung mit einem Best-of-Breed-Ansatz an ihre spezifischen Bedürfnisse anpassen. Nicht Teil des Leistungsumfangs sind hingegen die Bereiche Governance und Kostenanalysen. Insofern ist diese Lösung vor allem für auf DevOps ausgerichtete, Kubernetes-native Unternehmen geeignet. Weitere Multicloud-Management-Optionen Eine ganze Reihe weiterer Plattformen funktioniert Cloud-übergreifend und deckt circa 80 Prozent des erwarteten Funktionsumfangs von Multicloud-Management-Lösungen ab. Dazu zählen unter anderem: SUSE Rancher, Cloudify, Firefly, Fractal Cloud und Emma. Davon abgesehen unterstützen zahlreiche alternative Kubernetes-Plattformen ebenfalls Public- und Private-Cloud-Bereitstellungen – dazu gehören beispielsweise: Platform9, Mirantis und D2iQ. Für Unternehmen, die nach wie vor auf VMware setzen, empfiehlt sich hingegen VMware Cloud Foundation (VCF) von Broadcom. Die Plattform ist dazu geeignet, VMware-basierte Workloads in VMware-kompatible Public- und Private-Cloud-Umgebungen zu managen. Und es gibt – wie eingangs bereits erwähnt – zahlreiche Nischen-Tools, die Lücken füllen. Im Folgenden eine kleine Auswahl, geordnet nach Funktionen. Kostenanalyse & -optimierung: Flexera Cloud Management Platform; Cloudbolt; VMware Tanzu CloudHealth; CloudZero; Apptio IBM Cloudability; OpenCost; Kion. Deployment & GitOps: ArgoCD; Spacelift; Harness; Red Hat Ansible; Scalr. Richtlinien, Governance & Security: Open Policy Agent; Snyk; Palo Alto Networks Prisma Cloud; Lacework FortiCNAPP. Observability & Monitoring: Datadog; New Relic; Grafana Cloud; Dynatrace. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Die besten Multicloud-Management-Lösungen​ Viel Cloud, viel Verwaltungsaufwand – lesen Sie, welche Softwarelösungen helfen.luca pbl | shutterstock.com

Multicloud-Architekturen setzen sich im Unternehmensumfeld zunehmend durch. So nutzen Firmen laut Flexeras “2025 State of the Cloud Report” (Download gegen Daten) inzwischen durchschnittlich bereits 2,4 Public-Cloud-Anbieter. Dieser Wert dürfte im Zuge der aktuellen Agentic-AI– und Souvereign-Cloud-Trends weiter steigen. Doch die Anwender reichern ihr persönliches Cloud-Potpourri darüber hinaus auch mit lokalen Rechenzentren, Private-Cloud- sowie Bare-Metal und Edge-Computing-Instanzen an.  

(Hybride) Multicloud-Management-Lösungen helfen dabei, Funktionen über diese Umgebungen hinweg zu vereinheitlichen und Komplexitäten zu reduzieren. Dabei deckt allerdings bislang keine Einzellösung sämtliche Bereiche ab, weswegen für tiefgehender Anpassungen einige Nischen-Tools entwickelt wurden. Wir haben die aktuell wichtigsten Lösungen sowie einige (teilweise quelloffene) Alternativen und Spezial-Optionen für Sie zusammengetragen, die Multicloud- (und teilweise auch Hybrid-Cloud-)Landschaften ihren Schrecken nehmen können.

Google Cloud Anthos

Mit Anthos stellt Google Cloud Platform (GCP) eine vollumfängliche, verwaltete Plattform zur Verfügung, um Container-Applikationen auf Kubernetes-Basis in Hybrid- und Multicloud-Umgebungen zu erstellen und zu managen. Die Plattform funktioniert nicht nur mit GCP, sondern auch mit AWS und Azure sowie mit Edge- und On-Premises-Workloads.

Google Cloud

Die singuläre Steuerungsebene der Google-Plattform verspricht mit deklarativen Richtlinien Konsistenz zu schaffen in Sachen:

Konfigurationsverwaltung,

Service Mesh,

Security,

Zugriffsrichtlinien,

Telemetrie sowie

Observability.

Um Cluster und Ressourcen zu Multicloud-Zwecken zu organisieren, lassen sich sogenannte “Fleets” organisieren. Das Herzstück von Anthos bilden diverse Open-Source-Projekte wie Kubernetes, Istio, Knative und Tekton. Darüber hinaus beinhaltet Anthos auch Tools, die dabei unterstützen, VMs auf Container zu migrieren sowie einen Marktplatz für Drittanbieter-Addons. Fans von Vanilla Kubernetes könnten den Hang der Plattform zu Google Kubernetes Engine (GKE) als hinderlich empfinden. Ansonsten ist Anthos eine sehr performante Option für Cloud-übergreifendes Management, die Sie auf dem Zettel haben sollten.

HCP Terraform

Terraform ist ein Befehlszeilen-Tool und eine Konfigurationssprache für Infrastructure as Code (IaC). Es ist für Multicloud-Umgebungen konzipiert und automatisiert alle möglichen Provisioning- und Management-Tasks. Aufbauend auf Terraform bietet HashiCorp mit HCP Terraform auch eine gehostete Plattform (eine Self-Hosted-Option steht ebenfalls zur Verfügung), um auf skalierbarer IaC-Basis zu standardisieren und zu kollaborieren. Diese Lösung abstrahiert das Konfigurationsmanagement mit Funktionen wie:

Registries für Module und Secrets,

Policy Enforcement,

State Storage und

Governance-Kontrollen.

Terraform selbst ist Cloud-unabhängig und funktioniert sowohl mit AWS, Azure und Google Cloud als auch mit Kubernetes, Oracle Cloud Infrastructure (OCI) sowie Alibaba Cloud (und weiteren Optionen).

HashiCorp

HashiCorps Tool ist weit verbreitet – und ausgereift: Erstmals veröffentlicht wurde Terraform bereits im Jahr 2014, damals noch in Open-Source-Form. Inzwischen unterliegt es allerdings der kommerziellen Business Source License von HashiCorp, was zum Weggang einiger wichtiger Entwickler führte. Und dem quelloffenen Fork OpenTofu. Obwohl es selbst mit der gehosteten Option komplex sein kann, Module in großem Maßstab zu schreiben und zu managen, ist Terraform weiterhin der De-Facto-Standard für Cloud-übergreifendes IaC. Wenn Sie die Bindung an HashiCorp verschmerzen können, bietet HCP Terraform granulare Kontrollmöglichkeiten für Cloud-Ressourcen, gepaart mit Usability im SaaS-Stil.

HPE Morpheus Enterprise

Mit Morpheus Enterprise stellt Hewlett Packard Enterprise (HPE) eine Hybrid-Multicloud-Management-Lösung zur Verfügung, die sich durch einen breitgefächerten Funktionsumfang und Support für visuelle sowie programmierbare Infrastrukturautomatisierungen auszeichnet. Diese Lösung unterstützt sowohl die Hyperscaler als auch OCI, Nutanix, KVM, Kubernetes und diverse Nischen-Clouds (und damit verbundene Technologien).

HPE

HPE Morpheus Enterprise ermöglicht wahlweise per API, Kommandozeilen-Interface oder grafischer Benutzeroberfläche unter anderem:

Self-Service-Provisioning,

Backups,

Compliance-Prüfungen,

Kostenanalysen,

Policy Enforcement, sowie

Automatisierung.

Damit ist die HPE-Lösung stärker auf die Governance-Seite der Multicloud-Gleichung ausgerichtet als die anderen hier gelisteten Lösungen. Insbesondere wegen seiner strikten rollenbasierten Zugriffskontrollen ist Morpheus Enterprise für regulierte Umgebungen eine gute Wahl. Darüber hinaus bietet das HPE-Tool flexible Möglichkeiten, um verschiedene Plattform-Stacks aufzubauen und lässt sich mit einer Vielzahl von Enterprise-Tools und -Services integrieren. Allerdings ist Morpheus unter Umständen auch etwas eigenwillig und (im Vergleich zu anderen Optionen) weniger stark auf Open Source ausgerichtet. Diese Lösung empfiehlt sich für Unternehmen, die eine flexible All-in-One-Lösung suchen, um hybride Infrastrukturen inklusive lokaler Rechenzentren, Edge-Bereitstellungen und mehrerer Clouds zu verwalten.

Humanitec

Der Platform-Engineering-Trend hat dazu geführt, dass Multicloud-Management durch Internal Developer Platforms (IDPs) neu interpretiert werden. Sie abstrahieren die Devops-Komplexität und ermöglichen Self-Service-Workflows. Ein Vorreiter in diesem Bereich ist Humanitec. Das Unternehmen bietet einen Cloud-agnostischen Infrastruktur-Management-Layer an – eine Plattform für Plattformen sozusagen, die es ermöglicht, einen persönlichen Stack zusammenzubauen. Dabei:

definieren Entwickler Workloads mithilfe der Workload-Spezifikation Score,

generieren mit dem Platform Orchestrator Konfigurationen und

nutzen eine grafische Benutzeroberfläche für Deployment und Management.

Humanitec

Das Tool von Humanitec wurde speziell dafür konzipiert, den Cloud-nativen Deployment-Feeedback-Loop zu optimieren und lässt sich für alle gängigen Clouds konfigurieren. Im Gegensatz zu traditionellen Multicloud-Management-Suiten liegt der Fokus jedoch nicht auf Kostentransparenz oder Legacy-VM-Orchestrierung. Und: Die Humanitec-Lösung ersetzt weder Observability- noch Security-Tools. Wenn Sie für Ihr Plattformteam einen flexiblen, entwicklerfreundlichen Layer für Cloud-übergreifende Bereitstellungen und Prozesse aufbauen möchten, ist Humanitec eine gute Wahl. Allerdings ist es nicht alternativlos: Port, Crossplane oder Backstage bieten beispielsweise eigenständige Interpretationen des IDP-Ansatzes.

Nutanix Cloud Platform

Die hybride Multicloud-Plattform von Nutanix ist universell einsetzbar und eignet sich, um virtuelle Maschinen und Container in Public und Private Clouds sowie Edge-Umgebungen auszuführen, zu verwalten und abzusichern. In diesem Zuge konsolidiert die Cloud Platform von Nutanix diverse Funktionen in einer einzelnen Steuerungsebene, die normalerweise auf mehrere Tools verteilt sind. Zum Beispiel in den Bereichen:

Kostenanalyse,

Automatisierung,

Kubernetes-Management,

Datensicherheit,

Monitoring,

Self-Healing oder

Disaster Recovery.

Nutanix hat seine Cloud Platform speziell darauf ausgerichtet, Enterprise-Applikationen in diverse Umgebungen zu migrieren und dort bereitzustellen: Die Anwender wählen Hardware, Hypervisor, Cloud-Anbieter und Kubernetes-Plattform – die Nutanix-Lösung fügt alles zusammen.

Nutanix

Für IT-Teams ohne etablierte IaC-Workflows kann die Nutanix-Lösung von Vorteil sein, weil sie den Schwerpunkt auf “Click Ops” statt auf Code legt. DevOps-Profis, die es auf Code-basierte, deklarative Steuerungsmöglichkeiten abgesehen haben, werden davon wahrscheinlich eher abgeschreckt. Für Unternehmensanwender, denen das nichts ausmacht und die in erster Linie auf einen möglichst breiten Funktionsumfang sowie Support für On-Premises- und Multicloud-Umgebungen Wert legen, ist die Nutanix-Plattform eine gute Wahl.

Spectro Cloud Palette

Palette von Spectro Cloud richtet sich an Unternehmen, die auf Kubernetes ausgerichtet sind und einen Management-Layer für Multicloud-Umgebungen benötigen. Die Plattform nutzt eine modulare Architektur, um Cluster-Prozesse über den gesamten Stack hinweg zu managen – inklusive:

Deployment,

Security-Richtlinien,

Networking, und

Monitoring.

Dabei unterstützt die Lösung sowohl alle wichtigen Clouds als auch Bare-Metal-, Edge- und Datacenter-Deployments mit einem deklarativen Modell, das auf der Cluster API (CAPI) der Cloud Native Computing Foundation (CNCF) basiert.

Spectro Cloud

Spectro Cloud bietet bei Palette ein mehrschichtiges Stack-Konzept in Form von sogenannten “Packs”, die eine Vielzahl von Integrationen für diverse Bereiche ermöglichen. Somit können Anwender die Lösung mit einem Best-of-Breed-Ansatz an ihre spezifischen Bedürfnisse anpassen. Nicht Teil des Leistungsumfangs sind hingegen die Bereiche Governance und Kostenanalysen. Insofern ist diese Lösung vor allem für auf DevOps ausgerichtete, Kubernetes-native Unternehmen geeignet.

Weitere Multicloud-Management-Optionen

Eine ganze Reihe weiterer Plattformen funktioniert Cloud-übergreifend und deckt circa 80 Prozent des erwarteten Funktionsumfangs von Multicloud-Management-Lösungen ab. Dazu zählen unter anderem:

SUSE Rancher,

Cloudify,

Firefly,

Fractal Cloud und

Emma.

Davon abgesehen unterstützen zahlreiche alternative Kubernetes-Plattformen ebenfalls Public- und Private-Cloud-Bereitstellungen – dazu gehören beispielsweise:

Platform9,

Mirantis und

D2iQ.

Für Unternehmen, die nach wie vor auf VMware setzen, empfiehlt sich hingegen VMware Cloud Foundation (VCF) von Broadcom. Die Plattform ist dazu geeignet, VMware-basierte Workloads in VMware-kompatible Public- und Private-Cloud-Umgebungen zu managen.

Und es gibt – wie eingangs bereits erwähnt – zahlreiche Nischen-Tools, die Lücken füllen. Im Folgenden eine kleine Auswahl, geordnet nach Funktionen.

Kostenanalyse & -optimierung:

Flexera Cloud Management Platform;

Cloudbolt;

VMware Tanzu CloudHealth;

CloudZero;

Apptio IBM Cloudability;

OpenCost;

Kion.

Deployment & GitOps:

ArgoCD;

Spacelift;

Harness;

Red Hat Ansible;

Scalr.

Richtlinien, Governance & Security:

Open Policy Agent;

Snyk;

Palo Alto Networks Prisma Cloud;

Lacework FortiCNAPP.

Observability & Monitoring:

Datadog;

New Relic;

Grafana Cloud;

Dynatrace.

(fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Die besten Multicloud-Management-Lösungen​ Weiterlesen »

MS-DOS Editor feiert Open-Source-Revival​

Allgemein

Edit ist eine quelloffene Hommage an den klassischen MS-DOS Editor.Microsoft | GitHub Als im Jahr 1991 MS-DOS 5.0 auf den Markt kam, war der MS-DOS Editor eine der wesentlichen Neuerungen. Das Tool konnte sich in den Folgejahren unter Windows-Anwendern durchsetzen und ist seit Windows 95 (beziehungsweise Version 2.0) eine eigenständige App. Weil der MS-DOS-Editor ausschließlich den 32-Bit-Versionen von Windows vorbehalten ist, hat sich Microsoft dazu entschlossen, mit Edit eine quelloffene, moderne Neuauflage zu veröffentlichen. Diese soll künftig standardmäßig mit Windows 11 ausgeliefert werden. DOS-Flair mit modernem Twist Im Vergleich zum Original verspricht Edit eine ganze Reihe von Verbesserungen, darunter etwa Support für Unicode. Zudem wurde das 300-Kilobyte-Limit des alten MS-DOS Editors über Bord geworfen – Edit-Benutzer können bei Bedarf also auch mit Dateien in Gigabyte-Größe arbeiten. Der leichtgewichtige Open-Source-Texteditor ist in Rust geschrieben und läuft unter Windows, macOS und Linux. Edit steht über GitHub zum Download zur Verfügung. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

MS-DOS Editor feiert Open-Source-Revival​ Edit ist eine quelloffene Hommage an den klassischen MS-DOS Editor.Microsoft | GitHub

Als im Jahr 1991 MS-DOS 5.0 auf den Markt kam, war der MS-DOS Editor eine der wesentlichen Neuerungen. Das Tool konnte sich in den Folgejahren unter Windows-Anwendern durchsetzen und ist seit Windows 95 (beziehungsweise Version 2.0) eine eigenständige App.

Weil der MS-DOS-Editor ausschließlich den 32-Bit-Versionen von Windows vorbehalten ist, hat sich Microsoft dazu entschlossen, mit Edit eine quelloffene, moderne Neuauflage zu veröffentlichen. Diese soll künftig standardmäßig mit Windows 11 ausgeliefert werden.

DOS-Flair mit modernem Twist

Im Vergleich zum Original verspricht Edit eine ganze Reihe von Verbesserungen, darunter etwa Support für Unicode. Zudem wurde das 300-Kilobyte-Limit des alten MS-DOS Editors über Bord geworfen – Edit-Benutzer können bei Bedarf also auch mit Dateien in Gigabyte-Größe arbeiten.

Der leichtgewichtige Open-Source-Texteditor ist in Rust geschrieben und läuft unter Windows, macOS und Linux. Edit steht über GitHub zum Download zur Verfügung. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

MS-DOS Editor feiert Open-Source-Revival​ Weiterlesen »

5 Tipps gegen KI-Leistungsprobleme​

Allgemein

Performance-Probleme mit Generative-AI-Systemen sollten Sie in Angriff nehmen – bevor nichts mehr geht. Foto: talitha_it | shutterstock.com Wenn Ihre Generative-AI-Systeme regelmäßig durch mangelnde Performance auffallen: Damit sind Sie nicht allein. Denn der Leistungsaspekt fällt bei all dem Hype um den Einsatz generativer künstlicher Intelligenz leider viel zu oft unter den Tisch. Die vier häufigsten Probleme im Bereich GenAI-Performance stehen in Zusammenhang mit: Komplexen Deployment-Landschaften: GenAI-Systeme bestehen oft aus diversen, unterschiedlichen Komponenten. Deren Architektur so zu gestalten, dass sie synergetisch zusammenarbeiten, resultiert des Öfteren in einer Überkomplexität. Die kann wiederum dazu führen, dass sich Performance-Probleme, die vermeintlich von leistungsschwachen Komponenten verursacht werden, isoliert betrachtet völlig anders darstellen. Schlecht funktionierende Netzwerke und überlastete Datenbanken hängen zum Beispiel nicht direkt mit GenAI zusammen, können aber dennoch für mangelhafte Performance ursächlich sein. KI-Modell-Tuning: Performance ist nicht nur eine Sache der Infrastruktur – auch KI-Modelle sollten feinabgestimmt und optimiert werden. Dafür ist allerdings technisches Knowhow gefragt, über das nur wenige verfügen. Entsprechend viel kann dabei schieflaufen – mit unabsehbaren Folgen für die Anwender. Security und Datenschutz: Es versteht sich von selbst, dass KI-Modelle und ihre Daten vor unbefugtem Zugriff geschützt werden müssen – insbesondere in Multitenacy-Cloud-Umgebungen. In vielen Fällen führen Sicherheitsmechanismen, beispielsweise Verschlüsselung, zu Leistungsproblemen. Wenn die nicht behoben werden, verschlimmern sie sich mit wachsendem Datenvolumen weiter. Compliance: Data-Governance- und Compliance-Standards einzuhalten, kann es noch komplexer machen, die Performance von GenAI-Systemen zu managen. 5 Best Practices für performante, generative KI Um diesen Herausforderungen zu begegnen, haben wir fünf ganzheitliche Best Practices für Sie zusammengestellt. Diese können Ihnen eine erste Orientierung darüber verschaffen, welche Punkte sie mit Ihrem Anbieter für Ihren spezifischen Anwendungsfall diskutieren sollten. Automatisieren Sie. Implementieren Sie die von den Cloud-Anbietern zur Verfügung gestellten Scaling- und Resource-Optimization-Tools. Das beinhaltet auch MLOps-Techniken und Ansätze für den Betrieb von KI-Modellen. Nutzen Sie Serverless. So müssen Sie die Ressourcen, die Ihr generatives KI-System benötigt, nicht mehr manuell zuweisen. Testen Sie regelmäßig. Load Testing und Performance-Bewertungen gewährleisten, dass Ihre generativen KI-Systeme auch mit Spitzenlast umgehen können. Forcieren Sie Continuous Learning. Der Ansatz des kontinuierlichen Lernens stellt in Zusammenhang mit KI-Modellen sicher, dass regelmäßige Aktualisierungen mit neuen Daten stattfinden, um die Performance und Relevanz des Systems zu erhalten. Nutzen Sie Support-Angebote. Vergessen Sie neben den Unterstützungsangeboten Ihres Anbieters nicht, auch Online-Communities zu frequentieren. Hier bekommen Sie unter Umständen Antworten, mit denen ein Consultant trotz exorbitanten Stundenlohns nicht dienen kann. Je früher Sie die Performance Ihrer Generative-AI-Systeme in den Fokus rücken, desto besser. Denn mit zunehmender Reife der Technologie dürfte auch die KI-Leistung deutlich mehr Bedeutung beigemessen werden. Angesichts der Ressourcen, die aktuell in diesen Bereich fließen, ist das auch eine gute Sache. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

5 Tipps gegen KI-Leistungsprobleme​ Performance-Probleme mit Generative-AI-Systemen sollten Sie in Angriff nehmen – bevor nichts mehr geht.
Foto: talitha_it | shutterstock.com

Wenn Ihre Generative-AI-Systeme regelmäßig durch mangelnde Performance auffallen: Damit sind Sie nicht allein. Denn der Leistungsaspekt fällt bei all dem Hype um den Einsatz generativer künstlicher Intelligenz leider viel zu oft unter den Tisch. Die vier häufigsten Probleme im Bereich GenAI-Performance stehen in Zusammenhang mit:

Komplexen Deployment-Landschaften: GenAI-Systeme bestehen oft aus diversen, unterschiedlichen Komponenten. Deren Architektur so zu gestalten, dass sie synergetisch zusammenarbeiten, resultiert des Öfteren in einer Überkomplexität. Die kann wiederum dazu führen, dass sich Performance-Probleme, die vermeintlich von leistungsschwachen Komponenten verursacht werden, isoliert betrachtet völlig anders darstellen. Schlecht funktionierende Netzwerke und überlastete Datenbanken hängen zum Beispiel nicht direkt mit GenAI zusammen, können aber dennoch für mangelhafte Performance ursächlich sein.

KI-Modell-Tuning: Performance ist nicht nur eine Sache der Infrastruktur – auch KI-Modelle sollten feinabgestimmt und optimiert werden. Dafür ist allerdings technisches Knowhow gefragt, über das nur wenige verfügen. Entsprechend viel kann dabei schieflaufen – mit unabsehbaren Folgen für die Anwender.

Security und Datenschutz: Es versteht sich von selbst, dass KI-Modelle und ihre Daten vor unbefugtem Zugriff geschützt werden müssen – insbesondere in Multitenacy-Cloud-Umgebungen. In vielen Fällen führen Sicherheitsmechanismen, beispielsweise Verschlüsselung, zu Leistungsproblemen. Wenn die nicht behoben werden, verschlimmern sie sich mit wachsendem Datenvolumen weiter.

Compliance: Data-Governance- und Compliance-Standards einzuhalten, kann es noch komplexer machen, die Performance von GenAI-Systemen zu managen.

5 Best Practices für performante, generative KI

Um diesen Herausforderungen zu begegnen, haben wir fünf ganzheitliche Best Practices für Sie zusammengestellt. Diese können Ihnen eine erste Orientierung darüber verschaffen, welche Punkte sie mit Ihrem Anbieter für Ihren spezifischen Anwendungsfall diskutieren sollten.

Automatisieren Sie. Implementieren Sie die von den Cloud-Anbietern zur Verfügung gestellten Scaling- und Resource-Optimization-Tools. Das beinhaltet auch MLOps-Techniken und Ansätze für den Betrieb von KI-Modellen.

Nutzen Sie Serverless. So müssen Sie die Ressourcen, die Ihr generatives KI-System benötigt, nicht mehr manuell zuweisen.

Testen Sie regelmäßig. Load Testing und Performance-Bewertungen gewährleisten, dass Ihre generativen KI-Systeme auch mit Spitzenlast umgehen können.

Forcieren Sie Continuous Learning. Der Ansatz des kontinuierlichen Lernens stellt in Zusammenhang mit KI-Modellen sicher, dass regelmäßige Aktualisierungen mit neuen Daten stattfinden, um die Performance und Relevanz des Systems zu erhalten.

Nutzen Sie Support-Angebote. Vergessen Sie neben den Unterstützungsangeboten Ihres Anbieters nicht, auch Online-Communities zu frequentieren. Hier bekommen Sie unter Umständen Antworten, mit denen ein Consultant trotz exorbitanten Stundenlohns nicht dienen kann.

Je früher Sie die Performance Ihrer Generative-AI-Systeme in den Fokus rücken, desto besser. Denn mit zunehmender Reife der Technologie dürfte auch die KI-Leistung deutlich mehr Bedeutung beigemessen werden. Angesichts der Ressourcen, die aktuell in diesen Bereich fließen, ist das auch eine gute Sache. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

5 Tipps gegen KI-Leistungsprobleme​ Weiterlesen »

Künstliche Intelligenz erobert das Personalwesen​

Allgemein

loading=”lazy” width=”400px”>KI spielt auch in der Personalverwaltung eine immer wichtigere Rolle. Dabei gilt es jedoch einige wichtige Dinge zu beachten.PeachShutterStock – shutterstock.com Generative KI hat die digitale Transformation beschleunigt. Sprachmodelle wie ChatGPT von OpenAI revolutionieren die Art, wie Menschen mit Software interagieren. Auch Personalabteilungen können davon profitieren: Ob Bewerbervorauswahl, Performance-Gespräche oder Skill-Analysen – Künstliche Intelligenz kann HR-Prozesse effizienter, aber auch „Mitarbeitenden-zentrierter“ gestalten. Für SAP-Anwenderunternehmen, die mit der Software aus Walldorf auch ihre Personalbelange abwickeln, stellt sich damit eine zentrale Frage: Wie genau implementiert SAP KI-Features in seine HR-Lösungen? Die Antwort lautet: Mittels SAP Business AI for HR und auf Basis der SAP Business Technology Plattform (BTP). SAP Business AI: Eigenes Domänenwissen und externe LLMs SAP verfolgt in Sachen KI einen pragmatischen Kurs: Der deutsche Softwarekonzern entwickelt keine eigenen Sprachmodelle (Large Language Models, LLMs), sondern nutzt die KI-Plattformen von Drittanbietern wie etwa AWS (Amazon Bedrock), Meta (LLaMA 3) oder Google Cloud (Gemini). Diese werden über die SAP Business Technology Platform (SAP BTP) in Echtzeit mit Geschäftsdaten aus SAP-Anwendungen angereichert. SAP will KI allgegenwärtig machen Das ist insofern clever von den Walldorfern, da der Aufbau eigener LLMs extrem ressourcenintensiv ist und immense Rechenleistung sowie eine kontinuierliche Weiterentwicklung der Modelle voraussetzt. SAP setzt stattdessen auf die Skalierbarkeit und Innovationskraft spezialisierter KI-Anbieter – und konzentriert sich selbst auf das eigene Domänen-Wissen und die Integration in Geschäftsanwendungen. Dafür nutzt SAP die Retrieval-Augmented-Generation- (RAG-)Technik und verknüpft Unternehmenswissen mit den KI-Modellen. Ziel ist es, GenAI-Anwendungen mit zuverlässigen, kontextbezogenen Business-Informationen anzureichern, um die typischen Schwächen von LLMs wie zum Beispiel Halluzinationen zu vermeiden. Mit anderen Worten: Die KI liefert keine allgemeinen Vermutungen, sondern faktenbasierte, geschäftsprozessnahe Antworten. Innovation nur in der Cloud SAP verfolgt auch im HR-Umfeld eine konsequente „Cloud-First-Strategie“. Während die On-Premises-Systeme SAP ERP Human Capital Management (HCM) sowie SAP HCM for S/4HANA (H4S4) on-premise Edition gemäß der bekannten Roadmaps support werden, bleiben sie bei Innovationsthemen wie KI außen vor. Neue Funktionen, insbesondere im Bereich der Künstlichen Intelligenz, werden ausschließlich für die SAP SuccessFactors HCM-Suite bereitgestellt. Lesen Sie mehr zum Thema HCM-Strategie: Tipps, um SAP-HCM-Projekte zu meistern HR-Transformation Roadmap: So sieht Personalplanung der Zukunft aus HCM On-premises und aus der Cloud: So setzen Sie ein hybrides SAP-HR-System richtig auf Für Anwenderunternehmen bedeutet das: Wer von der rasch wachsenden Zahl an Use-Cases im KI-Umfeld profitieren will, muss auf die Cloud-Lösung umsteigen. Unklar bleibt indes, welche KI-Funktionen künftig im SAP Standard der Privat Cloud, genauer der H4S4 Private Cloud Edition (PCE), bereitgestellt werden. Wünschenswert wäre dies insbesondere für hybride Szenarien mit Bezug auf die SAP SuccessFactors EC Payroll (ECP). Chatbot Joule als User-Interface Im Falle von SAP SuccessFactors ist SAP Business AI längst keine Zukunftsmusik mehr – KI ist an dieser Stelle fester Bestandteil des Arbeitsalltags von Personalern. Besonders deutlich wird dies bei SAPs digitalem Assistenten beziehungsweise Co-Piloten Joule, der sich mehr und mehr zur Schaltzentrale im HR-Umfeld entwickelt. Egal ob Urlaubsanfrage, Rückmeldung zu einem Jahresgespräch oder die Anlage neuer Zielvereinbarungen – Joule soll in Form eines Chatbots die passenden Antworten liefern und die richtigen Prozesse anstoßen. Statt sich durch komplexe Oberflächen zu klicken, reicht ein einfacher Satz – “Wie viele Urlaubstage habe ich noch?” oder “Lege ein Onboarding-Task für Lisa an”. Im Hintergrund greift Joule auf strukturierte wie unstrukturierte SAP-Daten zu, verknüpft diese mit Rollen, Policies und Workflows und liefert unmittelbar verwertbare Ergebnisse. Darüber hinaus plant SAP, bis Ende 2025 mehr als 100 produktive KI-Anwendungsfälle in SAP SuccessFactors bereitzustellen – mit Joule als durchgehender Schnittstelle. Schon heute stehen folgende Funktionen zur Verfügung: Texterstellung mit KI: Feedback, Kursbeschreibungen oder Zielvereinbarungen lassen sich automatisch und stilsicher generieren. Intelligente Zielentwicklung: Stichpunkte werden in konkrete, messbare Ziele umgewandelt. Recruiting und Matching: Bewerberinnen und Bewerber werden automatisch auf Basis von Skills mit offenen Stellen abgeglichen. Talent Intelligence: Mitarbeitende erhalten Lern- und Karriereempfehlungen – datenbasiert und individuell. Manager-Insights: Führungskräfte erhalten konsolidierte Personalanalysen inklusive Handlungsempfehlungen. Was Unternehmen bei KI in HR beachten müssen Der Einsatz von KI im Personalwesen verspricht viele Vorteile – von höherer Effizienz bis zu besseren datenbasierten Entscheidungen. Gleichzeitig stehen die Verantwortlichen in den Unternehmen vor drei zentralen Herausforderungen, die über Erfolg oder Misserfolg ihrer KI-Initiativen entscheiden können: Governance & Ethik: Viele Unternehmen verfügen noch nicht über klare Regeln für den Umgang mit KI. Dabei ist gerade im HR-Kontext wichtig, dass KI fair, nachvollziehbar und diskriminierungsfrei eingesetzt wird. Ein robustes KI-Governance-Modell ist unverzichtbar. Kompetenz & Akzeptanz: Die Nutzung von KI setzt Verständnis voraus. Ohne gezielte Schulung droht Ablehnung durch die Mitarbeitenden. Wer in Aufklärung und KI-Kompetenz investiert, erhöht die Akzeptanz und reduziert Unsicherheit im Umgang mit KI. Datenschutz & Transparenz: KI-Anwendungen müssen mit sensiblen Personaldaten sorgsam umgehen. Mitarbeitende wollen wissen, welche Daten verwendet werden und wie Entscheidungen zustande kommen. Vertrauen entsteht nur durch Transparenz und sichere Architekturen. Fazit: KI ist Pflicht, nicht Kür SAP Business AI ist nicht länger ein Zukunftsthema, sondern eine strategische Notwendigkeit für moderne HR-Organisationen. Wer jetzt handelt, sichert sich Effizienzgewinne, bessere Entscheidungsqualität und eine stärkere Bindung der Mitarbeitenden an das Unternehmen. Entscheidend ist dabei jedoch, die eigene technologische Basis rechtzeitig auf SAP SuccessFactors auszurichten, um Zugang zu aktuellen und kommenden KI-Funktionen zu erhalten. Ebenso wichtig: Der Aufbau interner KI-Kompetenz, die Förderung einer ethisch verantwortlichen Anwendung sowie der Mut, konkrete Pilotprojekte anzustoßen. Unternehmen sollten den Wandel aktiv gestalten – mit klaren Leitlinien, qualifizierten Teams und einem offenen Dialog über Nutzen und Grenzen von KI im Personalwesen. Nur so kann KI ihr volles Potenzial entfalten. (ba) 

Künstliche Intelligenz erobert das Personalwesen​ loading=”lazy” width=”400px”>KI spielt auch in der Personalverwaltung eine immer wichtigere Rolle. Dabei gilt es jedoch einige wichtige Dinge zu beachten.PeachShutterStock – shutterstock.com

Generative KI hat die digitale Transformation beschleunigt. Sprachmodelle wie ChatGPT von OpenAI revolutionieren die Art, wie Menschen mit Software interagieren. Auch Personalabteilungen können davon profitieren: Ob Bewerbervorauswahl, Performance-Gespräche oder Skill-Analysen – Künstliche Intelligenz kann HR-Prozesse effizienter, aber auch „Mitarbeitenden-zentrierter“ gestalten.

Für SAP-Anwenderunternehmen, die mit der Software aus Walldorf auch ihre Personalbelange abwickeln, stellt sich damit eine zentrale Frage: Wie genau implementiert SAP KI-Features in seine HR-Lösungen? Die Antwort lautet: Mittels SAP Business AI for HR und auf Basis der SAP Business Technology Plattform (BTP).

SAP Business AI: Eigenes Domänenwissen und externe LLMs

SAP verfolgt in Sachen KI einen pragmatischen Kurs: Der deutsche Softwarekonzern entwickelt keine eigenen Sprachmodelle (Large Language Models, LLMs), sondern nutzt die KI-Plattformen von Drittanbietern wie etwa AWS (Amazon Bedrock), Meta (LLaMA 3) oder Google Cloud (Gemini). Diese werden über die SAP Business Technology Platform (SAP BTP) in Echtzeit mit Geschäftsdaten aus SAP-Anwendungen angereichert.

SAP will KI allgegenwärtig machen

Das ist insofern clever von den Walldorfern, da der Aufbau eigener LLMs extrem ressourcenintensiv ist und immense Rechenleistung sowie eine kontinuierliche Weiterentwicklung der Modelle voraussetzt. SAP setzt stattdessen auf die Skalierbarkeit und Innovationskraft spezialisierter KI-Anbieter – und konzentriert sich selbst auf das eigene Domänen-Wissen und die Integration in Geschäftsanwendungen.

Dafür nutzt SAP die Retrieval-Augmented-Generation- (RAG-)Technik und verknüpft Unternehmenswissen mit den KI-Modellen. Ziel ist es, GenAI-Anwendungen mit zuverlässigen, kontextbezogenen Business-Informationen anzureichern, um die typischen Schwächen von LLMs wie zum Beispiel Halluzinationen zu vermeiden. Mit anderen Worten: Die KI liefert keine allgemeinen Vermutungen, sondern faktenbasierte, geschäftsprozessnahe Antworten.

Innovation nur in der Cloud

SAP verfolgt auch im HR-Umfeld eine konsequente „Cloud-First-Strategie“. Während die On-Premises-Systeme SAP ERP Human Capital Management (HCM) sowie SAP HCM for S/4HANA (H4S4) on-premise Edition gemäß der bekannten Roadmaps support werden, bleiben sie bei Innovationsthemen wie KI außen vor. Neue Funktionen, insbesondere im Bereich der Künstlichen Intelligenz, werden ausschließlich für die SAP SuccessFactors HCM-Suite bereitgestellt.

Lesen Sie mehr zum Thema HCM-Strategie:

Tipps, um SAP-HCM-Projekte zu meistern

HR-Transformation Roadmap: So sieht Personalplanung der Zukunft aus

HCM On-premises und aus der Cloud: So setzen Sie ein hybrides SAP-HR-System richtig auf

Für Anwenderunternehmen bedeutet das: Wer von der rasch wachsenden Zahl an Use-Cases im KI-Umfeld profitieren will, muss auf die Cloud-Lösung umsteigen. Unklar bleibt indes, welche KI-Funktionen künftig im SAP Standard der Privat Cloud, genauer der H4S4 Private Cloud Edition (PCE), bereitgestellt werden. Wünschenswert wäre dies insbesondere für hybride Szenarien mit Bezug auf die SAP SuccessFactors EC Payroll (ECP).

Chatbot Joule als User-Interface

Im Falle von SAP SuccessFactors ist SAP Business AI längst keine Zukunftsmusik mehr – KI ist an dieser Stelle fester Bestandteil des Arbeitsalltags von Personalern. Besonders deutlich wird dies bei SAPs digitalem Assistenten beziehungsweise Co-Piloten Joule, der sich mehr und mehr zur Schaltzentrale im HR-Umfeld entwickelt.

Egal ob Urlaubsanfrage, Rückmeldung zu einem Jahresgespräch oder die Anlage neuer Zielvereinbarungen – Joule soll in Form eines Chatbots die passenden Antworten liefern und die richtigen Prozesse anstoßen. Statt sich durch komplexe Oberflächen zu klicken, reicht ein einfacher Satz – “Wie viele Urlaubstage habe ich noch?” oder “Lege ein Onboarding-Task für Lisa an”. Im Hintergrund greift Joule auf strukturierte wie unstrukturierte SAP-Daten zu, verknüpft diese mit Rollen, Policies und Workflows und liefert unmittelbar verwertbare Ergebnisse.

Darüber hinaus plant SAP, bis Ende 2025 mehr als 100 produktive KI-Anwendungsfälle in SAP SuccessFactors bereitzustellen – mit Joule als durchgehender Schnittstelle. Schon heute stehen folgende Funktionen zur Verfügung:

Texterstellung mit KI: Feedback, Kursbeschreibungen oder Zielvereinbarungen lassen sich automatisch und stilsicher generieren.

Intelligente Zielentwicklung: Stichpunkte werden in konkrete, messbare Ziele umgewandelt.

Recruiting und Matching: Bewerberinnen und Bewerber werden automatisch auf Basis von Skills mit offenen Stellen abgeglichen.

Talent Intelligence: Mitarbeitende erhalten Lern- und Karriereempfehlungen – datenbasiert und individuell.

Manager-Insights: Führungskräfte erhalten konsolidierte Personalanalysen inklusive Handlungsempfehlungen.

Was Unternehmen bei KI in HR beachten müssen

Der Einsatz von KI im Personalwesen verspricht viele Vorteile – von höherer Effizienz bis zu besseren datenbasierten Entscheidungen. Gleichzeitig stehen die Verantwortlichen in den Unternehmen vor drei zentralen Herausforderungen, die über Erfolg oder Misserfolg ihrer KI-Initiativen entscheiden können:

Governance & Ethik: Viele Unternehmen verfügen noch nicht über klare Regeln für den Umgang mit KI. Dabei ist gerade im HR-Kontext wichtig, dass KI fair, nachvollziehbar und diskriminierungsfrei eingesetzt wird. Ein robustes KI-Governance-Modell ist unverzichtbar.

Kompetenz & Akzeptanz: Die Nutzung von KI setzt Verständnis voraus. Ohne gezielte Schulung droht Ablehnung durch die Mitarbeitenden. Wer in Aufklärung und KI-Kompetenz investiert, erhöht die Akzeptanz und reduziert Unsicherheit im Umgang mit KI.

Datenschutz & Transparenz: KI-Anwendungen müssen mit sensiblen Personaldaten sorgsam umgehen. Mitarbeitende wollen wissen, welche Daten verwendet werden und wie Entscheidungen zustande kommen. Vertrauen entsteht nur durch Transparenz und sichere Architekturen.

Fazit: KI ist Pflicht, nicht Kür

SAP Business AI ist nicht länger ein Zukunftsthema, sondern eine strategische Notwendigkeit für moderne HR-Organisationen. Wer jetzt handelt, sichert sich Effizienzgewinne, bessere Entscheidungsqualität und eine stärkere Bindung der Mitarbeitenden an das Unternehmen. Entscheidend ist dabei jedoch, die eigene technologische Basis rechtzeitig auf SAP SuccessFactors auszurichten, um Zugang zu aktuellen und kommenden KI-Funktionen zu erhalten.

Ebenso wichtig: Der Aufbau interner KI-Kompetenz, die Förderung einer ethisch verantwortlichen Anwendung sowie der Mut, konkrete Pilotprojekte anzustoßen. Unternehmen sollten den Wandel aktiv gestalten – mit klaren Leitlinien, qualifizierten Teams und einem offenen Dialog über Nutzen und Grenzen von KI im Personalwesen. Nur so kann KI ihr volles Potenzial entfalten. (ba)

Künstliche Intelligenz erobert das Personalwesen​ Weiterlesen »

Die besten APIs, um KI zu integrieren​

Allgemein

Die richtigen APIs können Ihren Stack ungemein bereichern.Tada Images | shutterstock.com Die virtuelle Welt ist vollgestopft mit Daten – Sie müssen nur danach fragen. Bezogen auf die Welt der Softwareentwicklung müssen Sie das natürlich auch auf die richtige Art und Weise tun. Sprich: Eine API verwenden. Die richtige Kombination aus XML und JSON eröffnet Zugang zu Tausenden von Schnittstellen, respektive Datenquellen. In diesem Artikel haben wir einige der interessantesten und relevantesten APIs zusammengetragen. Dabei haben wir den Fokus vor allem auf solche Schnittstellen gelegt, die dabei unterstützen können, KI-Technologie zu integrieren. 9 APIs für KI-Integrationen Zapier AI Actions Früher waren die meisten APIs so komplex, dass man ohne Bedienungsanleitung nicht weit kam. Zapier AI Actions demonstriert hingegen, wie einfach der Prozess im KI-Zeitalter sein kann: Das Tool ermöglicht, API-Aktionen in natürlicher Sprache anzufordern – und sich nicht mehr um strenge Syntaxregeln kümmern zu müssen. Das ist deutlich flexibler, könnte aber unter Umständen auch zu unerwarteten, beziehungsweise unerwünschten Ergebnissen führen. Die Abkehr vom starren Format der REST-Semantik hat jedenfalls ihre Vorteile – und wird voraussichtlich Schule machen. Seam Die meisten APIs werden genutzt, um Daten zu bearbeiten. Bei Seam handelt es sich hingegen um ein universelles System, um eine ganze IoT-Device-Matrix zu steuern. Das erleichtert es, ein Smart-Home(office) aufzubauen und verlagert zudem den API-Anwendungsbereich von der virtuellen in die reale Welt. Hugging Face Transformers Falls Sie ein KI-Modell trainieren müssen, sorgt die Transformers API von Hugging Face dafür, dass Sie dabei nicht bei null anfangen müssen. Die API erleichtert es erheblich, über PyTorch, TensorFlow oder JAX auf Dutzende von Foundation-Modellen zuzugreifen. Deren Trainingsdatensätze werden mit Ihren Daten zusammengeführt – die Ergebnisse können über Formate wie ONNX oder TorchScript exportiert und überall ausgeführt werden. HumanLayer Normalerweise kommen APIs auf der Grundlage eines menschlichen Auftrags zum Einsatz. HumanLayer kehrt dieses Paradigma mit seinem API-Framework um. Die Idee dahinter: KI-Agenten sind in der Lage, die meisten Probleme selbst zu lösen, die auftreten, wenn Prozesse angefordert werden. Weil es aber eben nur bei den meisten Problemen der Fall ist, bietet HumanLayer die Struktur und das Integrationsformat, damit KIs bei Bedarf menschlichen Kontakt suchen können. Bluesky Firehose Social-Media-Beiträge sind von Natur aus öffentlich, aber nicht alle Plattformen machen es leicht, die Posts herunterzuladen. Das ist bei der Twitter-Alternative Bluesky anders. Die Firehose-API ermöglicht es zum Beispiel, die öffentliche Meinung zu bestimmten Themen zu analysieren oder die Verbreitung spezifischer Memes nachzuverfolgen. OpenAI Batch API Nicht jeder Rechen-Task muss direkt erledigt werden. Einige können um Sekunden, Minuten oder Stunden verschoben werden. Geht’s dabei um KI-Nutzung, ergeben sich erhebliche Einsparmöglichkeiten. Zum Beispiel mit der Batch API von OpenAI, die Workloads (die warten können) bündelt und so eine Kostenreduzierung um bis zu 50 Prozent verspricht. Firecrawl Nicht wenige Entwickler schreiben ihre Dokumente gerne in Markdown und verwenden dann Templates, um diese automatisch in vorzeigbares HTML zu verwandeln. Allerdings ist das Markdown-Format für Datenanalyse- und LLM-Trainingszwecke wesentlich besser geeignet. Deswegen durchsucht die Firecrawl API Webseiten und transformiert gefundenes HTML zurück in Markdown. SignatureAPI Manche Workflows machen Authentifizierung unabdingbar. Das wird mit der SignatureAPI besonders einfach: Sie ergänzt betreffende Prozesse um rechtsverbindliche, digitale Signaturen. Damit stellt das Tool Accountability sicher – und ist dabei auch noch vergleichsweise günstig. Bruno Auch API-Transaktionen sind ein zweischneidiges Schwert. Mit der Bruno API können Entwickler in Testing-Prozessen die Client-Seite simulieren und deren Datenfluss beobachten. Das ist insbesondere hilfreich, wenn die Dokumentation weniger aussagekräftig ist. Die Parameter, die Bruno liefert, beantworten dabei in der Regel mehr Fragen als die beste Dokumentation. Insofern ist Bruno eigentlich weniger eine API, sondern vielmehr ein Tool, um andere APIs zu explorieren. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Die besten APIs, um KI zu integrieren​ Die richtigen APIs können Ihren Stack ungemein bereichern.Tada Images | shutterstock.com

Die virtuelle Welt ist vollgestopft mit Daten – Sie müssen nur danach fragen. Bezogen auf die Welt der Softwareentwicklung müssen Sie das natürlich auch auf die richtige Art und Weise tun. Sprich: Eine API verwenden. Die richtige Kombination aus XML und JSON eröffnet Zugang zu Tausenden von Schnittstellen, respektive Datenquellen.

In diesem Artikel haben wir einige der interessantesten und relevantesten APIs zusammengetragen. Dabei haben wir den Fokus vor allem auf solche Schnittstellen gelegt, die dabei unterstützen können, KI-Technologie zu integrieren.

9 APIs für KI-Integrationen

Zapier AI Actions

Früher waren die meisten APIs so komplex, dass man ohne Bedienungsanleitung nicht weit kam. Zapier AI Actions demonstriert hingegen, wie einfach der Prozess im KI-Zeitalter sein kann: Das Tool ermöglicht, API-Aktionen in natürlicher Sprache anzufordern – und sich nicht mehr um strenge Syntaxregeln kümmern zu müssen. Das ist deutlich flexibler, könnte aber unter Umständen auch zu unerwarteten, beziehungsweise unerwünschten Ergebnissen führen. Die Abkehr vom starren Format der REST-Semantik hat jedenfalls ihre Vorteile – und wird voraussichtlich Schule machen.

Seam

Die meisten APIs werden genutzt, um Daten zu bearbeiten. Bei Seam handelt es sich hingegen um ein universelles System, um eine ganze IoT-Device-Matrix zu steuern. Das erleichtert es, ein Smart-Home(office) aufzubauen und verlagert zudem den API-Anwendungsbereich von der virtuellen in die reale Welt.

Hugging Face Transformers

Falls Sie ein KI-Modell trainieren müssen, sorgt die Transformers API von Hugging Face dafür, dass Sie dabei nicht bei null anfangen müssen. Die API erleichtert es erheblich, über PyTorch, TensorFlow oder JAX auf Dutzende von Foundation-Modellen zuzugreifen. Deren Trainingsdatensätze werden mit Ihren Daten zusammengeführt – die Ergebnisse können über Formate wie ONNX oder TorchScript exportiert und überall ausgeführt werden.

HumanLayer

Normalerweise kommen APIs auf der Grundlage eines menschlichen Auftrags zum Einsatz. HumanLayer kehrt dieses Paradigma mit seinem API-Framework um. Die Idee dahinter: KI-Agenten sind in der Lage, die meisten Probleme selbst zu lösen, die auftreten, wenn Prozesse angefordert werden. Weil es aber eben nur bei den meisten Problemen der Fall ist, bietet HumanLayer die Struktur und das Integrationsformat, damit KIs bei Bedarf menschlichen Kontakt suchen können.

Bluesky Firehose

Social-Media-Beiträge sind von Natur aus öffentlich, aber nicht alle Plattformen machen es leicht, die Posts herunterzuladen. Das ist bei der Twitter-Alternative Bluesky anders. Die Firehose-API ermöglicht es zum Beispiel, die öffentliche Meinung zu bestimmten Themen zu analysieren oder die Verbreitung spezifischer Memes nachzuverfolgen.

OpenAI Batch API

Nicht jeder Rechen-Task muss direkt erledigt werden. Einige können um Sekunden, Minuten oder Stunden verschoben werden. Geht’s dabei um KI-Nutzung, ergeben sich erhebliche Einsparmöglichkeiten. Zum Beispiel mit der Batch API von OpenAI, die Workloads (die warten können) bündelt und so eine Kostenreduzierung um bis zu 50 Prozent verspricht.

Firecrawl

Nicht wenige Entwickler schreiben ihre Dokumente gerne in Markdown und verwenden dann Templates, um diese automatisch in vorzeigbares HTML zu verwandeln. Allerdings ist das Markdown-Format für Datenanalyse- und LLM-Trainingszwecke wesentlich besser geeignet. Deswegen durchsucht die Firecrawl API Webseiten und transformiert gefundenes HTML zurück in Markdown.

SignatureAPI

Manche Workflows machen Authentifizierung unabdingbar. Das wird mit der SignatureAPI besonders einfach: Sie ergänzt betreffende Prozesse um rechtsverbindliche, digitale Signaturen. Damit stellt das Tool Accountability sicher – und ist dabei auch noch vergleichsweise günstig.

Bruno

Auch API-Transaktionen sind ein zweischneidiges Schwert. Mit der Bruno API können Entwickler in Testing-Prozessen die Client-Seite simulieren und deren Datenfluss beobachten. Das ist insbesondere hilfreich, wenn die Dokumentation weniger aussagekräftig ist. Die Parameter, die Bruno liefert, beantworten dabei in der Regel mehr Fragen als die beste Dokumentation. Insofern ist Bruno eigentlich weniger eine API, sondern vielmehr ein Tool, um andere APIs zu explorieren. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Die besten APIs, um KI zu integrieren​ Weiterlesen »

Verlängerte Windows-10-Sicherheit: Kostenlos für Verbraucher, teuer für Unternehmen​

Allgemein

loading=”lazy” width=”400px”>Private Nutzer von Windows 10 erhalten nun auch nach Mitte Oktober für ein Jahr kostenlose Sicherheitsupdates. Allerdings knüpft Microsoft das an Bedingungen.Shutterstock Microsofts jüngste Ankündigung zu den erweiterten Sicherheits-Updates (Extended Security Updates, ESU) für Windows 10 offenbart eine deutliche Doppelmoral: Während Privatanwender mehrere kostenlose Möglichkeiten erhalten, um über das Support-Ende im Oktober 2025 hinaus abgesichert zu bleiben, stehen Unternehmen weiterhin vor dem teuren Entweder-oder: Zahlen oder migrieren. In einem Blogbeitrag gab der Software-Riese bekannt, dass Privatanwender ein weiteres Jahr lang kostenlose Windows 10-Sicherheitsupdates erhalten können, entweder über Windows Backup oder durch Einlösen von 1.000 Microsoft Rewards-Punkten. Alternativ ist der Zugang auch gegen eine Gebühr von 30 Dollar möglich. Unternehmen müssen hingegen weiterhin 61 Dollar pro Gerät für das erste Jahr zahlen, danach verdoppeln sich die Kosten jährlich. Kostenlose Optionen gibt es für sie nicht. „Die ESU-Abdeckung für private Geräte gilt vom 15. Oktober 2025 bis zum 13. Oktober 2026”, erklärt Microsoft in seinem Blogbeitrag. Und Unternehmen? Für sie gilt weiterhin das dreijährige Gebührenmodell mit jährlich steigenden Kosten – ohne Ausnahmen. Branchenexperten interpretieren Microsofts Vorgehen eher als strategischen Druck als Entgegenkommen gegenüber den Kunden. „Diese Gebühr ist ein Anstoß in Richtung Windows 11 und bestätigt, dass der Anbieter fest entschlossen ist, Unternehmenskunden zum Umstieg auf Windows 11 zu bewegen“, so Dario Maisto, Senior Analyst bei Forrester Research. Die Realität für Unternehmen: Gleiche teure Optionen, andere Botschaft Microsoft hatte sein Windows 10 Extended Security Updates-Programm erstmals im April 2024 mit einer unternehmensspezifischen Preisstruktur eingeführt: 61 Dollar pro Gerät für das erste Jahr, 122 Dollar für das zweite Jahr und 244 Dollar für das dritte Jahr. Die Ankündigung vom Dienstag ändert nichts an diesen Unternehmenspreisen. Firmenkunden können die ESUs weiterhin über das Microsoft-Volumenlizenzprogramm beziehen, während Cloud Service Provider ab dem 1. September ebenfalls kommerzielle ESUs verkaufen dürfen. „Dieses Timing soll die Auswirkungen dieser Maßnahmen auf Microsofts Umsatzstrategie im Bereich Cloud Services abfedern“, betont Analyst Maisto. Für Unternehmen mit 1.000 Windows-10-Geräten bedeutet das ESU-Programm von Microsoft allein im ersten Jahr eine Investition von 61.000 Dollar. Über drei Jahre belaufen sich die Kosten auf insgesamt 427.000 Dollar, womit man auch viel neue Hardware anschaffen könnte. Maisto weist jedoch darauf hin, dass „viele Unternehmen eher die ESU-Gebühren zahlen, als größere Investitionen in eine beschleunigte Hardware-Aktualisierung für Windows 11 zu tätigen“ – insbesondere angesichts wirtschaftlicher Unsicherheiten und geopolitischer Spannungen. Aktuelle Daten von StatCounter zeigen, dass der Marktanteil von Windows 10 weltweit bei 53 Prozent liegt, Windows 11 kommt auf 43 Prozent. In Unternehmensumgebungen, in denen die Hardware-Erneuerungszyklen länger sind, ist die Verbreitung von Windows 10 oft höher. Compliance-Lücken und Risiken für Unternehmen Forrester-Analyst Maisto erkennt an, dass das ESU-Programm „den Druck auf Unternehmen in ohnehin schon turbulenten Zeiten verringern wird“. Er warnt jedoch, dass jedes Unternehmen eine angemessene Risikobewertung durchführen muss, wenn es ESU gegen eine sofortige Migration auf Windows 11 abwägt. So beinhalten Extended Security Updates lediglich kritische und wichtige Sicherheits-Updates. Trotz der Zahlung von 61 Dollar pro Gerät erhalten IT-Abteilungen keine neuen Funktionen, keine Fehlerbehebungen jenseits von Security-Problemen und keinen technischen Support. Hinzu kommt, wie Sanchit Vir Gogia, Chefanalyst bei Greyhound Research, betont, dass ESU über grundlegende Sicherheitsaspekte hinaus neue Compliance-Risiken schafft: „Microsofts ESU-Programm kann zwar Schwachstellen schließen, aber es beseitigt nicht die Compliance-Lücke“, erklärt er. „Ohne Unterstützung für moderne Identitäts-Frameworks, Telemetrie oder Zero-Trust-Baselines bleibt Windows 10 – selbst mit Patches – eine veraltete Plattform.“ In regulierten Branchen könne das Fehlen von aktueller Verschlüsselung oder integrierter Multi-Faktor-Authentifizierung dazu führen, dass Audits nicht bestanden werden. „Sicherheits-Updates allein bedeuten keine sichere IT-Landschaft – vor allem nicht in stark regulierten Bereichen“, merkt Gogia an. Das Dilemma mit Cloud-Backups für Unternehmen Heimlich die kostenlose ESU-Option von Microsoft für Privatanwender zu nutzen, ist keine ernstzunehmende Option für Unternehmen. Sie erfordert die Aktivierung von Cloud-Backups über Microsoft-Dienste – eine Bedingung, die mit Unternehmensrichtlinien kollidieren kann. „Microsoft verteilt die Patches nicht einfach, sondern stellt sie im Austausch für eine Erweiterung der Cloud-Nutzung zur Verfügung“, erklärt Gogia. Diese Pflicht zur Cloud-Sicherung sei insbesondere in Unternehmen mit komplexen Anforderungen an Datenresidenz und Verschlüsselung bedenklich. Viele Richtlinien in Unternehmen untersagen externe Backups, die bestehende Prozesse zur Vermeidung von Datenverlust umgehen. In regulierten Branchen wie Gesundheitswesen oder kritischer Infrastruktur könnte die standardmäßige Cloud-Synchronisation gegen interne Vorschriften verstoßen. Komplexe Implementierung Unternehmen, die ESU evaluieren, sehen sich zudem mit einer Komplexität konfrontiert, die in der Version für Privatnutzer keine Rolle spielt: Die Geräte müssen unter Windows 10 Version 22H2 laufen, was vor der Aktivierung von ESU möglicherweise ein umfangreiches Patch-Management erfordert. Außerdem erfolgt die Anmeldung über Volumenlizenzsysteme und nicht über einfache Assistenten wie bei Privatanwendern. Die IT-Abteilungen müssen sich daher mit Einkauf, Rechtsabteilung und Finanzabteilung abstimmen, um mehrjährige ESU-Vereinbarungen umzusetzen. Am kritischsten ist wohl, dass Microsoft im Rahmen der ESU-Programme keinen technischen Support bietet. Unternehmen, die hohe Lizenzkosten zahlen, sind bei Implementierungsproblemen weiterhin auf Community-Foren oder kostenpflichtige Microsoft-Consulting-Dienste angewiesen. (mb) 

Verlängerte Windows-10-Sicherheit: Kostenlos für Verbraucher, teuer für Unternehmen​ loading=”lazy” width=”400px”>Private Nutzer von Windows 10 erhalten nun auch nach Mitte Oktober für ein Jahr kostenlose Sicherheitsupdates. Allerdings knüpft Microsoft das an Bedingungen.Shutterstock

Microsofts jüngste Ankündigung zu den erweiterten Sicherheits-Updates (Extended Security Updates, ESU) für Windows 10 offenbart eine deutliche Doppelmoral: Während Privatanwender mehrere kostenlose Möglichkeiten erhalten, um über das Support-Ende im Oktober 2025 hinaus abgesichert zu bleiben, stehen Unternehmen weiterhin vor dem teuren Entweder-oder: Zahlen oder migrieren.

In einem Blogbeitrag gab der Software-Riese bekannt, dass Privatanwender ein weiteres Jahr lang kostenlose Windows 10-Sicherheitsupdates erhalten können, entweder über Windows Backup oder durch Einlösen von 1.000 Microsoft Rewards-Punkten. Alternativ ist der Zugang auch gegen eine Gebühr von 30 Dollar möglich. Unternehmen müssen hingegen weiterhin 61 Dollar pro Gerät für das erste Jahr zahlen, danach verdoppeln sich die Kosten jährlich. Kostenlose Optionen gibt es für sie nicht.

„Die ESU-Abdeckung für private Geräte gilt vom 15. Oktober 2025 bis zum 13. Oktober 2026”, erklärt Microsoft in seinem Blogbeitrag. Und Unternehmen? Für sie gilt weiterhin das dreijährige Gebührenmodell mit jährlich steigenden Kosten – ohne Ausnahmen.

Branchenexperten interpretieren Microsofts Vorgehen eher als strategischen Druck als Entgegenkommen gegenüber den Kunden. „Diese Gebühr ist ein Anstoß in Richtung Windows 11 und bestätigt, dass der Anbieter fest entschlossen ist, Unternehmenskunden zum Umstieg auf Windows 11 zu bewegen“, so Dario Maisto, Senior Analyst bei Forrester Research.

Die Realität für Unternehmen: Gleiche teure Optionen, andere Botschaft

Microsoft hatte sein Windows 10 Extended Security Updates-Programm erstmals im April 2024 mit einer unternehmensspezifischen Preisstruktur eingeführt: 61 Dollar pro Gerät für das erste Jahr, 122 Dollar für das zweite Jahr und 244 Dollar für das dritte Jahr. Die Ankündigung vom Dienstag ändert nichts an diesen Unternehmenspreisen.

Firmenkunden können die ESUs weiterhin über das Microsoft-Volumenlizenzprogramm beziehen, während Cloud Service Provider ab dem 1. September ebenfalls kommerzielle ESUs verkaufen dürfen. „Dieses Timing soll die Auswirkungen dieser Maßnahmen auf Microsofts Umsatzstrategie im Bereich Cloud Services abfedern“, betont Analyst Maisto.

Für Unternehmen mit 1.000 Windows-10-Geräten bedeutet das ESU-Programm von Microsoft allein im ersten Jahr eine Investition von 61.000 Dollar. Über drei Jahre belaufen sich die Kosten auf insgesamt 427.000 Dollar, womit man auch viel neue Hardware anschaffen könnte.

Maisto weist jedoch darauf hin, dass „viele Unternehmen eher die ESU-Gebühren zahlen, als größere Investitionen in eine beschleunigte Hardware-Aktualisierung für Windows 11 zu tätigen“ – insbesondere angesichts wirtschaftlicher Unsicherheiten und geopolitischer Spannungen.

Aktuelle Daten von StatCounter zeigen, dass der Marktanteil von Windows 10 weltweit bei 53 Prozent liegt, Windows 11 kommt auf 43 Prozent. In Unternehmensumgebungen, in denen die Hardware-Erneuerungszyklen länger sind, ist die Verbreitung von Windows 10 oft höher.

Compliance-Lücken und Risiken für Unternehmen

Forrester-Analyst Maisto erkennt an, dass das ESU-Programm „den Druck auf Unternehmen in ohnehin schon turbulenten Zeiten verringern wird“. Er warnt jedoch, dass jedes Unternehmen eine angemessene Risikobewertung durchführen muss, wenn es ESU gegen eine sofortige Migration auf Windows 11 abwägt.

So beinhalten Extended Security Updates lediglich kritische und wichtige Sicherheits-Updates. Trotz der Zahlung von 61 Dollar pro Gerät erhalten IT-Abteilungen keine neuen Funktionen, keine Fehlerbehebungen jenseits von Security-Problemen und keinen technischen Support.

Hinzu kommt, wie Sanchit Vir Gogia, Chefanalyst bei Greyhound Research, betont, dass ESU über grundlegende Sicherheitsaspekte hinaus neue Compliance-Risiken schafft: „Microsofts ESU-Programm kann zwar Schwachstellen schließen, aber es beseitigt nicht die Compliance-Lücke“, erklärt er. „Ohne Unterstützung für moderne Identitäts-Frameworks, Telemetrie oder Zero-Trust-Baselines bleibt Windows 10 – selbst mit Patches – eine veraltete Plattform.“

In regulierten Branchen könne das Fehlen von aktueller Verschlüsselung oder integrierter Multi-Faktor-Authentifizierung dazu führen, dass Audits nicht bestanden werden. „Sicherheits-Updates allein bedeuten keine sichere IT-Landschaft – vor allem nicht in stark regulierten Bereichen“, merkt Gogia an.

Das Dilemma mit Cloud-Backups für Unternehmen

Heimlich die kostenlose ESU-Option von Microsoft für Privatanwender zu nutzen, ist keine ernstzunehmende Option für Unternehmen. Sie erfordert die Aktivierung von Cloud-Backups über Microsoft-Dienste – eine Bedingung, die mit Unternehmensrichtlinien kollidieren kann. „Microsoft verteilt die Patches nicht einfach, sondern stellt sie im Austausch für eine Erweiterung der Cloud-Nutzung zur Verfügung“, erklärt Gogia. Diese Pflicht zur Cloud-Sicherung sei insbesondere in Unternehmen mit komplexen Anforderungen an Datenresidenz und Verschlüsselung bedenklich.

Viele Richtlinien in Unternehmen untersagen externe Backups, die bestehende Prozesse zur Vermeidung von Datenverlust umgehen. In regulierten Branchen wie Gesundheitswesen oder kritischer Infrastruktur könnte die standardmäßige Cloud-Synchronisation gegen interne Vorschriften verstoßen.

Komplexe Implementierung

Unternehmen, die ESU evaluieren, sehen sich zudem mit einer Komplexität konfrontiert, die in der Version für Privatnutzer keine Rolle spielt: Die Geräte müssen unter Windows 10 Version 22H2 laufen, was vor der Aktivierung von ESU möglicherweise ein umfangreiches Patch-Management erfordert. Außerdem erfolgt die Anmeldung über Volumenlizenzsysteme und nicht über einfache Assistenten wie bei Privatanwendern. Die IT-Abteilungen müssen sich daher mit Einkauf, Rechtsabteilung und Finanzabteilung abstimmen, um mehrjährige ESU-Vereinbarungen umzusetzen.

Am kritischsten ist wohl, dass Microsoft im Rahmen der ESU-Programme keinen technischen Support bietet. Unternehmen, die hohe Lizenzkosten zahlen, sind bei Implementierungsproblemen weiterhin auf Community-Foren oder kostenpflichtige Microsoft-Consulting-Dienste angewiesen. (mb)

Verlängerte Windows-10-Sicherheit: Kostenlos für Verbraucher, teuer für Unternehmen​ Weiterlesen »

3 Dinge, die Senior Developer auszeichnen​

Allgemein

Junior Developer mit Karriere-Ambitionen sollten auf diese vier Hard Skills hinarbeiten. Foto: DC Studio – shutterstock.comDiverse Onlinebeiträge geben darüber Auskunft, welche Voraussetzungen für eine Rolle als Senior Developer erfüllt sein müssen. Dabei drehen sich die meisten allerdings um das Thema Soft Skills.Die sind ohne Frage ebenfalls wichtig – der wesentliche Unterschied zwischen Junior- und Senior-Entwicklern liegt allerdings in der Berufserfahrung – und den in diesem Rahmen gelernten Lektionen. Vor diesem Hintergrund haben wir drei Hard Skills identifiziert, die für Senior-Entwickler – und damit auch für Junior Developer mit Aufstiegsambitionen – zum A und O gehören (sollten).1. Klaren Code schreibenEs mag sich ziemlich offensichtlich lesen, aber lesbaren Code schreiben zu können, gehört zu den wichtigsten Skills von erfahrenen Entwicklern – oder sollte es zumindest. Leider existiert und entsteht jedoch immer noch jede Menge Code, bei dem dieser Grundsatz mit Füßen getreten und kein Gedanke daran verschwendet wird, dass irgendein armer Tropf das Ganze am Ende auch lesen (können) muss. Und klarer Code ist nicht nur mit Blick auf die Lesbarkeit zu empfehlen, sondern auch wenn es um Debugging geht. Dieser Prozess beschreibt im Wesentlichen, den Zustand einer laufenden Applikation zu einem definierten Zeitpunkt zu verstehen. Sind Funktionen, Klassen und so weiter klar deklariert (während der Code läuft), tut sich der Debugger leichter – und der Code wird gleichzeitig besser lesbar.Davon abgesehen, gewinnt Programmcode auch an Klarheit, wenn er keine Kommentare enthält, beziehungsweise benötigt. Ein Entwickler, der das Bedürfnis verspürt, seinen Code zu kommentieren, sollte diesen stattdessen lieber umschreiben. Oder ihn idealerweise direkt so erstellen, dass Kommentare überflüssig sind. Dieser Punkt ist allerdings umstritten – es gibt auch Organisationen, die explizit Wert darauf legen, dass jede ihrer Codezeilen einen Kommentar enthält.2. Komplexität vermeidenKomplexität zu vermeiden, ist entscheidend für guten Code – und lässt sich auch ganz einfach bewerkstelligen: Hören Sie einfach auf damit, mehrere Fliegen mit einer Klappe schlagen zu wollen. Wenn jede Entität in Ihrer Codebasis nur eine einzige Aufgabe erfüllt, ist sie im Fall von Problemen auch einfacher zu warten, beziehungsweise zu fixen.Deswegen sollte nichts – weder Klassen, noch Methoden oder Funktionen – jemals mehr als einen Task erfüllen. Dabei ist es wichtig zu verstehen, dass sich nicht komplexer Code und komplexe Systeme nicht ausschließen. Stellen Sie sich die Softwareentwicklungsarbeit einfach wie eine hochwertige mechanische Uhr vor: Das Gesamtwerk ist ein hochkomplexes Gerät, das aus relativ simplen Komponenten – im Wesentlichen Zahnräder und Federn – besteht. Diese Komponenten arbeiten zusammen und erzeugen somit die Komplexität.3. Nichts überstürzen“In der Ruhe liegt die Kraft” ist ein Sprichwort, das viele weniger erfahrene Developer im ersten Moment möglicherweise als kontraintuitiv empfinden. Allerdings macht dieses Mantra durchaus auch im Dev-Umfeld Sinn, wie erfahrene Softwareentwickler wissen.Schließlich sorgt Zeitdruck in aller Regel für erhöhte Fehlerquoten. Diese Bugs anschließend zu beheben, kostet wiederum enorm viel Zeit. Ein gewissenhaftes, langsameres Vorgehen kann hingegen Fehler reduzieren und am Ende dafür sorgen, dass der Gesamtprozess deutlich schneller abläuft. Code, der von Anfang an gewissenhaft und vorausschauend aufgesetzt wird, bringt also nicht nur bessere Ergebnisse, sondern ist auch einfacher zu pflegen. (fm) Junior Dev VS Senior Developer 😂 pic.twitter.com/gzQZJAqUVC— Mobirevo (@MobirevoHQ) March 27, 2024 

3 Dinge, die Senior Developer auszeichnen​ Junior Developer mit Karriere-Ambitionen sollten auf diese vier Hard Skills hinarbeiten.
Foto: DC Studio – shutterstock.comDiverse Onlinebeiträge geben darüber Auskunft, welche Voraussetzungen für eine Rolle als Senior Developer erfüllt sein müssen. Dabei drehen sich die meisten allerdings um das Thema Soft Skills.Die sind ohne Frage ebenfalls wichtig – der wesentliche Unterschied zwischen Junior- und Senior-Entwicklern liegt allerdings in der Berufserfahrung – und den in diesem Rahmen gelernten Lektionen. Vor diesem Hintergrund haben wir drei Hard Skills identifiziert, die für Senior-Entwickler – und damit auch für Junior Developer mit Aufstiegsambitionen – zum A und O gehören (sollten).1. Klaren Code schreibenEs mag sich ziemlich offensichtlich lesen, aber lesbaren Code schreiben zu können, gehört zu den wichtigsten Skills von erfahrenen Entwicklern – oder sollte es zumindest. Leider existiert und entsteht jedoch immer noch jede Menge Code, bei dem dieser Grundsatz mit Füßen getreten und kein Gedanke daran verschwendet wird, dass irgendein armer Tropf das Ganze am Ende auch lesen (können) muss. Und klarer Code ist nicht nur mit Blick auf die Lesbarkeit zu empfehlen, sondern auch wenn es um Debugging geht. Dieser Prozess beschreibt im Wesentlichen, den Zustand einer laufenden Applikation zu einem definierten Zeitpunkt zu verstehen. Sind Funktionen, Klassen und so weiter klar deklariert (während der Code läuft), tut sich der Debugger leichter – und der Code wird gleichzeitig besser lesbar.Davon abgesehen, gewinnt Programmcode auch an Klarheit, wenn er keine Kommentare enthält, beziehungsweise benötigt. Ein Entwickler, der das Bedürfnis verspürt, seinen Code zu kommentieren, sollte diesen stattdessen lieber umschreiben. Oder ihn idealerweise direkt so erstellen, dass Kommentare überflüssig sind. Dieser Punkt ist allerdings umstritten – es gibt auch Organisationen, die explizit Wert darauf legen, dass jede ihrer Codezeilen einen Kommentar enthält.2. Komplexität vermeidenKomplexität zu vermeiden, ist entscheidend für guten Code – und lässt sich auch ganz einfach bewerkstelligen: Hören Sie einfach auf damit, mehrere Fliegen mit einer Klappe schlagen zu wollen. Wenn jede Entität in Ihrer Codebasis nur eine einzige Aufgabe erfüllt, ist sie im Fall von Problemen auch einfacher zu warten, beziehungsweise zu fixen.Deswegen sollte nichts – weder Klassen, noch Methoden oder Funktionen – jemals mehr als einen Task erfüllen. Dabei ist es wichtig zu verstehen, dass sich nicht komplexer Code und komplexe Systeme nicht ausschließen. Stellen Sie sich die Softwareentwicklungsarbeit einfach wie eine hochwertige mechanische Uhr vor: Das Gesamtwerk ist ein hochkomplexes Gerät, das aus relativ simplen Komponenten – im Wesentlichen Zahnräder und Federn – besteht. Diese Komponenten arbeiten zusammen und erzeugen somit die Komplexität.3. Nichts überstürzen“In der Ruhe liegt die Kraft” ist ein Sprichwort, das viele weniger erfahrene Developer im ersten Moment möglicherweise als kontraintuitiv empfinden. Allerdings macht dieses Mantra durchaus auch im Dev-Umfeld Sinn, wie erfahrene Softwareentwickler wissen.Schließlich sorgt Zeitdruck in aller Regel für erhöhte Fehlerquoten. Diese Bugs anschließend zu beheben, kostet wiederum enorm viel Zeit. Ein gewissenhaftes, langsameres Vorgehen kann hingegen Fehler reduzieren und am Ende dafür sorgen, dass der Gesamtprozess deutlich schneller abläuft. Code, der von Anfang an gewissenhaft und vorausschauend aufgesetzt wird, bringt also nicht nur bessere Ergebnisse, sondern ist auch einfacher zu pflegen. (fm)

Junior Dev VS Senior Developer 😂 pic.twitter.com/gzQZJAqUVC— Mobirevo (@MobirevoHQ) March 27, 2024

3 Dinge, die Senior Developer auszeichnen​ Weiterlesen »

HPE setzt voll auf agentenbasierte KI​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/12/HPE-building.jpg?quality=50&strip=all 1422w, https://b2b-contenthub.com/wp-content/uploads/2024/12/HPE-building.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/12/HPE-building.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/12/HPE-building.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/12/HPE-building.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/12/HPE-building.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/12/HPE-building.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/12/HPE-building.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/12/HPE-building.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Laut HPE (hier noch mit dem alten Logo) ist KI geradezu prädestiniert für Hybrid-Cloud-Szenarios, hilft aber auch, diese zu managen.Sundry Photography / Shutterstock HPE hat auf seiner diesjährigen Discover-Konferenz seine neueste Vision für Hybrid-IT vorgestellt: GreenLake Intelligence, ein agentenbasiertes KI-Framework für hybride Betriebsabläufe.Angesteuert über den ab dem dritten Quartal 2025 als Beta-Version verfügbaren GreenLake Copilot, soll GreenLake Intelligence ein „einheitliches Hybrid-Cloud-Betriebsmodell auf Basis von agentenbasierten AIOps“ bieten. Dabei kommen KI-Agenten zum Einsatz, die Aufgaben über die gesamte IT-Landschaft hinweg autonom übernehmen. KI gibt Handlungsempfehlungen „Diese Agenten arbeiten autonom, aber bei Bedarf immer mit einem Menschen im Loop“, erklärt Varma Kunaparaju, SVP & GM, OpsRamp Software and Cloud Platforms.„Das Ziel ist letztlich, die Fähigkeit zu erlangen, den gesamten Kontext über mehrere Anbieter, Clouds und Technologie-Stacks hinweg zu erfassen und zu verstehen, um daraus intelligente Handlungsempfehlungen abzuleiten“, so Kunaparaju weiter.  Dies werde sowohl für den gesamten HPE-Stack als auch für die von anderen Anbietern und Multi-Cloud-Umgebungen möglich sein. „Die Grundlage dafür bilden in erster Linie der Kontext, die Topologie, Metriken, Logs, Traces und sämtliche Observability-Daten, die wir über den gesamten Stack hinweg erfassen – sie treiben letztlich die GreenLake Intelligence an“, erläutert der HPE-Manager. Die Agenten sammeln über das Model Context Protocol (MCP) Telemetriedaten aus der Kundenumgebung und kombinieren diese mit dem Domänenwissen von HPE über den gesamten Stack hinweg. So liefern sie laut Kunaparaju Erkenntnisse, die für Menschen „schwierig oder unmöglich“ zugänglich wären und ermöglichten es, Probleme schneller zu erkennen und zu beheben, sowie besser zu planen und zu prognostizieren. Dabei gehe es nicht darum, mehr Dashboards und Berichte zu erstellen, betont der HPE-Mann. „Es geht darum, Intelligenz direkt in den operativen Stack zu integrieren, damit die IT-Teams schnell und sicher handeln können. Mit GreenLake Intelligence möchten wir Kunden dabei unterstützen, Probleme schneller zu beheben, Ausfälle früher zu verhindern, den Fokus auf Innovationen zu verlagern und letztendlich die erwarteten Geschäftsergebnisse zu erzielen.“ Darüber hinaus werden mehrere neue Dienste für FinOps und Nachhaltigkeit in GreenLake Intelligence integriert – darunter: ein neuer Optimierer für Workloads und Kapazitäten, erweiterte Verbrauchsanalysen zur Kostenkontrolle, sowie prognosebasierte Nachhaltigkeitsberichte und ein Managed-Service-Modus im HPE Sustainability Insight Center. Wie ein Teamkollege, der nie schläft Agentic AI hält auch Einzug in Aruba Central: Ein autonomes, überwachendes Modul kommuniziert dort mit mehreren spezialisierten Modellen, um beispielsweise die Ursache eines Problems zu ermitteln und Handlungsempfehlungen auszugeben. „Es ist wie ein Teamkollege, der arbeitet, während Sie schlafen – er analysiert Probleme und wartet am Morgen mit durchdachten Lösungsvorschlägen inklusive nachvollziehbarer Argumentation auf Sie,“ erklärt David Hughes, SVP und Chief Product Officer bei HPE Aruba Networking. Außerdem wird OpsRamp, das 2024 eingeführte Operations-Copilot-System, im vierten Quartal 2025 um Funktionen für agentenbasierte Automatisierung erweitert. Dazu gehören: eine dialoggestützte Hilfe bei Produkten, sowie ein agentenbasiertes Command Center, das KI-/ML-basierte Warnmeldungen, Incident Management und Root-Cause-Analysen über die gesamte Infrastruktur hinweg bereitstellt. OpsRamp wurde zudem als validierte Observability-Lösung für die Nvidia Enterprise AI Factory anerkannt und wird auch Teil der neuen HPE CloudOps-Software-Suite sein, die ebenfalls im vierten Quartal erscheint und HPE Morpheus Enterprise und HPE Zerto umfasst. Laut HPE bietet die neue Suite umfassende Funktionen für Automatisierung, Orchestrierung, Governance, Datenmobilität, Datenschutz und Cyber-Resilienz für Infrastrukturen mit mehreren Anbietern, mehreren Clouds und mehreren Workloads. Matt Kimball, Principal Analyst für Datacenter, Computing und Storage bei Moor Insights & Strategy, sieht HPEs Ankündigungen in engem Einklang mit den Modernisierungsbemühungen vieler Unternehmen: „GreenLake Intelligence ist das Bindeglied, das alles zusammenführt. Ich bin ein großer Fan von Morpheus, weil es eine herstellerunabhängige Orchestrierung ermöglicht – unabhängig vom Betriebssystem-Stack oder Hardware-Anbieter,“ erklärt der Chefanalyst. Es gehe darum, Workloads dort laufen zu lassen, wo sie am sichersten und effizientesten betrieben werden können. AI-Factory-Spielarten HPE erweitert sein Angebot „Nvidia AI Computing by HPE AI Factory“ um validierte Technologie-Stacks für verschiedene Einsatzgebiete: Die „AI Factory at Scale“ richtet sich an Unternehmen wie Dienstleister und Modellentwickler, während die „AI Factory for Sovereigns“ speziell auf Anforderungen von Staaten, Behörden und dem öffentlichen Sektor zugeschnitten ist – etwa mit Funktionen für abgeschottetes (air-gapped) Management. Das Unternehmen hat Konfigurationen auf Basis von HPE ProLiant Gen12-Servern hinzugefügt, die laut HPE Zero-Trust-Sicherheit und Support für Nvidia Blackwell bieten. Zudem stellt die Company eine neue föderierte Architektur vor, mit der GPUs über mehrere Hardware-Generationen hinweg gepoolt und gemeinsam genutzt werden können. Analyst Kimball hebt besonders folgende Punkte der Ankündigungen von HPE zur AI Factory hervor: den stärkeren Fokus auf Inferenz, die seiner Meinung nach von entscheidender Bedeutung ist, vorgefertigte Blueprints, um die KI-Einführung im Unternehmen zu beschleunigen, und schließlich die erweiterte Partnerschaft mit Accenture, um Reibungsverluste bei der Aktivierung zu beseitigen. „Es geht darum, die Herausforderungen der Unternehmens-IT auf dem Weg zur KI zu identifizieren und durch Produkte und Partner zu beheben“, ordnet Kimball ein. HPE Cloud Commit Damit Unternehmen all diese neuen Angebote auch finanzieren können, führt HPE mit Cloud Commit ein neues Modell ein: GreenLake-Kunden können sich zu langfristigen, planbaren Investitionen verpflichten und so Kosten sparen und zusätzliche Services freischalten. Das Programm umfasst Hardware wie HPE Alletra Storage, integrierte Private-Cloud-Systeme, die CloudOps-Suite mit ihren Einzelkomponenten sowie weitere HPE-Dienstleistungen. Kunden können dabei ihre bestehenden Ausgaben mit künftigen Verpflichtungen bündeln, um noch höhere Einsparungen zu erzielen. Das Programm soll ab August 2025 für bestehende und neue GreenLake-Kunden verfügbar sein. Zusätzlich bietet HPE Financial Services neue Finanzierungsprogramme für CloudOps und seine einzelnen Komponenten sowie für HPE Alletra Storage und HPE Private Cloud AI an. Das Fazit von Kimball: „Agentenbasierte KI ist keine Zukunftsmusik – sie ist real. Die große Herausforderung für die Unternehmens-IT ist es, herauszufinden, wie sie den Übergang von traditionellem, manuell geprägtem ML-Ops hin zu einem weitgehend autonomen, intelligenten Betriebsmodell bewältigen kann.“ Es reiche nicht, einfach eine AI Factory beim bevorzugten OEM zu kaufen und dann eine magische Wirkung zu erwarten. Zuvor müsse die bestehende Umgebung modernisiert werden – technologisch, operativ und personell, so Kimball – und genau darauf zielten HPEs Ankündigungen ab. (mb) 

HPE setzt voll auf agentenbasierte KI​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2024/12/HPE-building.jpg?quality=50&strip=all 1422w, https://b2b-contenthub.com/wp-content/uploads/2024/12/HPE-building.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2024/12/HPE-building.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2024/12/HPE-building.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2024/12/HPE-building.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2024/12/HPE-building.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2024/12/HPE-building.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2024/12/HPE-building.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2024/12/HPE-building.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Laut HPE (hier noch mit dem alten Logo) ist KI geradezu prädestiniert für Hybrid-Cloud-Szenarios, hilft aber auch, diese zu managen.Sundry Photography / Shutterstock

HPE hat auf seiner diesjährigen Discover-Konferenz seine neueste Vision für Hybrid-IT vorgestellt: GreenLake Intelligence, ein agentenbasiertes KI-Framework für hybride Betriebsabläufe.Angesteuert über den ab dem dritten Quartal 2025 als Beta-Version verfügbaren GreenLake Copilot, soll GreenLake Intelligence ein „einheitliches Hybrid-Cloud-Betriebsmodell auf Basis von agentenbasierten AIOps“ bieten. Dabei kommen KI-Agenten zum Einsatz, die Aufgaben über die gesamte IT-Landschaft hinweg autonom übernehmen.

KI gibt Handlungsempfehlungen

„Diese Agenten arbeiten autonom, aber bei Bedarf immer mit einem Menschen im Loop“, erklärt Varma Kunaparaju, SVP & GM, OpsRamp Software and Cloud Platforms.„Das Ziel ist letztlich, die Fähigkeit zu erlangen, den gesamten Kontext über mehrere Anbieter, Clouds und Technologie-Stacks hinweg zu erfassen und zu verstehen, um daraus intelligente Handlungsempfehlungen abzuleiten“, so Kunaparaju weiter.  Dies werde sowohl für den gesamten HPE-Stack als auch für die von anderen Anbietern und Multi-Cloud-Umgebungen möglich sein.

„Die Grundlage dafür bilden in erster Linie der Kontext, die Topologie, Metriken, Logs, Traces und sämtliche Observability-Daten, die wir über den gesamten Stack hinweg erfassen – sie treiben letztlich die GreenLake Intelligence an“, erläutert der HPE-Manager.

Die Agenten sammeln über das Model Context Protocol (MCP) Telemetriedaten aus der Kundenumgebung und kombinieren diese mit dem Domänenwissen von HPE über den gesamten Stack hinweg. So liefern sie laut Kunaparaju Erkenntnisse, die für Menschen „schwierig oder unmöglich“ zugänglich wären und ermöglichten es, Probleme schneller zu erkennen und zu beheben, sowie besser zu planen und zu prognostizieren.

Dabei gehe es nicht darum, mehr Dashboards und Berichte zu erstellen, betont der HPE-Mann. „Es geht darum, Intelligenz direkt in den operativen Stack zu integrieren, damit die IT-Teams schnell und sicher handeln können. Mit GreenLake Intelligence möchten wir Kunden dabei unterstützen, Probleme schneller zu beheben, Ausfälle früher zu verhindern, den Fokus auf Innovationen zu verlagern und letztendlich die erwarteten Geschäftsergebnisse zu erzielen.“

Darüber hinaus werden mehrere neue Dienste für FinOps und Nachhaltigkeit in GreenLake Intelligence integriert – darunter:

ein neuer Optimierer für Workloads und Kapazitäten,

erweiterte Verbrauchsanalysen zur Kostenkontrolle, sowie

prognosebasierte Nachhaltigkeitsberichte und

ein Managed-Service-Modus im HPE Sustainability Insight Center.

Wie ein Teamkollege, der nie schläft

Agentic AI hält auch Einzug in Aruba Central: Ein autonomes, überwachendes Modul kommuniziert dort mit mehreren spezialisierten Modellen, um beispielsweise die Ursache eines Problems zu ermitteln und Handlungsempfehlungen auszugeben.

„Es ist wie ein Teamkollege, der arbeitet, während Sie schlafen – er analysiert Probleme und wartet am Morgen mit durchdachten Lösungsvorschlägen inklusive nachvollziehbarer Argumentation auf Sie,“ erklärt David Hughes, SVP und Chief Product Officer bei HPE Aruba Networking.

Außerdem wird OpsRamp, das 2024 eingeführte Operations-Copilot-System, im vierten Quartal 2025 um Funktionen für agentenbasierte Automatisierung erweitert. Dazu gehören:

eine dialoggestützte Hilfe bei Produkten, sowie

ein agentenbasiertes Command Center, das KI-/ML-basierte Warnmeldungen, Incident Management und Root-Cause-Analysen über die gesamte Infrastruktur hinweg bereitstellt.

OpsRamp wurde zudem als validierte Observability-Lösung für die Nvidia Enterprise AI Factory anerkannt und wird auch Teil der neuen HPE CloudOps-Software-Suite sein, die ebenfalls im vierten Quartal erscheint und HPE Morpheus Enterprise und HPE Zerto umfasst. Laut HPE bietet die neue Suite umfassende Funktionen für Automatisierung, Orchestrierung, Governance, Datenmobilität, Datenschutz und Cyber-Resilienz für Infrastrukturen mit mehreren Anbietern, mehreren Clouds und mehreren Workloads.

Matt Kimball, Principal Analyst für Datacenter, Computing und Storage bei Moor Insights & Strategy, sieht HPEs Ankündigungen in engem Einklang mit den Modernisierungsbemühungen vieler Unternehmen: „GreenLake Intelligence ist das Bindeglied, das alles zusammenführt. Ich bin ein großer Fan von Morpheus, weil es eine herstellerunabhängige Orchestrierung ermöglicht – unabhängig vom Betriebssystem-Stack oder Hardware-Anbieter,“ erklärt der Chefanalyst. Es gehe darum, Workloads dort laufen zu lassen, wo sie am sichersten und effizientesten betrieben werden können.

AI-Factory-Spielarten

HPE erweitert sein Angebot „Nvidia AI Computing by HPE AI Factory“ um validierte Technologie-Stacks für verschiedene Einsatzgebiete: Die „AI Factory at Scale“ richtet sich an Unternehmen wie Dienstleister und Modellentwickler, während die „AI Factory for Sovereigns“ speziell auf Anforderungen von Staaten, Behörden und dem öffentlichen Sektor zugeschnitten ist – etwa mit Funktionen für abgeschottetes (air-gapped) Management.

Das Unternehmen hat Konfigurationen auf Basis von HPE ProLiant Gen12-Servern hinzugefügt, die laut HPE Zero-Trust-Sicherheit und Support für Nvidia Blackwell bieten. Zudem stellt die Company eine neue föderierte Architektur vor, mit der GPUs über mehrere Hardware-Generationen hinweg gepoolt und gemeinsam genutzt werden können.

Analyst Kimball hebt besonders folgende Punkte der Ankündigungen von HPE zur AI Factory hervor:

den stärkeren Fokus auf Inferenz, die seiner Meinung nach von entscheidender Bedeutung ist,

vorgefertigte Blueprints, um die KI-Einführung im Unternehmen zu beschleunigen, und schließlich

die erweiterte Partnerschaft mit Accenture, um Reibungsverluste bei der Aktivierung zu beseitigen.

„Es geht darum, die Herausforderungen der Unternehmens-IT auf dem Weg zur KI zu identifizieren und durch Produkte und Partner zu beheben“, ordnet Kimball ein.

HPE Cloud Commit

Damit Unternehmen all diese neuen Angebote auch finanzieren können, führt HPE mit Cloud Commit ein neues Modell ein: GreenLake-Kunden können sich zu langfristigen, planbaren Investitionen verpflichten und so Kosten sparen und zusätzliche Services freischalten.

Das Programm umfasst Hardware wie HPE Alletra Storage, integrierte Private-Cloud-Systeme, die CloudOps-Suite mit ihren Einzelkomponenten sowie weitere HPE-Dienstleistungen. Kunden können dabei ihre bestehenden Ausgaben mit künftigen Verpflichtungen bündeln, um noch höhere Einsparungen zu erzielen.

Das Programm soll ab August 2025 für bestehende und neue GreenLake-Kunden verfügbar sein. Zusätzlich bietet HPE Financial Services neue Finanzierungsprogramme für CloudOps und seine einzelnen Komponenten sowie für HPE Alletra Storage und HPE Private Cloud AI an.

Das Fazit von Kimball: „Agentenbasierte KI ist keine Zukunftsmusik – sie ist real. Die große Herausforderung für die Unternehmens-IT ist es, herauszufinden, wie sie den Übergang von traditionellem, manuell geprägtem ML-Ops hin zu einem weitgehend autonomen, intelligenten Betriebsmodell bewältigen kann.“

Es reiche nicht, einfach eine AI Factory beim bevorzugten OEM zu kaufen und dann eine magische Wirkung zu erwarten. Zuvor müsse die bestehende Umgebung modernisiert werden – technologisch, operativ und personell, so Kimball – und genau darauf zielten HPEs Ankündigungen ab. (mb)

HPE setzt voll auf agentenbasierte KI​ Weiterlesen »

Ranking exponiert LLM-Datenkraken​

Allgemein

Eine aktuelle Studie beleuchtet, welche Generative-AI-Tools und -Plattformen besonders invasive Datenpraktiken an den Tag legen.Cagkan Sayin | shutterstock.com Der auf Datenschutz spezialisierte IT-Dienstleister Incogni hat in einer aktuellen Untersuchung neun Large Language Models (LLMs) verschiedener Anbieter hinsichtlich ihres Datenschutzniveaus unter die Lupe genommen – und beunruhigende Erkenntnisse zu Tage gefördert. Dabei hat die Research-Abteilung von Incogni anhand unterschiedlicher Bewertungskriterien (mit diversen Subkategorien) untersucht, in welchem Umfang die Anbieter User-Daten nutzen, um ihre Modelle zu trainieren, wie transparent sie mit ihren Datenpraktiken umgehen, und in welchem Umfang die gesammelten Daten an Dritte fließen.   Diese KI-Plattformen sind besonders invasiv Die wichtigsten, respektive alarmierendsten Ergebnisse der Incogni-Untersuchung im Überblick: Le Chat von Mistral AI ist demnach die Datenschutz-freundlichste Plattform, dicht gefolgt von ChatGPT und Grok. Am anderen Ende des Rankings finden sich hingegen die LLM-Plattformen der Tech-Riesen Microsoft, Google und Meta. Bei Gemini, DeepSeek, Pi AI und Meta AI können die Benutzer offenbar nicht verhindern, dass ihre Prompts zum Modelltraining verwendet werden. ChatGPT ist in Sachen Transparenz Spitzenreiter. Bei Grok (xAI) können Fotos, die von Nutzern bereitgestellt werden, potenziell an Dritte weitergegeben werden. Ranking-Schlusslicht Meta gibt Namen, E-Mail-Adressen und Telefonnummern an Dritte weiter, darunter etwa Research-Partner. Seine Erkenntnisse hat Incogni (unter anderem) auch in einem Privacy-Gesamt-Ranking für das Jahr 2025 visualisiert: Laut Justin St-Maurice, technischer Berater bei der Info-Tech Research Group, ist es aus Unternehmensperspektive von entscheidender Bedeutung, die Belegschaft darin zu schulen, welche Daten nicht in KI-Tools einfließen dürften: “Betrachten Sie die Plattformen als öffentlich. Diese Systeme mit personenbezogenen oder sensiblen Unternehmensdaten zu füttern, ist, wie als würden Sie diese in einem Blog veröffentlichen.” Mit Blick auf die Incogni-Erkenntnisse rät der Research-Experte Unternehmen, mit Bedacht zu evaluieren: “Wenn Sie Bedenken haben, dass Meta oder Google Ihre Daten weitergeben, sollten Sie Ihre Plattformwahl ganz generell überdenken. Es geht hier weniger darum, wie die LLMs Ihre Daten verarbeiten, sondern eher darum, wie die großen Tech-Konzerne im Allgemeinen mit den Daten ihrer Nutzer umgehen.” Unternehmensanwendern, die sichergehen möchten, keinerlei Daten an GenAI-Plattformen weiterzugeben, empfiehlt der Experte, auf lokal gehostete Modelle zu setzen: “Sie brauchen weder OpenAI noch Google, um den Wert von LLMs zu erschließen. Mit eigenen KI-Modellen vermeiden Sie das Risiko vollständig, dass Ihre Daten an Dritte weitergegeben werden.” Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Ranking exponiert LLM-Datenkraken​ Eine aktuelle Studie beleuchtet, welche Generative-AI-Tools und -Plattformen besonders invasive Datenpraktiken an den Tag legen.Cagkan Sayin | shutterstock.com

Der auf Datenschutz spezialisierte IT-Dienstleister Incogni hat in einer aktuellen Untersuchung neun Large Language Models (LLMs) verschiedener Anbieter hinsichtlich ihres Datenschutzniveaus unter die Lupe genommen – und beunruhigende Erkenntnisse zu Tage gefördert.

Dabei hat die Research-Abteilung von Incogni anhand unterschiedlicher Bewertungskriterien (mit diversen Subkategorien) untersucht,

in welchem Umfang die Anbieter User-Daten nutzen, um ihre Modelle zu trainieren,

wie transparent sie mit ihren Datenpraktiken umgehen, und

in welchem Umfang die gesammelten Daten an Dritte fließen.  

Diese KI-Plattformen sind besonders invasiv

Die wichtigsten, respektive alarmierendsten Ergebnisse der Incogni-Untersuchung im Überblick:

Le Chat von Mistral AI ist demnach die Datenschutz-freundlichste Plattform, dicht gefolgt von ChatGPT und Grok.

Am anderen Ende des Rankings finden sich hingegen die LLM-Plattformen der Tech-Riesen Microsoft, Google und Meta.

Bei Gemini, DeepSeek, Pi AI und Meta AI können die Benutzer offenbar nicht verhindern, dass ihre Prompts zum Modelltraining verwendet werden.

ChatGPT ist in Sachen Transparenz Spitzenreiter.

Bei Grok (xAI) können Fotos, die von Nutzern bereitgestellt werden, potenziell an Dritte weitergegeben werden.

Ranking-Schlusslicht Meta gibt Namen, E-Mail-Adressen und Telefonnummern an Dritte weiter, darunter etwa Research-Partner.

Seine Erkenntnisse hat Incogni (unter anderem) auch in einem Privacy-Gesamt-Ranking für das Jahr 2025 visualisiert:

Laut Justin St-Maurice, technischer Berater bei der Info-Tech Research Group, ist es aus Unternehmensperspektive von entscheidender Bedeutung, die Belegschaft darin zu schulen, welche Daten nicht in KI-Tools einfließen dürften: “Betrachten Sie die Plattformen als öffentlich. Diese Systeme mit personenbezogenen oder sensiblen Unternehmensdaten zu füttern, ist, wie als würden Sie diese in einem Blog veröffentlichen.”

Mit Blick auf die Incogni-Erkenntnisse rät der Research-Experte Unternehmen, mit Bedacht zu evaluieren: “Wenn Sie Bedenken haben, dass Meta oder Google Ihre Daten weitergeben, sollten Sie Ihre Plattformwahl ganz generell überdenken. Es geht hier weniger darum, wie die LLMs Ihre Daten verarbeiten, sondern eher darum, wie die großen Tech-Konzerne im Allgemeinen mit den Daten ihrer Nutzer umgehen.”

Unternehmensanwendern, die sichergehen möchten, keinerlei Daten an GenAI-Plattformen weiterzugeben, empfiehlt der Experte, auf lokal gehostete Modelle zu setzen: “Sie brauchen weder OpenAI noch Google, um den Wert von LLMs zu erschließen. Mit eigenen KI-Modellen vermeiden Sie das Risiko vollständig, dass Ihre Daten an Dritte weitergegeben werden.”

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Ranking exponiert LLM-Datenkraken​ Weiterlesen »

Ellisons ambitionierte Pläne für Oracles Cloud-Geschäft​

Allgemein

Oracle-Gründer Larry Ellison will sein Unternehmen in drei Cloud-Bereichen zur Nummer 1 machenOracle Oracle-Chef Larry Ellison – von Haus aus kein Freund bescheidener Worte – kündigte in einem Webcast im Rahmen des Q4-Earning-Calls an, dass Oracle in drei zentralen Bereichen die Nummer eins werden will: Cloud-Datenbanken, Cloud-Anwendungen und Bau sowie Betrieb von Cloud-Infrastruktur-Rechenzentren. Cloud-Datenbanken als zentraler Wachstumstreiber Als wichtigen Faktor, die Pole Position bei den Cloud-Datenbanken erobern zu können, führt Ellison an, dass die meisten der wertvollsten Daten der Welt bereits heute in Oracle-Datenbanken gespeichert seien. Diese Daten würden mittlerweile vermehrt in die Cloud verlagert werden – sei es zu Oracle, Microsoft, Amazon oder Google. Ein weiteres Argument ist laut dem Oracle-Gründer, dass die eigene Multi-Cloud-Strategie Kunden die Möglichkeit gebe, die Oracle-Datenbank in der Cloud-Umgebung ihrer Wahl zu nutzen, inklusive dazugehöriger KI-Funktionen. Dieses flexible Modell erfreue sich Ellison zufolge großer Beliebtheit, mit einem Umsatzwachstum von 115 Prozent von Quartal zu Quartal, was zu einem starkem Umsatzwachstum führe. Zusätzlich sei die neueste Version der Oracle-Datenbank – Oracle 23ai genannt – speziell auf die Anforderungen von KI-Workloads zugeschnitten. Ellison beschrieb Oracle 23ai als eine „KI-Datenplattform, die einzige Datenbank, die alle Daten des Kunden sofort für alle gängigen KI-Modelle verfügbar machen kann, während der Datenschutz für den Kunden vollständig gewahrt bleibt.“ Cloud-Datenbanken und KI Ellison ist überzeugt, dass der Einsatz von KI den Marktanteil von Oracle-Datenbanken weiter steigern werde. Oracle-CEO Safra Catz unterfütterte diese Aussagen mit soliden Wachstumszahlen: Die Cloud-Datenbankdienste wuchsen ihren Angaben zufolge um 31 Prozent, der Umsatz mit der Autonomous Database sogar um 47 Prozent. Die Managerin begründet dies damit, dass immer mehr On-Premise-Datenbanken in die Cloud migriert würden, entweder direkt über OCI oder die Database@Cloud Services. Catz sieht Cloud-Datenbanken künftig als eine der drei zentralen Umsatztreiber neben OCI und SaaS. Zudem baue Oracle sein Multi-Cloud-Angebot weiter stark aus – von aktuell 23 auf bald 70 Regionen weltweit. Große Pläne mit KI-Agenten Die Nummer 1 bei Cloud-Anwendungen zu werden, könnte sich allerdings schwierig gestalten: Obwohl das Anwendungsgeschäft im letzten Quartal besser lief als zuvor, lag der SaaS-Gesamtumsatz für das gesamte Geschäftsjahr bei 13,4 Milliarden Dollar, ein Plus von zehn Prozent. Zum Vergleich: Salesforce erwirtschaftete allein im ersten Quartal des Geschäftsjahres, das am 30. April endete, zehn Milliarden Dollar mit SaaS. Mit KI-Agenten zu mehr Anwendungsgeschäft Oracle-Gründer Ellison legt derweil den Fokus zunehmend auf Innovation statt gegen die Konkurrenz zu wettern. Der Manager sieht enormes Potenzial in KI-Agenten für Unternehmensanwendungen. Er kündigte an, dass Oracle das weltweit größte und profitabelste Cloud-Anwendungsunternehmen werden will. Dafür entwickelt Oracle eigenen Angaben zufolge umfassende KI-gestützte Anwendungssuiten für verschiedene Unternehmensbereiche und Branchen. Mithilfe moderner Technologien und Partnerschaften mit KI-Anbietern wie OpenAI, X.ai und Metas Llama will Oracle dann eine „marktweit einzigartige Tiefe und Breite an KI-basierten Anwendungen“ bieten. Oracle will mehr Data Center aus dem Boden stampfen Im Bereich Cloud-Rechenzentren setzt Oracle auf Infrastrukturtechnologie, die mit viel kleinerer Grundfläche auskommt. Ellison wählte seine Worte hierbei jedoch bewusst und vermied es, Oracle direkt als Nummer eins bei Cloud-Infrastruktur zu bezeichnen. Stattdessen betonte er, dass Oracle mehr Rechenzentren bauen werde als alle Wettbewerber zusammen. Diese Strategie hat maßgeblich zum starken Wachstum von Oracle Cloud Infrastructure (OCI) beigetragen. Alle OCI-Rechenzentren verfügen über sämtliche OCI-Funktionen und setzen stark auf Automatisierung. Ziel hierbei sei es, die Effizienz zu steigern und Fehler zu minimieren. Nachfrage übersteigt Angebot Ellison spricht zudem von einer beispiellosen Nachfrage nach Oracle-Kapazitäten, die das aktuelle Angebot übersteige. Ein Kunde habe beispielsweise erst kürzlich sämtliche verfügbaren Kapazitäten weltweit eingefordert, was laut seiner Aussage ein Novum für Oracle gewesen sein. Trotz intensiver Bemühungen, Rechenzentren schnell auszubauen und Netzwerke zu optimieren, bleibe die Nachfrage weiterhin extrem hoch. Da stoße sogar Oracle bei der Baugeschwindigkeit an seine Grenzen. 

Ellisons ambitionierte Pläne für Oracles Cloud-Geschäft​ Oracle-Gründer Larry Ellison will sein Unternehmen in drei Cloud-Bereichen zur Nummer 1 machenOracle

Oracle-Chef Larry Ellison – von Haus aus kein Freund bescheidener Worte – kündigte in einem Webcast im Rahmen des Q4-Earning-Calls an, dass Oracle in drei zentralen Bereichen die Nummer eins werden will:

Cloud-Datenbanken,

Cloud-Anwendungen und

Bau sowie Betrieb von Cloud-Infrastruktur-Rechenzentren.

Cloud-Datenbanken als zentraler Wachstumstreiber

Als wichtigen Faktor, die Pole Position bei den Cloud-Datenbanken erobern zu können, führt Ellison an, dass die meisten der wertvollsten Daten der Welt bereits heute in Oracle-Datenbanken gespeichert seien. Diese Daten würden mittlerweile vermehrt in die Cloud verlagert werden – sei es zu Oracle, Microsoft, Amazon oder Google.

Ein weiteres Argument ist laut dem Oracle-Gründer, dass die eigene Multi-Cloud-Strategie Kunden die Möglichkeit gebe, die Oracle-Datenbank in der Cloud-Umgebung ihrer Wahl zu nutzen, inklusive dazugehöriger KI-Funktionen. Dieses flexible Modell erfreue sich Ellison zufolge großer Beliebtheit, mit einem Umsatzwachstum von 115 Prozent von Quartal zu Quartal, was zu einem starkem Umsatzwachstum führe.

Zusätzlich sei die neueste Version der Oracle-Datenbank – Oracle 23ai genannt – speziell auf die Anforderungen von KI-Workloads zugeschnitten. Ellison beschrieb Oracle 23ai als eine „KI-Datenplattform, die einzige Datenbank, die alle Daten des Kunden sofort für alle gängigen KI-Modelle verfügbar machen kann, während der Datenschutz für den Kunden vollständig gewahrt bleibt.“

Cloud-Datenbanken und KI

Ellison ist überzeugt, dass der Einsatz von KI den Marktanteil von Oracle-Datenbanken weiter steigern werde. Oracle-CEO Safra Catz unterfütterte diese Aussagen mit soliden Wachstumszahlen: Die Cloud-Datenbankdienste wuchsen ihren Angaben zufolge um 31 Prozent, der Umsatz mit der Autonomous Database sogar um 47 Prozent. Die Managerin begründet dies damit, dass immer mehr On-Premise-Datenbanken in die Cloud migriert würden, entweder direkt über OCI oder die Database@Cloud Services.

Catz sieht Cloud-Datenbanken künftig als eine der drei zentralen Umsatztreiber neben OCI und SaaS. Zudem baue Oracle sein Multi-Cloud-Angebot weiter stark aus – von aktuell 23 auf bald 70 Regionen weltweit.

Große Pläne mit KI-Agenten

Die Nummer 1 bei Cloud-Anwendungen zu werden, könnte sich allerdings schwierig gestalten: Obwohl das Anwendungsgeschäft im letzten Quartal besser lief als zuvor, lag der SaaS-Gesamtumsatz für das gesamte Geschäftsjahr bei 13,4 Milliarden Dollar, ein Plus von zehn Prozent. Zum Vergleich: Salesforce erwirtschaftete allein im ersten Quartal des Geschäftsjahres, das am 30. April endete, zehn Milliarden Dollar mit SaaS.

Mit KI-Agenten zu mehr Anwendungsgeschäft

Oracle-Gründer Ellison legt derweil den Fokus zunehmend auf Innovation statt gegen die Konkurrenz zu wettern. Der Manager sieht enormes Potenzial in KI-Agenten für Unternehmensanwendungen. Er kündigte an, dass Oracle das weltweit größte und profitabelste Cloud-Anwendungsunternehmen werden will.

Dafür entwickelt Oracle eigenen Angaben zufolge umfassende KI-gestützte Anwendungssuiten für verschiedene Unternehmensbereiche und Branchen. Mithilfe moderner Technologien und Partnerschaften mit KI-Anbietern wie OpenAI, X.ai und Metas Llama will Oracle dann eine „marktweit einzigartige Tiefe und Breite an KI-basierten Anwendungen“ bieten.

Oracle will mehr Data Center aus dem Boden stampfen

Im Bereich Cloud-Rechenzentren setzt Oracle auf Infrastrukturtechnologie, die mit viel kleinerer Grundfläche auskommt. Ellison wählte seine Worte hierbei jedoch bewusst und vermied es, Oracle direkt als Nummer eins bei Cloud-Infrastruktur zu bezeichnen. Stattdessen betonte er, dass Oracle mehr Rechenzentren bauen werde als alle Wettbewerber zusammen.

Diese Strategie hat maßgeblich zum starken Wachstum von Oracle Cloud Infrastructure (OCI) beigetragen. Alle OCI-Rechenzentren verfügen über sämtliche OCI-Funktionen und setzen stark auf Automatisierung. Ziel hierbei sei es, die Effizienz zu steigern und Fehler zu minimieren.

Nachfrage übersteigt Angebot

Ellison spricht zudem von einer beispiellosen Nachfrage nach Oracle-Kapazitäten, die das aktuelle Angebot übersteige. Ein Kunde habe beispielsweise erst kürzlich sämtliche verfügbaren Kapazitäten weltweit eingefordert, was laut seiner Aussage ein Novum für Oracle gewesen sein.

Trotz intensiver Bemühungen, Rechenzentren schnell auszubauen und Netzwerke zu optimieren, bleibe die Nachfrage weiterhin extrem hoch. Da stoße sogar Oracle bei der Baugeschwindigkeit an seine Grenzen.

Ellisons ambitionierte Pläne für Oracles Cloud-Geschäft​ Weiterlesen »

Identity & Access Management FAQ: Was Sie über IAM wissen müssen​

Allgemein

Identity und Access Management: Wir sagen Ihnen, was Sie wissen müssen. Foto: ktsdesign – shutterstock.com Identity- und Access-Management (IAM) -Systeme ermöglichen – ganz allgemein gesprochen – die Verwaltung verschiedener Identitäten innerhalb eines Systems. Dabei kann es sich um ein Unternehmen, ein Netzwerk oder ein ganzes Land handeln. Was ist Identity & Access Management? Im Enterprise-IT-Umfeld geht es bei IAM darum, die Rollen, Zugriffsberechtigungen und -voraussetzungen einzelner Nutzer zu managen. Die Kernaufgabe besteht dabei darin, einem Individuum eine digitale Identität zuzuweisen. Wurde diese einmal erstellt, muss sie – über den gesamten Access Lifecycle eines Users hinweg – gewartet, aktualisiert und überwacht werden. IAM-Systeme geben Administratoren die nötigen Tools und Technologien an die Hand, um die Rollen von Nutzern bei Bedarf zu ändern, deren Aktivitäten zu überwachen und Reports darüber zu erstellen – oder auch um Security Policies auf regelmäßiger Basis durchzusetzen. Die Systeme sind so konzipiert, dass sie die Zugriffsberechtigungen eines ganzen Unternehmens abbilden können und dabei die Erfüllung von unternehmenseigenen und externen Compliance-Richtlinien sichergestellt ist. Zu den Technologien des Identity und Access Managements gehören unter anderem: Passwort-Management-Tools Provisioning Software Apps zur Durchsetzung von Security Policies Reporting- und Monitoring-Apps Identity Repositories IAM-Systeme sind sowohl für On-Premise-Systeme wie Microsoft Sharepoint, als auch für cloud-basierte Systeme wie Microsoft 365 verfügbar. Die Systeme zum Identitätsmanagement müssen flexibel und robust genug sein, um den komplexen IT-Umgebungen der heutigen Zeit gerecht zu werden. Früher war ein Unternehmensnetzwerk on premise und die IAM-Systeme haben die User in diesen Systemen authentifiziert und überwacht. “Es gab quasi einen Sicherheitszaun, der um das Werksgelände gespannt war”, sagt Jackson Shaw, vom IAM-Provider One Identity. “Dieser existiert heutzutage nicht mehr.” In der Konsequenz ergeben sich einige Kern-Features, die heutige IAM-Systeme leisten sollten: Einfaches Management von Zugangsberechtigungen für eine Vielzahl von Nutzern – inklusive Mitarbeitern im Home Office und Partnern aus aller Welt; Support für hybride IT-Umgebungen, die On-Premise-Systeme, SaaS-Applikationen, Schatten-IT und BYOD-User umfassen; das Management von IT-Architekturen, auf denen UNIX-, Windows-, Mac-, iOS-, Android- und IoT-Geräte gleichermaßen laufen; In den letzten Jahren haben sich zudem Identity-as-a-Service (IDaaS)-Angebote entwickelt. Diese setzen meist auf ein Cloud-Abo-Modell und bieten den Kunden IAM-Dienste für On-Premise- und Cloud-Systeme. Wozu brauche ich IAM? Identity- und Access-Management ist ein kritischer Part der IT-Security-Strategie aller Unternehmen. Schließlich ist dieser in der heutigen, digitalen Weltwirtschaft untrennbar mit der Sicherheit und Produktivität des gesamten Unternehmens verbunden. Kompromittierte Login-Daten und Zugangsberechtigungen dienen oft als Einfallstor ins Unternehmensnetzwerk. Um die Firmendaten und -Assets gegen Bedrohungen wie Ransomware, Phishing, Malware und ganz generell gegen kriminelle Hacker zu schützen, gibt es IAM. In vielen Unternehmen ist es Usus, dass User mehr Zugangsberechtigungen haben als sie eigentlich brauchen. Ein robustes Identity- und Access-Management-System kann für die Etablierung eines zusätzlichen Sicherheits-Layers sorgen, indem es für das gesamte Unternehmen eine durchgängige Anwendung von Zugangsregeln und -richtlinien sicherstellt. Darüber hinaus können IAM-Systeme auch die Produktivität erhöhen. Denn durch das zentrale Management werden Komplexität und Kosten für den Schutz von Zugangsdaten gesenkt. Gleichzeitig erhöhen die Systeme die Produktivität der Mitarbeiter in einer Vielzahl von Umgebungen ohne Einschränkung der Sicherheit. Es gibt etliche regulatorische Anforderungen, die Unternehmen de facto dazu “zwingen”, sich mit dem Thema Identity- und Access-Management zu befassen. In den USA etwa der Sarbanes-Oxley-Act, der Gramm-Leach-Bliley-Act oder der HIPAA-Act. Unternehmen die in Europa tätig sind, müssen seit dem 25. Mai 2018 den strengen Anforderungen der EU-Datenschutzgrundverordnung (DSGVO/GDPR) genügen. Indem sie banale – aber wichtige – Aufgaben automatisieren, entlasten Identity- und Access-Management-Systeme die IT-Abteilung und helfen dabei, regulatorische Anforderungen zu erfüllen. Dies sind entscheidende Vorteile angesichts des Status Quo: Jeder IT-Job ist inzwischen auch ein Security-Job; auf dem Gebiet der IT Security besteht ein weltweiter Fachkräftemangel; die Strafen bei Compliance-Verstößen können für Unternehmen sehr empfindlich und unter Umständen auch existenzbedrohend ausfallen; Wie bereichert Identity Management mein Geschäft? Die Implementierung eines IAM-Systems und der dazugehörigen Best Practices kann Ihnen in mehrerlei Hinsicht einen Wettbewerbsvorteil bescheren. Heutzutage kommen die meisten Unternehmen nicht umhin, Nutzern von extern Zugang auf das Firmennetz zu gewähren. Die Öffnung Ihres Netzwerks für Kunden, Partner, Lieferanten und natürlich die Mitarbeiter, kann die Effizienz steigern und Betriebskosten senken. Identity- und Access-Management-Systeme erlauben einem Unternehmen die Ausweitung der Zugriffsrechte auf sein Netzwerk über eine Vielzahl von On-Premise-Applikationen, Mobile Apps und SaaS Tools – ohne dabei die IT-Sicherheit aufs Spiel zu setzen. Wenn es Unternehmen gelingt, Außenstehende besser einzubinden, können sie die Kollaboration im ganzen Unternehmen vorantreiben, die Produktivität anschieben, die Zufriedenheit der Mitarbeiter optimieren, Forschung und Entwicklung pushen – und so letztlich auch die Betriebseinnahmen nach oben treiben. Auch die Zahl der eingehenden Anrufe beim IT Help Desk kann durch die Implementierung von IAM reduziert werden. Zum Beispiel, wenn es bei diesen um das Zurücksetzen von Passwörtern geht. Diese und andere zeitraubende – und somit kostenintensive – Aufgaben können von den Administratoren automatisiert werden. Nebenbei ist Identity- und Access-Management auch ein Eckpfeiler eines jeden sicheren Unternehmensnetzwerks. Schließlich ist die Identität eines Benutzers ein wesentlicher Bestandteil des Zugangs-Kontroll-Prozesses. Und ein IAM-System zwingt Unternehmen praktisch dazu, ihre Zugangsrichtlinien zu definieren und dabei auszuweisen, wer auf welche Daten-Ressourcen unter welchen Konditionen Zugriff hat. Gute gemanagte Identitäten bedeuten eine optimierte Kontrolle über den User-Zugriff, was sich wiederum in ein reduziertes Risiko für interne oder externe Angriffe übersetzen lässt. Wie funktionieren IAM-Systeme? In der Vergangenheit bestand ein typisches Identitätsmanagement-System aus vier Grundkomponenten: ein Pool mit persönlichen Daten, über die das System die individuellen Nutzer definiert; ein Toolset, um Daten hinzuzufügen, zu modifizieren oder zu löschen (Access Lifecycle Management); ein System, das den Zugriff der Nutzer reguliert (Durchsetzung von Security Policies und Zugriffsprivilegien); ein Auditing- und Reporting-System (um die Vorgänge im System zu verifizieren); Um den Nutzerzugriff zu regulieren, kommen traditionell verschiedene Authentifizierungs-Methoden zur Anwendung, zum Beispiel Passwörter, digitale Zertifikate, Tokens oder Smart Cards. Hardware Tokens und Smart Cards in Kreditkartengröße dienen dabei als eine Komponente der Zwei-Faktor-Authentifizierung. Diese kombiniert etwas das Sie wissen (das Passwort) mit etwas das Sie in Besitz haben (den Token oder die Smart Card), um Ihre Identität zu verifizieren. Angesichts der sich stets verschärfenden Bedrohungslage und den immer komplexeren IT-Umgebungen, reichen gute Kombinationen aus Nutzernamen und Passwort längst nicht mehr aus. Heutige Identity- und Access-Management-Systeme haben oft bereits Elemente von Biometrie, Machine Learning und Künstlicher Intelligenz sowie risikobasierter Authentifizierung an Bord. Auf User-Level helfen inzwischen auch einige Technologien dabei, digitale Identitäten besser zu schützen. Die durch das iPhone getriebene Popularität der Touch-ID-Fingerabdruckscanner hat dafür gesorgt, dass sich die Konsumenten daran gewohnt haben, ihren Fingerabdruck zur Authentifizierung zu verwenden. Neuere Windows-10-Geräte nutzen ebenfalls biometrische Authentifizierungsmethoden wie Fingerabdruck- und Iris-Scanner. Und beim iPhone X hat die Gesichtserkennung Face ID inzwischen Touch ID ersetzt. Wie Okta-CSO Abousselham weiß, setzen mehr und mehr Unternehmen inzwischen auf Drei- beziehungsweise Multi-, statt Zwei-Faktor-Authentifizierung. Diese stellt auf etwas ab, was die Nutzer kennen (Passwort), etwas das sie bei sich haben (Smartphone) und etwas, das sie “sind” (Gesicht, Fingerabdrücke oder Iris). “Drei Faktoren bieten mehr Sicherheit darüber, dass es sich tatsächlich um den korrekten Benutzer handelt”, erklärt der Experte. Auf dem Administrations-Level bieten die heutigen IAM-Systeme weitergehende Funktionen beim User Auditing und Reporting. Verantwortlich dafür sind vor allem Technologien wie Context-Aware Network Access Control und Risk-Based Authentication (RBA). Was ist “föderiertes” Identity Management? Der “föderierte” Ansatz des Identitätsmanagements bezeichnet einen Authentifizierungs-Mechanismus, bei dem ein User denselben Login für mehr als ein Netzwerk nutzen kann. Im Alltag ist diese Methode mittelerweile weit verbreitet. Beispielsweise bieten viele Online-Plattformen und Dienste ihren Nutzern an, sich mit ihrem Google- oder Facebook-Konto anzumelden, statt neue Zugangsdaten anzulegen. Ein wichtiger Bestandteil des föderierten Identitätsmanagements ist der Single-Sign-On (SSO). Dieser Standard erlaubt es Nutzern, die ihre Identität in einem Netzwerk bereits verifiziert haben, ihren Status “mitzunehmen”, wenn sie sich in ein anderes Netzwerk einwählen. Dieses Modell funktioniert allerdings nur zwischen kooperierenden Parteien – den sogenannten “trusted partners” – die gegenseitig für ihre Nutzer bürgen. Die Nachrichten über Authentifizierung zwischen den “trusted partners” werden oft über das SAML– (Security Assertion Markup Language) Framework verschickt, das eine Interoperabilität zwischen verschiedenen Händler-Plattformen herstellt, die Authentifizierungs- und Autorisierungs-Services anbieten. SAML ist aber nicht das einzige Open-Source-Identitätsprotokoll. Weitere Beispiele sind OpenID, WS-Trust, WS-Federation oder OAuth. Wie finde ich das richtige IAM? Bei so zahlreichen Ansätzen und Komponenten stellt sich die Frage, ob die Größe oder Branche eines Unternehmens eine Rolle bei der Auswahl spielen. Für Eckhard Schaumann, DACH-Manager bei RSA Security, geht es hauptsächlich darum, dass sich IAM immer gleich anfühlt, da die Anforderungen meist einheitlich sind. Da jedes Unternehmen eigene, dynamische Mechanismen, Herangehensweisen und individuelle Prioritäten besitzt, kann es schwierig sein, diese Einheitlichkeit zu erreichen. Als Hilfestellung bei der Konzeption des eigenen IAM rät Schaumann, sich an diesen Fragen zu orientieren: Wer hat Zugriff auf was? Wer hat diese Zugriffe zu überwachen? Wie wird gewährleistet, dass dies alles seine Richtigkeit hat? Wie sind die Mechanismen und Aktionen implementiert die entsprechende Aktion unmittelbar zu ergreifen, wenn dies verletzt wird? Daraus ergeben sich Ansätze für Herangehensweisen an die IAM-Einführung. Der Grund, warum IAM-Projekte oft scheitern oder nicht konsequent zu Ende geführt werden, liegt nicht immer in der Funktionalität der IAM-Softwarelösung. Für Schaumann kann etwa die Frage “Wer hat Zugriff auf was?” unternehmensintern nicht in Silos beantwortet werden. Ein IAM-Projekt ist kein “reines IT-Projekt”. Unternehmen müssen Zugriffs- und Rollenkonzepte etablieren, um die notwendige Integration zwischen den zuständigen Abteilungen und Kompetenzen umzusetzen. Das setzt sie Risiken bei der Einführung neuer Technologien aus. Hier gilt es, mit einem Digital Risk Management eine übergreifende Strategie zu erarbeiten, um zu identifizieren, zu bewerten, zu überwachen und zu schützen was in einer digitalen Welt am wichtigsten ist. Sowohl großen als auch kleinen und mittelständischen Unternehmen rät Schaumann, IAM ganzheitlich anzugehen. Größere Unternehmen müssten jedoch oft mehr und komplexere Systeme integrieren. Zudem gilt es, alle Benutzer einzubeziehen, darunter Subunternehmen, Lieferanten und Kunden. Umso wichtiger sei es in diesem Fall, Systeme einzuführen, die ein durchgängiges Architekturkonzept verfolgen. Bei der Umsetzung gilt es, verschiedene Anforderungen durch Regulatoren und Auditoren, wie die der BaFin im Finanzsektor, je nach Branche zu beachten. Mit Blick auf die Verwaltung von Zugriffszahlen, ergeben sich allerdings durchaus Unterschiede. Beispielsweise werden im Online-Handel jedem Kunden gewisse Zugriffe gewährt. Das können schnell Hundertausende oder gar Millionen von Nutzer werden. Hier brauchen Unternehmen ein System, das skalieren kann, so Schaumann. Wo liegen die Risiken beim Identity & Access Management? Die erfolgreiche Implementierung von Identity- und Access-Management-Systemen erfordert vorausschauendes Denken und abteilungsübergreifende Zusammenarbeit. Unternehmen die vor Projektbeginn eine schlüssige IAM-Strategie erarbeiten, sind dabei in der Regel am erfolgreichsten. Gerade Informationen über die Identität eins Nutzers können oft mehreren Datenquellen entstammen – etwa Microsofts Active Directory oder einer HR-Datenbank. Ein IAM-System muss dazu in der Lage sein, die Informationen zur Nutzeridentität über all diese Systeme zu synchronisieren. Darüber hinaus muss ein solches System das Unternehmen in die Lage versetzen, eine Vielzahl von Benutzern in unterschiedlichen Situationen und Umgebungen zu managen – und zwar automatisiert und in Echtzeit. Eine manuelle Anpassung der Zugangsberechtigungen ist bei hunderten oder gar tausenden von Usern nicht zu stemmen. Die Authentifizierung muss für die Nutzer einfach zu bewerkstelligen und für die IT einfach auszurollen sein, dabei aber ganz allgemein höchsten Sicherheitsstandards genügen. “Deshalb werden mobile Devices gerade zum Centerpiece der Benutzer-Authentifizierung”, weiß Abousselham. “Denn Smartphones können den Aufenthaltsort, die IP-Adresse und andere Informationen über den Nutzer bereitstellen, die für Authentifizierungszwecke verwendet werden können.” Ein Risikofaktor, den Unternehmen dabei im Auge behalten sollten: Zentralisierte Systeme stellen ein attraktives Ziel für Hacker und Cracker dar. Wenn Sie ein Dashboard über die gesamten IAM-Aktivitäten ihres Unternehmens legen, wird die Komplexität nicht nur für die Administratoren reduziert. Einmal kompromittiert, könnten kriminelle Hacker neue Identitäten anlegen, die ihnen weitreichende Zugriffsrechte einräumen. Um diesen Risiken zu begegnen, werden aktuell Ansätze auf Basis neuer Technologien entwickelt. Die dezentrale, als fälschungssicher geltende Blockchain könnte verhindern, dass Angreifer Zugangsdaten nachverfolgen oder aggregieren werden. Zudem könnte diese Methode das Identitätsmanagement und Authorisierungsprozesse vereinfachen. Als Beispiel wäre hier der Dienst Blockstack zu nennen, der eine dezentrale, Blockchain-basierte Datenbank für alle Anwendungen im Bereich Identität, Namensgebung und Authentifizierung implementiert. Separate Nutzerkonten bei einzelnen Applikationen oder auch Unternehmensanwendungen würden entfallen. Identity & Access Management Glossar Buzzwords kommen und gehen. Dennoch sollten Sie einige Schlüsselbegriffe des Identity und Access Managements kennen. Access Management: bezeichnet die Prozesse und Technologien, die zur Überwachung und Kontrolle des Netzwerkzugriffs zum Einsatz kommen. Active Directory (AD): Microsoft entwickelte die AD als User Identity Directory Service für Windows-Netzwerke. Biometrische Authentifizierung: Diese Form der Authentifizierung basiert auf einzigartigen Merkmalen des Users und nutzt dazu Technologien wie Fingerabdruck- und Iris-Scanner oder auch Gesichtserkennung. Context-aware Network Access Control: Dabei handelt es sich um eine Richtlinien-basierte Methode zum Zugriff auf Netzwerkressourcen, die den Kontext des Nutzers berücksichtigt. Der Zugriff von einer IP-Adresse, die nicht auf der Whitelist steht, ist so nicht möglich. Identity Lifecycle Management: Ähnlich wie Access Lifecycle Management beschreibt der Begriff alle Prozesse und Technologien, die zur Vorhaltung, Wartung und Löschung digitaler Identitäten zum Einsatz kommen. Identity synchronisation: Der Prozess, der sicherstellt, dass verschiedene Systeme (etwa nach einer Übernahme) konsistente Informationen über eine bestimmte digitale Identität zur Verfügung stellen. Lightweight Directory Access Protocol (LDAP): LDAP ist ein offenes Protokoll, um auf verteilte Directory Services (wie Microsofts Active Directory) zugreifen und diese managen zu können. Multi-Faktor-Authentifizierung (MFA): Sobald mehr als ein einzelner Faktor für die Authentifizierung nötig ist, spricht man von MFA. Password Reset: In diesem Zusammenhang meint dieser Begriff die Möglichkeit, dass User selbst ein neues Passwort erstellen können und keine Unterstützung durch den Administrator nötig ist. Risk-based Authentication (RBA): Bezeichnet eine dynamische Variante der Authentifizierung, bei der die jeweiligen Umstände des Zugriffs für zusätzliche Sicherheitsmaßnahmen sorgen können. Etwa wenn sich ein User von einem bisher nicht mit ihm in Verbindung stehenden Ort in das Unternehmensnetzwerk einloggen will. User Behavior Analytics (UBA): UBA-Technologien identifizieren Muster im User-Verhalten und wenden automatisiert Algorithmen und Analysen an, um Anomalien aufzuspüren, die auf mögliche Sicherheitsrisiken hindeuten. Zu den überprüften Faktoren zählen beispielsweise der aktuelle Standort des Nutzers, die Uhrzeit des Zugriffs und ob der Nutzer auf Ressourcen zugreift, die normalerweise in seinen Zuständigkeitsbereich fallen. Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Identity & Access Management FAQ: Was Sie über IAM wissen müssen​ Identity und Access Management: Wir sagen Ihnen, was Sie wissen müssen.
Foto: ktsdesign – shutterstock.com

Identity- und Access-Management (IAM) -Systeme ermöglichen – ganz allgemein gesprochen – die Verwaltung verschiedener Identitäten innerhalb eines Systems. Dabei kann es sich um ein Unternehmen, ein Netzwerk oder ein ganzes Land handeln.

Was ist Identity & Access Management?

Im Enterprise-IT-Umfeld geht es bei IAM darum, die Rollen, Zugriffsberechtigungen und -voraussetzungen einzelner Nutzer zu managen. Die Kernaufgabe besteht dabei darin, einem Individuum eine digitale Identität zuzuweisen. Wurde diese einmal erstellt, muss sie – über den gesamten Access Lifecycle eines Users hinweg – gewartet, aktualisiert und überwacht werden.

IAM-Systeme geben Administratoren die nötigen Tools und Technologien an die Hand, um die Rollen von Nutzern bei Bedarf zu ändern, deren Aktivitäten zu überwachen und Reports darüber zu erstellen – oder auch um Security Policies auf regelmäßiger Basis durchzusetzen. Die Systeme sind so konzipiert, dass sie die Zugriffsberechtigungen eines ganzen Unternehmens abbilden können und dabei die Erfüllung von unternehmenseigenen und externen Compliance-Richtlinien sichergestellt ist.

Zu den Technologien des Identity und Access Managements gehören unter anderem:

Passwort-Management-Tools

Provisioning Software

Apps zur Durchsetzung von Security Policies

Reporting- und Monitoring-Apps

Identity Repositories

IAM-Systeme sind sowohl für On-Premise-Systeme wie Microsoft Sharepoint, als auch für cloud-basierte Systeme wie Microsoft 365 verfügbar.

Die Systeme zum Identitätsmanagement müssen flexibel und robust genug sein, um den komplexen IT-Umgebungen der heutigen Zeit gerecht zu werden. Früher war ein Unternehmensnetzwerk on premise und die IAM-Systeme haben die User in diesen Systemen authentifiziert und überwacht. “Es gab quasi einen Sicherheitszaun, der um das Werksgelände gespannt war”, sagt Jackson Shaw, vom IAM-Provider One Identity. “Dieser existiert heutzutage nicht mehr.”

In der Konsequenz ergeben sich einige Kern-Features, die heutige IAM-Systeme leisten sollten:

Einfaches Management von Zugangsberechtigungen für eine Vielzahl von Nutzern – inklusive Mitarbeitern im Home Office und Partnern aus aller Welt;

Support für hybride IT-Umgebungen, die On-Premise-Systeme, SaaS-Applikationen, Schatten-IT und BYOD-User umfassen;

das Management von IT-Architekturen, auf denen UNIX-, Windows-, Mac-, iOS-, Android- und IoT-Geräte gleichermaßen laufen;

In den letzten Jahren haben sich zudem Identity-as-a-Service (IDaaS)-Angebote entwickelt. Diese setzen meist auf ein Cloud-Abo-Modell und bieten den Kunden IAM-Dienste für On-Premise- und Cloud-Systeme.

Wozu brauche ich IAM?

Identity- und Access-Management ist ein kritischer Part der IT-Security-Strategie aller Unternehmen. Schließlich ist dieser in der heutigen, digitalen Weltwirtschaft untrennbar mit der Sicherheit und Produktivität des gesamten Unternehmens verbunden.

Kompromittierte Login-Daten und Zugangsberechtigungen dienen oft als Einfallstor ins Unternehmensnetzwerk. Um die Firmendaten und -Assets gegen Bedrohungen wie Ransomware, Phishing, Malware und ganz generell gegen kriminelle Hacker zu schützen, gibt es IAM.

In vielen Unternehmen ist es Usus, dass User mehr Zugangsberechtigungen haben als sie eigentlich brauchen. Ein robustes Identity- und Access-Management-System kann für die Etablierung eines zusätzlichen Sicherheits-Layers sorgen, indem es für das gesamte Unternehmen eine durchgängige Anwendung von Zugangsregeln und -richtlinien sicherstellt.

Darüber hinaus können IAM-Systeme auch die Produktivität erhöhen. Denn durch das zentrale Management werden Komplexität und Kosten für den Schutz von Zugangsdaten gesenkt. Gleichzeitig erhöhen die Systeme die Produktivität der Mitarbeiter in einer Vielzahl von Umgebungen ohne Einschränkung der Sicherheit.

Es gibt etliche regulatorische Anforderungen, die Unternehmen de facto dazu “zwingen”, sich mit dem Thema Identity- und Access-Management zu befassen. In den USA etwa der Sarbanes-Oxley-Act, der Gramm-Leach-Bliley-Act oder der HIPAA-Act. Unternehmen die in Europa tätig sind, müssen seit dem 25. Mai 2018 den strengen Anforderungen der EU-Datenschutzgrundverordnung (DSGVO/GDPR) genügen.

Indem sie banale – aber wichtige – Aufgaben automatisieren, entlasten Identity- und Access-Management-Systeme die IT-Abteilung und helfen dabei, regulatorische Anforderungen zu erfüllen. Dies sind entscheidende Vorteile angesichts des Status Quo:

Jeder IT-Job ist inzwischen auch ein Security-Job;

auf dem Gebiet der IT Security besteht ein weltweiter Fachkräftemangel;

die Strafen bei Compliance-Verstößen können für Unternehmen sehr empfindlich und unter Umständen auch existenzbedrohend ausfallen;

Wie bereichert Identity Management mein Geschäft?

Die Implementierung eines IAM-Systems und der dazugehörigen Best Practices kann Ihnen in mehrerlei Hinsicht einen Wettbewerbsvorteil bescheren. Heutzutage kommen die meisten Unternehmen nicht umhin, Nutzern von extern Zugang auf das Firmennetz zu gewähren. Die Öffnung Ihres Netzwerks für Kunden, Partner, Lieferanten und natürlich die Mitarbeiter, kann die Effizienz steigern und Betriebskosten senken.

Identity- und Access-Management-Systeme erlauben einem Unternehmen die Ausweitung der Zugriffsrechte auf sein Netzwerk über eine Vielzahl von On-Premise-Applikationen, Mobile Apps und SaaS Tools – ohne dabei die IT-Sicherheit aufs Spiel zu setzen. Wenn es Unternehmen gelingt, Außenstehende besser einzubinden, können sie die Kollaboration im ganzen Unternehmen vorantreiben, die Produktivität anschieben, die Zufriedenheit der Mitarbeiter optimieren, Forschung und Entwicklung pushen – und so letztlich auch die Betriebseinnahmen nach oben treiben.

Auch die Zahl der eingehenden Anrufe beim IT Help Desk kann durch die Implementierung von IAM reduziert werden. Zum Beispiel, wenn es bei diesen um das Zurücksetzen von Passwörtern geht. Diese und andere zeitraubende – und somit kostenintensive – Aufgaben können von den Administratoren automatisiert werden.

Nebenbei ist Identity- und Access-Management auch ein Eckpfeiler eines jeden sicheren Unternehmensnetzwerks. Schließlich ist die Identität eines Benutzers ein wesentlicher Bestandteil des Zugangs-Kontroll-Prozesses. Und ein IAM-System zwingt Unternehmen praktisch dazu, ihre Zugangsrichtlinien zu definieren und dabei auszuweisen, wer auf welche Daten-Ressourcen unter welchen Konditionen Zugriff hat.

Gute gemanagte Identitäten bedeuten eine optimierte Kontrolle über den User-Zugriff, was sich wiederum in ein reduziertes Risiko für interne oder externe Angriffe übersetzen lässt.

Wie funktionieren IAM-Systeme?

In der Vergangenheit bestand ein typisches Identitätsmanagement-System aus vier Grundkomponenten:

ein Pool mit persönlichen Daten, über die das System die individuellen Nutzer definiert;

ein Toolset, um Daten hinzuzufügen, zu modifizieren oder zu löschen (Access Lifecycle Management);

ein System, das den Zugriff der Nutzer reguliert (Durchsetzung von Security Policies und Zugriffsprivilegien);

ein Auditing- und Reporting-System (um die Vorgänge im System zu verifizieren);

Um den Nutzerzugriff zu regulieren, kommen traditionell verschiedene Authentifizierungs-Methoden zur Anwendung, zum Beispiel Passwörter, digitale Zertifikate, Tokens oder Smart Cards. Hardware Tokens und Smart Cards in Kreditkartengröße dienen dabei als eine Komponente der Zwei-Faktor-Authentifizierung. Diese kombiniert etwas das Sie wissen (das Passwort) mit etwas das Sie in Besitz haben (den Token oder die Smart Card), um Ihre Identität zu verifizieren.

Angesichts der sich stets verschärfenden Bedrohungslage und den immer komplexeren IT-Umgebungen, reichen gute Kombinationen aus Nutzernamen und Passwort längst nicht mehr aus. Heutige Identity- und Access-Management-Systeme haben oft bereits Elemente von Biometrie, Machine Learning und Künstlicher Intelligenz sowie risikobasierter Authentifizierung an Bord.

Auf User-Level helfen inzwischen auch einige Technologien dabei, digitale Identitäten besser zu schützen. Die durch das iPhone getriebene Popularität der Touch-ID-Fingerabdruckscanner hat dafür gesorgt, dass sich die Konsumenten daran gewohnt haben, ihren Fingerabdruck zur Authentifizierung zu verwenden. Neuere Windows-10-Geräte nutzen ebenfalls biometrische Authentifizierungsmethoden wie Fingerabdruck- und Iris-Scanner. Und beim iPhone X hat die Gesichtserkennung Face ID inzwischen Touch ID ersetzt.

Wie Okta-CSO Abousselham weiß, setzen mehr und mehr Unternehmen inzwischen auf Drei- beziehungsweise Multi-, statt Zwei-Faktor-Authentifizierung. Diese stellt auf etwas ab, was die Nutzer kennen (Passwort), etwas das sie bei sich haben (Smartphone) und etwas, das sie “sind” (Gesicht, Fingerabdrücke oder Iris). “Drei Faktoren bieten mehr Sicherheit darüber, dass es sich tatsächlich um den korrekten Benutzer handelt”, erklärt der Experte.

Auf dem Administrations-Level bieten die heutigen IAM-Systeme weitergehende Funktionen beim User Auditing und Reporting. Verantwortlich dafür sind vor allem Technologien wie Context-Aware Network Access Control und Risk-Based Authentication (RBA).

Was ist “föderiertes” Identity Management?

Der “föderierte” Ansatz des Identitätsmanagements bezeichnet einen Authentifizierungs-Mechanismus, bei dem ein User denselben Login für mehr als ein Netzwerk nutzen kann. Im Alltag ist diese Methode mittelerweile weit verbreitet. Beispielsweise bieten viele Online-Plattformen und Dienste ihren Nutzern an, sich mit ihrem Google- oder Facebook-Konto anzumelden, statt neue Zugangsdaten anzulegen.

Ein wichtiger Bestandteil des föderierten Identitätsmanagements ist der Single-Sign-On (SSO). Dieser Standard erlaubt es Nutzern, die ihre Identität in einem Netzwerk bereits verifiziert haben, ihren Status “mitzunehmen”, wenn sie sich in ein anderes Netzwerk einwählen. Dieses Modell funktioniert allerdings nur zwischen kooperierenden Parteien – den sogenannten “trusted partners” – die gegenseitig für ihre Nutzer bürgen.

Die Nachrichten über Authentifizierung zwischen den “trusted partners” werden oft über das SAML– (Security Assertion Markup Language) Framework verschickt, das eine Interoperabilität zwischen verschiedenen Händler-Plattformen herstellt, die Authentifizierungs- und Autorisierungs-Services anbieten.

SAML ist aber nicht das einzige Open-Source-Identitätsprotokoll. Weitere Beispiele sind OpenID, WS-Trust, WS-Federation oder OAuth.

Wie finde ich das richtige IAM?

Bei so zahlreichen Ansätzen und Komponenten stellt sich die Frage, ob die Größe oder Branche eines Unternehmens eine Rolle bei der Auswahl spielen. Für Eckhard Schaumann, DACH-Manager bei RSA Security, geht es hauptsächlich darum, dass sich IAM immer gleich anfühlt, da die Anforderungen meist einheitlich sind.

Da jedes Unternehmen eigene, dynamische Mechanismen, Herangehensweisen und individuelle Prioritäten besitzt, kann es schwierig sein, diese Einheitlichkeit zu erreichen. Als Hilfestellung bei der Konzeption des eigenen IAM rät Schaumann, sich an diesen Fragen zu orientieren:

Wer hat Zugriff auf was?

Wer hat diese Zugriffe zu überwachen?

Wie wird gewährleistet, dass dies alles seine Richtigkeit hat?

Wie sind die Mechanismen und Aktionen implementiert die entsprechende Aktion unmittelbar zu ergreifen, wenn dies verletzt wird?

Daraus ergeben sich Ansätze für Herangehensweisen an die IAM-Einführung.

Der Grund, warum IAM-Projekte oft scheitern oder nicht konsequent zu Ende geführt werden, liegt nicht immer in der Funktionalität der IAM-Softwarelösung. Für Schaumann kann etwa die Frage “Wer hat Zugriff auf was?” unternehmensintern nicht in Silos beantwortet werden. Ein IAM-Projekt ist kein “reines IT-Projekt”. Unternehmen müssen Zugriffs- und Rollenkonzepte etablieren, um die notwendige Integration zwischen den zuständigen Abteilungen und Kompetenzen umzusetzen. Das setzt sie Risiken bei der Einführung neuer Technologien aus. Hier gilt es, mit einem Digital Risk Management eine übergreifende Strategie zu erarbeiten, um zu identifizieren, zu bewerten, zu überwachen und zu schützen was in einer digitalen Welt am wichtigsten ist.

Sowohl großen als auch kleinen und mittelständischen Unternehmen rät Schaumann, IAM ganzheitlich anzugehen. Größere Unternehmen müssten jedoch oft mehr und komplexere Systeme integrieren. Zudem gilt es, alle Benutzer einzubeziehen, darunter Subunternehmen, Lieferanten und Kunden. Umso wichtiger sei es in diesem Fall, Systeme einzuführen, die ein durchgängiges Architekturkonzept verfolgen.

Bei der Umsetzung gilt es, verschiedene Anforderungen durch Regulatoren und Auditoren, wie die der BaFin im Finanzsektor, je nach Branche zu beachten. Mit Blick auf die Verwaltung von Zugriffszahlen, ergeben sich allerdings durchaus Unterschiede. Beispielsweise werden im Online-Handel jedem Kunden gewisse Zugriffe gewährt. Das können schnell Hundertausende oder gar Millionen von Nutzer werden. Hier brauchen Unternehmen ein System, das skalieren kann, so Schaumann.

Wo liegen die Risiken beim Identity & Access Management?

Die erfolgreiche Implementierung von Identity- und Access-Management-Systemen erfordert vorausschauendes Denken und abteilungsübergreifende Zusammenarbeit. Unternehmen die vor Projektbeginn eine schlüssige IAM-Strategie erarbeiten, sind dabei in der Regel am erfolgreichsten.

Gerade Informationen über die Identität eins Nutzers können oft mehreren Datenquellen entstammen – etwa Microsofts Active Directory oder einer HR-Datenbank. Ein IAM-System muss dazu in der Lage sein, die Informationen zur Nutzeridentität über all diese Systeme zu synchronisieren. Darüber hinaus muss ein solches System das Unternehmen in die Lage versetzen, eine Vielzahl von Benutzern in unterschiedlichen Situationen und Umgebungen zu managen – und zwar automatisiert und in Echtzeit. Eine manuelle Anpassung der Zugangsberechtigungen ist bei hunderten oder gar tausenden von Usern nicht zu stemmen.

Die Authentifizierung muss für die Nutzer einfach zu bewerkstelligen und für die IT einfach auszurollen sein, dabei aber ganz allgemein höchsten Sicherheitsstandards genügen. “Deshalb werden mobile Devices gerade zum Centerpiece der Benutzer-Authentifizierung”, weiß Abousselham. “Denn Smartphones können den Aufenthaltsort, die IP-Adresse und andere Informationen über den Nutzer bereitstellen, die für Authentifizierungszwecke verwendet werden können.”

Ein Risikofaktor, den Unternehmen dabei im Auge behalten sollten: Zentralisierte Systeme stellen ein attraktives Ziel für Hacker und Cracker dar. Wenn Sie ein Dashboard über die gesamten IAM-Aktivitäten ihres Unternehmens legen, wird die Komplexität nicht nur für die Administratoren reduziert. Einmal kompromittiert, könnten kriminelle Hacker neue Identitäten anlegen, die ihnen weitreichende Zugriffsrechte einräumen.

Um diesen Risiken zu begegnen, werden aktuell Ansätze auf Basis neuer Technologien entwickelt. Die dezentrale, als fälschungssicher geltende Blockchain könnte verhindern, dass Angreifer Zugangsdaten nachverfolgen oder aggregieren werden. Zudem könnte diese Methode das Identitätsmanagement und Authorisierungsprozesse vereinfachen. Als Beispiel wäre hier der Dienst Blockstack zu nennen, der eine dezentrale, Blockchain-basierte Datenbank für alle Anwendungen im Bereich Identität, Namensgebung und Authentifizierung implementiert. Separate Nutzerkonten bei einzelnen Applikationen oder auch Unternehmensanwendungen würden entfallen.

Identity & Access Management Glossar

Buzzwords kommen und gehen. Dennoch sollten Sie einige Schlüsselbegriffe des Identity und Access Managements kennen.

Access Management: bezeichnet die Prozesse und Technologien, die zur Überwachung und Kontrolle des Netzwerkzugriffs zum Einsatz kommen.

Active Directory (AD): Microsoft entwickelte die AD als User Identity Directory Service für Windows-Netzwerke.

Biometrische Authentifizierung: Diese Form der Authentifizierung basiert auf einzigartigen Merkmalen des Users und nutzt dazu Technologien wie Fingerabdruck- und Iris-Scanner oder auch Gesichtserkennung.

Context-aware Network Access Control: Dabei handelt es sich um eine Richtlinien-basierte Methode zum Zugriff auf Netzwerkressourcen, die den Kontext des Nutzers berücksichtigt. Der Zugriff von einer IP-Adresse, die nicht auf der Whitelist steht, ist so nicht möglich.

Identity Lifecycle Management: Ähnlich wie Access Lifecycle Management beschreibt der Begriff alle Prozesse und Technologien, die zur Vorhaltung, Wartung und Löschung digitaler Identitäten zum Einsatz kommen.

Identity synchronisation: Der Prozess, der sicherstellt, dass verschiedene Systeme (etwa nach einer Übernahme) konsistente Informationen über eine bestimmte digitale Identität zur Verfügung stellen.

Lightweight Directory Access Protocol (LDAP): LDAP ist ein offenes Protokoll, um auf verteilte Directory Services (wie Microsofts Active Directory) zugreifen und diese managen zu können.

Multi-Faktor-Authentifizierung (MFA): Sobald mehr als ein einzelner Faktor für die Authentifizierung nötig ist, spricht man von MFA.

Password Reset: In diesem Zusammenhang meint dieser Begriff die Möglichkeit, dass User selbst ein neues Passwort erstellen können und keine Unterstützung durch den Administrator nötig ist.

Risk-based Authentication (RBA): Bezeichnet eine dynamische Variante der Authentifizierung, bei der die jeweiligen Umstände des Zugriffs für zusätzliche Sicherheitsmaßnahmen sorgen können. Etwa wenn sich ein User von einem bisher nicht mit ihm in Verbindung stehenden Ort in das Unternehmensnetzwerk einloggen will.

User Behavior Analytics (UBA): UBA-Technologien identifizieren Muster im User-Verhalten und wenden automatisiert Algorithmen und Analysen an, um Anomalien aufzuspüren, die auf mögliche Sicherheitsrisiken hindeuten. Zu den überprüften Faktoren zählen beispielsweise der aktuelle Standort des Nutzers, die Uhrzeit des Zugriffs und ob der Nutzer auf Ressourcen zugreift, die normalerweise in seinen Zuständigkeitsbereich fallen.

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Identity & Access Management FAQ: Was Sie über IAM wissen müssen​ Weiterlesen »

Nach oben scrollen
×