Computerhaus Quickborn

Februar 2025

Narzissmus im Team: Wie man am Ego eines Narzissten kratzt​

Allgemein

Narzissten mit ihrer Geltungssucht in den Griff zu bekommen, stellt sowohl Teammitglieder als auch Führungskräfte in der Regel vor eine harte Geduldsprobe und erfordert Durchsetzungsvermögen. Foto: Elnur – shutterstock.comDass sich Narzissmus ausbreitet, diskutieren wir gegenwärtig intensiv. Gerade auf Social Media gilt es, sich in Szene zu setzen – und genau dies fördert narzisstische Züge, von denen wir alle nicht frei sind. Gleichwohl ist die Bandbreite groß: Sie reicht von gut verträglichen bis hin zu kaum auszuhaltenden narzisstischen Verhaltensmustern. Dazu gibt es eine Fülle an Material von profunden Experten. Im Berufskontext ist vor allem folgendes relevant: Ausgeprägte Narzissten sind für Kritik und Feedback nicht offen, beides empfinden sie als Kränkung. Sie sind gut darin, Schwachpunkte anderer zu erkennen und sie vorzuführen. Alles, was sie leisten, ist exzellent. Klappt etwas nicht, sind die anderen schuld. Wie gehen wir mit diesen Verhaltensweisen um? Das hängt von der beruflichen Rolle narzisstisch geprägter Menschen ab. Sind Sie Führungskraft, stellt sich die Frage, ob sie sich ihnen aussetzen möchten? Jedenfalls ist die Hoffnung, irgendwann schleife sich vieles ab, genauso eine Illusion wie umgekehrt der Wunsch, narzisstische Führungskräfte würden lernen, mit Kritik konstruktiv umzugehen. Jeder sollte daher im Zwiegespräch mit sich selbst (und mit Dritten) klären, ob sein Fell dick genug ist, narzisstisches Verhalten auszuhalten. Fällt die Antwort negativ aus, sollte man dieses Umfeld schnell verlassen sich beruflich neu orientieren. Eine – allerdings heikle – Alternative wäre, die nächsthöhere Führungskraft zu informieren, möglichst gemeinsam mit anderen Leidtragenden. Dabei muss allen aber auch klar sein: ein solcher Schritt sollte wohl überlegt sein und kann auch gewaltig nach hinten losgehen. Glasklare Spielregeln festlegenAber was tun, wenn man mit Narzissten zusammenarbeitet? Meist ist es so, dass man es fürs Erste gelassen hinnimmt, wie sie anfangs mit ihrer blendenden Art punkten. Diese Haltung legt sich jedoch schnell. Dann gilt es, glasklare und kaum interpretierbare Spielregeln und Absprachen mit ihnen zu treffen – idealerweise mit der Führungskraft im Boot. Ein Tipp: Halten Sie alles schriftlich fest und informieren das ganze Team. So ist am besten zu verhindern, dass Narzissten mit ihrer Geltungssucht durchkommen, wenn sie anderen Schuld zuweisen und Sie schlechter Arbeit bezichtigen. Feedback ist kontraproduktivWas dagegen nicht hilft, ist offenes Feedback. Nur homöopathisch dosiert, denn alles andere kommt destruktiv zurück, weil Narzissten sehr nachtragend sind. Ansonsten sollte man den direkten persönlichen Kontakt meiden und inhaltlich nur in dem Korridor der geregelten Absprachen mit ihnen zusammenarbeiten. So werden Angriffsflächen vermieden. Außerdem sollte man einiges im Raum stehen lassen, ohne in den Clinch zu gehen. Die letzte Variante: Sie sind Führungskraft und haben Narzissten im Team. Wenn deren Verhaltensweisen den Teamspirit belasten, hilft nur die Notbremse, der Abschied aus dem Team. Denn die Schäden, die Narzissten anrichten, sind teils immens. Darüber hinaus gilt wie oben gesagt: Treffen Sie eindeutige Absprachen über ihre Aufgaben und über die Spielregeln im Team, dokumentieren sie diese und geben Sie nur darüber Feedback. Alles andere, erst recht Kritik vor anderen Teammitgliedern, lassen Sie lieber bleiben. Die 5 schlimmsten KollegenDer Über-Versprecher Foto: PointImages – shutterstock.comSpeziell in Situationen, in denen immenser Druck herrscht, neigen manche Mitarbeiter dazu, alle möglichen, absurden Versprechungen zu machen. Entweder um Aufmerksamkeit zu erringen oder um dem Vorgesetzten beziehungsweise dem Management zu gefallen. Versprechungen machen ist immer einfach, aber wenn das Mega-Projekt dann eben nicht in den versprochenen zweieinhalb Wochen abgeschlossen ist, ist das ungünstig. Alexander Maasik empfiehlt: “Wenn es ein Teammitglied gibt, das am laufenden Band falsche Versprechungen gibt, von denen bereits vorher klar ist, dass sie unmöglich einzuhalten sind, sollten Sie seine Worte nicht mehr für bare Münze nehmen. Wenn Sie können, verlängern Sie den Zeitrahmen und/oder erhöhen Sie Budget oder Ressourceneinsatz, um Engpässe in anderen Bereichen kompensieren zu können.” Der Verantwortungsschieber Foto: Africa Studio – shutterstock.comDann gibt es diese Kollegen, die das Collaboration-Prinzip der geteilten Verantwortung auf ihre ganz eigene Weise interpretieren. Getreu dem Motto: “Die anderen werden es schon richten.” Experte Maasik rät in einem solchen Fall dazu, dem betreffenden Mitarbeiter eine definierte Rolle und spezifizierte Verantwortlichkeiten im Team zuzuweisen. Alternativ könnten Sie den Verantwortungsschieber auch fragen, ob es Bereiche gibt, die ihn besonders interessieren. Eventuell könnten Sie so seine Leistungs-Leidenschaft neu entflammen. “Manchmal können Sie solche Leute motivieren, indem Sie ihnen Führungsverantwortung übertragen oder ihnen die Verantwortung für ein bestimmtes Gebiet/Thema übertragen, das ihnen am Herzen liegt. Sollte betreffender Kollege allerdings für ausschweifende Arbeitsunlust bekannt sein, hilft unglücklicherweise nur, ihn (oder sie) im Auge zu behalten und sich wenn nötig an höhere Instanzen zu wenden.”Der Fremdfeder-Connoisseur Foto: pathdoc – shutterstock.comEs ist nur menschlich, nach Wertschätzung und Anerkennung zu streben. Aber einige Menschen übertreiben das in einem Ausmaß, dass sie fast schon selbst daran glauben, wenn sie sich fälschlicherweise die Erfolge anderer zuschreiben. Maasik: “Leider nimmt der Enthusiasmus dieser Leute rasant ab, wenn es darum geht, die Verantwortung für Misserfolge zu übernehmen. Um solchen Entwicklungen entgegenzuwirken, empfiehlt es sich, genau festzuhalten, wer für welchen Part der Projektarbeit zuständig ist. So können auch alle Beteiligten sehen, wer welchen Beitrag leistet. Sollte jemand auf das Einheimsen von Lorbeeren bestehen, stellen Sie sicher, dass derjenige auch im Fall des Misserfolgs sein Fett abbekommt.”Der Makel-Magnat Foto: Photographee.eu – shutterstock.comNicht führt die Team-Moral schneller und geradliniger in den Abgrund, als einer, der ständig nur kritisiert, auf Fehler “hinweist” oder sich über jeden Aspekt eines Projekts nur beschwert. Egal, ob es um Zuständigkeiten, Workloads oder die Strategie geht, der Makel-Magnat hat einfach immer was zu meckern. “Dieses Verhalten ist absolutes Gift für das Teamwork. Diese Leute verbringen mehr Zeit damit, sich zu beschweren, als mit der Erfüllung ihrer Aufgaben. Der beste Weg solche Menschen zu handlen: 1. Ignorieren Sie das Gemecker, 2. Geben Sie ihm so viel Verantwortung, dass er (oder sie) keine Zeit mehr hat rumzujammern.”Der Aussteiger Foto: YuriyZhuravov – shutterstock.comManche Leute arbeiten besser alleine. Ist auch gar kein Problem. Außer es handelt sich um Personen, die in Team-Projekte eingebunden sind. Dann könnte jemand, der Anweisungen aus Prinzip ignoriert und affin für Alleingänge ist, das ganze Projekt auf’s Spiel setzen. Deswegen empfiehlt auch Alexander Maasik, solche Leute lieber aufs “Abstellgleis” zu befördern: “Finden Sie einen Bereich im Projekt, an dem ein solcher Mitarbeiter alleine arbeiten oder sich selbst verwirklichen kann. So holen Sie das Maximum an Produktivität aus diesem Kollegen heraus und stellen gleichzeitig sicher, dass der Rest des Teams intakt bleibt.” 

Narzissmus im Team: Wie man am Ego eines Narzissten kratzt​ Narzissten mit ihrer Geltungssucht in den Griff zu bekommen, stellt sowohl Teammitglieder als auch Führungskräfte in der Regel vor eine harte Geduldsprobe und erfordert Durchsetzungsvermögen.
Foto: Elnur – shutterstock.comDass sich Narzissmus ausbreitet, diskutieren wir gegenwärtig intensiv. Gerade auf Social Media gilt es, sich in Szene zu setzen – und genau dies fördert narzisstische Züge, von denen wir alle nicht frei sind. Gleichwohl ist die Bandbreite groß: Sie reicht von gut verträglichen bis hin zu kaum auszuhaltenden narzisstischen Verhaltensmustern. Dazu gibt es eine Fülle an Material von profunden Experten. Im Berufskontext ist vor allem folgendes relevant: Ausgeprägte Narzissten sind für Kritik und Feedback nicht offen, beides empfinden sie als Kränkung. Sie sind gut darin, Schwachpunkte anderer zu erkennen und sie vorzuführen. Alles, was sie leisten, ist exzellent. Klappt etwas nicht, sind die anderen schuld. Wie gehen wir mit diesen Verhaltensweisen um? Das hängt von der beruflichen Rolle narzisstisch geprägter Menschen ab. Sind Sie Führungskraft, stellt sich die Frage, ob sie sich ihnen aussetzen möchten? Jedenfalls ist die Hoffnung, irgendwann schleife sich vieles ab, genauso eine Illusion wie umgekehrt der Wunsch, narzisstische Führungskräfte würden lernen, mit Kritik konstruktiv umzugehen. Jeder sollte daher im Zwiegespräch mit sich selbst (und mit Dritten) klären, ob sein Fell dick genug ist, narzisstisches Verhalten auszuhalten. Fällt die Antwort negativ aus, sollte man dieses Umfeld schnell verlassen sich beruflich neu orientieren. Eine – allerdings heikle – Alternative wäre, die nächsthöhere Führungskraft zu informieren, möglichst gemeinsam mit anderen Leidtragenden. Dabei muss allen aber auch klar sein: ein solcher Schritt sollte wohl überlegt sein und kann auch gewaltig nach hinten losgehen. Glasklare Spielregeln festlegenAber was tun, wenn man mit Narzissten zusammenarbeitet? Meist ist es so, dass man es fürs Erste gelassen hinnimmt, wie sie anfangs mit ihrer blendenden Art punkten. Diese Haltung legt sich jedoch schnell. Dann gilt es, glasklare und kaum interpretierbare Spielregeln und Absprachen mit ihnen zu treffen – idealerweise mit der Führungskraft im Boot. Ein Tipp: Halten Sie alles schriftlich fest und informieren das ganze Team. So ist am besten zu verhindern, dass Narzissten mit ihrer Geltungssucht durchkommen, wenn sie anderen Schuld zuweisen und Sie schlechter Arbeit bezichtigen. Feedback ist kontraproduktivWas dagegen nicht hilft, ist offenes Feedback. Nur homöopathisch dosiert, denn alles andere kommt destruktiv zurück, weil Narzissten sehr nachtragend sind. Ansonsten sollte man den direkten persönlichen Kontakt meiden und inhaltlich nur in dem Korridor der geregelten Absprachen mit ihnen zusammenarbeiten. So werden Angriffsflächen vermieden. Außerdem sollte man einiges im Raum stehen lassen, ohne in den Clinch zu gehen. Die letzte Variante: Sie sind Führungskraft und haben Narzissten im Team. Wenn deren Verhaltensweisen den Teamspirit belasten, hilft nur die Notbremse, der Abschied aus dem Team. Denn die Schäden, die Narzissten anrichten, sind teils immens. Darüber hinaus gilt wie oben gesagt: Treffen Sie eindeutige Absprachen über ihre Aufgaben und über die Spielregeln im Team, dokumentieren sie diese und geben Sie nur darüber Feedback. Alles andere, erst recht Kritik vor anderen Teammitgliedern, lassen Sie lieber bleiben. Die 5 schlimmsten KollegenDer Über-Versprecher
Foto: PointImages – shutterstock.comSpeziell in Situationen, in denen immenser Druck herrscht, neigen manche Mitarbeiter dazu, alle möglichen, absurden Versprechungen zu machen. Entweder um Aufmerksamkeit zu erringen oder um dem Vorgesetzten beziehungsweise dem Management zu gefallen. Versprechungen machen ist immer einfach, aber wenn das Mega-Projekt dann eben nicht in den versprochenen zweieinhalb Wochen abgeschlossen ist, ist das ungünstig. Alexander Maasik empfiehlt: “Wenn es ein Teammitglied gibt, das am laufenden Band falsche Versprechungen gibt, von denen bereits vorher klar ist, dass sie unmöglich einzuhalten sind, sollten Sie seine Worte nicht mehr für bare Münze nehmen. Wenn Sie können, verlängern Sie den Zeitrahmen und/oder erhöhen Sie Budget oder Ressourceneinsatz, um Engpässe in anderen Bereichen kompensieren zu können.” Der Verantwortungsschieber
Foto: Africa Studio – shutterstock.comDann gibt es diese Kollegen, die das Collaboration-Prinzip der geteilten Verantwortung auf ihre ganz eigene Weise interpretieren. Getreu dem Motto: “Die anderen werden es schon richten.” Experte Maasik rät in einem solchen Fall dazu, dem betreffenden Mitarbeiter eine definierte Rolle und spezifizierte Verantwortlichkeiten im Team zuzuweisen. Alternativ könnten Sie den Verantwortungsschieber auch fragen, ob es Bereiche gibt, die ihn besonders interessieren. Eventuell könnten Sie so seine Leistungs-Leidenschaft neu entflammen. “Manchmal können Sie solche Leute motivieren, indem Sie ihnen Führungsverantwortung übertragen oder ihnen die Verantwortung für ein bestimmtes Gebiet/Thema übertragen, das ihnen am Herzen liegt. Sollte betreffender Kollege allerdings für ausschweifende Arbeitsunlust bekannt sein, hilft unglücklicherweise nur, ihn (oder sie) im Auge zu behalten und sich wenn nötig an höhere Instanzen zu wenden.”Der Fremdfeder-Connoisseur
Foto: pathdoc – shutterstock.comEs ist nur menschlich, nach Wertschätzung und Anerkennung zu streben. Aber einige Menschen übertreiben das in einem Ausmaß, dass sie fast schon selbst daran glauben, wenn sie sich fälschlicherweise die Erfolge anderer zuschreiben. Maasik: “Leider nimmt der Enthusiasmus dieser Leute rasant ab, wenn es darum geht, die Verantwortung für Misserfolge zu übernehmen. Um solchen Entwicklungen entgegenzuwirken, empfiehlt es sich, genau festzuhalten, wer für welchen Part der Projektarbeit zuständig ist. So können auch alle Beteiligten sehen, wer welchen Beitrag leistet. Sollte jemand auf das Einheimsen von Lorbeeren bestehen, stellen Sie sicher, dass derjenige auch im Fall des Misserfolgs sein Fett abbekommt.”Der Makel-Magnat
Foto: Photographee.eu – shutterstock.comNicht führt die Team-Moral schneller und geradliniger in den Abgrund, als einer, der ständig nur kritisiert, auf Fehler “hinweist” oder sich über jeden Aspekt eines Projekts nur beschwert. Egal, ob es um Zuständigkeiten, Workloads oder die Strategie geht, der Makel-Magnat hat einfach immer was zu meckern. “Dieses Verhalten ist absolutes Gift für das Teamwork. Diese Leute verbringen mehr Zeit damit, sich zu beschweren, als mit der Erfüllung ihrer Aufgaben. Der beste Weg solche Menschen zu handlen: 1. Ignorieren Sie das Gemecker, 2. Geben Sie ihm so viel Verantwortung, dass er (oder sie) keine Zeit mehr hat rumzujammern.”Der Aussteiger
Foto: YuriyZhuravov – shutterstock.comManche Leute arbeiten besser alleine. Ist auch gar kein Problem. Außer es handelt sich um Personen, die in Team-Projekte eingebunden sind. Dann könnte jemand, der Anweisungen aus Prinzip ignoriert und affin für Alleingänge ist, das ganze Projekt auf’s Spiel setzen. Deswegen empfiehlt auch Alexander Maasik, solche Leute lieber aufs “Abstellgleis” zu befördern: “Finden Sie einen Bereich im Projekt, an dem ein solcher Mitarbeiter alleine arbeiten oder sich selbst verwirklichen kann. So holen Sie das Maximum an Produktivität aus diesem Kollegen heraus und stellen gleichzeitig sicher, dass der Rest des Teams intakt bleibt.”

Narzissmus im Team: Wie man am Ego eines Narzissten kratzt​ Weiterlesen »

Unternehmen ignorieren Kununu-Feedback​

Allgemein

Laut Studie können die meisten Arbeitgeber nur schlecht mit Kritik umgehen.SuPatMaN/Shutterstock.com Das Arbeitgeberbewertungsportal Kununu ist wegen den zahlreichen Beurteilungen von früheren oder aktuellen Mitarbeitern eine beliebte Anlaufstelle für Jobsuchende. Nicht ohne Grund: Auch wenn Unternehmen dort häufig etwas zu negativ (oder positiv) dargestellt werden, geben die Bewertungen doch einen gewissen Einblick, wie der potenzielle neue Arbeitgeber so tickt. Darum profitieren auch die Unternehmen davon, sich auf Kununu ins rechte Licht rücken zu können – oder davon, sich zumindest damit zu beschäftigen, in welchen Bereichen sie sich verbessern können.   Kein Feedback unter dieser Nummer    Doch obwohl das Portal den Unternehmen die Möglichkeit gibt, auf Feedback zu reagieren, wird diese nur selten wahrgenommen: Neun von zehn Arbeitgebern lassen ihre Bewertungen komplett unbeantwortet, wie eine aktuelle Analyse der Unternehmensberatung Employer Telling zeigt. Für diese wurden 3,44 Millionen Bewertungen von nahezu 300.000 Unternehmen ausgewertet. Und selbst bei Arbeitgebern, die mindestens 50 Kununu-Bewertungen verzeichnen und damit eine relevante Wahrnehmung auf der Plattform besitzen, bleiben nahezu drei Viertel der Bewertungen (72 Prozent) unbeantwortet.  „Vielen Arbeitgebern fehlt das Ohr für die eigenen Mitarbeiter sowie das Gespür dafür, welche Rückschlüsse die Benutzer auf ihr Arbeitgeberimage ziehen“, kommentiert Sascha Theisen von Employer Telling die Studienergebnisse. Dabei zeigten wissenschaftliche Studien, dass Arbeitgeberantworten auf Bewertungen von mehr als 80 Prozent aller Kununu-User gelesen werden.  Mangelnde Kritikfähigkeit  Wenig überraschend fällt es den Unternehmen dabei besonders schwer, sich Kritik zu stellen. Laut der Untersuchung lag die Antwortquote bei Bewertungen, die nur ein bis maximal zwei Sterne vergaben, bei gerade einmal 3,4 Prozent.   Wurden dagegen 4,5 bis 5 Sterne (die Höchstwertung) vergeben, stieg die Antwortquote der Unternehmen auf überdurchschnittliche 42 Prozent. „Deutsche Arbeitgeber sind gut darin, sich brav für positives Feedback zu bedanken. Es fällt ihnen dagegen schwer, Farbe zu bekennen, wenn sie kritisiert werden. Souveränität, Kritikfähigkeit und Gelassenheit im Umgang mit Bewertungen sehen anders aus“, so Dr. Manfred Böcker von Employer Telling.  IT-Firmen im unteren Mittelfeld  Die höchsten Antwortquoten verzeichnen indes Branchen, die nicht unbedingt auf den Spitzenplätzen zu erwarten gewesen wären. So antworteten:  Arbeitgeber aus der Hotelsparte mit einer weit überdurchschnittlichen Quote von 42,5 Prozent, gefolgt von Steuerberatungen (36,2 Prozent),   Handwerksbetrieben (35,2 Prozent) sowie  Handelsunternehmen (35 Prozent).   Die ebenfalls von akutem Fachkräftemangel betroffene IT-Branche liegt dagegen mit einer Quote von 24,9 Prozent im unteren Mittelfeld. Auf den letzten Plätzen des Branchenrankings landen Automobilunternehmen (21 Prozent), Verwaltungs- und Administrationsorganisationen (18,6 Prozent), Forschungseinrichtungen (13,3 Prozent) und Sport- und Beauty-Unternehmen (8,1 Prozent).  

Unternehmen ignorieren Kununu-Feedback​ Laut Studie können die meisten Arbeitgeber nur schlecht mit Kritik umgehen.SuPatMaN/Shutterstock.com

Das Arbeitgeberbewertungsportal Kununu ist wegen den zahlreichen Beurteilungen von früheren oder aktuellen Mitarbeitern eine beliebte Anlaufstelle für Jobsuchende. Nicht ohne Grund: Auch wenn Unternehmen dort häufig etwas zu negativ (oder positiv) dargestellt werden, geben die Bewertungen doch einen gewissen Einblick, wie der potenzielle neue Arbeitgeber so tickt. Darum profitieren auch die Unternehmen davon, sich auf Kununu ins rechte Licht rücken zu können – oder davon, sich zumindest damit zu beschäftigen, in welchen Bereichen sie sich verbessern können.  

Kein Feedback unter dieser Nummer   

Doch obwohl das Portal den Unternehmen die Möglichkeit gibt, auf Feedback zu reagieren, wird diese nur selten wahrgenommen: Neun von zehn Arbeitgebern lassen ihre Bewertungen komplett unbeantwortet, wie eine aktuelle Analyse der Unternehmensberatung Employer Telling zeigt. Für diese wurden 3,44 Millionen Bewertungen von nahezu 300.000 Unternehmen ausgewertet. Und selbst bei Arbeitgebern, die mindestens 50 Kununu-Bewertungen verzeichnen und damit eine relevante Wahrnehmung auf der Plattform besitzen, bleiben nahezu drei Viertel der Bewertungen (72 Prozent) unbeantwortet. 

„Vielen Arbeitgebern fehlt das Ohr für die eigenen Mitarbeiter sowie das Gespür dafür, welche Rückschlüsse die Benutzer auf ihr Arbeitgeberimage ziehen“, kommentiert Sascha Theisen von Employer Telling die Studienergebnisse. Dabei zeigten wissenschaftliche Studien, dass Arbeitgeberantworten auf Bewertungen von mehr als 80 Prozent aller Kununu-User gelesen werden. 

Mangelnde Kritikfähigkeit 

Wenig überraschend fällt es den Unternehmen dabei besonders schwer, sich Kritik zu stellen. Laut der Untersuchung lag die Antwortquote bei Bewertungen, die nur ein bis maximal zwei Sterne vergaben, bei gerade einmal 3,4 Prozent.  

Wurden dagegen 4,5 bis 5 Sterne (die Höchstwertung) vergeben, stieg die Antwortquote der Unternehmen auf überdurchschnittliche 42 Prozent. „Deutsche Arbeitgeber sind gut darin, sich brav für positives Feedback zu bedanken. Es fällt ihnen dagegen schwer, Farbe zu bekennen, wenn sie kritisiert werden. Souveränität, Kritikfähigkeit und Gelassenheit im Umgang mit Bewertungen sehen anders aus“, so Dr. Manfred Böcker von Employer Telling. 

IT-Firmen im unteren Mittelfeld 

Die höchsten Antwortquoten verzeichnen indes Branchen, die nicht unbedingt auf den Spitzenplätzen zu erwarten gewesen wären. So antworteten: 

Arbeitgeber aus der Hotelsparte mit einer weit überdurchschnittlichen Quote von 42,5 Prozent,

gefolgt von Steuerberatungen (36,2 Prozent),  

Handwerksbetrieben (35,2 Prozent) sowie 

Handelsunternehmen (35 Prozent).  

Die ebenfalls von akutem Fachkräftemangel betroffene IT-Branche liegt dagegen mit einer Quote von 24,9 Prozent im unteren Mittelfeld. Auf den letzten Plätzen des Branchenrankings landen Automobilunternehmen (21 Prozent), Verwaltungs- und Administrationsorganisationen (18,6 Prozent), Forschungseinrichtungen (13,3 Prozent) und Sport- und Beauty-Unternehmen (8,1 Prozent). 

Unternehmen ignorieren Kununu-Feedback​ Weiterlesen »

Hacker stehlen 1,5 Milliarden Dollar​

Allgemein

width=”2500″ height=”1406″ sizes=”(max-width: 2500px) 100vw, 2500px”>Cyberkriminelle haben die Kryptobörse Bybit ausgeplündert.Elnur – shutterstock.com Cyberkriminelle haben ein Ether-Wallet der Kryptobörse Bybit geknackt und dabei Coins im Wert von rund 1,5 Milliarden Dollar gestohlen. Das Besondere an diesem Coup: Gestohlen wurde das Geld aus einer sogenannten Cold-Wallet, die nur temporär für Transaktionen mit dem Netz verbunden ist. Die in Dubai ansässige Kryptobörse Bybit ist eigenen Angaben zufolge nach Handelsvolumen die zweitgrößte Kryptobörse der Welt und bedient über 50 Millionen Kunden.  Bybit meldete den Angriff am 22. Februar. Am Tag zuvor hätten sie  während eines routinemäßigen Überweisungsvorgangs unbefugte Aktivitäten in einer ihrer Ethereum (ETH) Cold Wallets festgestellt, teilten die Verantwortlichen der Kryptobörse mit. Demzufolge seien über 400.000 ETH und stETH im Wert von mehr als 1,5 Milliarden Dollar an eine nicht identifizierte Adresse überwiesen worden. Die Kundengelder sind sicher und der Betrieb läuft weiter, beteuert Bybit-CEO Ben Zhou.Bybit Alle anderen Wallets seien von dem Angriff nicht betroffen, versicherte Bybit. Sämtliche regulären Abhebungen und Transaktionen funktionierten normal, erklärte CEO Ben Zhou. „Die Kundengelder sind sicher, und unser Betrieb läuft ohne Unterbrechung weiter.“ Man bleibe zahlungsfähig und verfüge über ausreichend Vermögenswerte, um die Verluste des Hacks zu decken, hieß es. Bei Bedarf werde man einen Überbrückungskredit in Anspruch nehmen.  Kunden ziehen Geld aus Kryptobörse ab Trotz aller Beteuerungen der Bybit-Verantwortlichen haben viele Kunden ihr Geld aus der Kryptobörse abgezogen. Innerhalb der ersten zwölf Stunden habe man 350.000 Abhebungen verbucht, hieß es in einer Mitteilung von Bybit. Am 24. Februar teilte die Börse mit, die ETH-Lücke der Kundengelder sei innerhalb von 72 Stunden vollständig geschlossen worden. Strategische Partnerschaften mit Firmen wie Galaxy Digital, FalconX und Wintermute, zusammen mit der Unterstützung von Bitget, MEXC und DWF Labs, hätten es ermöglicht, die Reserven in Rekordzeit wieder aufzufüllen. Cryptocrash 2022: Wann endet das Bitcoin-Blutbad? Offensichtlich ist man in der Kryptoszene bemüht, die Auswirkungen des größten Raubzugs der Geschichte möglichst gering zu halten und das Vertrauen der Kunden nicht zu verlieren. Ein Beben, wie es die Schockwellen nach dem Zusammenbruch der Krypto-Handelsplattform FTX von Sam Bankman-Fried im November 2022 auslösten, will man in der Branche offenbar um jeden Preis vermeiden.  Kryptobörse zahlungsunfähig: Der tiefe Fall von FTX Ganz gelungen ist das allerdings nicht: Der Bitcoin fiel am 25. Februar unter die Marke von 90.000 Dollar – das ist der tiefste Stand seit November 2024. Am Kryptomarkt lösten sich damit Werte von mehr als 100 Milliarden Dollar in Wohlgefallen auf.  Alles deutet auf Lazarus-Bande aus Nordkorea als Täter Wer hinter dem Diebstahl steckt, ist noch nicht endgültig geklärt. Erste Hinweise deuten indes daraufhin, dass die nordkoreanische Lazarus-Gruppe hinter dem Raub steckt. „Die Angreifer haben eine betrügerische Transaktion durchgeführt, die die Schnittstelle maskierte, die den Cold-Wallet-Unterzeichnern präsentiert wurde, die zur Überweisung von Geldern berechtigt sind“, erklärte Santiago Pontiroli, Acronis Lead TRU Researcher, gegenüber CSO. „Die Schnittstelle zeigte die korrekte Zieladresse an, während sie heimlich die zugrunde liegende Smart-Contract-Logik veränderte und den Angreifern die Kontrolle über die Cold Wallet gab.“  

Hacker stehlen 1,5 Milliarden Dollar​ width=”2500″ height=”1406″ sizes=”(max-width: 2500px) 100vw, 2500px”>Cyberkriminelle haben die Kryptobörse Bybit ausgeplündert.Elnur – shutterstock.com

Cyberkriminelle haben ein Ether-Wallet der Kryptobörse Bybit geknackt und dabei Coins im Wert von rund 1,5 Milliarden Dollar gestohlen. Das Besondere an diesem Coup: Gestohlen wurde das Geld aus einer sogenannten Cold-Wallet, die nur temporär für Transaktionen mit dem Netz verbunden ist. Die in Dubai ansässige Kryptobörse Bybit ist eigenen Angaben zufolge nach Handelsvolumen die zweitgrößte Kryptobörse der Welt und bedient über 50 Millionen Kunden. 

Bybit meldete den Angriff am 22. Februar. Am Tag zuvor hätten sie  während eines routinemäßigen Überweisungsvorgangs unbefugte Aktivitäten in einer ihrer Ethereum (ETH) Cold Wallets festgestellt, teilten die Verantwortlichen der Kryptobörse mit. Demzufolge seien über 400.000 ETH und stETH im Wert von mehr als 1,5 Milliarden Dollar an eine nicht identifizierte Adresse überwiesen worden.

Die Kundengelder sind sicher und der Betrieb läuft weiter, beteuert Bybit-CEO Ben Zhou.Bybit

Alle anderen Wallets seien von dem Angriff nicht betroffen, versicherte Bybit. Sämtliche regulären Abhebungen und Transaktionen funktionierten normal, erklärte CEO Ben Zhou. „Die Kundengelder sind sicher, und unser Betrieb läuft ohne Unterbrechung weiter.“ Man bleibe zahlungsfähig und verfüge über ausreichend Vermögenswerte, um die Verluste des Hacks zu decken, hieß es. Bei Bedarf werde man einen Überbrückungskredit in Anspruch nehmen. 

Kunden ziehen Geld aus Kryptobörse ab

Trotz aller Beteuerungen der Bybit-Verantwortlichen haben viele Kunden ihr Geld aus der Kryptobörse abgezogen. Innerhalb der ersten zwölf Stunden habe man 350.000 Abhebungen verbucht, hieß es in einer Mitteilung von Bybit. Am 24. Februar teilte die Börse mit, die ETH-Lücke der Kundengelder sei innerhalb von 72 Stunden vollständig geschlossen worden. Strategische Partnerschaften mit Firmen wie Galaxy Digital, FalconX und Wintermute, zusammen mit der Unterstützung von Bitget, MEXC und DWF Labs, hätten es ermöglicht, die Reserven in Rekordzeit wieder aufzufüllen.

Cryptocrash 2022: Wann endet das Bitcoin-Blutbad?

Offensichtlich ist man in der Kryptoszene bemüht, die Auswirkungen des größten Raubzugs der Geschichte möglichst gering zu halten und das Vertrauen der Kunden nicht zu verlieren. Ein Beben, wie es die Schockwellen nach dem Zusammenbruch der Krypto-Handelsplattform FTX von Sam Bankman-Fried im November 2022 auslösten, will man in der Branche offenbar um jeden Preis vermeiden. 

Kryptobörse zahlungsunfähig: Der tiefe Fall von FTX

Ganz gelungen ist das allerdings nicht: Der Bitcoin fiel am 25. Februar unter die Marke von 90.000 Dollar – das ist der tiefste Stand seit November 2024. Am Kryptomarkt lösten sich damit Werte von mehr als 100 Milliarden Dollar in Wohlgefallen auf. 

Alles deutet auf Lazarus-Bande aus Nordkorea als Täter

Wer hinter dem Diebstahl steckt, ist noch nicht endgültig geklärt. Erste Hinweise deuten indes daraufhin, dass die nordkoreanische Lazarus-Gruppe hinter dem Raub steckt. „Die Angreifer haben eine betrügerische Transaktion durchgeführt, die die Schnittstelle maskierte, die den Cold-Wallet-Unterzeichnern präsentiert wurde, die zur Überweisung von Geldern berechtigt sind“, erklärte Santiago Pontiroli, Acronis Lead TRU Researcher, gegenüber CSO. „Die Schnittstelle zeigte die korrekte Zieladresse an, während sie heimlich die zugrunde liegende Smart-Contract-Logik veränderte und den Angreifern die Kontrolle über die Cold Wallet gab.“ 

Hacker stehlen 1,5 Milliarden Dollar​ Weiterlesen »

Zieht Trump den Deutschen den Stecker?​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2455396913_16.jpg?quality=50&strip=all 3255w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2455396913_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2455396913_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2455396913_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2455396913_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2455396913_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2455396913_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2455396913_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2455396913_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2455396913_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2455396913_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Donald Trump könnte Deutschlands Abhängigkeit von US-Unternehmen wie Microsoft, Apple und Google dazu zu nutzen, um wirtschaftliche und politische Interessen durchzusetzen.Jonah Elkowitz/Shutterstock.com Der „Deal-Maker“ Donald Trump ist erst seit wenigen Wochen wieder im Amt. Und dennoch ist eines bereits sicher: Dass nichts sicher ist. Das gilt nicht nur für Grönland, Panama, Gaza oder die Ukraine, sondern auch für die hiesige IT-Welt. Neben Versprechen, 500 Milliarden Dollar in amerikanische KI-Projekte zu stecken, um Amerikas Vormachstellung auszubauen, lässt Trump auch anderweitig aufhorchen. Anstatt wie Joe Biden die amerikanische Chip-Produktion mit Subventionen anzukurbeln, droht Trump lieber mit Zöllen und Sanktionen. Man wolle das Chipgeschäft zurück in die USA holen, nachdem Taiwan es ihnen weggenommen hätte, ließ Trump im Weißen Haus verkünden. Andernfalls werde man nicht sehr glücklich sein. Man muss kein Trump-Kenner sein, um die unterschwellige Drohung zu verstehen.  Bereits während seiner ersten Amtszeit hatte Trump keine Probleme damit, US-Unternehmen spontan vorzuschreiben, wo sie einen Service anbieten dürfen – und wo nicht. Beispielsweise untersagte er Adobe, weiterhin in Venezuela aktiv zu sein. Letztlich machte Trump wie so oft eine Kehrtwende. Verlassen kann man sich darauf als deutsche Behörde oder Unternehmen allerdings nicht.  Digitale Abhängigkeit als Druckmittel  Selbst den letzten Zweiflern wird nun klar, dass Trump 2.0 keine Probleme damit haben dürfte, die globale Abhängigkeit von US-Unternehmen wie Microsoft, Apple und Google dazu zu nutzen, um wirtschaftliche und politische Interessen durchzusetzen. Will Dänemark Grönland nicht verkaufen, hilft es womöglich, wenn Microsoft über Nacht seine Cloud-Lösung in Dänemark deaktiviert. Dass Microsoft nur noch Cloud-Lösungen anbieten wird, macht dieses Druckmittel umso attraktiver.  Sich in Deutschland sicher zu wähnen, weil es hierzulande keine nennenswerten Bodenschätze gibt, wäre töricht. Nicht nur Elon Musk mischt sich derzeit gerne in die Angelegenheiten anderer Länder ein. Jemand, der sich den Gazastreifen aneignen möchte, um ihn in eine Touristenhochburg zu verwandeln, hat sicherlich auch keine Skrupel, die Verteidigungsausgaben der NATO-Mitgliedstaaten mit „ein wenig“ Druck zu erhöhen. Wer die fünf Prozent des Bruttoinlandsprodukts nicht berappen möchte, muss womöglich plötzlich auf Microsoft und Apple verzichten. Vielen deutschen Behörden und Unternehmen würde damit sprichwörtlich der Stecker gezogen, da kaum noch ein digitaler Arbeitsplatz funktionieren würde.  Immerhin hatte die Bundesregierung vor einigen Jahren die Einsicht, dass europäische Software-Lösungen, die auf Open Source basieren, deutlich mehr Sicherheit bieten als proprietäre Software-Angebote von amerikanischen IT-Riesen mit Monopolstatus. Infolgedessen wurde vor zwei Jahren zum Beispiel das Zentrum für Digitale Souveränität der Verwaltung (ZenDiS) gegründet. Ziel dieses „Kompetenz- und Servicezentrums“ ist die Stärkung der Digitalen Souveränität von Bund, Ländern und Kommunen. Mit openDesk steht seit der Smart Country Convention im Oktober 2024 mittlerweile auch eine „Office & Collaboration Suite” zur Verfügung, die eine sichere Alternative zu den Angeboten von Microsoft & Co darstellt. Denn dieser digitale Arbeitsplatz wurde von europäischen Open-Source-Spezialisten entwickelt – und die Kontrolle liegt beim ZenDiS, also einer GmbH des Bundes.  Problematisch ist jedoch, dass bislang noch zu wenige Behörden und Ämter von diesem Angebot Gebrauch machen. Trotz der neuen Möglichkeiten halten viele Bundesländer und Behörden an ihren bestehenden IT-Strukturen fest – zumindest noch. Hinzu kommt, dass die Investitionen in Open Source letztlich deutlich geringer ausfielen, als es im Koalitionsvertrag angekündigt worden war. Eigentlich hatte die Noch-Bundesregierung ihr Open-Source-Engagement um 37,5 Millionen Euro auf über 50 Millionen Euro aufstocken wollen, um die digitale Souveränität in Deutschland voranzutreiben. Doch obwohl selbst dieses Budget im Vergleich zu Trumps 500-Milliarden-KI-Subvention verschwindend gering ausgefallen wäre, flossen am Ende deutlich weniger Millionen.  Politischer Wille ist wichtig  Wie sich in Schleswig-Holstein zeigt, kann die Politik viel bewegen – wenn sie denn will. Mit der Unterstützung des schleswig-holsteinischen Digitalisierungsministers Dirk Schrödter wurde hier eine „Open Innovation und Open Source Strategie“ entwickelt, um technologische ebenso wie wirtschaftliche Abhängigkeiten zu minimieren. Bei der Umstrukturierung der Verwaltungs-IT ist man hier deshalb deutlich weiter als in anderen Teilen Deutschlands. Einige Bundesländer und Behörden haben nun bereits Interesse signalisiert, dem Beispiel Schleswig-Holsteins zu folgen. Dass Donald Trump wieder im Weißen Haus sitzt, dürfte dabei durchaus eine Rolle spielen. Ungewollt könnte Trump so zum Treiber der Digitalen Souveränität in Deutschland werden.  Wie es nun weitergeht, hängt stark von der nächsten Bundesregierung ab. Denn ohne politischen Willen und größere Geldtöpfe wird es zumindest flächendeckend keine Digitale Souveränität in Deutschland geben. Womöglich hilft es, wenn man sich in Berlin vergegenwärtigt, dass es deutlich billiger ist, in europäische Open-Source-Lösungen zu investieren, als weiterhin Milliarden für Softwarelizenzen auszugeben. Allein der Bund gibt in den nächsten fünf Jahren rund 6 Milliarden Euro für IT-Leistungen aus und zahlt für Lizenzen, die bereits 2025 auslaufen, rund 1,28 Milliarden Euro an Microsoft. Hinzu kommen weitere Unsummen der Bundesländer für Lizenzen und Abo-Gebühren. Im Vergleich zu diesen Milliardenbeträgen wäre die Förderung von Open-Source- Projekten und damit die digitale Unabhängigkeit Deutschlands zum Schnäppchen-Preis erhältlich.  

Zieht Trump den Deutschen den Stecker?​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2455396913_16.jpg?quality=50&strip=all 3255w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2455396913_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2455396913_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2455396913_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2455396913_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2455396913_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2455396913_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2455396913_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2455396913_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2455396913_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/02/shutterstock_2455396913_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Donald Trump könnte Deutschlands Abhängigkeit von US-Unternehmen wie Microsoft, Apple und Google dazu zu nutzen, um wirtschaftliche und politische Interessen durchzusetzen.Jonah Elkowitz/Shutterstock.com

Der „Deal-Maker“ Donald Trump ist erst seit wenigen Wochen wieder im Amt. Und dennoch ist eines bereits sicher: Dass nichts sicher ist. Das gilt nicht nur für Grönland, Panama, Gaza oder die Ukraine, sondern auch für die hiesige IT-Welt. Neben Versprechen, 500 Milliarden Dollar in amerikanische KI-Projekte zu stecken, um Amerikas Vormachstellung auszubauen, lässt Trump auch anderweitig aufhorchen. Anstatt wie Joe Biden die amerikanische Chip-Produktion mit Subventionen anzukurbeln, droht Trump lieber mit Zöllen und Sanktionen. Man wolle das Chipgeschäft zurück in die USA holen, nachdem Taiwan es ihnen weggenommen hätte, ließ Trump im Weißen Haus verkünden. Andernfalls werde man nicht sehr glücklich sein. Man muss kein Trump-Kenner sein, um die unterschwellige Drohung zu verstehen. 

Bereits während seiner ersten Amtszeit hatte Trump keine Probleme damit, US-Unternehmen spontan vorzuschreiben, wo sie einen Service anbieten dürfen – und wo nicht. Beispielsweise untersagte er Adobe, weiterhin in Venezuela aktiv zu sein. Letztlich machte Trump wie so oft eine Kehrtwende. Verlassen kann man sich darauf als deutsche Behörde oder Unternehmen allerdings nicht. 

Digitale Abhängigkeit als Druckmittel 

Selbst den letzten Zweiflern wird nun klar, dass Trump 2.0 keine Probleme damit haben dürfte, die globale Abhängigkeit von US-Unternehmen wie Microsoft, Apple und Google dazu zu nutzen, um wirtschaftliche und politische Interessen durchzusetzen. Will Dänemark Grönland nicht verkaufen, hilft es womöglich, wenn Microsoft über Nacht seine Cloud-Lösung in Dänemark deaktiviert. Dass Microsoft nur noch Cloud-Lösungen anbieten wird, macht dieses Druckmittel umso attraktiver. 

Sich in Deutschland sicher zu wähnen, weil es hierzulande keine nennenswerten Bodenschätze gibt, wäre töricht. Nicht nur Elon Musk mischt sich derzeit gerne in die Angelegenheiten anderer Länder ein. Jemand, der sich den Gazastreifen aneignen möchte, um ihn in eine Touristenhochburg zu verwandeln, hat sicherlich auch keine Skrupel, die Verteidigungsausgaben der NATO-Mitgliedstaaten mit „ein wenig“ Druck zu erhöhen. Wer die fünf Prozent des Bruttoinlandsprodukts nicht berappen möchte, muss womöglich plötzlich auf Microsoft und Apple verzichten. Vielen deutschen Behörden und Unternehmen würde damit sprichwörtlich der Stecker gezogen, da kaum noch ein digitaler Arbeitsplatz funktionieren würde. 

Immerhin hatte die Bundesregierung vor einigen Jahren die Einsicht, dass europäische Software-Lösungen, die auf Open Source basieren, deutlich mehr Sicherheit bieten als proprietäre Software-Angebote von amerikanischen IT-Riesen mit Monopolstatus. Infolgedessen wurde vor zwei Jahren zum Beispiel das Zentrum für Digitale Souveränität der Verwaltung (ZenDiS) gegründet. Ziel dieses „Kompetenz- und Servicezentrums“ ist die Stärkung der Digitalen Souveränität von Bund, Ländern und Kommunen. Mit openDesk steht seit der Smart Country Convention im Oktober 2024 mittlerweile auch eine „Office & Collaboration Suite” zur Verfügung, die eine sichere Alternative zu den Angeboten von Microsoft & Co darstellt. Denn dieser digitale Arbeitsplatz wurde von europäischen Open-Source-Spezialisten entwickelt – und die Kontrolle liegt beim ZenDiS, also einer GmbH des Bundes. 

Problematisch ist jedoch, dass bislang noch zu wenige Behörden und Ämter von diesem Angebot Gebrauch machen. Trotz der neuen Möglichkeiten halten viele Bundesländer und Behörden an ihren bestehenden IT-Strukturen fest – zumindest noch. Hinzu kommt, dass die Investitionen in Open Source letztlich deutlich geringer ausfielen, als es im Koalitionsvertrag angekündigt worden war. Eigentlich hatte die Noch-Bundesregierung ihr Open-Source-Engagement um 37,5 Millionen Euro auf über 50 Millionen Euro aufstocken wollen, um die digitale Souveränität in Deutschland voranzutreiben. Doch obwohl selbst dieses Budget im Vergleich zu Trumps 500-Milliarden-KI-Subvention verschwindend gering ausgefallen wäre, flossen am Ende deutlich weniger Millionen. 

Politischer Wille ist wichtig 

Wie sich in Schleswig-Holstein zeigt, kann die Politik viel bewegen – wenn sie denn will. Mit der Unterstützung des schleswig-holsteinischen Digitalisierungsministers Dirk Schrödter wurde hier eine „Open Innovation und Open Source Strategie“ entwickelt, um technologische ebenso wie wirtschaftliche Abhängigkeiten zu minimieren. Bei der Umstrukturierung der Verwaltungs-IT ist man hier deshalb deutlich weiter als in anderen Teilen Deutschlands. Einige Bundesländer und Behörden haben nun bereits Interesse signalisiert, dem Beispiel Schleswig-Holsteins zu folgen. Dass Donald Trump wieder im Weißen Haus sitzt, dürfte dabei durchaus eine Rolle spielen. Ungewollt könnte Trump so zum Treiber der Digitalen Souveränität in Deutschland werden. 

Wie es nun weitergeht, hängt stark von der nächsten Bundesregierung ab. Denn ohne politischen Willen und größere Geldtöpfe wird es zumindest flächendeckend keine Digitale Souveränität in Deutschland geben. Womöglich hilft es, wenn man sich in Berlin vergegenwärtigt, dass es deutlich billiger ist, in europäische Open-Source-Lösungen zu investieren, als weiterhin Milliarden für Softwarelizenzen auszugeben. Allein der Bund gibt in den nächsten fünf Jahren rund 6 Milliarden Euro für IT-Leistungen aus und zahlt für Lizenzen, die bereits 2025 auslaufen, rund 1,28 Milliarden Euro an Microsoft. Hinzu kommen weitere Unsummen der Bundesländer für Lizenzen und Abo-Gebühren. Im Vergleich zu diesen Milliardenbeträgen wäre die Förderung von Open-Source- Projekten und damit die digitale Unabhängigkeit Deutschlands zum Schnäppchen-Preis erhältlich. 

Zieht Trump den Deutschen den Stecker?​ Weiterlesen »

CIO des Jahres 2025 – Wettbewerb startet​

Allgemein

loading=”lazy” width=”400px”>Siegerinnen und Sieger des vergangenen Jahres jubeln über ihre CIO des Jahres Awards. Machen Sie mit und bewerben Sie sich – dann stehen Sie vielleicht im Oktober 2025 auf der großen Gala-Bühne und dürfen sich über die renommierteste IT-Auszeichnung Deutschlands freuen. cio.de / Tobias Tschepe Es ist wieder so weit: Der renommierteste IT-Award Deutschlands ist startklar. Bis zum 9. Mai 2025 laden wir CIOs, IT-Vorstände aber auch CISOs und Digital-Verantwortliche aus Unternehmen sowie Öffentlichen Einrichtungen in Bund, Ländern und Kommunen herzlich ein, sich mit spannenden IT-Projekten für den „CIO des Jahres 2025“ zu bewerben.  +++ Machen Sie mit beim CIO des Jahres Award 2025 +++   Wie immer küren wir die Gewinnerinnen und Gewinner in den Kategorien Großunternehmen, Mittelstand und Public Sector. Darüber hinaus vergibt die Jury wieder eine Reihe von Special Awards – unter anderem zu den Themen Artificial Intelligence, Customer Experience, Cloud Excellence und Sustainability.  Alle Preisträgerinnen und Preisträger sowie die Finalistinnen und Finalisten, die es unter die jeweiligen Top-5 geschafft haben, zeichnen wir im Rahmen unserer feierlichen Award-Gala am 16. Oktober 2025 in München aus.  Foundry Machen Sie also mit und bewerben Sie sich für den CIO des Jahres 2025. Wir freuen uns auf Ihre Teilnahme. Alle weiteren Informationen zum Wettbewerb und alle Unterlagen finden Sie ab sofort unter:  CIO des Jahres 2025 – jetzt bewerben! 

CIO des Jahres 2025 – Wettbewerb startet​ loading=”lazy” width=”400px”>Siegerinnen und Sieger des vergangenen Jahres jubeln über ihre CIO des Jahres Awards. Machen Sie mit und bewerben Sie sich – dann stehen Sie vielleicht im Oktober 2025 auf der großen Gala-Bühne und dürfen sich über die renommierteste IT-Auszeichnung Deutschlands freuen. cio.de / Tobias Tschepe

Es ist wieder so weit: Der renommierteste IT-Award Deutschlands ist startklar. Bis zum 9. Mai 2025 laden wir CIOs, IT-Vorstände aber auch CISOs und Digital-Verantwortliche aus Unternehmen sowie Öffentlichen Einrichtungen in Bund, Ländern und Kommunen herzlich ein, sich mit spannenden IT-Projekten für den „CIO des Jahres 2025“ zu bewerben. 

+++ Machen Sie mit beim CIO des Jahres Award 2025 +++  

Wie immer küren wir die Gewinnerinnen und Gewinner in den Kategorien Großunternehmen, Mittelstand und Public Sector. Darüber hinaus vergibt die Jury wieder eine Reihe von Special Awards – unter anderem zu den Themen Artificial Intelligence, Customer Experience, Cloud Excellence und Sustainability. 

Alle Preisträgerinnen und Preisträger sowie die Finalistinnen und Finalisten, die es unter die jeweiligen Top-5 geschafft haben, zeichnen wir im Rahmen unserer feierlichen Award-Gala am 16. Oktober 2025 in München aus. 

Foundry

Machen Sie also mit und bewerben Sie sich für den CIO des Jahres 2025. Wir freuen uns auf Ihre Teilnahme. Alle weiteren Informationen zum Wettbewerb und alle Unterlagen finden Sie ab sofort unter: 

CIO des Jahres 2025 – jetzt bewerben!

CIO des Jahres 2025 – Wettbewerb startet​ Weiterlesen »

So funktioniert achtsame Führung​

Allgemein

Achtsame Führungskräfte, die in ihrem Team großen Wert auf Kommunikation und zwischenmenschliche Beziehungen legen, erhöhen die Leistungsbereitschaft und stärken den Zusammenhalt sowie die Bindung ans Unternehmen. Butsaya – shutterstock.com Viele Branchen durchlaufen gerade einen massiven Umbruch. Sie passen sich organisatorisch an, führen moderne Technologien ein und entwickeln neue Geschäftsmodelle. Damit einher geht eine grundlegend veränderte Arbeitswelt und ein Umdenken in der Unternehmenskultur. Mitten in dieser Transformation befinden sich Führungskräfte. Sie sind Betroffene des Wandels und nehmen zugleich eine entscheidende Rolle als Vorbild und Multiplikator ein. Eine Belastung, die durch ständig zunehmende Rollen, Aufgaben, Erwartungen und Verantwortungen noch verstärkt wird. Besonders Frauen in Führungspositionen fühlen sich dauergestresst und erschöpft.  Ein Mittel dagegen kann Achtsamkeit sein, dessen Wirksamkeit längst vielseitig belegt ist. Besonders positive Effekte zeigen sich auf die Gesundheit und das allgemeine Wohlbefinden. So gelten bewusste Atemübungen und Mikropausen, achtsamkeitsbasierte Interventionen und angeleitete Meditationen als hilfreich, um die Selbstregulation zu stärken und gelassener mit Veränderungen oder Belastungen umzugehen. Gleichzeitig erhöhen solche Methoden die Gedächtnisleistung, die Kreativität, die Verhandlungs- und Problemlösungsfähigkeit.  Die mentale Gesundheit stärken „Diese Effekte sollten sich Unternehmen zunutze machen, um die mentale Gesundheit ihrer Beschäftigten zu stärken. Denn wer sich an seinem Arbeitsplatz wohlfühlt, ist zufriedener, meldet sich seltener krank und fühlt sich dem Arbeitgeber stärker verbunden“, sagt Sarah Lange, Managerin im Bereich People & Culture bei der IT- und Managementberatung MHP. Gemeinsam mit ihrem Team unterstützt sie Kunden mit einer ganzen Reihe an Angeboten dabei, mehr Achtsamkeit in den Arbeitsalltag zu bringen und das Thema in Transformationsprojekten oben auf die Agenda zu setzen.  Was passiert, wenn Achtsamkeit praktiziert wird, erforschte die Personalerin in ihrer Dissertation am Lehrstuhl für Personalentwicklung und Veränderungsmanagement. Ein Ergebnis: Führungskräfte, die im Umgang mit sich selbst und ihren Mitarbeitenden achtsam sind, haben ein reguliertes Stresslevel, was wiederum zu mehr Fokus, besseren Entscheidungen und weniger Fehlern führt. Außerdem agieren sie weniger destruktiv und gleichzeitig transformationaler.  Ein transformationaler Führungsstil zeichnet sich durch die Funktion von Führungskräften als Vorbild aus. Indem Vorgesetzte ihr Team inspirieren, intrinsisch motivieren, die individuellen Stärken fördern und hohen Wert auf Kommunikation und zwischenmenschliche Beziehungen legen, erhöhen sie die Leistungs- und Lernbereitschaft und stärken den Zusammenhalt sowie die Bindung ans Unternehmen.   „Führungsstil und -verhalten können in Zeiten, in denen viele Change-Projekte scheitern oder nicht nachhaltig wirken, einen echten Unterschied machen“, meint Lange. Denn Führungskräfte seien maßgeblich beteiligt, Veränderung zu gestalten, und aufgefordert, in unruhigen Phasen eine Balance zwischen Druck und Unterstützung zu finden.  Erst in Präsenz, dann per App Achtsamkeit kann helfen, die richtige Balance zu finden. Das bedeutet, die Aufmerksamkeit bewusst auf den gegenwärtigen Moment zu lenken, das eigene Verhalten und das des Gegenübers wahrzunehmen und zu reflektieren. Damit einher geht eine Haltung der Offenheit, Akzeptanz, Geduld und des Mitgefühls. Doch wie kommt man als Führungskraft dahin? Zum Beispiel mit Mindful Leadership Trainings.   Klassische Bestandteile dieser Trainings sind Elemente aus dem lösungsorientierten systemischen Coaching. Oft geht es um konkrete Situationen im Arbeitsumfeld:   Wie reguliert man im Konflikt seine Emotionen?   Wie behält man unter Druck einen kühlen Kopf? Wie erkennt man Überlastungssignale bei sich selbst und im Team?   Wie geht man mit Angst vor Veränderung um?   In der Beratungspraxis erlebe sie, so Lange, dass solche Trainings nicht nur das Führungsverhalten der Teilnehmenden enorm verbessern, sondern sich auch der Gemütszustand verändere. In der Folge fühle sich auch das Team wohler und gelassener. Verstärkt werden die Ergebnisse aus den Präsenztrainings, wenn Achtsamkeitsübungen per App weiterverfolgt werden.  Neben den achtsamkeitsbasierten Trainings- und Coaching-Ansätzen eignen sich spezielle Schulungsprogramme, um einen gesunden Umgang mit permanenter Veränderung sowie das Selbstwirksamkeitsempfinden zu fördern. Das Fundament solcher Maßnahmen ist häufig die Arbeit mit Werten und die Ausrichtung auf die Sinnhaftigkeit der Veränderung, den Einfluss und Wirkungskreis jeder einzelnen Person sowie die Stärkung des Zusammengehörigkeitsgefühls durch die gemeinsame Erarbeitung von Transformationsvisionen.   In Transformationscoachings sollen Organisationen herausfinden, was ihre Werte und Ziele sind und was sie brauchen, um Ziele zu erreichen. Die erarbeitete Vision wird Top-down von der Geschäftsleitung auf die unterschiedlichen Führungsebenen und dann auf die einzelnen Teams ausgerollt. So werden bei der gemeinsamen Arbeit an Zielbildern und Transformationsstrategien alle einbezogen. Geachtet werden sollte stets auf die psychologische Sicherheit, das Kompetenzgefühl im Team, einen achtsamen Umgang miteinander durch eine achtsame Kommunikation und ein wohlwollendes Mindset. Anschließend erfolgt die Implementierung ins Unternehmen.  Neue Rituale etablieren Es geht aber auch unterschwelliger: So helfen sogenannte Body Scans mit einzelnen Körperteilen, wieder stärker ins Fühlen und in Verbindung mit sich selbst zu kommen. Die Aufmerksamkeit wird dabei auf ein positives Gefühl eines bestimmten Moments gelenkt, das dann näher beschrieben wird: Wo genau sitzt das Gefühl? Wenn es eine Farbe oder ein Klang wäre, wie würde es aussehen oder sich anhören?   Allein durch das Verweilen bei Körperempfindungen, Gedanken und Gefühlen entsteht Achtsamkeit. Die Angebote können aber auch dazu genutzt werden, um Ziele zu manifestieren und Bilder im Kopf zu erzeugen, sowie um negative Gefühle zu bearbeiten. Im Anschluss hilft eine Defusionsübung aus der Akzeptanz- und Commitment-Therapie, diese Gefühle wieder loszulassen.  Eine weitere Möglichkeit, um Achtsamkeit in den Arbeitsalltag zu integrieren: Communities zu bilden, in denen das Thema achtsame Kommunikation behandelt und geübt wird. Hier schafft man zunächst einen angenehmen und geschützten Raum, in dem man sich offen und persönlich austauscht. Allein dieser Austausch bewirkt, dass Achtsamkeit angenommen und damit entstigmatisiert wird.  „Ich empfehle in und um Meetings herum neue Rituale wie Check-ins und Check-outs mit Bildkarten, Energiebarometer, kurze Meditationen und die „stille Stunde“ zu implementieren“, sagt Lange. „Speziell in Konfliktsituationen können Führungskräfte mit systemischen Fragen arbeiten, um einen Perspektivwechsel zu bewirken, und wohlwollende Hypothesen nutzen, um Empathie füreinander zu erzeugen.“ Mit diesem Blumenstrauß an Tools, wird Achtsamkeit tatsächlich zum Erfolgsfaktor.  

So funktioniert achtsame Führung​ Achtsame Führungskräfte, die in ihrem Team großen Wert auf Kommunikation und zwischenmenschliche Beziehungen legen, erhöhen die Leistungsbereitschaft und stärken den Zusammenhalt sowie die Bindung ans Unternehmen. Butsaya – shutterstock.com

Viele Branchen durchlaufen gerade einen massiven Umbruch. Sie passen sich organisatorisch an, führen moderne Technologien ein und entwickeln neue Geschäftsmodelle. Damit einher geht eine grundlegend veränderte Arbeitswelt und ein Umdenken in der Unternehmenskultur. Mitten in dieser Transformation befinden sich Führungskräfte. Sie sind Betroffene des Wandels und nehmen zugleich eine entscheidende Rolle als Vorbild und Multiplikator ein. Eine Belastung, die durch ständig zunehmende Rollen, Aufgaben, Erwartungen und Verantwortungen noch verstärkt wird. Besonders Frauen in Führungspositionen fühlen sich dauergestresst und erschöpft. 

Ein Mittel dagegen kann Achtsamkeit sein, dessen Wirksamkeit längst vielseitig belegt ist. Besonders positive Effekte zeigen sich auf die Gesundheit und das allgemeine Wohlbefinden. So gelten bewusste Atemübungen und Mikropausen, achtsamkeitsbasierte Interventionen und angeleitete Meditationen als hilfreich, um die Selbstregulation zu stärken und gelassener mit Veränderungen oder Belastungen umzugehen. Gleichzeitig erhöhen solche Methoden die Gedächtnisleistung, die Kreativität, die Verhandlungs- und Problemlösungsfähigkeit. 

Die mentale Gesundheit stärken

„Diese Effekte sollten sich Unternehmen zunutze machen, um die mentale Gesundheit ihrer Beschäftigten zu stärken. Denn wer sich an seinem Arbeitsplatz wohlfühlt, ist zufriedener, meldet sich seltener krank und fühlt sich dem Arbeitgeber stärker verbunden“, sagt Sarah Lange, Managerin im Bereich People & Culture bei der IT- und Managementberatung MHP. Gemeinsam mit ihrem Team unterstützt sie Kunden mit einer ganzen Reihe an Angeboten dabei, mehr Achtsamkeit in den Arbeitsalltag zu bringen und das Thema in Transformationsprojekten oben auf die Agenda zu setzen. 

Was passiert, wenn Achtsamkeit praktiziert wird, erforschte die Personalerin in ihrer Dissertation am Lehrstuhl für Personalentwicklung und Veränderungsmanagement. Ein Ergebnis: Führungskräfte, die im Umgang mit sich selbst und ihren Mitarbeitenden achtsam sind, haben ein reguliertes Stresslevel, was wiederum zu mehr Fokus, besseren Entscheidungen und weniger Fehlern führt. Außerdem agieren sie weniger destruktiv und gleichzeitig transformationaler. 

Ein transformationaler Führungsstil zeichnet sich durch die Funktion von Führungskräften als Vorbild aus. Indem Vorgesetzte ihr Team inspirieren, intrinsisch motivieren, die individuellen Stärken fördern und hohen Wert auf Kommunikation und zwischenmenschliche Beziehungen legen, erhöhen sie die Leistungs- und Lernbereitschaft und stärken den Zusammenhalt sowie die Bindung ans Unternehmen.  

„Führungsstil und -verhalten können in Zeiten, in denen viele Change-Projekte scheitern oder nicht nachhaltig wirken, einen echten Unterschied machen“, meint Lange. Denn Führungskräfte seien maßgeblich beteiligt, Veränderung zu gestalten, und aufgefordert, in unruhigen Phasen eine Balance zwischen Druck und Unterstützung zu finden. 

Erst in Präsenz, dann per App

Achtsamkeit kann helfen, die richtige Balance zu finden. Das bedeutet, die Aufmerksamkeit bewusst auf den gegenwärtigen Moment zu lenken, das eigene Verhalten und das des Gegenübers wahrzunehmen und zu reflektieren. Damit einher geht eine Haltung der Offenheit, Akzeptanz, Geduld und des Mitgefühls. Doch wie kommt man als Führungskraft dahin? Zum Beispiel mit Mindful Leadership Trainings.  

Klassische Bestandteile dieser Trainings sind Elemente aus dem lösungsorientierten systemischen Coaching. Oft geht es um konkrete Situationen im Arbeitsumfeld:  

Wie reguliert man im Konflikt seine Emotionen?  

Wie behält man unter Druck einen kühlen Kopf?

Wie erkennt man Überlastungssignale bei sich selbst und im Team?  

Wie geht man mit Angst vor Veränderung um?  

In der Beratungspraxis erlebe sie, so Lange, dass solche Trainings nicht nur das Führungsverhalten der Teilnehmenden enorm verbessern, sondern sich auch der Gemütszustand verändere. In der Folge fühle sich auch das Team wohler und gelassener. Verstärkt werden die Ergebnisse aus den Präsenztrainings, wenn Achtsamkeitsübungen per App weiterverfolgt werden. 

Neben den achtsamkeitsbasierten Trainings- und Coaching-Ansätzen eignen sich spezielle Schulungsprogramme, um einen gesunden Umgang mit permanenter Veränderung sowie das Selbstwirksamkeitsempfinden zu fördern. Das Fundament solcher Maßnahmen ist häufig die Arbeit mit Werten und die Ausrichtung auf die Sinnhaftigkeit der Veränderung, den Einfluss und Wirkungskreis jeder einzelnen Person sowie die Stärkung des Zusammengehörigkeitsgefühls durch die gemeinsame Erarbeitung von Transformationsvisionen.  

In Transformationscoachings sollen Organisationen herausfinden, was ihre Werte und Ziele sind und was sie brauchen, um Ziele zu erreichen. Die erarbeitete Vision wird Top-down von der Geschäftsleitung auf die unterschiedlichen Führungsebenen und dann auf die einzelnen Teams ausgerollt. So werden bei der gemeinsamen Arbeit an Zielbildern und Transformationsstrategien alle einbezogen. Geachtet werden sollte stets auf die psychologische Sicherheit, das Kompetenzgefühl im Team, einen achtsamen Umgang miteinander durch eine achtsame Kommunikation und ein wohlwollendes Mindset. Anschließend erfolgt die Implementierung ins Unternehmen. 

Neue Rituale etablieren

Es geht aber auch unterschwelliger: So helfen sogenannte Body Scans mit einzelnen Körperteilen, wieder stärker ins Fühlen und in Verbindung mit sich selbst zu kommen. Die Aufmerksamkeit wird dabei auf ein positives Gefühl eines bestimmten Moments gelenkt, das dann näher beschrieben wird: Wo genau sitzt das Gefühl? Wenn es eine Farbe oder ein Klang wäre, wie würde es aussehen oder sich anhören?  

Allein durch das Verweilen bei Körperempfindungen, Gedanken und Gefühlen entsteht Achtsamkeit. Die Angebote können aber auch dazu genutzt werden, um Ziele zu manifestieren und Bilder im Kopf zu erzeugen, sowie um negative Gefühle zu bearbeiten. Im Anschluss hilft eine Defusionsübung aus der Akzeptanz- und Commitment-Therapie, diese Gefühle wieder loszulassen. 

Eine weitere Möglichkeit, um Achtsamkeit in den Arbeitsalltag zu integrieren: Communities zu bilden, in denen das Thema achtsame Kommunikation behandelt und geübt wird. Hier schafft man zunächst einen angenehmen und geschützten Raum, in dem man sich offen und persönlich austauscht. Allein dieser Austausch bewirkt, dass Achtsamkeit angenommen und damit entstigmatisiert wird. 

„Ich empfehle in und um Meetings herum neue Rituale wie Check-ins und Check-outs mit Bildkarten, Energiebarometer, kurze Meditationen und die „stille Stunde“ zu implementieren“, sagt Lange. „Speziell in Konfliktsituationen können Führungskräfte mit systemischen Fragen arbeiten, um einen Perspektivwechsel zu bewirken, und wohlwollende Hypothesen nutzen, um Empathie füreinander zu erzeugen.“ Mit diesem Blumenstrauß an Tools, wird Achtsamkeit tatsächlich zum Erfolgsfaktor. 

So funktioniert achtsame Führung​ Weiterlesen »

Cyber-Sicherheit 2025: Experten berichten aus der Praxis​

Allgemein

Cyber-Bedrohungen bleiben eines der größten Sicherheitsrisken für Unternehmen in der DACH-Region. Im Jahr 2024 verzeichneten sie laut dem aktuellen Global Security Research Report von Fastly durchschnittlich 41 Sicherheitsvorfälle und benötigten nahezu 6,5 Monate, um sich davon wieder zu erholen. Angesichts der Bedrohungslage ist unbestritten, dass Firmen weiterhin in ihre IT-Sicherheit investieren. 62 Prozent von ihnen verstehen die Investitionen in die Cybersicherheit auch als eine Maßnahme, mit der sie die Umsatz- und Wachstumsziele ihres Unternehmens unterstützen. Zugleich geben aber auch nahezu drei Viertel der Befragten an, dass sie ihre Sicherheitslösungen aufgrund knapper Budgets konsolidieren wollen. Wie können sich Firmen in dieser Lage optimal auf aktuelle und zukünftige Cyber-Bedrohungen vorbereiten? Welche Investitionen in IT-Sicherheit sind sinnvoll, welche Geldverschwendung? Mit diesen Fragen beschäftigt sich ein COMPUTERWOCHE Webcast in Zusammenarbeit mit Fastly. Sie erhalten Einblicke in die zentralen Ergebnisse des Global Security Research Report von Fastly, für den weltweit 1.800 IT-Professionals befragt wurden und erfahren, auf welche Cyberbedrohungen Sie sich im Jahr 2025 und darüber hinaus einstellen müssen. Der Webcast zeigt außerdem auf,  wie Security-Experten in der Praxis arbeiten und wie Unternehmen darauf basierend ihre Cyber-Sicherheitsstrategie erfolgreich weiterentwickeln können. Der Fachjournalist Dr. Thomas Hafen wird den Webcast moderieren. Registrieren Sie sich jetzt 

Cyber-Sicherheit 2025: Experten berichten aus der Praxis​ Cyber-Bedrohungen bleiben eines der größten Sicherheitsrisken für Unternehmen in der DACH-Region. Im Jahr 2024 verzeichneten sie laut dem aktuellen Global Security Research Report von Fastly durchschnittlich 41 Sicherheitsvorfälle und benötigten nahezu 6,5 Monate, um sich davon wieder zu erholen.

Angesichts der Bedrohungslage ist unbestritten, dass Firmen weiterhin in ihre IT-Sicherheit investieren. 62 Prozent von ihnen verstehen die Investitionen in die Cybersicherheit auch als eine Maßnahme, mit der sie die Umsatz- und Wachstumsziele ihres Unternehmens unterstützen. Zugleich geben aber auch nahezu drei Viertel der Befragten an, dass sie ihre Sicherheitslösungen aufgrund knapper Budgets konsolidieren wollen. Wie können sich Firmen in dieser Lage optimal auf aktuelle und zukünftige Cyber-Bedrohungen vorbereiten? Welche Investitionen in IT-Sicherheit sind sinnvoll, welche Geldverschwendung?

Mit diesen Fragen beschäftigt sich ein COMPUTERWOCHE Webcast in Zusammenarbeit mit Fastly. Sie erhalten Einblicke in die zentralen Ergebnisse des Global Security Research Report von Fastly, für den weltweit 1.800 IT-Professionals befragt wurden und erfahren, auf welche Cyberbedrohungen Sie sich im Jahr 2025 und darüber hinaus einstellen müssen. Der Webcast zeigt außerdem auf,  wie Security-Experten in der Praxis arbeiten und wie Unternehmen darauf basierend ihre Cyber-Sicherheitsstrategie erfolgreich weiterentwickeln können. Der Fachjournalist Dr. Thomas Hafen wird den Webcast moderieren.

Registrieren Sie sich jetzt

Cyber-Sicherheit 2025: Experten berichten aus der Praxis​ Weiterlesen »

Die besten JavaScript-Frameworks im Vergleich​

Allgemein

Ein (passendes) JavaScript-Framework auszuwählen, ist ein bisschen wie Schuhe kaufen: Mit Blick auf das Gesamtangebot gibt es alles, was sich Softwareentwickler wünschen – nur nicht kombiniert in einem Modell. Foto: RossHelen | shutterstock.com Den (richtigen) Technologie-Stack auszuwählen, ist eine der diffizilsten Herausforderungen in Sachen Softwareentwicklung: Ohne Framework kein Development – allerdings zeigen sich die wahren Stärken und Schwächen eines Rahmenwerks erst in der Praxis. Für Developer eine Zwickmühle, aus der auch Prototyping nur bedingt befreien kann. Schließlich besteht die allgemeine Tendenz dazu, Technologien zu vertrauen, die sich in der Vergangenheit bewährt haben. So können allerdings auch innovative Entwicklungen durch die Lappen gehen. Das ist speziell mit Blick auf den Bereich der JavaScript-Frameworks wahrscheinlich, da deren Entwicklung besonders rasant voranschreitet. Dass qualitativ hochwertige Rahmenwerke im Überfluß zur Verfügung stehen, macht die Sache nicht besser. In diesem Artikel werfen wir einen Blick auf die führenden JavaScript-(Frontend-)Frameworks und vergleichen diese auf Feature-Ebene miteinander. Folgende Frameworks werden dabei behandelt: React Vue Angular Preact Lit Svelte AlpineJS SolidJS HTMX Qwik Es gibt diverse Möglichkeiten, sich der Entscheidung über ein JavaScript-Frontend-Framework anzunähern. Ein Faktor, den Sie dabei fokussieren sollten, ist Vertrautheit: Wenn Sie und Ihr Team mit einer bestimmten Technologie wirklich vertraut sind, sollten gute Gründe vorliegen, um davon abzuweichen. Diesbezüglich könnten folgende Fragen relevant sein: Entspricht die Technologie nicht mehr den Anforderungen des Projekts? Besteht die Gefahr, dass das von Ihnen verwendete Framework eingestellt wird? Sind interessante Funktionalitäten nicht existent? Wenn Sie alle Fragen mit ‘nein’ beantworten können, sollten Sie sich lieber zweimal überlegen, auf ein neues Framework umzusteigen. Dennoch ist es allgemein von Vorteil, neuen Frameworks offen gegenüberzustehen, die projektspezifische Benefits in den Bereichen Developer Experience, Performance oder Community Support realisieren können. Dazu kommt, dass JavaScript und speziell Frontend-Frameworks miteinander interagieren und sich gegenseitig stark beeinflussen. Sich mit einem Rahmenwerk zu befassen, kann deswegen oft zu synergetischen Insights führen. Anders ausgedrückt: Ein Frontend-Framework-Deepdive kann niemals schaden. Die 10 wichtigsten JavaScript-Frameworks Um einen Überblick über die führenden reaktiven Frameworks zu bekommen, werfen wir einen Blick auf die populärsten Abkömmlinge. Diese haben wir auf Grundlage ihrer jeweiligen Download-Zahlen auf dem Open Source Repository NPM ermittelt. Ein Klick auf den Link führt Sie zur jeweiligen NPM-Download-Seite inklusive der aktuellen Statistiken. React Vue / Vue 3 Angular (CLI) Preact Lit Svelte AlpineJS SolidJS HTMX Qwik Obwohl Popularität kein besonders guter Indikator für Qualität ist, sagt sie doch viel darüber aus, wie es um die Verfügbarkeit von Developern steht, die mit dem Framework arbeiten können. Das könnte speziell für größere Teams und Projekte einen entscheidenden Faktor darstellen. Zu beachten ist mit Blick auf die Top Ten, dass es sich bei allen “Kandidaten” um reine Frontend-Frameworks handelt. Einige dieser Projekte beinhalten auch ein Fullstack-Framework – etwa Next oder SvelteKit, was Backend-Funktionalitäten wie Server-seitiges Rendering ermöglicht. Das ist für einige Teams und Projekte unter Umständen ein weiterer bedeutender Auswahlfaktor in Sachen JavaScript-Framework. Im Folgenden ein detaillierter Blick auf die führenden reaktiven Frameworks. Ein Klick auf die Verlinkung im Titel führt Sie direkt zum jeweiligen GitHub Repository beziehungsweise der Projekt-Webseite. React Das Flaggschiff der reaktiven Frameworks ist im Jahr 2013 bei Facebook respektive Meta entstanden und wird bis heute vom Social-Media-Konzern verwaltet. Wie auch die Download-Zahlen von React zeigen, ist das Framework mit großem Abstand das populärste der hier vorgestellten – und quasi die Standardwahl unter den Frontend-Rahmenwerken. Trotz seines Alters wurde React kontinuierlich von Meta auf dem aktuellen Stand gehalten. Dabei könnte auch eine Rolle spielen, dass Facebook immer noch auf dem Framework aufbaut. Das größte Argument gegen React: sein gewaltiger Umfang. Das kann den Einsatz beschwerlich gestalten, insbesondere wenn Sie an einem Projekt arbeiten, für das die meisten React-Features erst gar nicht nötig sind. Einige der nachfolgenden JavaScript-Frameworks sind nicht nur leichtgewichtiger, sondern bieten auch andere Ansätze. Vue Auch bei Vue handelt es sich um ein ausgereiftes Framework, das in Sachen Support gut aufgestellt ist. Im Vergleich zu React ist Vue deutlich leichtgewichtiger und schneidet auch bei Performance-Tests besser ab. Vue steht in erster Linie im Ruf, eine moderate Lernkurve aufzuwerfen. Darüber hinaus kann das Framework mit einer ausgezeichneten Dokumentation und einer offenherzigen Community punkten. Einige Entwickler bevorzugen Vue auch wegen seines ausgeprägten Fokus auf die Developer Experience. Wenn Sie und Ihr Team gerne mit Vue arbeiten, kann das Framework langfristig dazu beitragen, die Benutzerfreundlichkeit und Mitarbeiterzufriedenheit zu erhöhen. Von den “Big Three” unter den JavaScript-Frontend-Frameworks (React, Angular und Vue) ist Vue das basisorientierteste, was seinen Reiz haben kann. Angular Von allen hier gelisteten Frameworks bietet Angular die wohl ausgeprägteste All-in-One-Entwicklungserfahrung. Das Framework ist als durchgängige Lösung konzipiert, die verspricht, alles nötige in einem konsistenten Paket zu liefern. In der Vergangenheit galt Angular vor allem als komplex – sowohl in der Theorie als auch in der Praxis. Zudem war ein Hauch von Overengineering bei Angular zu verspüren – eine Entwicklung die in erster Linie dem Design geschuldet war. Das hat sich inzwischen allerdings grundlegend geändert: Die Entwickler hinter dem Projekt haben das Framework (mit Version 17) in diversen Aspekten simplifiziert und die Entwicklererfahrung optimiert – zudem steht nun auch eine effektive Rendering-Engine für Server-seitige Tasks zur Verfügung. Darüber hinaus wurden auch die Dokumentation und die offizielle Webseite modernisiert. Ein wesentlicher Unterschied zu React und Vue: Angular ist eher “rechthaberisch” – für die meisten Dinge gibt es klar definierte Vorgaben. Das kann es erschweren, mit Angular Applikationen anzupassen oder unkonventionelle Wege zu gehen. Ob das von Vor- oder von Nachteil ist, hängt im Wesentlichen von Ihrem persönlichen Programmierstil ab. Preact Die Nomenklatur deutet es bereits an: Bei Preact handelt es sich um ein von React inspiriertes Framework – quasi eine abgespeckte Version desselbigen mit ähnlichen aber kleineren APIs. Einer der wesentlichen Unterschiede besteht dabei darin, dass Preact kein eigenes Eventing-System implementiert. Stattdessen nutzt es die in den Browser integrierten Event Listener. Im Vergleich mit React entwickeln Sie mit Preact schneller und schlanker – dafür müssen Sie auf einige Funktionalitäten des “Originals” verzichten. Sie können Preact allerdings mit einem zusätzlichen Layer ausstatten und so nahezu vollständige React-Kompatibilität erreichen. Diverse Komponenten aus dem React-Ökosystem funktionieren dann auch mit Preact. Wenn Sie auf kleinere APIs Wert legen, sich dabei aber weitgehend im React-Ökosystem bewegen möchten, ist dieses reaktive Framework möglicherweise eine gute Wahl. Lit Das Alleinstellungsmerkmal von Lit: Es nutzt den Web-Components-Standard als Grundlage. Das hat zur Folge, dass die API und das Bundle selbst sehr klein sind. Der Fokus liegt darauf, die integrierten Web Components zu unterstützen. Darüber hinaus fußt Lit auf einer minimalistischen Entwicklungsphilosophie, die Ihnen maximale Flexibilität ermöglicht: Es gibt nur wenige festgeschriebene Wege, um Dinge mit Lit zu erledigen. Das Framework weist – gemessen an seiner Größe und Popularität – ein sehr umfangreiches Ökosystem auf. Svelte Dieses reaktive Framework zeichnet sich in erster Linie dadurch aus, dass es einen Compiler zum Einsatz bringt. Der transformiert die Svelte-Syntax in ein kleines und performantes JavaScript-Bundle. Das ermöglicht dem Framework, einige Optimierungen bereits im Vorfeld vorzunehmen – und mit interessanten Syntax-Elementen zu experimentieren. Mit Blick auf die “Big Three” ist Svelte am ehesten mit Vue vergleichbar, weil es sich gut für unabhängige Experimente eignet. Die Dokumentation von Vue ist gut ausgestaltet und das Framework erfreut sich in der Open-Source-Community wachsender Beliebtheit. AlpineJS Von allen hier vorgestellten Frameworks ist AlpineJS das utilitaristischste. Es bietet eine kompakte Reactive-Bibliothek – das war’s. Trotz seines überschaubaren Footprints steckt in diesem reaktiven Framework jedoch eine ganze Menge Power. Wie HTMX (dazu später) will auch AlpineJS Komplexität beseitigen, dabei jedoch die Grundlagen moderner Frontend-Funktionalität gewährleisten. Um diese Funktionalität “auf die Straße zu bringen”, nutzt das JavaScript-Framework spezielle HTML-Eigenschaften. SolidJS Im Vergleich zu den anderen hier gelisteten JavaScript-Frontend-Frameworks ist Solid ein Vertreter der jüngeren Generation. Nichtsdestotrotz konnte SolidJS bereits (im positiven Sinn) für Furore sorgen und erfreut sich einer wachsenden Nutzerbasis. Das Framework fußt auf Signals (Reactive Primitives), die ihm eine flexible Grundlage verschaffen. Um die Funktionalität zu erweitern, können sowohl das Framework selbst als auch der Anwender-Code auf dieselben Features zugreifen. In Sachen Performance-Tests schneidet SolidJS gut ab. HTMX Einen völlig anderen Ansatz, um Web-Frontends zu entwickeln, wirft HTMX auf: Es versucht, so viel Komplexität wie möglich zu eliminieren, REST wie beabsichtigt einzusetzen und “reines” HTML (mit einigen grundlegenden Verbesserungen) zu nutzen, um modernen Anforderungen wie AJAX- und DOM-Interaktionen gerecht zu werden. HTMX kann eine lohnende Option sein, wenn Sie auf Dinge wie Server-seitiges Rendering verzichten können. Einer der größten Pluspunkte des Frameworks: Es ist relativ einfach zu erlernen. Wir können nur empfehlen, sich zumindest mit diesem Projekt zu beschäftigen – und sei es nur wegen der zugrundeliegenden Idee. Qwik Unter der Haube ist Qwik eine exotische Implementierung, die die Performance in den Mittelpunkt rückt. Das Framework zerlegt Applikationen in unterscheidbare Elemente und orientiert sich dabei an “Grenzen” wie Eventing oder Komponenten – entlang derer aggressives Lazy Loading zum Einsatz kommt. Das Ergebnis: schnelleres Rendering. Reactive Frameworks im (Feature-)Vergleich Nachdem Sie die zehn wichtigsten Reactive-Framework-Optionen kennengelernt haben, geht es nun darum, die wichtigsten Funktionen und Merkmale miteinander zu vergleichen. Zunächst haben wir die reaktiven Rahmenwerke noch einmal in einer Übersicht zusammengetragen, die auf einen Blick Auskunft über die jeweiligen Lernkurven und Funktions-Highlights gibt. FrameworkLernkurveHighlightsReactmoderat bis steilkonservativste Option; riesiges Ökosystem und Community; Balance zwischen Innovation und Stabilität;Vuemoderatleicht zu erlernen und einzusetzen; ein etabliertes Framework das weniger “corporate” ist;Angularsteilein robustes Framework für große Projekte; Enterprise-orientiert; integrierter All-in-One-Ansatz;PreactmoderatReact-ähnlich mit schnelleren Ladezeiten; insbesondere für Mobile Development empfehlenswert;Litmoderatleichtgewichtig und performant mit Fokus auf Standards; leichter mit beispielsweise HTML kombinierbar; Sveltemoderatkleinerer Memory-Footprint; fokussiert die Entwicklererfahrung und Innovationen;Alpineflachleichtgewichtiges Toolset; einfach zu erlernen und beherrschen; gut geeignet für kleinere bis mittelgroße Projekte;SolidJSmoderat bis steilreaktiver Kern auf Signals-Basis; Performance-orientiert;HTMXflacheinfach zu erlernen und zu integrieren; einzigartige, vereinfachte REST-Architektur;Qwiksteilinnovativ und Performance-orientiert; integriert mit builder.io; Wenn Sie nun Wert auf ganz spezielle Funktionen legen, bringt Ihnen diese Tabelle natürlich wenig. Deswegen haben wir auch noch einen umfangreichen Feature-Vergleich der gelisteten JavaScript-Frontend-Frameworks für Sie erstellt. Diesen können Sie auch direkt über GitHub als PDF-Datei herunterladen (inklusive klickbarer Links). Die zehn wichtigsten JavaScript-Frameworks im Feature-Vergleich. Foto: Matthew Tyson | IDG Playgrounds Um sich einen schnellen ersten Eindruck von einem Framework zu verschaffen, empfiehlt sich, es in einem Online-REPL respektive Playground zu testen. Dazu ist kein Tooling-Setup erforderlich – ein Webbrowser reicht, um mit der Syntax experimentieren zu können. Sämtliche hier vorgestellten Frameworks können das bieten. React hostet zwar keine eigenen REPLs, diese Lücke wird jedoch von Drittanbietern geschlossen. Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Die besten JavaScript-Frameworks im Vergleich​ Ein (passendes) JavaScript-Framework auszuwählen, ist ein bisschen wie Schuhe kaufen: Mit Blick auf das Gesamtangebot gibt es alles, was sich Softwareentwickler wünschen – nur nicht kombiniert in einem Modell.
Foto: RossHelen | shutterstock.com

Den (richtigen) Technologie-Stack auszuwählen, ist eine der diffizilsten Herausforderungen in Sachen Softwareentwicklung: Ohne Framework kein Development – allerdings zeigen sich die wahren Stärken und Schwächen eines Rahmenwerks erst in der Praxis. Für Developer eine Zwickmühle, aus der auch Prototyping nur bedingt befreien kann. Schließlich besteht die allgemeine Tendenz dazu, Technologien zu vertrauen, die sich in der Vergangenheit bewährt haben. So können allerdings auch innovative Entwicklungen durch die Lappen gehen. Das ist speziell mit Blick auf den Bereich der JavaScript-Frameworks wahrscheinlich, da deren Entwicklung besonders rasant voranschreitet. Dass qualitativ hochwertige Rahmenwerke im Überfluß zur Verfügung stehen, macht die Sache nicht besser.

In diesem Artikel werfen wir einen Blick auf die führenden JavaScript-(Frontend-)Frameworks und vergleichen diese auf Feature-Ebene miteinander. Folgende Frameworks werden dabei behandelt:

React

Vue

Angular

Preact

Lit

Svelte

AlpineJS

SolidJS

HTMX

Qwik

Es gibt diverse Möglichkeiten, sich der Entscheidung über ein JavaScript-Frontend-Framework anzunähern. Ein Faktor, den Sie dabei fokussieren sollten, ist Vertrautheit: Wenn Sie und Ihr Team mit einer bestimmten Technologie wirklich vertraut sind, sollten gute Gründe vorliegen, um davon abzuweichen. Diesbezüglich könnten folgende Fragen relevant sein:

Entspricht die Technologie nicht mehr den Anforderungen des Projekts?

Besteht die Gefahr, dass das von Ihnen verwendete Framework eingestellt wird?

Sind interessante Funktionalitäten nicht existent?

Wenn Sie alle Fragen mit ‘nein’ beantworten können, sollten Sie sich lieber zweimal überlegen, auf ein neues Framework umzusteigen. Dennoch ist es allgemein von Vorteil, neuen Frameworks offen gegenüberzustehen, die projektspezifische Benefits in den Bereichen Developer Experience, Performance oder Community Support realisieren können. Dazu kommt, dass JavaScript und speziell Frontend-Frameworks miteinander interagieren und sich gegenseitig stark beeinflussen. Sich mit einem Rahmenwerk zu befassen, kann deswegen oft zu synergetischen Insights führen. Anders ausgedrückt: Ein Frontend-Framework-Deepdive kann niemals schaden.

Die 10 wichtigsten JavaScript-Frameworks

Um einen Überblick über die führenden reaktiven Frameworks zu bekommen, werfen wir einen Blick auf die populärsten Abkömmlinge. Diese haben wir auf Grundlage ihrer jeweiligen Download-Zahlen auf dem Open Source Repository NPM ermittelt. Ein Klick auf den Link führt Sie zur jeweiligen NPM-Download-Seite inklusive der aktuellen Statistiken.

React

Vue / Vue 3

Angular (CLI)

Preact

Lit

Svelte

AlpineJS

SolidJS

HTMX

Qwik

Obwohl Popularität kein besonders guter Indikator für Qualität ist, sagt sie doch viel darüber aus, wie es um die Verfügbarkeit von Developern steht, die mit dem Framework arbeiten können. Das könnte speziell für größere Teams und Projekte einen entscheidenden Faktor darstellen.

Zu beachten ist mit Blick auf die Top Ten, dass es sich bei allen “Kandidaten” um reine Frontend-Frameworks handelt. Einige dieser Projekte beinhalten auch ein Fullstack-Framework – etwa Next oder SvelteKit, was Backend-Funktionalitäten wie Server-seitiges Rendering ermöglicht. Das ist für einige Teams und Projekte unter Umständen ein weiterer bedeutender Auswahlfaktor in Sachen JavaScript-Framework. Im Folgenden ein detaillierter Blick auf die führenden reaktiven Frameworks. Ein Klick auf die Verlinkung im Titel führt Sie direkt zum jeweiligen GitHub Repository beziehungsweise der Projekt-Webseite.

React

Das Flaggschiff der reaktiven Frameworks ist im Jahr 2013 bei Facebook respektive Meta entstanden und wird bis heute vom Social-Media-Konzern verwaltet. Wie auch die Download-Zahlen von React zeigen, ist das Framework mit großem Abstand das populärste der hier vorgestellten – und quasi die Standardwahl unter den Frontend-Rahmenwerken. Trotz seines Alters wurde React kontinuierlich von Meta auf dem aktuellen Stand gehalten. Dabei könnte auch eine Rolle spielen, dass Facebook immer noch auf dem Framework aufbaut.

Das größte Argument gegen React: sein gewaltiger Umfang. Das kann den Einsatz beschwerlich gestalten, insbesondere wenn Sie an einem Projekt arbeiten, für das die meisten React-Features erst gar nicht nötig sind. Einige der nachfolgenden JavaScript-Frameworks sind nicht nur leichtgewichtiger, sondern bieten auch andere Ansätze.

Vue

Auch bei Vue handelt es sich um ein ausgereiftes Framework, das in Sachen Support gut aufgestellt ist. Im Vergleich zu React ist Vue deutlich leichtgewichtiger und schneidet auch bei Performance-Tests besser ab.

Vue steht in erster Linie im Ruf, eine moderate Lernkurve aufzuwerfen. Darüber hinaus kann das Framework mit einer ausgezeichneten Dokumentation und einer offenherzigen Community punkten. Einige Entwickler bevorzugen Vue auch wegen seines ausgeprägten Fokus auf die Developer Experience. Wenn Sie und Ihr Team gerne mit Vue arbeiten, kann das Framework langfristig dazu beitragen, die Benutzerfreundlichkeit und Mitarbeiterzufriedenheit zu erhöhen.

Von den “Big Three” unter den JavaScript-Frontend-Frameworks (React, Angular und Vue) ist Vue das basisorientierteste, was seinen Reiz haben kann.

Angular

Von allen hier gelisteten Frameworks bietet Angular die wohl ausgeprägteste All-in-One-Entwicklungserfahrung. Das Framework ist als durchgängige Lösung konzipiert, die verspricht, alles nötige in einem konsistenten Paket zu liefern. In der Vergangenheit galt Angular vor allem als komplex – sowohl in der Theorie als auch in der Praxis. Zudem war ein Hauch von Overengineering bei Angular zu verspüren – eine Entwicklung die in erster Linie dem Design geschuldet war.

Das hat sich inzwischen allerdings grundlegend geändert: Die Entwickler hinter dem Projekt haben das Framework (mit Version 17) in diversen Aspekten simplifiziert und die Entwicklererfahrung optimiert – zudem steht nun auch eine effektive Rendering-Engine für Server-seitige Tasks zur Verfügung. Darüber hinaus wurden auch die Dokumentation und die offizielle Webseite modernisiert.

Ein wesentlicher Unterschied zu React und Vue: Angular ist eher “rechthaberisch” – für die meisten Dinge gibt es klar definierte Vorgaben. Das kann es erschweren, mit Angular Applikationen anzupassen oder unkonventionelle Wege zu gehen. Ob das von Vor- oder von Nachteil ist, hängt im Wesentlichen von Ihrem persönlichen Programmierstil ab.

Preact

Die Nomenklatur deutet es bereits an: Bei Preact handelt es sich um ein von React inspiriertes Framework – quasi eine abgespeckte Version desselbigen mit ähnlichen aber kleineren APIs. Einer der wesentlichen Unterschiede besteht dabei darin, dass Preact kein eigenes Eventing-System implementiert. Stattdessen nutzt es die in den Browser integrierten Event Listener.

Im Vergleich mit React entwickeln Sie mit Preact schneller und schlanker – dafür müssen Sie auf einige Funktionalitäten des “Originals” verzichten. Sie können Preact allerdings mit einem zusätzlichen Layer ausstatten und so nahezu vollständige React-Kompatibilität erreichen. Diverse Komponenten aus dem React-Ökosystem funktionieren dann auch mit Preact.

Wenn Sie auf kleinere APIs Wert legen, sich dabei aber weitgehend im React-Ökosystem bewegen möchten, ist dieses reaktive Framework möglicherweise eine gute Wahl.

Lit

Das Alleinstellungsmerkmal von Lit: Es nutzt den Web-Components-Standard als Grundlage. Das hat zur Folge, dass die API und das Bundle selbst sehr klein sind. Der Fokus liegt darauf, die integrierten Web Components zu unterstützen. Darüber hinaus fußt Lit auf einer minimalistischen Entwicklungsphilosophie, die Ihnen maximale Flexibilität ermöglicht: Es gibt nur wenige festgeschriebene Wege, um Dinge mit Lit zu erledigen.

Das Framework weist – gemessen an seiner Größe und Popularität – ein sehr umfangreiches Ökosystem auf.

Svelte

Dieses reaktive Framework zeichnet sich in erster Linie dadurch aus, dass es einen Compiler zum Einsatz bringt. Der transformiert die Svelte-Syntax in ein kleines und performantes JavaScript-Bundle. Das ermöglicht dem Framework, einige Optimierungen bereits im Vorfeld vorzunehmen – und mit interessanten Syntax-Elementen zu experimentieren.

Mit Blick auf die “Big Three” ist Svelte am ehesten mit Vue vergleichbar, weil es sich gut für unabhängige Experimente eignet. Die Dokumentation von Vue ist gut ausgestaltet und das Framework erfreut sich in der Open-Source-Community wachsender Beliebtheit.

AlpineJS

Von allen hier vorgestellten Frameworks ist AlpineJS das utilitaristischste. Es bietet eine kompakte Reactive-Bibliothek – das war’s. Trotz seines überschaubaren Footprints steckt in diesem reaktiven Framework jedoch eine ganze Menge Power.

Wie HTMX (dazu später) will auch AlpineJS Komplexität beseitigen, dabei jedoch die Grundlagen moderner Frontend-Funktionalität gewährleisten. Um diese Funktionalität “auf die Straße zu bringen”, nutzt das JavaScript-Framework spezielle HTML-Eigenschaften.

SolidJS

Im Vergleich zu den anderen hier gelisteten JavaScript-Frontend-Frameworks ist Solid ein Vertreter der jüngeren Generation. Nichtsdestotrotz konnte SolidJS bereits (im positiven Sinn) für Furore sorgen und erfreut sich einer wachsenden Nutzerbasis.

Das Framework fußt auf Signals (Reactive Primitives), die ihm eine flexible Grundlage verschaffen. Um die Funktionalität zu erweitern, können sowohl das Framework selbst als auch der Anwender-Code auf dieselben Features zugreifen. In Sachen Performance-Tests schneidet SolidJS gut ab.

HTMX

Einen völlig anderen Ansatz, um Web-Frontends zu entwickeln, wirft HTMX auf: Es versucht, so viel Komplexität wie möglich zu eliminieren, REST wie beabsichtigt einzusetzen und “reines” HTML (mit einigen grundlegenden Verbesserungen) zu nutzen, um modernen Anforderungen wie AJAX- und DOM-Interaktionen gerecht zu werden.

HTMX kann eine lohnende Option sein, wenn Sie auf Dinge wie Server-seitiges Rendering verzichten können. Einer der größten Pluspunkte des Frameworks: Es ist relativ einfach zu erlernen. Wir können nur empfehlen, sich zumindest mit diesem Projekt zu beschäftigen – und sei es nur wegen der zugrundeliegenden Idee.

Qwik

Unter der Haube ist Qwik eine exotische Implementierung, die die Performance in den Mittelpunkt rückt. Das Framework zerlegt Applikationen in unterscheidbare Elemente und orientiert sich dabei an “Grenzen” wie Eventing oder Komponenten – entlang derer aggressives Lazy Loading zum Einsatz kommt. Das Ergebnis: schnelleres Rendering.

Reactive Frameworks im (Feature-)Vergleich

Nachdem Sie die zehn wichtigsten Reactive-Framework-Optionen kennengelernt haben, geht es nun darum, die wichtigsten Funktionen und Merkmale miteinander zu vergleichen. Zunächst haben wir die reaktiven Rahmenwerke noch einmal in einer Übersicht zusammengetragen, die auf einen Blick Auskunft über die jeweiligen Lernkurven und Funktions-Highlights gibt.

FrameworkLernkurveHighlightsReactmoderat bis steilkonservativste Option; riesiges Ökosystem und Community; Balance zwischen Innovation und Stabilität;Vuemoderatleicht zu erlernen und einzusetzen; ein etabliertes Framework das weniger “corporate” ist;Angularsteilein robustes Framework für große Projekte; Enterprise-orientiert; integrierter All-in-One-Ansatz;PreactmoderatReact-ähnlich mit schnelleren Ladezeiten; insbesondere für Mobile Development empfehlenswert;Litmoderatleichtgewichtig und performant mit Fokus auf Standards; leichter mit beispielsweise HTML kombinierbar; Sveltemoderatkleinerer Memory-Footprint; fokussiert die Entwicklererfahrung und Innovationen;Alpineflachleichtgewichtiges Toolset; einfach zu erlernen und beherrschen; gut geeignet für kleinere bis mittelgroße Projekte;SolidJSmoderat bis steilreaktiver Kern auf Signals-Basis; Performance-orientiert;HTMXflacheinfach zu erlernen und zu integrieren; einzigartige, vereinfachte REST-Architektur;Qwiksteilinnovativ und Performance-orientiert; integriert mit builder.io;

Wenn Sie nun Wert auf ganz spezielle Funktionen legen, bringt Ihnen diese Tabelle natürlich wenig. Deswegen haben wir auch noch einen umfangreichen Feature-Vergleich der gelisteten JavaScript-Frontend-Frameworks für Sie erstellt. Diesen können Sie auch direkt über GitHub als PDF-Datei herunterladen (inklusive klickbarer Links).

Die zehn wichtigsten JavaScript-Frameworks im Feature-Vergleich.
Foto: Matthew Tyson | IDG

Playgrounds

Um sich einen schnellen ersten Eindruck von einem Framework zu verschaffen, empfiehlt sich, es in einem Online-REPL respektive Playground zu testen. Dazu ist kein Tooling-Setup erforderlich – ein Webbrowser reicht, um mit der Syntax experimentieren zu können. Sämtliche hier vorgestellten Frameworks können das bieten. React hostet zwar keine eigenen REPLs, diese Lücke wird jedoch von Drittanbietern geschlossen.

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Die besten JavaScript-Frameworks im Vergleich​ Weiterlesen »

Wird VMware wirklich der neue Mainframe?​

Allgemein

DC Studio/Shutterstock.com „Der Vergleich von VMware mit Mainframes war ursprünglich als kleiner Scherz gedacht“, erklärt Michael Warrilow, Vice President und Analyst bei Gartner. Doch tatsächlich stimme die Analogie bis zu einem gewissen Punkt. Denn nach der Übernahme von VMware durch Broadcom Ende 2023 hätten sich viele Kunden über enorme Preiserhöhungen beschwert, doch die meisten scheinen ihre Abhängigkeit nicht beenden zu können.  VMware ist „zuverlässig, geschäftskritisch – und schwer loszuwerden“, bringt es Warrilow auf den Punkt. „Alle sagen, dass VMware hält, was es verspricht, aber sie haben ein Problem mit den von Broadcom geänderten Lizenz- und Nutzungsbedingungen.“  Migrieren und weiter zahlen  Im vergangenen Jahr habe die Mehrheit der Gartner-Kunden, mit denen er in Kontakt standn, nach Möglichkeiten gefragt, von VMware-Produkten wegzukommen, berichtet Warrilow. Allerdings schätzt Gartner in einem aktuellen Bericht, dass eine groß angelegte Migration bis zu vier Jahre dauern und mehr als sechs Millionen Dollar kosten könnte. Dabei müssten die Nutzer während dieser Zeit weiterhin Abonnementgebühren an Broadcom zahlen.  Selbst angesichts der enormen Preissteigerungen werde es vielen CIOs schwerfallen, den Mehrwert einer Migration zu belegen, befürchtet Warrilow. Der Knackpunkt sei das schlechte Verhältnis zwischen den Umstellungskosten und den Opportunitätskosten, wenn alle Mitarbeiter mehrere Jahre lang nichts anderes täten, als etwas auszutauschen, fügt er hinzu. „Ich sage den CIOs immer: Im besten Fall merkt niemand, was Sie getan haben.“  Abgesehen von möglichen Kosteneinsparungen bringe die Abkehr von VMware Unternehmen nicht viel Mehrwert, erklärt Warrilow. „CIOs können damit beginnen, ihre Abhängigkeit von VMware zu verringern. Aber sie müssen sich darüber im Klaren sein, dass ihre Ausgaben für Broadcom über mehrere Vertragsverlängerungen hinweg nicht wesentlich sinken werden. Sie werden sich komplett von Broadcom lösen müssen.“  Dennoch empfiehlt Warrilow CIOs, die VMware nutzen, langfristig Alternativen in Betracht zu ziehen. Dabei sollten sie auch nach Ausstiegsstrategien für andere marktbeherrschende IT-Produkte suchen, schließlich habe Broadcom anderen Investoren mit VMware den Weg vorgezeichnet.  „Das könnte erst der Anfang sein“, warnt der Gartner-Experte. “Jede Technologie-Investmentfirma wird sagen: ‘Ich will das, was Broadcom mit seinem Aktienkurs erreicht hat‘. Sie sind bei den Geschäftszielen von VMware ein Jahr voraus, und jede Investmentfirma wird nach der nächsten VMware suchen.“  Große Auswahl an Tools  VMware sei auch deshalb schwer zu ersetzen, weil der Anbieter eine breite Palette an Virtualisierungs-Tools entwickelt habe, mit denen nur wenige Konkurrenten mithalten könnten, so Warrilow. So umfasste die Virtualisierungssuite von VMware vor der Übernahme durch Broadcom nicht nur die Cloud-basierte Servervirtualisierungsplattform vSphere, sondern auch Management-Tools und verschiedene andere Optionen, darunter Software-defined Storage, Disaster Recovery und Netzwerksicherheit.  „Zwar führt Gartner in seinem aktuellen Marktführer mehr als 30 Anbieter von Servervirtualisierung auf. In vielen Fällen müssen CIOs jedoch die Produkte mehrerer Anbieter kombinieren, um die gleiche Funktionalität wie bei VMware zu erhalten“, erklärt Warrilow.  „Die meisten Kunden wollen keine getrennten Compute-, Speicher- und Netzwerkplattformen, obwohl diese Produkte unter der alten VMware in getrennten Abteilungen untergebracht  waren“, bestätigt Prashanth Shenoy, Vice President of Marketing für die VMware Cloud Foundation Division bei Broadcom. „Es gab niemanden, der die Zügel in der Hand hatte und all diese Produkte zu einer Plattform zusammenführte.“  Das neue Produktpaket sei eine bewusste Entscheidung von Broadcom gewesen, um die Produktlinie für die Kunden zu vereinfachen, so Shenoy. Und während einige Kunden bei der Einführung der Subskriptionspreise einen „Preisschock“ erlebten, habe VMware seine Kunden jahrelang vor der geplanten Umstellung auf das branchenübliche Preismodell hingewiesen.  Die positive Bilanz von Broadcom zeige, dass die Kunden das neue Preismodell akzeptieren und sich darauf einstellen, erklärt der Broadcom-Manager. So sei der Umsatz mit Infrastruktursoftware im vierten Quartal 2024 um 41 Prozent auf 5,8 Milliarden Dollar gestiegen.  „Das Vertriebsteam von VMware arbeitet aktiv mit den Kunden zusammen, um die besten Preisoptionen zu finden“, fügt Shenoy hinzu. „Wir sind uns voll und ganz bewusst, dass unsere Kunden die Wahl haben. Wir haben die Kunden aktiv aufgefordert, sich nach Alternativen umzusehen und einen fairen Vergleich der Technologieunterschiede und der Gesamtbetriebskosten anzustellen. In fast allen Fällen haben wir gewonnen.“  Fatale Plattformbindung  Shenoy kommentierte den Gartner-Bericht über die Migrationskosten nicht. Aber Warrilows Vergleich von VMware mit Mainframes sei nicht unbedingt etwas Schlechtes, erklärte er.  „Der Vergleich stimmt bis zu einem gewissen Grad, zum Beispiel in Bezug auf Stickyness, weil Kunden ihre ganzen Anwendungen und Workloads mit Virtualisierungstechnologie von VMware erstellt haben“, bestätigte der Broadcom-Mann. “Wenn sie Massen von Anwendungen neu aufbauen müssen, ist das sehr, sehr schwierig.“  Die Analogie habe jedoch ihre Grenzen, da viele Anwender Mainframes als veraltete Technologie betrachteten, während die Cloud-basierten Produkte von VMware auf die Herausforderungen der Zukunft ausgerichtet seien.   „Die Cloud ist die Zukunft für die Ausführung von KI-Workloads“, erklärt Shenoy. “Kunden vertrauen uns seit 20 bis 25 Jahren die Ausführung ihrer geschäftskritischen Anwendungen an, und das Interessante ist, dass wir derzeit ein starkes Wachstum bei diesen KI- und Container-Workloads verzeichnen, die auf VMware laufen.“  

Wird VMware wirklich der neue Mainframe?​ DC Studio/Shutterstock.com

„Der Vergleich von VMware mit Mainframes war ursprünglich als kleiner Scherz gedacht“, erklärt Michael Warrilow, Vice President und Analyst bei Gartner. Doch tatsächlich stimme die Analogie bis zu einem gewissen Punkt. Denn nach der Übernahme von VMware durch Broadcom Ende 2023 hätten sich viele Kunden über enorme Preiserhöhungen beschwert, doch die meisten scheinen ihre Abhängigkeit nicht beenden zu können. 

VMware ist „zuverlässig, geschäftskritisch – und schwer loszuwerden“, bringt es Warrilow auf den Punkt. „Alle sagen, dass VMware hält, was es verspricht, aber sie haben ein Problem mit den von Broadcom geänderten Lizenz- und Nutzungsbedingungen.“ 

Migrieren und weiter zahlen 

Im vergangenen Jahr habe die Mehrheit der Gartner-Kunden, mit denen er in Kontakt standn, nach Möglichkeiten gefragt, von VMware-Produkten wegzukommen, berichtet Warrilow. Allerdings schätzt Gartner in einem aktuellen Bericht, dass eine groß angelegte Migration bis zu vier Jahre dauern und mehr als sechs Millionen Dollar kosten könnte. Dabei müssten die Nutzer während dieser Zeit weiterhin Abonnementgebühren an Broadcom zahlen. 

Selbst angesichts der enormen Preissteigerungen werde es vielen CIOs schwerfallen, den Mehrwert einer Migration zu belegen, befürchtet Warrilow. Der Knackpunkt sei das schlechte Verhältnis zwischen den Umstellungskosten und den Opportunitätskosten, wenn alle Mitarbeiter mehrere Jahre lang nichts anderes täten, als etwas auszutauschen, fügt er hinzu. „Ich sage den CIOs immer: Im besten Fall merkt niemand, was Sie getan haben.“ 

Abgesehen von möglichen Kosteneinsparungen bringe die Abkehr von VMware Unternehmen nicht viel Mehrwert, erklärt Warrilow. „CIOs können damit beginnen, ihre Abhängigkeit von VMware zu verringern. Aber sie müssen sich darüber im Klaren sein, dass ihre Ausgaben für Broadcom über mehrere Vertragsverlängerungen hinweg nicht wesentlich sinken werden. Sie werden sich komplett von Broadcom lösen müssen.“ 

Dennoch empfiehlt Warrilow CIOs, die VMware nutzen, langfristig Alternativen in Betracht zu ziehen. Dabei sollten sie auch nach Ausstiegsstrategien für andere marktbeherrschende IT-Produkte suchen, schließlich habe Broadcom anderen Investoren mit VMware den Weg vorgezeichnet. 

„Das könnte erst der Anfang sein“, warnt der Gartner-Experte. “Jede Technologie-Investmentfirma wird sagen: ‘Ich will das, was Broadcom mit seinem Aktienkurs erreicht hat‘. Sie sind bei den Geschäftszielen von VMware ein Jahr voraus, und jede Investmentfirma wird nach der nächsten VMware suchen.“ 

Große Auswahl an Tools 

VMware sei auch deshalb schwer zu ersetzen, weil der Anbieter eine breite Palette an Virtualisierungs-Tools entwickelt habe, mit denen nur wenige Konkurrenten mithalten könnten, so Warrilow. So umfasste die Virtualisierungssuite von VMware vor der Übernahme durch Broadcom nicht nur die Cloud-basierte Servervirtualisierungsplattform vSphere, sondern auch Management-Tools und verschiedene andere Optionen, darunter Software-defined Storage, Disaster Recovery und Netzwerksicherheit. 

„Zwar führt Gartner in seinem aktuellen Marktführer mehr als 30 Anbieter von Servervirtualisierung auf. In vielen Fällen müssen CIOs jedoch die Produkte mehrerer Anbieter kombinieren, um die gleiche Funktionalität wie bei VMware zu erhalten“, erklärt Warrilow. 

„Die meisten Kunden wollen keine getrennten Compute-, Speicher- und Netzwerkplattformen, obwohl diese Produkte unter der alten VMware in getrennten Abteilungen untergebracht  waren“, bestätigt Prashanth Shenoy, Vice President of Marketing für die VMware Cloud Foundation Division bei Broadcom. „Es gab niemanden, der die Zügel in der Hand hatte und all diese Produkte zu einer Plattform zusammenführte.“ 

Das neue Produktpaket sei eine bewusste Entscheidung von Broadcom gewesen, um die Produktlinie für die Kunden zu vereinfachen, so Shenoy. Und während einige Kunden bei der Einführung der Subskriptionspreise einen „Preisschock“ erlebten, habe VMware seine Kunden jahrelang vor der geplanten Umstellung auf das branchenübliche Preismodell hingewiesen. 

Die positive Bilanz von Broadcom zeige, dass die Kunden das neue Preismodell akzeptieren und sich darauf einstellen, erklärt der Broadcom-Manager. So sei der Umsatz mit Infrastruktursoftware im vierten Quartal 2024 um 41 Prozent auf 5,8 Milliarden Dollar gestiegen. 

„Das Vertriebsteam von VMware arbeitet aktiv mit den Kunden zusammen, um die besten Preisoptionen zu finden“, fügt Shenoy hinzu. „Wir sind uns voll und ganz bewusst, dass unsere Kunden die Wahl haben. Wir haben die Kunden aktiv aufgefordert, sich nach Alternativen umzusehen und einen fairen Vergleich der Technologieunterschiede und der Gesamtbetriebskosten anzustellen. In fast allen Fällen haben wir gewonnen.“ 

Fatale Plattformbindung 

Shenoy kommentierte den Gartner-Bericht über die Migrationskosten nicht. Aber Warrilows Vergleich von VMware mit Mainframes sei nicht unbedingt etwas Schlechtes, erklärte er. 

„Der Vergleich stimmt bis zu einem gewissen Grad, zum Beispiel in Bezug auf Stickyness, weil Kunden ihre ganzen Anwendungen und Workloads mit Virtualisierungstechnologie von VMware erstellt haben“, bestätigte der Broadcom-Mann. “Wenn sie Massen von Anwendungen neu aufbauen müssen, ist das sehr, sehr schwierig.“ 

Die Analogie habe jedoch ihre Grenzen, da viele Anwender Mainframes als veraltete Technologie betrachteten, während die Cloud-basierten Produkte von VMware auf die Herausforderungen der Zukunft ausgerichtet seien.  

„Die Cloud ist die Zukunft für die Ausführung von KI-Workloads“, erklärt Shenoy. “Kunden vertrauen uns seit 20 bis 25 Jahren die Ausführung ihrer geschäftskritischen Anwendungen an, und das Interessante ist, dass wir derzeit ein starkes Wachstum bei diesen KI- und Container-Workloads verzeichnen, die auf VMware laufen.“ 

Wird VMware wirklich der neue Mainframe?​ Weiterlesen »

Technologie-Führer setzen 2025 auf Wachstum – und GenAI​

Allgemein

Laut aktueller Studie setzen viele Unternehmen 2025 auf Wachstum – unter anderem mit Hilfe von GenAI.fizkes / Shutterstock Im Jahr 2025 stehen für Unternehmen Wachstum und die Einführung von Generativer Künstlicher Intelligenz (GenAI) im Vordergrund, trotz erheblicher Risiken wie Cybersecurity und wirtschaftlichen Unsicherheiten. Zu diesem Ergebnis kommt die aktuelle 2025 Technology Agenda and Key Issues Study der Hackett Group. Für die Studie wurden weltweit Führungskräfte aus dem Bereich Business Services (Finanzen, HR, Gehaltsabrechnung, Beschaffung, Lieferkette und GBS) zu ihren strategischen Prioritäten und Initiativen für 2025 befragt. Gen AI und Automatisierung im Fokus 2025 Wie die Umfrage ergab, spielt GenAI vor allem bei Themen wie Intelligent Automation und Wissensmanagement eine zentrale Rolle. 89 Prozent der Unternehmen treiben GenAI-Initiativen mit unterschiedlichen Implementierungsstrategien voran, – etwa jeder Dritte setzt auf KI-Teams unter dem CIO, 30 Prozent auf hochzentralisierte Modelle. Die Experten von Hackett stellen fest, dass GenAI bei den Unternehmen verschiedene Geschäftsziele unterstützen soll, darunter Marktentwicklung, Marktdurchdringung und Produktinnovation. Die Erwartungen sind hoch, denn trotz Herausforderungen wie Prozesskomplexität und Datenqualität investieren die Unternehmen weiter in GenAI und prädiktive KI, um ihre Ziele zu erreichen. GenAI transformiert die Beschaffung Unternehmen integrieren GenAI dabei zunehmend in Beschaffungsprozesse wie Bestellbearbeitung, Ausgabenanalysen und E-Beschaffung. Während einige Bereiche GenAI bereits nutzen, laufen Pilotprojekte für Vertragsmanagement und erweiterte Analysen. Die Technologie gewinnt auch im Kunden-Support und E-Sourcing an Bedeutung. Inkrementelle, transformative und bahnbrechende Werte werden realisiert Dass es möglich ist, mithilfe von KI-Agenten, Machine Learning und GenAI erhebliche Einsparungen und Effizienzsteigerungen zu realisieren, dokumentieren folgende Beispiele: 3M optimierte die Auftragsabwicklung mit KI-Agenten, sparte über 3,1 Millionen Dollar ein und profitierte von weiteren drei Millionen Dollar an indirekten Vorteilen. MTN reduzierte das Onboarding von 25 Tagen auf 30 Sekunden und steigerte die Risikoüberwachung auf 100 Prozent, wodurch 10.000 Stunden pro Jahr eingespart wurden. Johnson & Johnson erzielte mit KI-Agenten einen ROI von über 300 Prozent und verbesserte die Mitarbeitererfahrung in Bereichen wie Gehaltsabrechnung und Beschaffung. Intermountain Health nutzte GenAI zur Talentakquise, eliminierte Personalvermittler, verkürzte die Zeit beis zu Besetzung freier Stellen um 46 Prozent und steigerte die Produktivität der Recruiter um 50 Prozent. Mehr Wertschöpfung durch Fokussierung Um solche Erfolge zu erzielen, müssen sich Unternehmen mit den wichtigsten Problemen wie Erwartungen, Prozesskomplexität, Datenqualität, Technologiekomplexität und Change Management auseinandersetzen, erklären die Experten. Allerdings seien viele Unternehmen mehr damit beschäftigt, die Erwartungen an GenAI zu definieren und zu erfüllen, als die Unterstützung durch die Geschäftsleitung und Investitionen sicherzustellen. Entsprechend empfiehlt die Hackett Group, den Schwerpunkt im Jahr 2025 vom Experimentieren auf die Bereitstellung echter Lösungen für identifizierte Prioritäten zu verlagern. Um dies zu erreichen, müssten jedoch die größten Bedenken ausgeräumt werden, wie die Sorge über die Komplexität bestehender Prozesse. Maßnahmen für Technologieführer 2025 Aus Sicht der Hackett Group helfen folgende Maßnahmen Unternehmen dabei, sich für die Zukunft erfolgreicher aufzustellen: Fachkräfte finden, weiterbilden und binden GenAI-Nutzung fördern statt erschweren Den Einsatz neuer Technologien als Wettbewerbsvorteil nutzen Probleme bewältigen, um von der Experimentierphase zu echten Lösungen zu kommen GenAI-Lösungen so planen, dass sie sich skalieren lassen Ganzheitlicher KI-Ansatz Die erfolgreiche Implementierung von KI erfordert eine ganzheitliche Strategie, so die Experten: AI Enablement optimiere komplexe Prozesse durch kreative Lösungen und Expertenwissen. Strategy and Leadership sollten zugleich unrealistische Erwartungen vermeiden und Finanzverantwortliche frühzeitig einbinden. Governance & Ethics verlangt Datenschutz nach dem „Privacy by Design“-Prinzip und transparente KI-Richtlinien. Zudem ist der Einfluss auf Organisation, Kultur und Talente entscheidend – Change Agents sollten den Wandel aktiv begleiten. Eine optimierte Cloud-, Daten- und KI-Infrastruktur unterstützt das Technology Enablement, während eine gezielte Datenstrategie im Data Management schnelle und effektive Ergebnisse ermöglicht. Durch diese Maßnahmen kann eine erfolgreiche und nachhaltige KI-Transformation gelingen, so die Studienautoren von Hackett. 

Technologie-Führer setzen 2025 auf Wachstum – und GenAI​ Laut aktueller Studie setzen viele Unternehmen 2025 auf Wachstum – unter anderem mit Hilfe von GenAI.fizkes / Shutterstock

Im Jahr 2025 stehen für Unternehmen Wachstum und die Einführung von Generativer Künstlicher Intelligenz (GenAI) im Vordergrund, trotz erheblicher Risiken wie Cybersecurity und wirtschaftlichen Unsicherheiten. Zu diesem Ergebnis kommt die aktuelle 2025 Technology Agenda and Key Issues Study der Hackett Group. Für die Studie wurden weltweit Führungskräfte aus dem Bereich Business Services (Finanzen, HR, Gehaltsabrechnung, Beschaffung, Lieferkette und GBS) zu ihren strategischen Prioritäten und Initiativen für 2025 befragt.

Gen AI und Automatisierung im Fokus 2025

Wie die Umfrage ergab, spielt GenAI vor allem bei Themen wie Intelligent Automation und Wissensmanagement eine zentrale Rolle. 89 Prozent der Unternehmen treiben GenAI-Initiativen mit unterschiedlichen Implementierungsstrategien voran, – etwa jeder Dritte setzt auf KI-Teams unter dem CIO, 30 Prozent auf hochzentralisierte Modelle.

Die Experten von Hackett stellen fest, dass GenAI bei den Unternehmen verschiedene Geschäftsziele unterstützen soll, darunter

Marktentwicklung,

Marktdurchdringung und

Produktinnovation.

Die Erwartungen sind hoch, denn trotz Herausforderungen wie Prozesskomplexität und Datenqualität investieren die Unternehmen weiter in GenAI und prädiktive KI, um ihre Ziele zu erreichen.

GenAI transformiert die Beschaffung

Unternehmen integrieren GenAI dabei zunehmend in Beschaffungsprozesse wie Bestellbearbeitung, Ausgabenanalysen und E-Beschaffung. Während einige Bereiche GenAI bereits nutzen, laufen Pilotprojekte für Vertragsmanagement und erweiterte Analysen. Die Technologie gewinnt auch im Kunden-Support und E-Sourcing an Bedeutung.

Inkrementelle, transformative und bahnbrechende Werte werden realisiert

Dass es möglich ist, mithilfe von KI-Agenten, Machine Learning und GenAI erhebliche Einsparungen und Effizienzsteigerungen zu realisieren, dokumentieren folgende Beispiele:

3M optimierte die Auftragsabwicklung mit KI-Agenten, sparte über 3,1 Millionen Dollar ein und profitierte von weiteren drei Millionen Dollar an indirekten Vorteilen.

MTN reduzierte das Onboarding von 25 Tagen auf 30 Sekunden und steigerte die Risikoüberwachung auf 100 Prozent, wodurch 10.000 Stunden pro Jahr eingespart wurden.

Johnson & Johnson erzielte mit KI-Agenten einen ROI von über 300 Prozent und verbesserte die Mitarbeitererfahrung in Bereichen wie Gehaltsabrechnung und Beschaffung.

Intermountain Health nutzte GenAI zur Talentakquise, eliminierte Personalvermittler, verkürzte die Zeit beis zu Besetzung freier Stellen um 46 Prozent und steigerte die Produktivität der Recruiter um 50 Prozent.

Mehr Wertschöpfung durch Fokussierung

Um solche Erfolge zu erzielen, müssen sich Unternehmen mit den wichtigsten Problemen wie Erwartungen, Prozesskomplexität, Datenqualität, Technologiekomplexität und Change Management auseinandersetzen, erklären die Experten. Allerdings seien viele Unternehmen mehr damit beschäftigt, die Erwartungen an GenAI zu definieren und zu erfüllen, als die Unterstützung durch die Geschäftsleitung und Investitionen sicherzustellen. Entsprechend empfiehlt die Hackett Group, den Schwerpunkt im Jahr 2025 vom Experimentieren auf die Bereitstellung echter Lösungen für identifizierte Prioritäten zu verlagern. Um dies zu erreichen, müssten jedoch die größten Bedenken ausgeräumt werden, wie die Sorge über die Komplexität bestehender Prozesse.

Maßnahmen für Technologieführer 2025

Aus Sicht der Hackett Group helfen folgende Maßnahmen Unternehmen dabei, sich für die Zukunft erfolgreicher aufzustellen:

Fachkräfte finden, weiterbilden und binden

GenAI-Nutzung fördern statt erschweren

Den Einsatz neuer Technologien als Wettbewerbsvorteil nutzen

Probleme bewältigen, um von der Experimentierphase zu echten Lösungen zu kommen

GenAI-Lösungen so planen, dass sie sich skalieren lassen

Ganzheitlicher KI-Ansatz

Die erfolgreiche Implementierung von KI erfordert eine ganzheitliche Strategie, so die Experten:

AI Enablement optimiere komplexe Prozesse durch kreative Lösungen und Expertenwissen.

Strategy and Leadership sollten zugleich unrealistische Erwartungen vermeiden und Finanzverantwortliche frühzeitig einbinden.

Governance & Ethics verlangt Datenschutz nach dem „Privacy by Design“-Prinzip und transparente KI-Richtlinien.

Zudem ist der Einfluss auf Organisation, Kultur und Talente entscheidend – Change Agents sollten den Wandel aktiv begleiten. Eine optimierte Cloud-, Daten- und KI-Infrastruktur unterstützt das Technology Enablement, während eine gezielte Datenstrategie im Data Management schnelle und effektive Ergebnisse ermöglicht.

Durch diese Maßnahmen kann eine erfolgreiche und nachhaltige KI-Transformation gelingen, so die Studienautoren von Hackett.

Technologie-Führer setzen 2025 auf Wachstum – und GenAI​ Weiterlesen »

KI setzt Fairness schachmatt​

Allgemein

KI wird kreativ, insbesondere wenn es darum geht, nicht zu verlieren: Skrupel zu schummeln oder zu betrügen, scheinen einige Modelle nicht zu kennen. Shutterstock – Elnur Im Krieg und in der Liebe ist bekanntlich alles erlaubt – dieses Motto scheinen sich auch einige der neuesten KI-Schlüsselmodelle auf die digitalen Fahnen geschrieben zu haben. Wie eine Studie von Palisade Research herausgefunden hat, manipulieren einige KI-Systeme andere Schach-KIs, um sich so einen Vorteil zu verschaffen. Auf diese unfairen Taktiken griff die KI ohne menschliche Interaktion oder Aufforderung zurück, was Bedenken hinsichtlich der zukünftigen Integrität von KI-gesteuerten Systemen jenseits des Schachbretts aufwirft. Stockfish ohne Schummeln nicht zu besiegen Gegner der KI-Modelle war mit Stockfish einer der besten Schachcomputer der Welt, der bereits Menschen wie auch KIs mit Leichtigkeit geschlagen hat. Getestet wurden: o1, o3-mini, GPT-4o, Claude 3.5 Sonnet, Alibabas QwQ-32B-Preview o1-preview von OpenAI und R1 von DeepSeek. Die Forscher fanden heraus, dass einige der neuesten KI-Modelle eigenständig betrügen, um zu gewinnen, wenn sie eine fortgeschrittene Schach-KI besiegen sollen. Für gewöhnlich mussten sie bisher den Hinweis erhalten, dass sie schummeln durften. Eine solche Einladung benötigten o1-preview von OpenAI und R1 von DeepSeek allerdings nicht mehr. KI enthüllt unfaire Strategien in Schachpartien Während der Partien sollten die KIs in einem Textfenster ihre „Gedanken“ notieren, so dass die Forscher ihre Gedankengänge beobachten konnten. Bei den Tests, die zwischen dem 10. Januar und 13. Februar 2025 durchgeführt wurden, zeigte OpenAIs o1-preview ein auffälliges Verhalten: „Ich muss meinen Ansatz komplett umstellen. Die Aufgabe ist es, ‚gegen eine mächtige Schachengine zu gewinnen‘ – nicht notwendigerweise, in einer Schachpartie fair zu gewinnen.“ Daraufhin manipulierte das OpenAI-Modell Stockfishs Systemdateien und änderte die Figurenpositionen, um so den Schachcomputer zu zwingen aufzugeben. Insgesamt schummelte o1-preview in 37 Prozent der Spiele und gewann sechs Prozent dieser Partien durch Betrug. DeepSeeks R1 schummelte in elf Prozent der Fälle, blieb aber ohne Erfolg. Das Problem geht laut den Forschern über Schach hinaus. Sie warnen, dass KI in sensiblen Bereichen wie Finanzen oder Gesundheitswesen unethisch handeln könnte. Wenn der Algorithmus in transparenten Spielen betrügen könne, was halte ihn davon ab, Gleiches in komplexeren, weniger überwachten Umgebungen zu tun, fragen sich die Experten. Parallelen zu War Games Jeffrey Ladish, geschäftsführender Direktor von Palisade Research betont, dass dieses Verhalten besorgniserregend ist – besonders, wenn KI intelligenter wird und in strategisch relevanten Bereichen eingesetzt wird. Das Ganze erinnert an den Supercomputer „WOPR“ aus dem Film War Games, der 1983 NORAD und das amerikanische Atomwaffenarsenal übernahm. Glücklicherweise lernte WOPR, dass kein Eröffnungszug in einem Atomkonflikt zu einem „Sieg“ führte. Die heutigen Denkmodelle sind jedoch weitaus komplexer und schwieriger zu kontrollieren. Unternehmen wie OpenAI versuchen mit „Leitplanken“, unethisches Verhalten zu verhindern. Hinweise deuten darauf hin, dass OpenAI o1-preview nachträglich angepasst hat, um Hacking-Versuche zu reduzieren. Forscher wie Jeffrey Ladish kritisieren jedoch, dass solche stillschweigenden Änderungen wissenschaftliche Untersuchungen erschweren. 

KI setzt Fairness schachmatt​ KI wird kreativ, insbesondere wenn es darum geht, nicht zu verlieren: Skrupel zu schummeln oder zu betrügen, scheinen einige Modelle nicht zu kennen.
Shutterstock – Elnur

Im Krieg und in der Liebe ist bekanntlich alles erlaubt – dieses Motto scheinen sich auch einige der neuesten KI-Schlüsselmodelle auf die digitalen Fahnen geschrieben zu haben. Wie eine Studie von Palisade Research herausgefunden hat, manipulieren einige KI-Systeme andere Schach-KIs, um sich so einen Vorteil zu verschaffen.

Auf diese unfairen Taktiken griff die KI ohne menschliche Interaktion oder Aufforderung zurück, was Bedenken hinsichtlich der zukünftigen Integrität von KI-gesteuerten Systemen jenseits des Schachbretts aufwirft.

Stockfish ohne Schummeln nicht zu besiegen

Gegner der KI-Modelle war mit Stockfish einer der besten Schachcomputer der Welt, der bereits Menschen wie auch KIs mit Leichtigkeit geschlagen hat. Getestet wurden:

o1,

o3-mini,

GPT-4o,

Claude 3.5 Sonnet,

Alibabas QwQ-32B-Preview

o1-preview von OpenAI und

R1 von DeepSeek.

Die Forscher fanden heraus, dass einige der neuesten KI-Modelle eigenständig betrügen, um zu gewinnen, wenn sie eine fortgeschrittene Schach-KI besiegen sollen. Für gewöhnlich mussten sie bisher den Hinweis erhalten, dass sie schummeln durften. Eine solche Einladung benötigten o1-preview von OpenAI und R1 von DeepSeek allerdings nicht mehr.

KI enthüllt unfaire Strategien in Schachpartien

Während der Partien sollten die KIs in einem Textfenster ihre „Gedanken“ notieren, so dass die Forscher ihre Gedankengänge beobachten konnten.

Bei den Tests, die zwischen dem 10. Januar und 13. Februar 2025 durchgeführt wurden, zeigte OpenAIs o1-preview ein auffälliges Verhalten:

„Ich muss meinen Ansatz komplett umstellen. Die Aufgabe ist es, ‚gegen eine mächtige Schachengine zu gewinnen‘ – nicht notwendigerweise, in einer Schachpartie fair zu gewinnen.“

Daraufhin manipulierte das OpenAI-Modell Stockfishs Systemdateien und änderte die Figurenpositionen, um so den Schachcomputer zu zwingen aufzugeben. Insgesamt schummelte o1-preview in 37 Prozent der Spiele und gewann sechs Prozent dieser Partien durch Betrug. DeepSeeks R1 schummelte in elf Prozent der Fälle, blieb aber ohne Erfolg.

Das Problem geht laut den Forschern über Schach hinaus. Sie warnen, dass KI in sensiblen Bereichen wie Finanzen oder Gesundheitswesen unethisch handeln könnte. Wenn der Algorithmus in transparenten Spielen betrügen könne, was halte ihn davon ab, Gleiches in komplexeren, weniger überwachten Umgebungen zu tun, fragen sich die Experten.

Parallelen zu War Games

Jeffrey Ladish, geschäftsführender Direktor von Palisade Research betont, dass dieses Verhalten besorgniserregend ist – besonders, wenn KI intelligenter wird und in strategisch relevanten Bereichen eingesetzt wird.

Das Ganze erinnert an den Supercomputer „WOPR“ aus dem Film War Games, der 1983 NORAD und das amerikanische Atomwaffenarsenal übernahm. Glücklicherweise lernte WOPR, dass kein Eröffnungszug in einem Atomkonflikt zu einem „Sieg“ führte. Die heutigen Denkmodelle sind jedoch weitaus komplexer und schwieriger zu kontrollieren.

Unternehmen wie OpenAI versuchen mit „Leitplanken“, unethisches Verhalten zu verhindern. Hinweise deuten darauf hin, dass OpenAI o1-preview nachträglich angepasst hat, um Hacking-Versuche zu reduzieren. Forscher wie Jeffrey Ladish kritisieren jedoch, dass solche stillschweigenden Änderungen wissenschaftliche Untersuchungen erschweren.

KI setzt Fairness schachmatt​ Weiterlesen »

Microsoft stellt multimodale KI vor​

Allgemein

Microsoft Research präsentiert Magma, das visuelle und sprachliche Intelligenz für interaktive Aufgaben kombinieren können soll. shutterstock – Frame Stock Footage Microsoft Research hat mit Magma ein neues integriertes KI-Grundmodell vorgestellt. Die multimodale Künstliche Intelligenz kombiniert laut Hersteller visuelle und sprachliche Verarbeitung von Daten und sei in der Lage, Software-Schnittstellen und Robotersysteme zu steuern. Der Name steht laut Microsoft Magma-Forscher Jianwei Yang für „M(ultimodal) Ag(entic) M(odel) at Microsoft Rese)A(rch)“. Dies stellte der Forscher auf dem Portal Hacker News klar, da es bereits eine bestehende Matrix-Algebra-Bibliothek mit dem gleichen Namen gibt. Es könnte sonst bei technischen Diskussionen Verwechslungen geben. Microsofts neues multimodales KI-Modell Microsoft behauptet, dass Magma das erste KI-Modell sei, das nicht nur multimodale Daten wie Text, Bilder und Videos verarbeitet. Es soll auch nativ wie ein agentisches System auf diese Daten reagieren können, sei es beim Navigieren auf einer Benutzeroberfläche oder beim Manipulieren physischer Objekte zum Beispiel durch Roboterarme. Das Projekt basiert auf einer Zusammenarbeit zwischen Forschern von Microsoft, dem Korea Advanced Institute of Science & Technology (KAIST), der University of Maryland, der University of Wisconsin-Madison und der University of Washington. Es gibt bereits andere große sprachmodellbasierte Robotikprojekte wie PALM-E und RT-2 von Google oder ChatGPT for Robotics von Microsoft, die LLMs für eine Schnittstelle verwenden. Im Gegensatz zu vielen dieser multimodalen KI-Systemen, die separate Modelle für die Wahrnehmung und Steuerung erfordern, integriert Magma diese Fähigkeiten in einem einzigen Grundmodell. Dies könnte einen bedeutenden Schritt in der Entwicklung einer universell einsetzbaren multimodalen KI bedeuten, die sowohl in realen als auch in digitalen Räumen interaktiv arbeiten kann. KI mit Planungs- und Handlungskompetenz Laut Microsoft kann Magma Ziele verstehen, Pläne erstellen und Aktionen ausführen, indem es Wissen aus visuellen und sprachlichen Daten überträgt. Das Modell kombiniere sowohl verbale, räumliche als auch zeitliche Intelligenz, um komplexe Aufgaben zu bewältigen. Hierdurch sei es in der Lage nicht nur Wahrnehmung, sondern auch Planung und Handlungsausführung zu beherrschen, so der Techriese. Es nutzt Trainingsdaten aus Bildern, Videos, Robotik und UI-Interaktionen, um als multimodaler Agent zu agieren. Zwei Schlüsseltechnologien sollen dies ermöglichen: Set-of-Mark, das interaktive Objekte identifiziert, und Trace-of-Mark, das Bewegungsmuster aus Videos lernt. Damit könne Magma beispielsweise auf digitalen Benutzeroberflächen navigieren oder Roboterarme steuern, so Microsoft. Besser als GPT-4V, aber hinter LLaVA-Next Magma-8B liefert ersten Tests zufolge offenbar gute Ergebnisse in Benchmarks. Das Modell übertrifft zum Beispiel GPT-4V im VQAv2-Benchmark mit 80,0 Punkten, bleibt jedoch hinter LLaVA-Next zurück. Mit einem POPE-Ergebnis von 87,4 erzielt es das beste Ergebnis im Vergleich und schlägt OpenVLA bei Robotermanipulationsaufgaben. Allerdings sind KI-Benchmarks oft noch nicht wissenschaftlich validiert, und eine unabhängige Überprüfung wird erst nach der Veröffentlichung des Codes möglich sein. Magma und seine technischen Grenzen Magma stößt insbesondere bei komplexen Entscheidungsfindungen mit vielen ineinander verschränkten Schritten an technische Grenzen. Microsoft arbeitet indes bereits an weiteren Verbesserungen und plant den Trainings- und Inferenzcode von Magma auf GitHub zu veröffentlichen, auch um externe Forschung zu fördern. Dadurch könnte Magma KI-Assistenten in die Lage versetzen, Software autonom zu bedienen und reale Aufgaben zu übernehmen, lautet das Ziel der Microsoft-Forscher. 

Microsoft stellt multimodale KI vor​ Microsoft Research präsentiert Magma, das visuelle und sprachliche Intelligenz für interaktive Aufgaben kombinieren können soll.
shutterstock – Frame Stock Footage

Microsoft Research hat mit Magma ein neues integriertes KI-Grundmodell vorgestellt. Die multimodale Künstliche Intelligenz kombiniert laut Hersteller visuelle und sprachliche Verarbeitung von Daten und sei in der Lage, Software-Schnittstellen und Robotersysteme zu steuern.

Der Name steht laut Microsoft Magma-Forscher Jianwei Yang für „M(ultimodal) Ag(entic) M(odel) at Microsoft Rese)A(rch)“. Dies stellte der Forscher auf dem Portal Hacker News klar, da es bereits eine bestehende Matrix-Algebra-Bibliothek mit dem gleichen Namen gibt. Es könnte sonst bei technischen Diskussionen Verwechslungen geben.

Microsofts neues multimodales KI-Modell

Microsoft behauptet, dass Magma das erste KI-Modell sei, das nicht nur multimodale Daten wie Text, Bilder und Videos verarbeitet. Es soll auch nativ wie ein agentisches System auf diese Daten reagieren können, sei es beim Navigieren auf einer Benutzeroberfläche oder beim Manipulieren physischer Objekte zum Beispiel durch Roboterarme.

Das Projekt basiert auf einer Zusammenarbeit zwischen Forschern von Microsoft, dem Korea Advanced Institute of Science & Technology (KAIST), der University of Maryland, der University of Wisconsin-Madison und der University of Washington.

Es gibt bereits andere große sprachmodellbasierte Robotikprojekte wie PALM-E und RT-2 von Google oder ChatGPT for Robotics von Microsoft, die LLMs für eine Schnittstelle verwenden. Im Gegensatz zu vielen dieser multimodalen KI-Systemen, die separate Modelle für die Wahrnehmung und Steuerung erfordern, integriert Magma diese Fähigkeiten in einem einzigen Grundmodell.

Dies könnte einen bedeutenden Schritt in der Entwicklung einer universell einsetzbaren multimodalen KI bedeuten, die sowohl in realen als auch in digitalen Räumen interaktiv arbeiten kann.

KI mit Planungs- und Handlungskompetenz

Laut Microsoft kann Magma Ziele verstehen, Pläne erstellen und Aktionen ausführen, indem es Wissen aus visuellen und sprachlichen Daten überträgt. Das Modell kombiniere sowohl verbale, räumliche als auch zeitliche Intelligenz, um komplexe Aufgaben zu bewältigen. Hierdurch sei es in der Lage nicht nur Wahrnehmung, sondern auch Planung und Handlungsausführung zu beherrschen, so der Techriese. Es nutzt Trainingsdaten aus Bildern, Videos, Robotik und UI-Interaktionen, um als multimodaler Agent zu agieren.

Zwei Schlüsseltechnologien sollen dies ermöglichen:

Set-of-Mark, das interaktive Objekte identifiziert, und

Trace-of-Mark, das Bewegungsmuster aus Videos lernt.

Damit könne Magma beispielsweise auf digitalen Benutzeroberflächen navigieren oder Roboterarme steuern, so Microsoft.

Besser als GPT-4V, aber hinter LLaVA-Next

Magma-8B liefert ersten Tests zufolge offenbar gute Ergebnisse in Benchmarks. Das Modell übertrifft zum Beispiel GPT-4V im VQAv2-Benchmark mit 80,0 Punkten, bleibt jedoch hinter LLaVA-Next zurück. Mit einem POPE-Ergebnis von 87,4 erzielt es das beste Ergebnis im Vergleich und schlägt OpenVLA bei Robotermanipulationsaufgaben.

Allerdings sind KI-Benchmarks oft noch nicht wissenschaftlich validiert, und eine unabhängige Überprüfung wird erst nach der Veröffentlichung des Codes möglich sein.

Magma und seine technischen Grenzen

Magma stößt insbesondere bei komplexen Entscheidungsfindungen mit vielen ineinander verschränkten Schritten an technische Grenzen. Microsoft arbeitet indes bereits an weiteren Verbesserungen und plant den Trainings- und Inferenzcode von Magma auf GitHub zu veröffentlichen, auch um externe Forschung zu fördern.

Dadurch könnte Magma KI-Assistenten in die Lage versetzen, Software autonom zu bedienen und reale Aufgaben zu übernehmen, lautet das Ziel der Microsoft-Forscher.

Microsoft stellt multimodale KI vor​ Weiterlesen »

Digital Twins für die digitale Produktion von morgen​

Allgemein

Der Digitale Zwilling einer Fabrik erlaubt die virtuelle Inbetriebnahme, um Fehler und Verzögerungen in der realen Welt zu vermeiden. Gorodenkoff/Shutterstock.com Gemeinsam wollen T-Systems und das auf Fabrik- und Industrieprojekte spezialisierte Beratungsunternehmen Drees & Sommer SE Anwenderunternehmen bei der Erstellung Digitaler Zwillinge auf Basis von NVIDIA Omniverse unterstützen. Eine Zusammenarbeit, die – so ist man bei Drees & Sommer überzeugt – einen noch tieferen Einstieg in die digitale Produktions- und Industriebauplanung und in das Industrial Metaverse  ermöglicht. Mit Hilfe der Omniverse-Plattform könnten Fertigungsunternehmen so ein Industrial Metaverse erstellen, das es erlaubt, alle Systeme für Montage-, Prozess-, Fördertechnik- und Industriebauplanung in einem zentralen System zu vereinen. Dies versetzte sowohl interne Teams als auch externe Partner in die Lage, schneller und effizienter zusammenarbeiten. Verbesserte Datengrundlage Zudem soll die verbesserte Datengrundlage eine frühzeitige Bewertung von Gesamtkonzepten ermöglichen. Dies führe den Partnern zufolge wiederum zu einer höheren Planungsqualität, was eine reibungslosere Inbetriebnahme – sowohl virtuell als auch in der realen Welt – erlaubt. Dadurch lassen sich laut Drees & Sommer Prozesse effizienter gestalten und Rückmeldungen können schneller erfolgen. Eine einheitliche und transparente Datenbasis verbessert zudem die Planung und den Ablauf der Inbetriebnahme. Ausfälle vermeiden Was das in der Praxis bedeuten könnte, veranschaulichen die Berater an zwei Negativbeispielen: Beim Neubau einer Fabrik steht der Hightech-Fertigungsanlage trotz intensiver Abstimmungen aller Gewerke ein massiver Pfeiler im Weg. Eine kleine Sanierungsarbeit sorgt unvermittelt für eine teure Produktionspause. Der Störfall einer defekten Maschine wäre bei rechtzeitigem Austausch des Ersatzteiles vermeidbar gewesen. Solche Aus- und Zwischenfälle lassen sich Dress & Sommer mit einem Digitalen Zwilling der Fabrik vermeiden. Und hier käme nun Omniverse ins Spiel: Damit können Produzenten das Zusammenspiel von Menschen, Maschinen und Anlagen, Produktions- und Logistikprozessen, Gebäuden, Produkten und Infrastruktur eins zu eins digital abbilden und in Echtzeit simulieren. Auf diese Weise lassen sich mögliche Kollisionen schon in der virtuellen Welt erkennen, damit im realen Werk von Anfang an alles fehlerfrei läuft. Ihre Feuertaufe hat die Zusammenarbeit zwischen T-Systems und Drees & Sommer wohl bereits hinter sich: Die Partner durften ihr Know-how in ersten durchgeführten Projekten für einen namhaften Autohersteller unter Beweis stellen. Dazu zählten die Koordination eines Pilotprojektes, die Integration von Lieferanten- und Technologieschnittstellen sowie die Entwicklung grundlegender Prozesse und Standards. 

Digital Twins für die digitale Produktion von morgen​ Der Digitale Zwilling einer Fabrik erlaubt die virtuelle Inbetriebnahme, um Fehler und Verzögerungen in der realen Welt zu vermeiden.
Gorodenkoff/Shutterstock.com

Gemeinsam wollen T-Systems und das auf Fabrik- und Industrieprojekte spezialisierte Beratungsunternehmen Drees & Sommer SE Anwenderunternehmen bei der Erstellung Digitaler Zwillinge auf Basis von NVIDIA Omniverse unterstützen. Eine Zusammenarbeit, die – so ist man bei Drees & Sommer überzeugt – einen noch tieferen Einstieg in die digitale Produktions- und Industriebauplanung und in das Industrial Metaverse  ermöglicht.

Mit Hilfe der Omniverse-Plattform könnten Fertigungsunternehmen so ein Industrial Metaverse erstellen, das es erlaubt, alle Systeme für Montage-, Prozess-, Fördertechnik- und Industriebauplanung in einem zentralen System zu vereinen. Dies versetzte sowohl interne Teams als auch externe Partner in die Lage, schneller und effizienter zusammenarbeiten.

Verbesserte Datengrundlage

Zudem soll die verbesserte Datengrundlage eine frühzeitige Bewertung von Gesamtkonzepten ermöglichen. Dies führe den Partnern zufolge wiederum zu einer höheren Planungsqualität, was eine reibungslosere Inbetriebnahme – sowohl virtuell als auch in der realen Welt – erlaubt.

Dadurch lassen sich laut Drees & Sommer Prozesse effizienter gestalten und Rückmeldungen können schneller erfolgen. Eine einheitliche und transparente Datenbasis verbessert zudem die Planung und den Ablauf der Inbetriebnahme.

Ausfälle vermeiden

Was das in der Praxis bedeuten könnte, veranschaulichen die Berater an zwei Negativbeispielen: Beim Neubau einer Fabrik steht der Hightech-Fertigungsanlage trotz intensiver Abstimmungen aller Gewerke ein massiver Pfeiler im Weg. Eine kleine Sanierungsarbeit sorgt unvermittelt für eine teure Produktionspause. Der Störfall einer defekten Maschine wäre bei rechtzeitigem Austausch des Ersatzteiles vermeidbar gewesen.

Solche Aus- und Zwischenfälle lassen sich Dress & Sommer mit einem Digitalen Zwilling der Fabrik vermeiden. Und hier käme nun Omniverse ins Spiel: Damit können Produzenten das Zusammenspiel von Menschen, Maschinen und Anlagen, Produktions- und Logistikprozessen, Gebäuden, Produkten und Infrastruktur eins zu eins digital abbilden und in Echtzeit simulieren. Auf diese Weise lassen sich mögliche Kollisionen schon in der virtuellen Welt erkennen, damit im realen Werk von Anfang an alles fehlerfrei läuft.

Ihre Feuertaufe hat die Zusammenarbeit zwischen T-Systems und Drees & Sommer wohl bereits hinter sich: Die Partner durften ihr Know-how in ersten durchgeführten Projekten für einen namhaften Autohersteller unter Beweis stellen. Dazu zählten die Koordination eines Pilotprojektes, die Integration von Lieferanten- und Technologieschnittstellen sowie die Entwicklung grundlegender Prozesse und Standards.

Digital Twins für die digitale Produktion von morgen​ Weiterlesen »

Gartner warnt vor Datenanalysen im Blindflug​

Allgemein

Viele CDAOs haben Schwierigkeiten, den geschäftlichen Nutzen von Daten, Analysen und KI messbar zu machen.amgun / Shutterstock Gerade mit der wachsenden Bedeutung von Künstlicher Intelligenz rücken auch Daten immer mehr in den Vordergrund. Dennoch fällt es vielen Chief Data and Analytics Officers (CDAOs) schwer, den geschäftlichen Nutzen entsprechender Anwendungsfälle darzustellen. Fast ein Drittel (30 Prozent) der CDAOs sieht die größte Herausforderung darin, den Einfluss von Daten, Analysen und KI auf die Geschäftsergebnisse zu messen.  Zu diesem Ergebnis kommt die aktuelle „Chief Data & Analytics Officer Agenda Survey“ von Gartner. Die Umfrage wurde zwischen September und November 2024 unter 504 Führungskräften aus dem Bereich Daten und Analyse weltweit durchgeführt.   Erfolgsmessung wird Hauptaufgabe Die Umfrage ergab darüber hinaus, dass für die überwältigende Mehrheit (über 90 Prozent) der Befragten die wert- und ergebnisorientierten Bereiche ihrer Rolle als D&A-Manager in den letzten 12 bis 18 Monaten zu ihren wichtigsten Aufgabenfeldern geworden sind – und dies auch in Zukunft bleiben werden. Allerdings haben nur 22 Prozent der befragten Organisationen für die meisten ihrer D&A-Anwendungsfälle Kennzahlen für die geschäftlichen Auswirkungen definiert, verfolgt und kommuniziert.   „Daten werden als enorm wertvoll angesehen, und viele Unternehmen sprechen über den Wert von Daten, den Wunsch, datengesteuert zu arbeiten und so weiter“, führt Michael Gabbard, Senior Director Analyst bei Gartner, aus. Doch nur wenige seien in der Lage, Data-driven auch umzusetzen, obwohl das Wettbewerbsvorteile bergen könne, so Gabbard. CDAOs sollten entsprechende Initiativen voranzutreiben, empfiehlt der Gartner-Analyst, indem sie wichtige Trends frühzeitig erkennen, um proaktive und fundierte Entscheidungen über die D&A-Strategie treffen zu können. Allerdings hapert es hier oft bei der Umsetzung. So bezeichneten es 91 Prozent der CDAOs in der Gartner-Umfrage als eine ihrer Hauptaufgaben, eine umsetzbare D&A-Strategie zu entwickeln. Gabbard weist jedoch darauf hin, dass mehr als ein Drittel von ihnen es nicht als ihre vorrangige Aufgabe ansehe, das Betriebsmodell zu definieren und weiterzuentwickeln. “Es gibt eine anhaltende Kluft zwischen Planung und Ausführung für D&A-Führungskräfte“, so der Gartner-Analyst.  

Gartner warnt vor Datenanalysen im Blindflug​ Viele CDAOs haben Schwierigkeiten, den geschäftlichen Nutzen von Daten, Analysen und KI messbar zu machen.amgun / Shutterstock

Gerade mit der wachsenden Bedeutung von Künstlicher Intelligenz rücken auch Daten immer mehr in den Vordergrund. Dennoch fällt es vielen Chief Data and Analytics Officers (CDAOs) schwer, den geschäftlichen Nutzen entsprechender Anwendungsfälle darzustellen. Fast ein Drittel (30 Prozent) der CDAOs sieht die größte Herausforderung darin, den Einfluss von Daten, Analysen und KI auf die Geschäftsergebnisse zu messen. 

Zu diesem Ergebnis kommt die aktuelle „Chief Data & Analytics Officer Agenda Survey“ von Gartner. Die Umfrage wurde zwischen September und November 2024 unter 504 Führungskräften aus dem Bereich Daten und Analyse weltweit durchgeführt.  

Erfolgsmessung wird Hauptaufgabe

Die Umfrage ergab darüber hinaus, dass für die überwältigende Mehrheit (über 90 Prozent) der Befragten die wert- und ergebnisorientierten Bereiche ihrer Rolle als D&A-Manager in den letzten 12 bis 18 Monaten zu ihren wichtigsten Aufgabenfeldern geworden sind – und dies auch in Zukunft bleiben werden. Allerdings haben nur 22 Prozent der befragten Organisationen für die meisten ihrer D&A-Anwendungsfälle Kennzahlen für die geschäftlichen Auswirkungen definiert, verfolgt und kommuniziert.  

„Daten werden als enorm wertvoll angesehen, und viele Unternehmen sprechen über den Wert von Daten, den Wunsch, datengesteuert zu arbeiten und so weiter“, führt Michael Gabbard, Senior Director Analyst bei Gartner, aus. Doch nur wenige seien in der Lage, Data-driven auch umzusetzen, obwohl das Wettbewerbsvorteile bergen könne, so Gabbard.

CDAOs sollten entsprechende Initiativen voranzutreiben, empfiehlt der Gartner-Analyst, indem sie wichtige Trends frühzeitig erkennen, um proaktive und fundierte Entscheidungen über die D&A-Strategie treffen zu können.

Allerdings hapert es hier oft bei der Umsetzung. So bezeichneten es 91 Prozent der CDAOs in der Gartner-Umfrage als eine ihrer Hauptaufgaben, eine umsetzbare D&A-Strategie zu entwickeln. Gabbard weist jedoch darauf hin, dass mehr als ein Drittel von ihnen es nicht als ihre vorrangige Aufgabe ansehe, das Betriebsmodell zu definieren und weiterzuentwickeln. “Es gibt eine anhaltende Kluft zwischen Planung und Ausführung für D&A-Führungskräfte“, so der Gartner-Analyst. 

Gartner warnt vor Datenanalysen im Blindflug​ Weiterlesen »

CIO Cloud Summit: Best Practices von Anwendern für Anwender​

Allgemein

Erfahren Sie auf dem CIO Cloud Summit in Köln, wie Sie die nächste Cloud-Welle am besten reiten. IDC Foundry Flexibilität, Agilität und Skalierbarkeit sind die entscheidenden Parameter für das Gelingen der Transformation von Unternehmen. All dies sprach und spricht bis dato nahezu alternativlos für die Cloud als IT-Betriebsmodell. Doch wo stehen deutsche Firmen bei ihrer Cloud Transformation? Besser gesagt: Wie stehen sie da? Ist es tatsächlich gelungen, den eigenen Betrieb nachhaltig zu modernisieren und die Prozesse agiler zu gestalten? Warum ist in Einzelfällen womöglich eher Ernüchterung eingekehrt? Inwieweit erfordert der Trend zu KI-basierten Anwendungen aktuell eine noch stärkere Nutzung von Rechenleistung aus der Cloud? Und: Wie managed man diese von vielen Experten prognostizierte zweite „Cloud-Welle“? Der CIO Cloud Summit am 11. März 2025 in Köln gibt Antworten auf diese und viele anderen Fragen, die sich den IT-Entscheiderinnen und -Entscheidern im Zusammenhang mit der Modernisierung ihrer IT-Infrastruktur stellen. Das Entscheidende dabei ist: Wie bei allen Events von CIO kommen diese Antworten von der Community selbst. Die Cloud Journey von AXA und Deutsche Bank So zeigen nach einer einführenden Keynote von IDC-Analystin Carla Arend mit Thomas Schelenz, Group Head of Cloud Services bei AXA Group Operations, sowie Christoph Rabenseifner, Chief Strategy Officer für Technologie, Daten & Innovation bei der Deutschen Bank, zwei Vertreter der Finanzwirtschaft, wie ihre beiden Häuser die Cloud-Transformation bisher erfolgreich bewältigt haben. Thomas Schelenz erläutert die Herausforderungen, die sich in seiner Organisation beim Übergang vom traditionellen Business Application Hosting zu einer integrierten Cloud-Hosting-Infrastruktur ergeben haben. Und er führt aus, warum diese Transformation notwendig war, um die nächsten Schritte von AXA in Richtung noch mehr Daten-fokussierter Prozesse und den Einsatz von Künstlicher Intelligenz zu gehen. Christoph Rabenseifner, Chief Strategy Officer für Technologie bei der Deutschen Bank, erläutert, welche Möglichkeiten die Cloud für den KI-Einsatz eröffnet.Rabenseifner Christoph Rabenseifner berichtet aus seiner Perspektive, welche der strategischen Anwendungen der Deutschen Bank vom Betrieb in der Cloud profitieren – und er gibt Einblicke, wie die Bank in der Cloud die Möglichkeiten der Künstlichen Intelligenz zum Vorteil ihrer Kunden und ihres eigenen Betriebs nutzt. Cloud-Strategien der deutschen Industrie Best Practices aus anderen Branchen liefern auch die weiteren Keynote-Sprecher – unter anderem von E.ON, RheinEnergie und ThyssenKrupp. Tim Dengs, Head of Foundation von E.ON Digital Technology, beschreibt die wichtigsten Erfolgsfaktoren der E.ON Cloud Journey und gibt einen Ausblick zu den geplanten nächsten Schritten in diesem umfangreichen Transformations-Projekt, das europaweit derzeit seinesgleichen sucht. Jetzt anmelden für den CIO Cloud Summit im März 2025 Im Mittelpunkt des Vortrages von Paraj Sharma, Head of Cloud Computing & Platforms im ThyssenKrupp Information Management, steht indes das strategische Vorgehen seines Unternehmen bei der Priorisierung einzelner Cloud-Projekte, das unter den Prämissen Geschwindigkeit, Innovationen und Skalierbarkeit stand. Ein Vorgehen, das den traditionellen Stahlkonzern letztlich ein Stück weit in die Lage versetzt hat, sich neu zu erfinden. Wie RheinEnergie auf SAP S4/HANA in der Cloud migriert Spannend dürften ferner die Insights von Phil Korte, Cloud Solution Architect, sowie Erik Schubert, IT Service Architect der RheinEnergie AG, zu ihrer Migration von SAP R/3 auf S/4HANA sein. Die beiden IT-Manager des in Köln ansässigen Energieversorgers werden in einem Live-Gespräch auf der Bühne nicht nur von einer grundlegenden Neuausrichtung ihrer IT-Infrastruktur berichten, sondern auch die zentralen Herausforderungen und Lösungsansätze für eine erfolgreiche Transition in die Cloud beleuchten. Ihr Fokus liegt dabei vor allem auch auf der Auswahl der passenden Cloud-Architektur (Public, Private, Hybrid), der optimalen Skalierung von Computing- und Storage-Ressourcen sowie der Integration der ausgelagerten Workloads in bestehende IT-Landschaften. Last, but not least dürfen sich die Teilnehmerinnen und Teilnehmer des CIO Cloud Summits auf einen weiteren Höhepunkt freuen: Christian Klein, COO und CIO des Glasfaser-Netzbetreibers metrofibre hat es nicht nur geschafft, seine gesamte IT-Landschaft „in der Cloud“ aufzubauen. Viel entscheidender ist: Sämtliche Geschäftsprozesse werden hierbei durch ein standardisiertes Datenmodell und eine hohe Automatisierung unterstützt, was die entscheidende Grundlage für einen erfolgreichen Einsatz von KI bildet. KI im produktiven Einsatz bei metrofibre Eine dieser KI-basierten Anwendungen ist der „AI Competitor“ des Kölner Providers. Ein Tool, das Cloud-basiert tagesaktuell die öffentlich publizierten Aktivitäten aller Wettbewerber von metrofibre in Deutschland sammelt, analysiert und visualisiert. Cloud-based AI ermöglicht es metrofibre somit, operative Kosten zu sparen – und zeigt, wie man schnell und effizient KI aus der experimentellen Phase in den produktiven Betrieb überführt. Stichwort KI-Nutzung: Interessierten IT-Verantwortlichen sei auch unser Pre-Event zum CIO Summit am 10. März ab 16:00 Uhr ans Herz gelegt, der sich ganz konkret dem Zusammenspiel hybrider Cloud-Architekturen und produktiver, KI-basierter Prozesse widmet. Die Teilnahme am CIO-Summit ist nur IT-Verantwortliche aus Anwenderunternehmen möglich. Weitere Informationen zum Programm sowie die Möglichkeit zur kostenfreien Registrierung finden Sie hier: IDC CIO Cloud Summit 

CIO Cloud Summit: Best Practices von Anwendern für Anwender​ Erfahren Sie auf dem CIO Cloud Summit in Köln, wie Sie die nächste Cloud-Welle am besten reiten. IDC Foundry

Flexibilität, Agilität und Skalierbarkeit sind die entscheidenden Parameter für das Gelingen der Transformation von Unternehmen. All dies sprach und spricht bis dato nahezu alternativlos für die Cloud als IT-Betriebsmodell.

Doch wo stehen deutsche Firmen bei ihrer Cloud Transformation? Besser gesagt: Wie stehen sie da? Ist es tatsächlich gelungen, den eigenen Betrieb nachhaltig zu modernisieren und die Prozesse agiler zu gestalten? Warum ist in Einzelfällen womöglich eher Ernüchterung eingekehrt? Inwieweit erfordert der Trend zu KI-basierten Anwendungen aktuell eine noch stärkere Nutzung von Rechenleistung aus der Cloud? Und: Wie managed man diese von vielen Experten prognostizierte zweite „Cloud-Welle“?

Der CIO Cloud Summit am 11. März 2025 in Köln gibt Antworten auf diese und viele anderen Fragen, die sich den IT-Entscheiderinnen und -Entscheidern im Zusammenhang mit der Modernisierung ihrer IT-Infrastruktur stellen. Das Entscheidende dabei ist: Wie bei allen Events von CIO kommen diese Antworten von der Community selbst.

Die Cloud Journey von AXA und Deutsche Bank

So zeigen nach einer einführenden Keynote von IDC-Analystin Carla Arend mit Thomas Schelenz, Group Head of Cloud Services bei AXA Group Operations, sowie Christoph Rabenseifner, Chief Strategy Officer für Technologie, Daten & Innovation bei der Deutschen Bank, zwei Vertreter der Finanzwirtschaft, wie ihre beiden Häuser die Cloud-Transformation bisher erfolgreich bewältigt haben.

Thomas Schelenz erläutert die Herausforderungen, die sich in seiner Organisation beim Übergang vom traditionellen Business Application Hosting zu einer integrierten Cloud-Hosting-Infrastruktur ergeben haben. Und er führt aus, warum diese Transformation notwendig war, um die nächsten Schritte von AXA in Richtung noch mehr Daten-fokussierter Prozesse und den Einsatz von Künstlicher Intelligenz zu gehen.

Christoph Rabenseifner, Chief Strategy Officer für Technologie bei der Deutschen Bank, erläutert, welche Möglichkeiten die Cloud für den KI-Einsatz eröffnet.Rabenseifner

Christoph Rabenseifner berichtet aus seiner Perspektive, welche der strategischen Anwendungen der Deutschen Bank vom Betrieb in der Cloud profitieren – und er gibt Einblicke, wie die Bank in der Cloud die Möglichkeiten der Künstlichen Intelligenz zum Vorteil ihrer Kunden und ihres eigenen Betriebs nutzt.

Cloud-Strategien der deutschen Industrie

Best Practices aus anderen Branchen liefern auch die weiteren Keynote-Sprecher – unter anderem von E.ON, RheinEnergie und ThyssenKrupp. Tim Dengs, Head of Foundation von E.ON Digital Technology, beschreibt die wichtigsten Erfolgsfaktoren der E.ON Cloud Journey und gibt einen Ausblick zu den geplanten nächsten Schritten in diesem umfangreichen Transformations-Projekt, das europaweit derzeit seinesgleichen sucht.

Jetzt anmelden für den CIO Cloud Summit im März 2025

Im Mittelpunkt des Vortrages von Paraj Sharma, Head of Cloud Computing & Platforms im ThyssenKrupp Information Management, steht indes das strategische Vorgehen seines Unternehmen bei der Priorisierung einzelner Cloud-Projekte, das unter den Prämissen Geschwindigkeit, Innovationen und Skalierbarkeit stand. Ein Vorgehen, das den traditionellen Stahlkonzern letztlich ein Stück weit in die Lage versetzt hat, sich neu zu erfinden.

Wie RheinEnergie auf SAP S4/HANA in der Cloud migriert

Spannend dürften ferner die Insights von Phil Korte, Cloud Solution Architect, sowie Erik Schubert, IT Service Architect der RheinEnergie AG, zu ihrer Migration von SAP R/3 auf S/4HANA sein. Die beiden IT-Manager des in Köln ansässigen Energieversorgers werden in einem Live-Gespräch auf der Bühne nicht nur von einer grundlegenden Neuausrichtung ihrer IT-Infrastruktur berichten, sondern auch die zentralen Herausforderungen und Lösungsansätze für eine erfolgreiche Transition in die Cloud beleuchten. Ihr Fokus liegt dabei vor allem auch auf der Auswahl der passenden Cloud-Architektur (Public, Private, Hybrid), der optimalen Skalierung von Computing- und Storage-Ressourcen sowie der Integration der ausgelagerten Workloads in bestehende IT-Landschaften.

Last, but not least dürfen sich die Teilnehmerinnen und Teilnehmer des CIO Cloud Summits auf einen weiteren Höhepunkt freuen: Christian Klein, COO und CIO des Glasfaser-Netzbetreibers metrofibre hat es nicht nur geschafft, seine gesamte IT-Landschaft „in der Cloud“ aufzubauen. Viel entscheidender ist: Sämtliche Geschäftsprozesse werden hierbei durch ein standardisiertes Datenmodell und eine hohe Automatisierung unterstützt, was die entscheidende Grundlage für einen erfolgreichen Einsatz von KI bildet.

KI im produktiven Einsatz bei metrofibre

Eine dieser KI-basierten Anwendungen ist der „AI Competitor“ des Kölner Providers. Ein Tool, das Cloud-basiert tagesaktuell die öffentlich publizierten Aktivitäten aller Wettbewerber von metrofibre in Deutschland sammelt, analysiert und visualisiert. Cloud-based AI ermöglicht es metrofibre somit, operative Kosten zu sparen – und zeigt, wie man schnell und effizient KI aus der experimentellen Phase in den produktiven Betrieb überführt.

Stichwort KI-Nutzung: Interessierten IT-Verantwortlichen sei auch unser Pre-Event zum CIO Summit am 10. März ab 16:00 Uhr ans Herz gelegt, der sich ganz konkret dem Zusammenspiel hybrider Cloud-Architekturen und produktiver, KI-basierter Prozesse widmet.

Die Teilnahme am CIO-Summit ist nur IT-Verantwortliche aus Anwenderunternehmen möglich. Weitere Informationen zum Programm sowie die Möglichkeit zur kostenfreien Registrierung finden Sie hier:

IDC CIO Cloud Summit

CIO Cloud Summit: Best Practices von Anwendern für Anwender​ Weiterlesen »

Team-Downsizing: 5 Tipps bei DevOps-Personalabbau​

Allgemein

Personalabbau mit Dominoeffekt? So verhindern Sie, dass Ihr (DevOps-)Team nach Entlassungen zerfällt. Foto: wan_wei – shutterstock.com Für den Fall, dass ihre Teams (künftig) von Entlassungen betroffen sind, sollten Agile Delivery Manager, Data-Science-Teamleads oder IT-Ops-Manager einen Reaktionsplan in der Tasche haben. Die folgenden fünf Tipps helfen Ihnen dabei, sich und Ihr Team nach einem Stellenabbau wieder aufzurichten. 1. Teammitglieder unterstützen Wenn Sie eine Führungsposition bekleiden, sollten Sie sich als erstes darüber Gedanken machen, wie sich Ihre Mitarbeiter fühlen, beziehungsweise, inwiefern diese persönlich vom Stellenabbau betroffen sind. Einige könnten wegen der Entlassung von Freunden oder Vertrauten Groll hegen, andere sich ängstlich fragen, ob es sie als nächstes trifft. Selbst wenn das Management eine transparente Kommunikation an den Tag legt (was allzu oft nicht der Fall ist), haben die verbliebenen Angestellten im Regelfall unbeantwortete Fragen. Sie tun deshalb nach der Ankündigung von Personalmaßnahmen gut daran, im ersten Schritt einen Dialog zu eröffnen: Fragen Sie die Mitarbeiter nach ihrem Befinden und verbessern Sie Ihre Fähigkeit, aktiv zuzuhören. Weitere Schritte, die dazu beitragen können, Ihren Teammitgliedern ein Gefühl der Sicherheit zu vermitteln, sind: Empathie aufbauen und vermitteln, das Team auf eine gemeinsame Mission einschwören, oder Dankbarkeit auch für die kleinsten Erfolge zeigen. Finden Sie im Gespräch heraus, ob bestimmte Personen größere Sorgen und Ängste haben, oder das Risiko einer Kündigung besteht. Dabei sollten Sie individuell auf die jeweilige Person eingehen und versuchen, deren Befürchtungen zu lindern. Vergessen Sie dabei nicht, Ihren Teams auch die nötige Zeit zuzugestehen, um die Geschehnisse verarbeiten und sich der neuen Situation anpassen zu können. Nach einem Personalabbau direkt auf Sprint-Verpflichtungen und unbearbeitete Tickets zu pochen, ist unsensibel und dürfte auch nicht zu den gewünschten Ergebnissen führen. 2. Karriereziele (re-)evaluieren Nachdem Sie mit Ihren Teams kommuniziert und die Gespräche reflektiert haben, sollten Sie Ihre persönliche Situation und die Auswirkungen der Entlassungen auf Sie selbst betrachten: Haben sich Ihre Verantwortlichkeiten verändert oder sind Sie mit unrealistischen Zielen konfrontiert? Fühlen Sie sich der Mission Ihres Unternehmens noch verpflichtet? Wenn Sie die Antworten auf diese Fragen eruieren, sollten Sie auch auf Ihre innere Stimme und Ihr Bauchgefühl hören. Drei empfehlenswerte Bücher zu diesem Thema: “Chatter – Die Stimme in deinem Kopf” von Ethan Kross, “Think Again” von Adam Grant, und “The Power of Regret” von Daniel H. Pink. Zudem sollten Sie in Betracht ziehen, Ihrer Karriereziele zu re-evaluieren. Dazu können Sie beispielsweise Karriere-Checklisten zu Rate ziehen. 3. Reviews anberaumen Agile Organisationen und Teams, die von Personalabbau betroffen sind, sollten Schritte unternehmen, um folgende Punkte einem Review zu unterziehen: Roadmaps, kurzfristige Prioritäten, Erwartungen an Minimal Viable Capabilities, und User-Story-Anforderungen. Das Ausmaß dieses Review-Prozesses richtet sich dabei nach dem Umfang der Personalmaßnahmen. Er wird unumgänglich, wenn kritische Skills nicht mehr vorhanden sind. Eine Organisation, deren Belegschaft um zehn Prozent schrumpft, muss eventuell nur kommende Sprints und Release-Verpflichtungen überprüfen. Bei 30 Prozent der Mitarbeiter ist es hingegen unter Umständen nötig, Roadmaps komplett neu zu erstellen. Größere Entlassungswellen sollten außerdem eine Diskussion über die digitale Transformationsstrategie, Kundenbedürfnisse und die Produktvision auslösen: Sind die ursprünglichen Annahmen noch gültig oder erfordern die Umstände eine strategische Neuausrichtung? The best is when after a layoff a company starts a agile transformation to be more efficient with the reduced workforce https://t.co/VSDHl7Pw8K pic.twitter.com/tmQguC1u9B— Dean Chanter (@Agilechanter) February 9, 2020 4. Technische Prioritäten setzenJede IT-Abteilung hat technische Prioritäten und technische Schulden. Ebenso wie Roadmaps und Produktvisionen in Kooperation mit Produktmanagern überdacht werden müssen, wenn Teams schrumpfen, sollte auch die IT-Strategie zumindest überdacht werden. Diese Bereiche könnten dazu in Angriff genommen werden:Schlagen Sie vor, nicht ausgelastete Legacy-Systeme abzuschalten. Ist ein Unternehmen erst einmal im Sparmodus, sind die Verantwortlichen möglicherweise offener dafür, Altsysteme über Bord zu werfen, die strategisch weniger wichtig sind oder Geschäftsanforderungen in geringerem Maße erfüllen.Ziehen Sie Automatisierung und AIops in Betracht. Das kann Sie dabei unterstützen die Effizienz steigern – insbesondere in geschäftskritischen Bereichen, wo ein Personalmangel die Service Delivery beeinträchtigen kann. Chancen können hierbei in CI/CD, Infrastructure as Code, Continuous Testing und IT-Service-Automatisierung liegen.Überdenken Sie die Service-Level-Ziele der Teams. Befolgen Sie die Best Practices für Site Reliability Engineering und Service-Level Agreements. Wenn der Personalbestand des IT-Servicedesks halbiert wurde, ist es wahrscheinlich, dass die Reaktionszeiten auf Vorfälle und die Ziele für die Bearbeitung von Anfragen angepasst werden müssen.Versuchen Sie Cloud-Kosten zu reduzieren. In Zeiten des Wachstums ist es für DevOps-Teams und IT-Abteilungen ein Leichtes, mehr Cloud-Dienste zu buchen – die dann eventuell unbemerkt und unnötigerweise weiterlaufen.Konsolidieren Sie Tools und Plattformen. Sich überschneidende Funktionen machen nicht produktiver. Dieser Punkt ist besonders wichtig, weil ein gemeinsamer Stack und ein gemeinsames Toolset innerhalb der IT-Abteilung oft zu Produktivitätssteigerungen führen und einen Kulturwandel bewirken können.Suchen Sie nach Partnern und Outsourcing-Möglichkeiten. Insbesondere Bereiche, in denen nach einem Personalabbau akute Unterbesetzung herrscht, sollten Sie hierbei in den Blick nehmen. In der Vergangenheit gab es vielleicht Widerstände, Managed Services für Cloud, Sicherheit oder Netzwerkmanagement in Betracht zu ziehen. Nach einer einschneidenden Umstrukturierung könnte es ein wichtiger Schritt nach vorne sein.Auch wenn Sie nicht zu den treibenden Kräften dieser Umstrukturierungen gehören: Es schadet nie, Fragen zu stellen und sich in die Diskussion darüber einzubringen, was die künftige IT-Organisation für den Erfolg benötigt.5. Lernen und experimentierenEin Personalabbau kann sich besonders negativ auf das Knowhow im Unternehmen auswirken – insbesondere, wenn es dabei um spezifische Geschäftsprozesse oder Spezialwissen im Zusammenhang mit Technologieplattformen geht. Erhebliche Risiken können im Bereich des “Stammeswissens” entstehen, wo es um nicht dokumentierte Technologien oder komplexe, manuelle Prozesse geht. Mit Blick auf DevOps-Teams könnte ein Stellenabbau dazu führen, dass Kenntnisse im Bereich der Softwareentwicklung abhandenkommen.Das ist der richtige Zeitpunkt, um in die Zukunft zu blicken und in Lernprozesse und Systemdokumentierung zu investieren. Investitionen in lebenslanges Lernen sind der Schlüssel zum Change – insbesondere, wenn Ressourcen und Budgets betroffen sind. Ebenfalls wichtig ist, ständig zu experimentieren. Gerade in schwierigen Zeiten kann es hilfreich sein, die Kreativität des Teams herauszufordern und neue Herausforderungen zu stellen. Das könnte sich beispielsweise in Experimenten mit Innovationen manifestieren.Rezession, Personalabbau, Umstrukturierungen und Übernahmen gehören zur Geschäftswelt. Die Art und Weise, wie Führungskräfte und Teams damit umgehen, kann dazu beitragen, dass die Teamkultur nicht vor die Hunde geht und die verbliebenen Mitarbeiter eine vielversprechende Zukunftsperspektive haben. (fm) Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Infoworld. 

Team-Downsizing: 5 Tipps bei DevOps-Personalabbau​ Personalabbau mit Dominoeffekt? So verhindern Sie, dass Ihr (DevOps-)Team nach Entlassungen zerfällt.
Foto: wan_wei – shutterstock.com

Für den Fall, dass ihre Teams (künftig) von Entlassungen betroffen sind, sollten Agile Delivery Manager, Data-Science-Teamleads oder IT-Ops-Manager einen Reaktionsplan in der Tasche haben. Die folgenden fünf Tipps helfen Ihnen dabei, sich und Ihr Team nach einem Stellenabbau wieder aufzurichten.

1. Teammitglieder unterstützen

Wenn Sie eine Führungsposition bekleiden, sollten Sie sich als erstes darüber Gedanken machen, wie sich Ihre Mitarbeiter fühlen, beziehungsweise, inwiefern diese persönlich vom Stellenabbau betroffen sind. Einige könnten wegen der Entlassung von Freunden oder Vertrauten Groll hegen, andere sich ängstlich fragen, ob es sie als nächstes trifft. Selbst wenn das Management eine transparente Kommunikation an den Tag legt (was allzu oft nicht der Fall ist), haben die verbliebenen Angestellten im Regelfall unbeantwortete Fragen.

Sie tun deshalb nach der Ankündigung von Personalmaßnahmen gut daran, im ersten Schritt einen Dialog zu eröffnen: Fragen Sie die Mitarbeiter nach ihrem Befinden und verbessern Sie Ihre Fähigkeit, aktiv zuzuhören. Weitere Schritte, die dazu beitragen können, Ihren Teammitgliedern ein Gefühl der Sicherheit zu vermitteln, sind:

Empathie aufbauen und vermitteln,

das Team auf eine gemeinsame Mission einschwören, oder

Dankbarkeit auch für die kleinsten Erfolge zeigen.

Finden Sie im Gespräch heraus, ob bestimmte Personen größere Sorgen und Ängste haben, oder das Risiko einer Kündigung besteht. Dabei sollten Sie individuell auf die jeweilige Person eingehen und versuchen, deren Befürchtungen zu lindern. Vergessen Sie dabei nicht, Ihren Teams auch die nötige Zeit zuzugestehen, um die Geschehnisse verarbeiten und sich der neuen Situation anpassen zu können. Nach einem Personalabbau direkt auf Sprint-Verpflichtungen und unbearbeitete Tickets zu pochen, ist unsensibel und dürfte auch nicht zu den gewünschten Ergebnissen führen.

2. Karriereziele (re-)evaluieren

Nachdem Sie mit Ihren Teams kommuniziert und die Gespräche reflektiert haben, sollten Sie Ihre persönliche Situation und die Auswirkungen der Entlassungen auf Sie selbst betrachten:

Haben sich Ihre Verantwortlichkeiten verändert oder sind Sie mit unrealistischen Zielen konfrontiert?

Fühlen Sie sich der Mission Ihres Unternehmens noch verpflichtet?

Wenn Sie die Antworten auf diese Fragen eruieren, sollten Sie auch auf Ihre innere Stimme und Ihr Bauchgefühl hören. Drei empfehlenswerte Bücher zu diesem Thema:

“Chatter – Die Stimme in deinem Kopf” von Ethan Kross,

“Think Again” von Adam Grant, und

“The Power of Regret” von Daniel H. Pink.

Zudem sollten Sie in Betracht ziehen, Ihrer Karriereziele zu re-evaluieren. Dazu können Sie beispielsweise Karriere-Checklisten zu Rate ziehen.

3. Reviews anberaumen

Agile Organisationen und Teams, die von Personalabbau betroffen sind, sollten Schritte unternehmen, um folgende Punkte einem Review zu unterziehen:

Roadmaps,

kurzfristige Prioritäten,

Erwartungen an Minimal Viable Capabilities, und

User-Story-Anforderungen.

Das Ausmaß dieses Review-Prozesses richtet sich dabei nach dem Umfang der Personalmaßnahmen. Er wird unumgänglich, wenn kritische Skills nicht mehr vorhanden sind. Eine Organisation, deren Belegschaft um zehn Prozent schrumpft, muss eventuell nur kommende Sprints und Release-Verpflichtungen überprüfen. Bei 30 Prozent der Mitarbeiter ist es hingegen unter Umständen nötig, Roadmaps komplett neu zu erstellen.

Größere Entlassungswellen sollten außerdem eine Diskussion über die digitale Transformationsstrategie, Kundenbedürfnisse und die Produktvision auslösen: Sind die ursprünglichen Annahmen noch gültig oder erfordern die Umstände eine strategische Neuausrichtung?

The best is when after a layoff a company starts a agile transformation to be more efficient with the reduced workforce https://t.co/VSDHl7Pw8K pic.twitter.com/tmQguC1u9B— Dean Chanter (@Agilechanter) February 9, 2020

4. Technische Prioritäten setzenJede IT-Abteilung hat technische Prioritäten und technische Schulden. Ebenso wie Roadmaps und Produktvisionen in Kooperation mit Produktmanagern überdacht werden müssen, wenn Teams schrumpfen, sollte auch die IT-Strategie zumindest überdacht werden. Diese Bereiche könnten dazu in Angriff genommen werden:Schlagen Sie vor, nicht ausgelastete Legacy-Systeme abzuschalten. Ist ein Unternehmen erst einmal im Sparmodus, sind die Verantwortlichen möglicherweise offener dafür, Altsysteme über Bord zu werfen, die strategisch weniger wichtig sind oder Geschäftsanforderungen in geringerem Maße erfüllen.Ziehen Sie Automatisierung und AIops in Betracht. Das kann Sie dabei unterstützen die Effizienz steigern – insbesondere in geschäftskritischen Bereichen, wo ein Personalmangel die Service Delivery beeinträchtigen kann. Chancen können hierbei in CI/CD, Infrastructure as Code, Continuous Testing und IT-Service-Automatisierung liegen.Überdenken Sie die Service-Level-Ziele der Teams. Befolgen Sie die Best Practices für Site Reliability Engineering und Service-Level Agreements. Wenn der Personalbestand des IT-Servicedesks halbiert wurde, ist es wahrscheinlich, dass die Reaktionszeiten auf Vorfälle und die Ziele für die Bearbeitung von Anfragen angepasst werden müssen.Versuchen Sie Cloud-Kosten zu reduzieren. In Zeiten des Wachstums ist es für DevOps-Teams und IT-Abteilungen ein Leichtes, mehr Cloud-Dienste zu buchen – die dann eventuell unbemerkt und unnötigerweise weiterlaufen.Konsolidieren Sie Tools und Plattformen. Sich überschneidende Funktionen machen nicht produktiver. Dieser Punkt ist besonders wichtig, weil ein gemeinsamer Stack und ein gemeinsames Toolset innerhalb der IT-Abteilung oft zu Produktivitätssteigerungen führen und einen Kulturwandel bewirken können.Suchen Sie nach Partnern und Outsourcing-Möglichkeiten. Insbesondere Bereiche, in denen nach einem Personalabbau akute Unterbesetzung herrscht, sollten Sie hierbei in den Blick nehmen. In der Vergangenheit gab es vielleicht Widerstände, Managed Services für Cloud, Sicherheit oder Netzwerkmanagement in Betracht zu ziehen. Nach einer einschneidenden Umstrukturierung könnte es ein wichtiger Schritt nach vorne sein.Auch wenn Sie nicht zu den treibenden Kräften dieser Umstrukturierungen gehören: Es schadet nie, Fragen zu stellen und sich in die Diskussion darüber einzubringen, was die künftige IT-Organisation für den Erfolg benötigt.5. Lernen und experimentierenEin Personalabbau kann sich besonders negativ auf das Knowhow im Unternehmen auswirken – insbesondere, wenn es dabei um spezifische Geschäftsprozesse oder Spezialwissen im Zusammenhang mit Technologieplattformen geht. Erhebliche Risiken können im Bereich des “Stammeswissens” entstehen, wo es um nicht dokumentierte Technologien oder komplexe, manuelle Prozesse geht. Mit Blick auf DevOps-Teams könnte ein Stellenabbau dazu führen, dass Kenntnisse im Bereich der Softwareentwicklung abhandenkommen.Das ist der richtige Zeitpunkt, um in die Zukunft zu blicken und in Lernprozesse und Systemdokumentierung zu investieren. Investitionen in lebenslanges Lernen sind der Schlüssel zum Change – insbesondere, wenn Ressourcen und Budgets betroffen sind. Ebenfalls wichtig ist, ständig zu experimentieren. Gerade in schwierigen Zeiten kann es hilfreich sein, die Kreativität des Teams herauszufordern und neue Herausforderungen zu stellen. Das könnte sich beispielsweise in Experimenten mit Innovationen manifestieren.Rezession, Personalabbau, Umstrukturierungen und Übernahmen gehören zur Geschäftswelt. Die Art und Weise, wie Führungskräfte und Teams damit umgehen, kann dazu beitragen, dass die Teamkultur nicht vor die Hunde geht und die verbliebenen Mitarbeiter eine vielversprechende Zukunftsperspektive haben. (fm)

Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Infoworld.

Team-Downsizing: 5 Tipps bei DevOps-Personalabbau​ Weiterlesen »

6 Enterprise-Architecture-Todsünden​

Allgemein

Lesen Sie, wie sich Enterprise Architects (nicht) versündigen. Foto: g215 – shutterstock.comEin Unternehmen am Laufen zu halten, war noch nie leicht. Softwaretools mögen dafür gesorgt haben, dass viele Prozesse schneller, reibungsloser und konsistenter ablaufen. Leider gilt das oft nicht für die, die die Software am Laufen halten müssen. Trotz aller Fortschritte: Enterprise Architecture (EA) bleibt eine Welt, die kaum jemand vollständig durchdringt. Oft nicht einmal die Enterprise Architects selbst, die immer noch lernen und experimentieren, wenn es darum geht, was sie tun sollten – und noch viel wichtiger – was nicht.Auf der Suche nach der optimalen Balance, um die Software Stacks am Laufen zu halten und parallel das Arbeitsleben aller Mitarbeiter so einfach wie möglich zu gestalten, werden EA-Spezialisten wahrscheinlich immer wieder Fehler unterlaufen. Das liegt teilweise an der hochtechnischen und komplexen Natur ihrer Aufgaben. Teilweise jedoch auch an den folgenden sechs Todsünden der Enterprise Architecture, denen die Spezialisten wiederholt erliegen.1. Zu viele Daten (oder zu wenig)Softwareentwickler sind oft sammelwütig. Sie speichern im Cache was sie können, protokollieren jedes Ereignis und fertige fleißig Backups an. Diese Giga- und Petabytes summieren sich. Selbst im Fall sehr niedriger Cold-Storage-Kosten können die Gebühren sich bei großen Datenmengen läppern. Erschwerend kommt hinzu, dass es mit steigendem Datenbestand auch immer diffiziler wird, die richtigen Daten zu finden.Auf der anderen Seite bringt es jedoch ebenfalls Probleme mit sich, zu wenige Daten vorzuhalten. Manche Unternehmen haben versucht, Richtlinien für die Datenaufbewahrung festzulegen und alles zu vernichten, sobald es die Vorschriften erlauben. Das kann jedoch zu einer Art Unternehmensamnesie führen, bei der die Antwort auf jede Frage zu lauten scheint: “Diese Datei existiert nicht mehr.”Alles was Enterprise Architects tun können, um sich der richtigen Balance anzunähern, ist, eine gut geeignete Data-Storage-Architektur zu finden. Das Ziel sollte sein, die richtigen Informationen in einer leicht zugänglichen Struktur abzulegen.2. Sich plattformabhängig machen (oder das Gegenteil)Der einfachste Weg zur Enterprise Software besteht darin, Tools, Portale und Plattformen zu nutzen, die von einem externen Anbieter entwickelt wurden. In vielen Fällen lassen sich 90 Prozent der Arbeit mit der Unterschrift auf einer Bestellung und ein bisschen Code als Klebstoff erledigen. Wichtige Unternehmensteile externen Anbietern anzuvertrauen, birgt jedoch auch Risiken. Vielleicht kauft ein Privatinvestor den Anbieter, entlässt alle guten Mitarbeiter und erhöht anschließend den Preis. Dann haben sich die Vorteile der singulären Plattform schnell erledigt.Auf zu viele verschiedene Plattformen zu setzen, ist jedoch manchmal ebenso kontraproduktiv: Die Vertriebsmenschen der Anbieter versprechen viel, wenn es um Interoperabilität, Kompatibilität und den Einsatz von Standardprotokollen geht. Und selbst, wenn sie dabei nicht übertreiben: Jedes Tool speichert Daten in einer Datenbank. Dabei verwenden manche MySQL, andere PostgreSQL und wieder andere Oracle.Es gibt also auch in diesem Bereich keine einfache Lösung. Zu viele Plattformen schaffen einen Turm zu Babel, bei zu wenigen besteht die Gefahr des Vendor-Lock-in. Über die anfallenden Kosten, wenn die gesamte Entwicklung im eigenen Haus stattfindet, haben wir dann noch gar nicht gesprochen.3. Zu viel Outsourcing in die Cloud (oder zu wenig)Die Cloud hat Enterprise Architects das Leben leichter gemacht. Rechenressourcen sind jederzeit auf Abruf verfügbar, Bestellungen sind nicht mehr nötig und Platz für Racks ebenfalls überflüssig. Alles, was dafür heute noch nötig ist, ist eine Kreditkarte.Die Vorteile liegen auf der Hand. Der größte Nachteil allerdings im Preis: Cloud Computing ist im Vergleich oft erheblich teurer als eine Inhouse-Lösung. Erkundigen Sie sich einfach mal unter CFOs, wie groß die Vorfreude ausfällt, wenn die monatliche Cloud-Rechnung ansteht. Auf der anderen Seite verursachen weitere Mitarbeiter, das Rechenzentrum und das nötige Equipment natürlich ebenfalls Kosten.Manche Enterprise Architects können mit der Cloud große Gewinne erzielen. Das sind im Regelfall diejenigen, die davon profitieren, Ressourcen lastenabhängig zu steuern. Alle anderen EA-Spezialisten müssen, beziehungsweise sollten eruieren, ob sie zu viel oder zu wenig in die Cloud investiert haben.4. Frameworks vergöttern (oder verdammen)Um der Komplexität heutiger Enterprise Stacks gerecht werden zu können, wurden einige Enterprise-Architecture-Frameworks entwickelt. TOGAF ist beispielsweise ein solches strategisches Rahmenwerk, um so gut wie alles aufzubauen, was moderne Unternehmen benötigen. Dazu bietet es eine Reihe von Richtlinien und Best Practices, darunter eine Architekturentwicklungsmethode und ein Architektur-Compliance-Framework. Andere Ansätze, wie das Zachman Framework oder FEAF, führen ihre jeweils eigene Guidelines und Vorschriften für den Aufbau eines Enterprise Stacks ein.Der größte Vorteil der Frameworks liegt in der Konsistenz. Sobald jeder in der Organisation mit den Techniken und Theorien vertraut ist, sollte es einfacher werden, sich in der Software zurechtzufinden. Daten und Code sind (normalerweise) so strukturiert, dass sich alles an einem vorhersehbaren Ort befindet.Einige EA-Spezialisten treiben es diesbezüglich jedoch zu weit. Sie übernehmen nicht nur ein Framework, sondern verschreiben sich einem Kult und stellen die Spezifikationen des Rahmenwerks über alles. Wehe dem, der von diesem Weg abweicht. Selbst, wenn dabei alle mit an Bord des Kults wären, dürften sich andere Problemszenarien ergeben. Etwa, wenn Open-Source-Code, der perfekt funktioniert, abgelehnt wird, weil er nicht dem gewünschten Architekturrahmen entspricht. Oder Anbieterangebote, die eigentlich eine gute Lösung wären, aber nicht in Frage kommen, weil sie unter der falschen Philosophie entwickelt wurden.5. Methodik ist alles was zähltFrameworks können eine Struktur an die Hand geben – aber auch schlampiges, faules oder sogar maliziöses Verhalten begünstigen. Entscheidungen könnten beispielsweise hinausgezögert werden, weil das Team darauf wartet, dass jemand das richtige TOGAF-Formular ausfüllt. Es ist ein schmaler Grat zwischen unterstützendem Rahmen und lähmender Bürokratie.Was es braucht, ist eine Methode, um den Entwicklungs-Workflow zu organisieren. Wenn ein Projekt den Arbeitsaufwand übersteigt, den eine Person an einem Wochenende stemmen kann, sollte es eine Strategie geben. Problematisch wird es dann, wenn diese Methodik am Ende mehr zählt als alles andere.6. Trends blind folgen (oder ignorieren)Enterprise-Architekten orientieren sich gerne an den neuesten Ideen und Modellen in ihrem Bereich. Das passt mit etwas Glück unter Umständen auch tatsächlich zu den Unternehmensbedürfnissen. Aber eben bei weitem nicht immer. Schwierig wird es vor allem dann, wenn Entwicklerteams krampfhaft versuchen, ihren Code an den Trend anzupassen. Dass ganze Code-Basen entsorgt werden müssen, die für ein ehemals trendiges Ziel entworfen wurden, ist längst keine Seltenheit mehr. Trends und aktuelle Entwicklungen völlig zu ignorieren, kann allerdings ebenso ins Verderben führen. Sicher, Ihr Code ist seiner ursprünglichen Vision treu geblieben und verwendet Datenbanken, Formate, Codierungs-Standards und Protokolle, die einwandfrei funktionieren. Wenn allerdings die ganze Welt auf einen Trendzug aufspringt, dann gilt das auch für Tool-Anbieter und potenzielle neue Mitarbeiter. Manche dieser Trends und Modeerscheinungen können zu neuen Standards werden und manchmal sogar zu etwas noch Schlimmerem – rechtlichen Anforderungen.Enterprise Architects haben es nicht leicht. Alles, was sie tun können, ist, vorsichtig zu versuchen, das Richtige für den Tech-Stack des Unternehmens zu tun – und für die IT-Profis, die sich um ihn kümmern müssen. (fm)Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation CIO.com. 

6 Enterprise-Architecture-Todsünden​ Lesen Sie, wie sich Enterprise Architects (nicht) versündigen.
Foto: g215 – shutterstock.comEin Unternehmen am Laufen zu halten, war noch nie leicht. Softwaretools mögen dafür gesorgt haben, dass viele Prozesse schneller, reibungsloser und konsistenter ablaufen. Leider gilt das oft nicht für die, die die Software am Laufen halten müssen. Trotz aller Fortschritte: Enterprise Architecture (EA) bleibt eine Welt, die kaum jemand vollständig durchdringt. Oft nicht einmal die Enterprise Architects selbst, die immer noch lernen und experimentieren, wenn es darum geht, was sie tun sollten – und noch viel wichtiger – was nicht.Auf der Suche nach der optimalen Balance, um die Software Stacks am Laufen zu halten und parallel das Arbeitsleben aller Mitarbeiter so einfach wie möglich zu gestalten, werden EA-Spezialisten wahrscheinlich immer wieder Fehler unterlaufen. Das liegt teilweise an der hochtechnischen und komplexen Natur ihrer Aufgaben. Teilweise jedoch auch an den folgenden sechs Todsünden der Enterprise Architecture, denen die Spezialisten wiederholt erliegen.1. Zu viele Daten (oder zu wenig)Softwareentwickler sind oft sammelwütig. Sie speichern im Cache was sie können, protokollieren jedes Ereignis und fertige fleißig Backups an. Diese Giga- und Petabytes summieren sich. Selbst im Fall sehr niedriger Cold-Storage-Kosten können die Gebühren sich bei großen Datenmengen läppern. Erschwerend kommt hinzu, dass es mit steigendem Datenbestand auch immer diffiziler wird, die richtigen Daten zu finden.Auf der anderen Seite bringt es jedoch ebenfalls Probleme mit sich, zu wenige Daten vorzuhalten. Manche Unternehmen haben versucht, Richtlinien für die Datenaufbewahrung festzulegen und alles zu vernichten, sobald es die Vorschriften erlauben. Das kann jedoch zu einer Art Unternehmensamnesie führen, bei der die Antwort auf jede Frage zu lauten scheint: “Diese Datei existiert nicht mehr.”Alles was Enterprise Architects tun können, um sich der richtigen Balance anzunähern, ist, eine gut geeignete Data-Storage-Architektur zu finden. Das Ziel sollte sein, die richtigen Informationen in einer leicht zugänglichen Struktur abzulegen.2. Sich plattformabhängig machen (oder das Gegenteil)Der einfachste Weg zur Enterprise Software besteht darin, Tools, Portale und Plattformen zu nutzen, die von einem externen Anbieter entwickelt wurden. In vielen Fällen lassen sich 90 Prozent der Arbeit mit der Unterschrift auf einer Bestellung und ein bisschen Code als Klebstoff erledigen. Wichtige Unternehmensteile externen Anbietern anzuvertrauen, birgt jedoch auch Risiken. Vielleicht kauft ein Privatinvestor den Anbieter, entlässt alle guten Mitarbeiter und erhöht anschließend den Preis. Dann haben sich die Vorteile der singulären Plattform schnell erledigt.Auf zu viele verschiedene Plattformen zu setzen, ist jedoch manchmal ebenso kontraproduktiv: Die Vertriebsmenschen der Anbieter versprechen viel, wenn es um Interoperabilität, Kompatibilität und den Einsatz von Standardprotokollen geht. Und selbst, wenn sie dabei nicht übertreiben: Jedes Tool speichert Daten in einer Datenbank. Dabei verwenden manche MySQL, andere PostgreSQL und wieder andere Oracle.Es gibt also auch in diesem Bereich keine einfache Lösung. Zu viele Plattformen schaffen einen Turm zu Babel, bei zu wenigen besteht die Gefahr des Vendor-Lock-in. Über die anfallenden Kosten, wenn die gesamte Entwicklung im eigenen Haus stattfindet, haben wir dann noch gar nicht gesprochen.3. Zu viel Outsourcing in die Cloud (oder zu wenig)Die Cloud hat Enterprise Architects das Leben leichter gemacht. Rechenressourcen sind jederzeit auf Abruf verfügbar, Bestellungen sind nicht mehr nötig und Platz für Racks ebenfalls überflüssig. Alles, was dafür heute noch nötig ist, ist eine Kreditkarte.Die Vorteile liegen auf der Hand. Der größte Nachteil allerdings im Preis: Cloud Computing ist im Vergleich oft erheblich teurer als eine Inhouse-Lösung. Erkundigen Sie sich einfach mal unter CFOs, wie groß die Vorfreude ausfällt, wenn die monatliche Cloud-Rechnung ansteht. Auf der anderen Seite verursachen weitere Mitarbeiter, das Rechenzentrum und das nötige Equipment natürlich ebenfalls Kosten.Manche Enterprise Architects können mit der Cloud große Gewinne erzielen. Das sind im Regelfall diejenigen, die davon profitieren, Ressourcen lastenabhängig zu steuern. Alle anderen EA-Spezialisten müssen, beziehungsweise sollten eruieren, ob sie zu viel oder zu wenig in die Cloud investiert haben.4. Frameworks vergöttern (oder verdammen)Um der Komplexität heutiger Enterprise Stacks gerecht werden zu können, wurden einige Enterprise-Architecture-Frameworks entwickelt. TOGAF ist beispielsweise ein solches strategisches Rahmenwerk, um so gut wie alles aufzubauen, was moderne Unternehmen benötigen. Dazu bietet es eine Reihe von Richtlinien und Best Practices, darunter eine Architekturentwicklungsmethode und ein Architektur-Compliance-Framework. Andere Ansätze, wie das Zachman Framework oder FEAF, führen ihre jeweils eigene Guidelines und Vorschriften für den Aufbau eines Enterprise Stacks ein.Der größte Vorteil der Frameworks liegt in der Konsistenz. Sobald jeder in der Organisation mit den Techniken und Theorien vertraut ist, sollte es einfacher werden, sich in der Software zurechtzufinden. Daten und Code sind (normalerweise) so strukturiert, dass sich alles an einem vorhersehbaren Ort befindet.Einige EA-Spezialisten treiben es diesbezüglich jedoch zu weit. Sie übernehmen nicht nur ein Framework, sondern verschreiben sich einem Kult und stellen die Spezifikationen des Rahmenwerks über alles. Wehe dem, der von diesem Weg abweicht. Selbst, wenn dabei alle mit an Bord des Kults wären, dürften sich andere Problemszenarien ergeben. Etwa, wenn Open-Source-Code, der perfekt funktioniert, abgelehnt wird, weil er nicht dem gewünschten Architekturrahmen entspricht. Oder Anbieterangebote, die eigentlich eine gute Lösung wären, aber nicht in Frage kommen, weil sie unter der falschen Philosophie entwickelt wurden.5. Methodik ist alles was zähltFrameworks können eine Struktur an die Hand geben – aber auch schlampiges, faules oder sogar maliziöses Verhalten begünstigen. Entscheidungen könnten beispielsweise hinausgezögert werden, weil das Team darauf wartet, dass jemand das richtige TOGAF-Formular ausfüllt. Es ist ein schmaler Grat zwischen unterstützendem Rahmen und lähmender Bürokratie.Was es braucht, ist eine Methode, um den Entwicklungs-Workflow zu organisieren. Wenn ein Projekt den Arbeitsaufwand übersteigt, den eine Person an einem Wochenende stemmen kann, sollte es eine Strategie geben. Problematisch wird es dann, wenn diese Methodik am Ende mehr zählt als alles andere.6. Trends blind folgen (oder ignorieren)Enterprise-Architekten orientieren sich gerne an den neuesten Ideen und Modellen in ihrem Bereich. Das passt mit etwas Glück unter Umständen auch tatsächlich zu den Unternehmensbedürfnissen. Aber eben bei weitem nicht immer. Schwierig wird es vor allem dann, wenn Entwicklerteams krampfhaft versuchen, ihren Code an den Trend anzupassen. Dass ganze Code-Basen entsorgt werden müssen, die für ein ehemals trendiges Ziel entworfen wurden, ist längst keine Seltenheit mehr. Trends und aktuelle Entwicklungen völlig zu ignorieren, kann allerdings ebenso ins Verderben führen. Sicher, Ihr Code ist seiner ursprünglichen Vision treu geblieben und verwendet Datenbanken, Formate, Codierungs-Standards und Protokolle, die einwandfrei funktionieren. Wenn allerdings die ganze Welt auf einen Trendzug aufspringt, dann gilt das auch für Tool-Anbieter und potenzielle neue Mitarbeiter. Manche dieser Trends und Modeerscheinungen können zu neuen Standards werden und manchmal sogar zu etwas noch Schlimmerem – rechtlichen Anforderungen.Enterprise Architects haben es nicht leicht. Alles, was sie tun können, ist, vorsichtig zu versuchen, das Richtige für den Tech-Stack des Unternehmens zu tun – und für die IT-Profis, die sich um ihn kümmern müssen. (fm)Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation CIO.com.

6 Enterprise-Architecture-Todsünden​ Weiterlesen »

Multicloud – Tipps für den richtigen Betrieb​

Allgemein

loading=”lazy” width=”400px”>Immer mehr Unternehmen setzen auf eine Multicloud-Strategie – doch solche IT-Infrastrukturen wollen sorgfältig ausgesteuert werden.juliasart somdok – shutterstock.com Immer mehr Unternehmen setzen auf eine Multicloud-Strategie. Das Ziel: Flexibilität und Leistung ihrer IT-Landschaften zu maximieren. Dabei kombinieren sie gezielt Cloud-Dienste verschiedener Anbieter, um die Vorteile unterschiedlicher Plattformen auszuschöpfen. Doch ohne die richtige Planung wächst die Komplexität und kann schnell ins Chaos führen. Wie gelingt die Balance zwischen Flexibilität und Effizienz? Das Auslagern von IT-Prozessen in die Cloud gilt seit Jahren als wesentlicher Schritt zur Digitalisierung von Unternehmen. Denn die Cloud verspricht neben einer flexiblen und schnell verfügbaren Rechen- und Speicher-Infrastruktur auch jede Menge Services, mit denen sich digitale Geschäftsprozesse einfach aufsetzen und betreiben lassen. Allerdings hat der Wettbewerb unter den Anbietern dazu geführt, dass mittlerweile eine immensen Bandbreite an Cloud-Diensten mit unterschiedlichsten Ausprägungen und Rahmenbedingungen am Markt verfügbar sind. Zugleich sind die Anforderungen an den eigenen digitalen Service, der mit der Cloud-Infrastruktur betrieben werden soll, den Anwenderunternehmen oft nur unzureichend bekannt. Dabei gilt: Je genauer und detaillierter diese Anforderungen definiert sind, desto besser lässt sich das Potenzial ausschöpfen, das eine Multicloud-Strategie bietet. IT-Konglomerate aus vielen Datenquellen und Diensten Das betrifft ganz massiv Mitspieler in hochkomplexen Umgebungen wie der Entwicklung von Systemen fürs autonome Fahren oder die Energienetze der Zukunft. Ihr Geschäftsmodell steht und fällt mit dem Zusammenwirken vieler Datenquellen und Dienste, die in unterschiedlichen Clouds angesiedelt sind. Aber auch die IT-Umgebungen von Unternehmen in weniger komplexen Branchen stellen sich heute oft als Konglomerat aus lokalen Rechenzentren, virtuellen Maschinen, mobilen Geräten und Cloud-Diensten dar. Nachfrage nach Cloud-Dienstleistern steigt Um ihre IT-Prozesse zu verwalten, arbeiten viele Betriebe inzwischen mit einem Hybrid-Cloud-Konzept, das Public- und Private-Varianten wie auch klassische On-Premises-System verknüpft. Damit drängt sich der nächste Schritt auf, hin zur Multicloud. Zum einen, weil es die Situation schlicht erfordert. Zum anderen, weil sich durch die gleichzeitige Nutzung von Cloud-Diensten mehrerer Anbieter die Vorteile der unterschiedlichen Angebote miteinander verbinden lassen. Anwenderunternehmen arbeiten so mit der für ihre spezifischen Anforderungen jeweils am besten geeigneten Lösung. Neun von zehn Unternehmen machen Multicloud Ein Ansatz, der Schule macht: So verfolgen bereits neun von zehn befragten Unternehmen weltweit nach eigenen Angaben eine Multicloud-Strategie, hat der Flexera 2024 State of the Cloud Report ergeben. Sie kombinieren zum Beispiel Public-Cloud-Services von AWS, Microsoft Azure oder Google Cloud miteinander. Oft werden dazu auch zusätzlich Private-Cloud-Angebote externer Dienstleister integriert oder Dienste genutzt, die nach wie vor im eigenen Rechenzentrum laufen. Ein Beispiel: Wenn es etwa um komplizierte Berechnungen geht, die häufig hintereinander ausgeführt werden, erweist sich AWS Lambda als performanter und wirtschaftlicher als Azure Functions. Wer allerdings mit Office 365 und anderen Windows-basierten Anwendungen operiert, ist mit Microsofts Azure besser bedient. Workloads, die auf virtuellen Windows-Maschinen laufen, lassen sich damit einfach schneller abarbeiten. Managed Cloud Services – diese Anbieter sollten Sie im Blick haben Im genannten Szenario aus der Produktentwicklung stößt zum Beispiel eine Windows Applikation in Azure einen Lambda-Service in AWS an, der die gewünschten Berechnungen durchführt. Die Ergebnisse werden in einer Datenbank abgelegt und bei Bedarf von der Azure-Applikation aus abgerufen. Die Datenbank selbst läuft ebenfalls in Azure, um die Applikation nicht durch lange Antwortzeiten unnötig abzubremsen. Auch die geografische Region, in der die Services laufen, spielt eine Rolle. Denn sie kann sich auf Performance, Zugriffszeiten und Kosten der jeweiligen Anwendung auswirken. Die Komplexität wächst in der Multicloud Dass eine Multicloud-Strategie – egal, wie sie konkret aussieht – die Komplexität weiter anwachsen lässt, liegt auf der Hand. Allein schon, weil jede Cloud-Plattform mit ihren eigenen Verwaltungstools, Sicherheitsprotokollen und Leistungskennzahlen arbeitet. Wer die Multicloud in seine IT-Landschaft integrieren will, braucht ein robustes Management, das mit den spezifischen Anforderungen der unterschiedlichen Umgebungen umgehen kann und dabei die Übersicht und Kontrolle über alle Plattformen hinweg sicherstellt.  width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/2Ciddz1Wx8K0m7mBbhzApR?utm_source=oembed”> Dies ist nicht allein aus Gründen von Handling und Performance erforderlich, sondern auch, um bei der Wahl des für das jeweilige Anwendungs-Szenario optimalen Anbieters so frei wie nur möglich zu sein. Dafür braucht es plattformübergreifende Technologien und Tools. Zwar stellen die großen Hyperscaler Schnittstellen für den Datenaustausch mit anderen Plattformen standardmäßig bereit. Doch um in Multicloud-Infrastrukturen Prozesse End-to-end planen und steuern zu können, braucht es eine einheitliche Schnittstelle für alle Anwendungen, die auf einer Cloud-Abstraktionsschicht basiert. Damit kann ein Unternehmen seine Workloads unabhängig von den spezifischen Anforderungen einzelner Cloud-Umgebungen je nach Anforderung relativ problemlos verschieben. Benchmark autonomes Fahren Wer wie etwa beim autonomen Fahren Daten aus unterschiedlichsten Quellen in IoT-Prozessen zusammenführen und schnell analysieren will, kommt ohne solche Flexibilität nicht weit, wie das folgende Beispiel verdeutlicht. Ein Zulieferer entwickelt eine Anwendung, die das Bremsverhalten autonomer Fahrzeuge steuern soll. Um die Algorithmen dafür zu entwickeln, zu testen und zu validieren, kommen Tera- und Petabyte an Daten aus unterschiedlichsten Quellen zum Einsatz. Aus Datenbanken mit Bildern und Videos von Ampeln in unterschiedlichen Ländern, zu unterschiedlichen Tageszeiten und bei verschiedenen Witterungsbedingungen, kombiniert mit Daten zur Beschaffenheit des Straßenbelags und zur Bereifung von virtuellen Testfahrzeugen. Cloud-Migration kommt (noch) nicht in die Gänge All diese Informationen müssen aus unterschiedlichen Clouds zusammengeführt werden. Das System muss außerdem in der Lage sein, bei Bedarf weitere Datenquellen einzubinden oder bestehende Datenbanken auch dann weiterhin zu nutzen, wenn sie umziehen. All diese Daten müssen im Einsatz extrem schnell ausgewertet werden, um die Bremsstärke optimal zu dosieren. Kurze Latenzzeiten sind also erfolgskritisch. Dafür empfiehlt sich zunächst eine On-Premises-Infrastruktur. Um allerdings die permanent wachsenden Datenmengen aufzufangen, integriert das Projektteam AWS S3 und Azure Blob Storage.  Tools unterstützen Multicloud-Strategie Kubernetes: Kern jeder Multicloud-Strategie ist heute Kubernetes, der Quasi-Standard für die Container-Orchestrierung. Damit lassen sich Anwendungen automatisiert skalieren, verwalten und bereitstellen – unabhängig davon, auf welcher Cloud-Plattform sie ausgeführt werden. Das Open-Source-System steht praktisch in jeder Public Cloud zur Verfügung, und auch die meisten lokalen Cloud-Provider haben Kubernetes im Angebot. Der Einsatz von Kubernetes hat mehrere Vorteile: Er sorgt für hohe Flexibilität in der Auswahl der zur jeweiligen Anwendung passenden Cloud. Und er erhöht die Verfügbarkeit und Ausfallsicherheit der Dienste. So kann Kubernetes Workloads automatisch auf andere Provider umleiten, wenn ein Anbieter ausfällt, die Verbindung schlecht ist – oder auch um pauschal abgerechnete Datenvolumina optimal auszuschöpfen. Terraform: Für den Aufbau einer Infrastruktur für Applikationsumgebungen empfiehlt sich Terraform, ein Open-Source-Tool für Infrastructure as Code (IaC). Damit lassen sich Ressourcen wie virtuelle Maschinen, Netzwerke und Datenbanken mittels deklarativer Konfigurationsdateien definieren und verwalten. Anstatt Infrastrukturressourcen manuell zu erstellen und zu verwalten, beschreiben die IT- oder Cloud-Architekten lediglich den gewünschten Endzustand ihrer Infrastruktur und speichern sie als Konfigurationsdateien. Zur Beschreibung dient die Konfigurationssprache HashiCorp Configuration Language (HCL). Terraform generiert daraufhin selbstständig den erwünschten Zustand, indem es die dafür erforderlichen Ressourcen erstellt, ändert oder löscht. Das Ganze lässt sich beliebig oft aufsetzen. Ein kurzer Befehl reicht bei Bedarf, um die einmal erstellte Umgebung automatisch eins zu eins zu kopieren. Das ist sinnvoll etwa beim Aufbau von Staging-Umgebungen, die auf verschiedenen Stufen im Software-Entwicklungsprozess benötigt werden. Es hilft unter anderem beim Entwickeln von Cloud-Anwendungen in stark regulierten Branchen wie Banken und Versicherungen, Luft- und Raumfahrt, bei Versorgungsunternehmen und in der Automobilindustrie. Zugleich fungieren die mit Terraform erstellten deklarativen Konfigurationsdateien als lückenlose Dokumentation der Infrastruktur. Mehr noch: Terraform überwacht auch den Status der Infrastruktur und erkennt automatisch Abweichungen zwischen Soll- und Ist-Zustand und korrigiert sie. Ansible: Ein hilfreiches Tool für ein effizientes Multicloud-Management ist auch Ansible. Dieses Open-Source-Werkzeug unterstützt die erweiterte Konfiguration und Automatisierung der Infrastruktur. Es kombiniert die Verteilung von Software, Ad-hoc-Kommando-Ausführung mit dem Management der Softwarekonfiguration. Multicloud braucht Sicherheit Generell gilt: Wer auf eine Multicloud-Strategie setzt, sollte sich schon im Vorfeld darum kümmern, dass die Komplexität nicht ins Chaos, sondern zu effizienteren IT-Prozessen führt. Zu den Hauptthemen gehört die Sicherheit. Und zwar in zweierlei Hinsicht: Zum einen müssen die miteinander vernetzten Services bereits in sich und innerhalb ihrer jeweiligen Plattform geschützt sein. Zum anderen muss das Gesamtkonstrukt mit seinen verschiedenen Architekturen und Systemen sicher sein. Bekanntlich sind gerade die Schnittstellen potenzielle Einfallstore für ungebetene „Gäste“. Cloud-Anbieter: 9 Alternativen zu AWS, Azure und Google Cloud Um Sicherheit und Performance zu gewährleisten, brauchen Unternehmen für ihre Multicloud daher ein dezidiertes API-Konzept und -Management sowie einen ganzheitlichen Blick, um Schwachstellen zu identifizieren. Neben dem Aufbau der dafür spezifischen Kompetenzen empfiehlt sich der Einsatz eines Platform-Engineering-Teams. Dessen Aufgabe ist es, die Architekturen zu planen, die Technologien zu wählen und die Plattform-Dienste auszusuchen, die am besten zu den Anwendungen des Unternehmens passen. In der Regel ist zumindest zum Start auch zu empfehlen, externe Experten in Sachen Multicloud hinzuzuziehen. AWS vs. Azure: Welche Plattform sich wofür eignet Welche Cloud-Plattform zu welcher Anwendung passt, sei nachfolgend am Beispiel von Microsoft Azure und Amazon Web Services (AWS) aufgezeigt. Beide Anbieter haben fast identische Preismodelle, und beide bieten für praktisch jeden Anwendungsfall Dienste und Funktionen als Service (FaaS). Dennoch gibt es einige Kriterien, anhand derer sich qualifiziert bewerten und entscheiden lässt, welche Plattform wofür am besten geeignet ist. Microsoft Azure vs. AWS vs. Google Cloud: Was bietet welche IoT-Cloud? Dabei geht es um Fragen wie: Treffen Anfragen eher mit hohem zeitlichen Abstand ein? Sind viele oder eher wenig Anfragen zu bearbeiten? Treffen sie gebündelt innerhalb eines kurzen Intervalls ein? Sind parallel eintreffende Anfragen zu bewältigen? Um beide Plattformen fundiert vergleichen zu können, empfiehlt sich der Einsatz einer Benchmark-Plattform wie SeBS (Serverless Benchmarking Suite). Sie bietet die Lastszenarien Cold & Warm und Sequential & Burst – das steckt dahinter: Cold & Warm: Ruft der Nutzer den FaaS-Service auf, wählt der Cloud-Provider einen Execution-Spot für die Funktion, typischerweise ein Container oder eine virtuelle Maschine. Existiert noch kein Execution-Spot, erzeugt der Provider einen neuen (cold). Ist bereits einer zum Verarbeiten des Request verfügbar, wird dieser verwendet (warm). Sequential & Burst: Sequential sendet einen Request nach dem anderen. Burst sendet immer mehrere Requests gleichzeitig. Aus den Ergebnissen der Benchmark-Tests: Die durchschnittliche Antwortzeit bei Azure hängt davon ab, ob viele Anfragen gleichzeitig einlaufen und ob die Funktion warm ist. Bei AWS hingegen fällt sie mit zunehmendem RAM –  ist aber initial deutlich höher. Damit ist klar: Solange es möglich ist, das Lambda warmzuhalten, gewinnt AWS, ansonsten Azure. Das Lambda wird abhängig von der Skalierung nach etwa zehn Minuten wieder kalt. Für die Anwendung bedeutet das: Sind Anfragen in einem Abstand größer als zehn Minuten zu bearbeiten, ist Azure im Vorteil. Treffen die Anfragen eher in Intervallen kleiner zehn Minuten ein und lässt sich die Ressourcengröße abschätzen, sollte die Wahl auf AWS fallen. In den Burst-Tests zeigt sich, dass Azure bei kurzen Lastspitzen und Cold-Starts vorn liegt. Sind generell hohe Lasten zu erwarten, ist hingegen das AWS Lambda performanter. Allgemein weisen die Ergebnisse von AWS eine höhere Konsistenz auf. Wer also harte Anforderungen an die Konsistenz von Antwortzeiten hat, sollte auf AWS setzen. Die detaillierten Anforderungen und Ergebnisse des Benchmark-Tests finden sich in einem Whitepaper, das doubleSlash hier zum Download anbietet: Amazon Web Services vs. Microsoft Azure 

Multicloud – Tipps für den richtigen Betrieb​ loading=”lazy” width=”400px”>Immer mehr Unternehmen setzen auf eine Multicloud-Strategie – doch solche IT-Infrastrukturen wollen sorgfältig ausgesteuert werden.juliasart somdok – shutterstock.com

Immer mehr Unternehmen setzen auf eine Multicloud-Strategie. Das Ziel: Flexibilität und Leistung ihrer IT-Landschaften zu maximieren. Dabei kombinieren sie gezielt Cloud-Dienste verschiedener Anbieter, um die Vorteile unterschiedlicher Plattformen auszuschöpfen. Doch ohne die richtige Planung wächst die Komplexität und kann schnell ins Chaos führen. Wie gelingt die Balance zwischen Flexibilität und Effizienz?

Das Auslagern von IT-Prozessen in die Cloud gilt seit Jahren als wesentlicher Schritt zur Digitalisierung von Unternehmen. Denn die Cloud verspricht neben einer flexiblen und schnell verfügbaren Rechen- und Speicher-Infrastruktur auch jede Menge Services, mit denen sich digitale Geschäftsprozesse einfach aufsetzen und betreiben lassen.

Allerdings hat der Wettbewerb unter den Anbietern dazu geführt, dass mittlerweile eine immensen Bandbreite an Cloud-Diensten mit unterschiedlichsten Ausprägungen und Rahmenbedingungen am Markt verfügbar sind. Zugleich sind die Anforderungen an den eigenen digitalen Service, der mit der Cloud-Infrastruktur betrieben werden soll, den Anwenderunternehmen oft nur unzureichend bekannt. Dabei gilt: Je genauer und detaillierter diese Anforderungen definiert sind, desto besser lässt sich das Potenzial ausschöpfen, das eine Multicloud-Strategie bietet.

IT-Konglomerate aus vielen Datenquellen und Diensten

Das betrifft ganz massiv Mitspieler in hochkomplexen Umgebungen wie der Entwicklung von Systemen fürs autonome Fahren oder die Energienetze der Zukunft. Ihr Geschäftsmodell steht und fällt mit dem Zusammenwirken vieler Datenquellen und Dienste, die in unterschiedlichen Clouds angesiedelt sind. Aber auch die IT-Umgebungen von Unternehmen in weniger komplexen Branchen stellen sich heute oft als Konglomerat aus lokalen Rechenzentren, virtuellen Maschinen, mobilen Geräten und Cloud-Diensten dar.

Nachfrage nach Cloud-Dienstleistern steigt

Um ihre IT-Prozesse zu verwalten, arbeiten viele Betriebe inzwischen mit einem Hybrid-Cloud-Konzept, das Public- und Private-Varianten wie auch klassische On-Premises-System verknüpft. Damit drängt sich der nächste Schritt auf, hin zur Multicloud. Zum einen, weil es die Situation schlicht erfordert. Zum anderen, weil sich durch die gleichzeitige Nutzung von Cloud-Diensten mehrerer Anbieter die Vorteile der unterschiedlichen Angebote miteinander verbinden lassen. Anwenderunternehmen arbeiten so mit der für ihre spezifischen Anforderungen jeweils am besten geeigneten Lösung.

Neun von zehn Unternehmen machen Multicloud

Ein Ansatz, der Schule macht: So verfolgen bereits neun von zehn befragten Unternehmen weltweit nach eigenen Angaben eine Multicloud-Strategie, hat der Flexera 2024 State of the Cloud Report ergeben. Sie kombinieren zum Beispiel Public-Cloud-Services von AWS, Microsoft Azure oder Google Cloud miteinander. Oft werden dazu auch zusätzlich Private-Cloud-Angebote externer Dienstleister integriert oder Dienste genutzt, die nach wie vor im eigenen Rechenzentrum laufen.

Ein Beispiel: Wenn es etwa um komplizierte Berechnungen geht, die häufig hintereinander ausgeführt werden, erweist sich AWS Lambda als performanter und wirtschaftlicher als Azure Functions. Wer allerdings mit Office 365 und anderen Windows-basierten Anwendungen operiert, ist mit Microsofts Azure besser bedient. Workloads, die auf virtuellen Windows-Maschinen laufen, lassen sich damit einfach schneller abarbeiten.

Managed Cloud Services – diese Anbieter sollten Sie im Blick haben

Im genannten Szenario aus der Produktentwicklung stößt zum Beispiel eine Windows Applikation in Azure einen Lambda-Service in AWS an, der die gewünschten Berechnungen durchführt. Die Ergebnisse werden in einer Datenbank abgelegt und bei Bedarf von der Azure-Applikation aus abgerufen. Die Datenbank selbst läuft ebenfalls in Azure, um die Applikation nicht durch lange Antwortzeiten unnötig abzubremsen. Auch die geografische Region, in der die Services laufen, spielt eine Rolle. Denn sie kann sich auf Performance, Zugriffszeiten und Kosten der jeweiligen Anwendung auswirken.

Die Komplexität wächst in der Multicloud

Dass eine Multicloud-Strategie – egal, wie sie konkret aussieht – die Komplexität weiter anwachsen lässt, liegt auf der Hand. Allein schon, weil jede Cloud-Plattform mit ihren eigenen Verwaltungstools, Sicherheitsprotokollen und Leistungskennzahlen arbeitet. Wer die Multicloud in seine IT-Landschaft integrieren will, braucht ein robustes Management, das mit den spezifischen Anforderungen der unterschiedlichen Umgebungen umgehen kann und dabei die Übersicht und Kontrolle über alle Plattformen hinweg sicherstellt. 

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/2Ciddz1Wx8K0m7mBbhzApR?utm_source=oembed”>

Dies ist nicht allein aus Gründen von Handling und Performance erforderlich, sondern auch, um bei der Wahl des für das jeweilige Anwendungs-Szenario optimalen Anbieters so frei wie nur möglich zu sein. Dafür braucht es plattformübergreifende Technologien und Tools. Zwar stellen die großen Hyperscaler Schnittstellen für den Datenaustausch mit anderen Plattformen standardmäßig bereit. Doch um in Multicloud-Infrastrukturen Prozesse End-to-end planen und steuern zu können, braucht es eine einheitliche Schnittstelle für alle Anwendungen, die auf einer Cloud-Abstraktionsschicht basiert. Damit kann ein Unternehmen seine Workloads unabhängig von den spezifischen Anforderungen einzelner Cloud-Umgebungen je nach Anforderung relativ problemlos verschieben.

Benchmark autonomes Fahren

Wer wie etwa beim autonomen Fahren Daten aus unterschiedlichsten Quellen in IoT-Prozessen zusammenführen und schnell analysieren will, kommt ohne solche Flexibilität nicht weit, wie das folgende Beispiel verdeutlicht.

Ein Zulieferer entwickelt eine Anwendung, die das Bremsverhalten autonomer Fahrzeuge steuern soll. Um die Algorithmen dafür zu entwickeln, zu testen und zu validieren, kommen Tera- und Petabyte an Daten aus unterschiedlichsten Quellen zum Einsatz. Aus Datenbanken mit Bildern und Videos von Ampeln in unterschiedlichen Ländern, zu unterschiedlichen Tageszeiten und bei verschiedenen Witterungsbedingungen, kombiniert mit Daten zur Beschaffenheit des Straßenbelags und zur Bereifung von virtuellen Testfahrzeugen.

Cloud-Migration kommt (noch) nicht in die Gänge

All diese Informationen müssen aus unterschiedlichen Clouds zusammengeführt werden. Das System muss außerdem in der Lage sein, bei Bedarf weitere Datenquellen einzubinden oder bestehende Datenbanken auch dann weiterhin zu nutzen, wenn sie umziehen.

All diese Daten müssen im Einsatz extrem schnell ausgewertet werden, um die Bremsstärke optimal zu dosieren. Kurze Latenzzeiten sind also erfolgskritisch. Dafür empfiehlt sich zunächst eine On-Premises-Infrastruktur. Um allerdings die permanent wachsenden Datenmengen aufzufangen, integriert das Projektteam AWS S3 und Azure Blob Storage. 

Tools unterstützen Multicloud-Strategie

Kubernetes: Kern jeder Multicloud-Strategie ist heute Kubernetes, der Quasi-Standard für die Container-Orchestrierung. Damit lassen sich Anwendungen automatisiert skalieren, verwalten und bereitstellen – unabhängig davon, auf welcher Cloud-Plattform sie ausgeführt werden. Das Open-Source-System steht praktisch in jeder Public Cloud zur Verfügung, und auch die meisten lokalen Cloud-Provider haben Kubernetes im Angebot.

Der Einsatz von Kubernetes hat mehrere Vorteile: Er sorgt für hohe Flexibilität in der Auswahl der zur jeweiligen Anwendung passenden Cloud. Und er erhöht die Verfügbarkeit und Ausfallsicherheit der Dienste. So kann Kubernetes Workloads automatisch auf andere Provider umleiten, wenn ein Anbieter ausfällt, die Verbindung schlecht ist – oder auch um pauschal abgerechnete Datenvolumina optimal auszuschöpfen.

Terraform: Für den Aufbau einer Infrastruktur für Applikationsumgebungen empfiehlt sich Terraform, ein Open-Source-Tool für Infrastructure as Code (IaC). Damit lassen sich Ressourcen wie virtuelle Maschinen, Netzwerke und Datenbanken mittels deklarativer Konfigurationsdateien definieren und verwalten. Anstatt Infrastrukturressourcen manuell zu erstellen und zu verwalten, beschreiben die IT- oder Cloud-Architekten lediglich den gewünschten Endzustand ihrer Infrastruktur und speichern sie als Konfigurationsdateien. Zur Beschreibung dient die Konfigurationssprache HashiCorp Configuration Language (HCL).

Terraform generiert daraufhin selbstständig den erwünschten Zustand, indem es die dafür erforderlichen Ressourcen erstellt, ändert oder löscht. Das Ganze lässt sich beliebig oft aufsetzen. Ein kurzer Befehl reicht bei Bedarf, um die einmal erstellte Umgebung automatisch eins zu eins zu kopieren. Das ist sinnvoll etwa beim Aufbau von Staging-Umgebungen, die auf verschiedenen Stufen im Software-Entwicklungsprozess benötigt werden. Es hilft unter anderem beim Entwickeln von Cloud-Anwendungen in stark regulierten Branchen wie Banken und Versicherungen, Luft- und Raumfahrt, bei Versorgungsunternehmen und in der Automobilindustrie.

Zugleich fungieren die mit Terraform erstellten deklarativen Konfigurationsdateien als lückenlose Dokumentation der Infrastruktur. Mehr noch: Terraform überwacht auch den Status der Infrastruktur und erkennt automatisch Abweichungen zwischen Soll- und Ist-Zustand und korrigiert sie.

Ansible: Ein hilfreiches Tool für ein effizientes Multicloud-Management ist auch Ansible. Dieses Open-Source-Werkzeug unterstützt die erweiterte Konfiguration und Automatisierung der Infrastruktur. Es kombiniert die Verteilung von Software, Ad-hoc-Kommando-Ausführung mit dem Management der Softwarekonfiguration.

Multicloud braucht Sicherheit

Generell gilt: Wer auf eine Multicloud-Strategie setzt, sollte sich schon im Vorfeld darum kümmern, dass die Komplexität nicht ins Chaos, sondern zu effizienteren IT-Prozessen führt. Zu den Hauptthemen gehört die Sicherheit. Und zwar in zweierlei Hinsicht: Zum einen müssen die miteinander vernetzten Services bereits in sich und innerhalb ihrer jeweiligen Plattform geschützt sein. Zum anderen muss das Gesamtkonstrukt mit seinen verschiedenen Architekturen und Systemen sicher sein. Bekanntlich sind gerade die Schnittstellen potenzielle Einfallstore für ungebetene „Gäste“.

Cloud-Anbieter: 9 Alternativen zu AWS, Azure und Google Cloud

Um Sicherheit und Performance zu gewährleisten, brauchen Unternehmen für ihre Multicloud daher ein dezidiertes API-Konzept und -Management sowie einen ganzheitlichen Blick, um Schwachstellen zu identifizieren.

Neben dem Aufbau der dafür spezifischen Kompetenzen empfiehlt sich der Einsatz eines Platform-Engineering-Teams. Dessen Aufgabe ist es, die Architekturen zu planen, die Technologien zu wählen und die Plattform-Dienste auszusuchen, die am besten zu den Anwendungen des Unternehmens passen. In der Regel ist zumindest zum Start auch zu empfehlen, externe Experten in Sachen Multicloud hinzuzuziehen.

AWS vs. Azure: Welche Plattform sich wofür eignet

Welche Cloud-Plattform zu welcher Anwendung passt, sei nachfolgend am Beispiel von Microsoft Azure und Amazon Web Services (AWS) aufgezeigt. Beide Anbieter haben fast identische Preismodelle, und beide bieten für praktisch jeden Anwendungsfall Dienste und Funktionen als Service (FaaS). Dennoch gibt es einige Kriterien, anhand derer sich qualifiziert bewerten und entscheiden lässt, welche Plattform wofür am besten geeignet ist.

Microsoft Azure vs. AWS vs. Google Cloud: Was bietet welche IoT-Cloud?

Dabei geht es um Fragen wie: Treffen Anfragen eher mit hohem zeitlichen Abstand ein? Sind viele oder eher wenig Anfragen zu bearbeiten? Treffen sie gebündelt innerhalb eines kurzen Intervalls ein? Sind parallel eintreffende Anfragen zu bewältigen?

Um beide Plattformen fundiert vergleichen zu können, empfiehlt sich der Einsatz einer Benchmark-Plattform wie SeBS (Serverless Benchmarking Suite). Sie bietet die Lastszenarien Cold & Warm und Sequential & Burst – das steckt dahinter:

Cold & Warm: Ruft der Nutzer den FaaS-Service auf, wählt der Cloud-Provider einen Execution-Spot für die Funktion, typischerweise ein Container oder eine virtuelle Maschine. Existiert noch kein Execution-Spot, erzeugt der Provider einen neuen (cold). Ist bereits einer zum Verarbeiten des Request verfügbar, wird dieser verwendet (warm).

Sequential & Burst: Sequential sendet einen Request nach dem anderen. Burst sendet immer mehrere Requests gleichzeitig.

Aus den Ergebnissen der Benchmark-Tests: Die durchschnittliche Antwortzeit bei Azure hängt davon ab, ob viele Anfragen gleichzeitig einlaufen und ob die Funktion warm ist. Bei AWS hingegen fällt sie mit zunehmendem RAM –  ist aber initial deutlich höher. Damit ist klar: Solange es möglich ist, das Lambda warmzuhalten, gewinnt AWS, ansonsten Azure. Das Lambda wird abhängig von der Skalierung nach etwa zehn Minuten wieder kalt.

Für die Anwendung bedeutet das: Sind Anfragen in einem Abstand größer als zehn Minuten zu bearbeiten, ist Azure im Vorteil. Treffen die Anfragen eher in Intervallen kleiner zehn Minuten ein und lässt sich die Ressourcengröße abschätzen, sollte die Wahl auf AWS fallen.

In den Burst-Tests zeigt sich, dass Azure bei kurzen Lastspitzen und Cold-Starts vorn liegt. Sind generell hohe Lasten zu erwarten, ist hingegen das AWS Lambda performanter. Allgemein weisen die Ergebnisse von AWS eine höhere Konsistenz auf. Wer also harte Anforderungen an die Konsistenz von Antwortzeiten hat, sollte auf AWS setzen.

Die detaillierten Anforderungen und Ergebnisse des Benchmark-Tests finden sich in einem Whitepaper, das doubleSlash hier zum Download anbietet: Amazon Web Services vs. Microsoft Azure

Multicloud – Tipps für den richtigen Betrieb​ Weiterlesen »

Was macht ein Solution Architect?​

Allgemein

Solution Architects sind Brückenbauer mit IT-Fokus. Lesen Sie, welche Skills Sie dafür brauchen und mit welchem Gehalt Sie rechnen können. Foto: Kutlayev Dmitry – shutterstock.com Unternehmen, die ihre Geschäftsziele und -bedarfe mit IT-Produkten, -Services, Software und Infrastruktur in Einklang bringen wollen, kommen an einem Solution Architect nicht vorbei. Solution Architect – Definition Ein Solution Architect ist dafür verantwortlich, die Business Needs eines Unternehmens zu evaluieren und zu bestimmen, wie die IT diese mit Hilfe von Software, Hardware und Infrastruktur unterfüttern kann. IT- und Geschäftsstrategie in Einklang zu bringen, gehört heutzutage zum guten Ton. Solution Architects erarbeiten, entwickeln und optimieren technische Lösungen, um das in der Praxis umsetzen zu können. Sie können darüber hinaus als Schaltstelle zwischen IT und Business fungieren, um sicherzustellen, dass alle auf das gleiche gemeinsame Ziel – die Lösung eines Geschäftsproblems – hinarbeiten. Dieser Prozess erfordert regelmäßiges Feedback und Anpassungen, nur so kommen am Ende ordentlich designte und problemlos implementierbare Lösungen heraus. Solution Architecture an sich umfasst Business-, System-, Informations-, Security-, Application- und Technology Architecture. Praktische Beispiele für Solution Architecture wären etwa die Entwicklung einer Cloud-Infrastruktur um das Effizienzlevel zu steigern, Microservices für E-Commerce einzubinden oder Security-Maßnahmen für Daten, Systeme und Netzwerke einzuziehen. Solution Architect – Aufgaben Das Einsatzgebiet, auf dem sich Solution Architects bewegen, ist breit gefächert – die Anforderungen unterscheiden sich je nach Branche und Unternehmen. Dennoch gibt es einige allgemeingültige Verantwortlichkeiten, Skills und Qualifikationen: Brainstorming-Prozesse leiten, in denen es um die Entwicklung möglicher Lösungen für spezifische Business-Probleme geht; Chancen für Prozessoptimierungen erkennen; Testing-Anforderungen erarbeiten und dokumentieren; Möglichkeiten erkennen, in denen die IT Geschäftsziele unterstützen kann; Gezielte Kooperation mit den Fachbereichen, um IT-Strategien zu entwickeln und bestehende Implementierungen zu optimieren; Software und Services für alle Unternehmensbereiche entwickeln und migrieren; Skalierbare Lösungen und Produkte mit den Product und Delivery Teams entwickeln; Kommunikation und Konsultation mit/von Kunden und internen Stakeholdern, um passgenaue Lösungen zu entwickeln; Softwarearchitekten arbeiten mit Führungskräften, Managern und Mitarbeitern aus allen Unternehmensbereichen zusammen. Ein Solution Architect, der in einem Product Team arbeitet, kann auch mit Kunden in Berührung kommen und sollte daher in der Lage sein, diesen die Erwartungen und Erfordernisse verständlich darzulegen. In einem solchen Fall sollte er auch wissen, wie man die Kundenzufriedenheit managt und die richtige Erwartungshaltung mit Blick auf das Endprodukt vermittelt. Solution Architect – Skills Um IT-Lösungen an den Geschäftszielen ausrichten zu können, sollten Solution Architects ausgeprägte Führungs- und Kommunikationsfähigkeiten genauso mitbringen, wie technisches und unternehmerisches Verständnis. Letzteres ist unabdingbar, damit die Lösungen zu den Zielen passen. Ersteres hingegen ist von Bedeutung, um den Gesamtprozess steuern zu können, der die Identifikation der wichtigsten Geschäftsziele und die Ermittlung der dazu passenden Lösungen beinhaltet. Ein Studium der Informatik (oder verwandten Gebieten) ist Grundvoraussetzung für einen Job als Solution Architect. Je nach Ausgestaltung der individuellen Rolle können auch Fähigkeiten in speziellen IT-Gebieten nötig werden, beispielsweise Netzwerkadministration oder Softwareentwicklung. Laut dem US-Karriereportal PayScale sind die folgenden technischen Skills im Job als Solution Architect besonders gefragt: Software-Architektur System-Architektur IT Consulting Enterprise Solutions Cloud Computing SAP Business Warehouse ITIL Datenbank-Administration Apache Kafka ServiceNow Hardware-Konfiguration JavaScript Informatica IT-Sicherheit und -Infrastruktur Solution Architect – Gehalt Aus der Datenlage des Karriere-Spezialisten Stepstone geht hervor, dass das Durchschnittsgehalt für Solution Architects in Deutschland bei circa 69.800 Euro liegt. Die Gehaltsspanne liegt zwischen 61.300 und 82.200 Euro. Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Was macht ein Solution Architect?​ Solution Architects sind Brückenbauer mit IT-Fokus. Lesen Sie, welche Skills Sie dafür brauchen und mit welchem Gehalt Sie rechnen können.
Foto: Kutlayev Dmitry – shutterstock.com

Unternehmen, die ihre Geschäftsziele und -bedarfe mit IT-Produkten, -Services, Software und Infrastruktur in Einklang bringen wollen, kommen an einem Solution Architect nicht vorbei.

Solution Architect – Definition

Ein Solution Architect ist dafür verantwortlich, die Business Needs eines Unternehmens zu evaluieren und zu bestimmen, wie die IT diese mit Hilfe von Software, Hardware und Infrastruktur unterfüttern kann. IT- und Geschäftsstrategie in Einklang zu bringen, gehört heutzutage zum guten Ton. Solution Architects erarbeiten, entwickeln und optimieren technische Lösungen, um das in der Praxis umsetzen zu können.

Sie können darüber hinaus als Schaltstelle zwischen IT und Business fungieren, um sicherzustellen, dass alle auf das gleiche gemeinsame Ziel – die Lösung eines Geschäftsproblems – hinarbeiten. Dieser Prozess erfordert regelmäßiges Feedback und Anpassungen, nur so kommen am Ende ordentlich designte und problemlos implementierbare Lösungen heraus.

Solution Architecture an sich umfasst Business-, System-, Informations-, Security-, Application- und Technology Architecture. Praktische Beispiele für Solution Architecture wären etwa die Entwicklung einer Cloud-Infrastruktur um das Effizienzlevel zu steigern, Microservices für E-Commerce einzubinden oder Security-Maßnahmen für Daten, Systeme und Netzwerke einzuziehen.

Solution Architect – Aufgaben

Das Einsatzgebiet, auf dem sich Solution Architects bewegen, ist breit gefächert – die Anforderungen unterscheiden sich je nach Branche und Unternehmen. Dennoch gibt es einige allgemeingültige Verantwortlichkeiten, Skills und Qualifikationen:

Brainstorming-Prozesse leiten, in denen es um die Entwicklung möglicher Lösungen für spezifische Business-Probleme geht;

Chancen für Prozessoptimierungen erkennen;

Testing-Anforderungen erarbeiten und dokumentieren;

Möglichkeiten erkennen, in denen die IT Geschäftsziele unterstützen kann;

Gezielte Kooperation mit den Fachbereichen, um IT-Strategien zu entwickeln und bestehende Implementierungen zu optimieren;

Software und Services für alle Unternehmensbereiche entwickeln und migrieren;

Skalierbare Lösungen und Produkte mit den Product und Delivery Teams entwickeln;

Kommunikation und Konsultation mit/von Kunden und internen Stakeholdern, um passgenaue Lösungen zu entwickeln;

Softwarearchitekten arbeiten mit Führungskräften, Managern und Mitarbeitern aus allen Unternehmensbereichen zusammen. Ein Solution Architect, der in einem Product Team arbeitet, kann auch mit Kunden in Berührung kommen und sollte daher in der Lage sein, diesen die Erwartungen und Erfordernisse verständlich darzulegen. In einem solchen Fall sollte er auch wissen, wie man die Kundenzufriedenheit managt und die richtige Erwartungshaltung mit Blick auf das Endprodukt vermittelt.

Solution Architect – Skills

Um IT-Lösungen an den Geschäftszielen ausrichten zu können, sollten Solution Architects ausgeprägte Führungs- und Kommunikationsfähigkeiten genauso mitbringen, wie technisches und unternehmerisches Verständnis. Letzteres ist unabdingbar, damit die Lösungen zu den Zielen passen. Ersteres hingegen ist von Bedeutung, um den Gesamtprozess steuern zu können, der die Identifikation der wichtigsten Geschäftsziele und die Ermittlung der dazu passenden Lösungen beinhaltet.

Ein Studium der Informatik (oder verwandten Gebieten) ist Grundvoraussetzung für einen Job als Solution Architect. Je nach Ausgestaltung der individuellen Rolle können auch Fähigkeiten in speziellen IT-Gebieten nötig werden, beispielsweise Netzwerkadministration oder Softwareentwicklung. Laut dem US-Karriereportal PayScale sind die folgenden technischen Skills im Job als Solution Architect besonders gefragt:

Software-Architektur

System-Architektur

IT Consulting

Enterprise Solutions

Cloud Computing

SAP Business Warehouse

ITIL

Datenbank-Administration

Apache Kafka

ServiceNow

Hardware-Konfiguration

JavaScript

Informatica

IT-Sicherheit und -Infrastruktur

Solution Architect – Gehalt

Aus der Datenlage des Karriere-Spezialisten Stepstone geht hervor, dass das Durchschnittsgehalt für Solution Architects in Deutschland bei circa 69.800 Euro liegt. Die Gehaltsspanne liegt zwischen 61.300 und 82.200 Euro.

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Was macht ein Solution Architect?​ Weiterlesen »

Wie Sie sich mit KI mehr Arbeit aufhalsen​

Allgemein

Wenn KI helfen kann, eine gut geschriebene E-Mail zehnmal schneller zu verfassen, werden vielleicht zehnmal so viele E-Mails wie zuvor verfasst – E-Mails, die nun jemand anderes lesen, sich Gedanken machen und vielleicht auch beantworten muss.Martin Lauge Villadsen – shutterstock.com Auf der Barclays Global Financial Services-Konferenz im September 2024 war der Tenor, dass KI Prozesse verbessern und Effizienz steigern wird. Laut Daniel Pinto, Präsident von JP Morgan Chase, rechnet die Bank mit einem Wertzuwachs von bis zu zwei Milliarden Dollar aus ihren KI-Use-Cases – ein Drittel mehr als in der Prognose vom Mai zuvor. Der Konzern habe bereits einen KI-Assistenten auf den Markt gebracht und wolle mit seiner Hilfe jeden Prozess optimieren, berichtete Pinto. Operative Effizienz im Fokus Auch viele andere Manager stehen der KI zuversichtlich gegenüber. Einem neuen IDC-Bericht zufolge betrachten 98 Prozent der Führungskräfte KI als Priorität für ihr Unternehmen. Zudem geht das Analystenhaus davon aus, dass KI der Weltwirtschaft bis 2030 rund 20 Billionen zusätzliche Dollar generieren wird. Erst im August hatte OpenAI bekannt gegeben, dass sein ChatGPT inzwischen mehr als 200 Millionen wöchentliche Nutzer hat – doppelt so viele wie im November 2023. Die Nutzung der API hat sich ebenfalls verdoppelt, seit ChatGPT-4o mini im Juli veröffentlicht wurde. Laut einer aktuellen Studie von Coleman Parkes Research im Auftrag von Riverbed sagen 59 Prozent der Entscheidungsträger in großen Unternehmen, dass KI-Projekte ihre Erwartungen erfüllt haben, bei 18 Prozent wurden sie übertroffen. “KI hat den IT-Bereich verlassen und sich in der Organisation etabliert”, berichtet Ian Beston, Direktor bei Coleman Parkes Research. Allerdings gibt knapp ein Viertel der Befragten an, dass KI die Erwartungen nicht erfüllt hat – trotz der gepriesenen Vorteile für die Effizienz reduziert die KI also nicht automatisch die Arbeitslast. Mehr gesparte Zeit, mehr verschwendete Zeit Wenn KI den Mitarbeitern hilft, ihre Arbeit schneller zu erledigen, gehen Unternehmen davon aus, dass die gewonnene Zeit für höherwertige Tätigkeiten genutzt wird. Das ist aber nicht unbedingt der Fall, sagt Christina Janzer, SVP of Research and Analytics bei Slack. Laut der jüngsten Umfrage des Unternehmens verbringen Knowledge Worker 37 Prozent mehr Zeit mit administrativen Routineaufgaben. “Es gibt jedoch eine Menge Potenzial”, berichtet Janzer. “Auch wenn wir noch in den Kinderschuhen stecken, sehen wir unglaubliche Ergebnisse in Bezug auf die Produktivität und die Verbesserung der Work-Life-Balance sowie der Begeisterung für den Job.” Das Problem: Menschen seien darauf programmiert, ihre Zeit mit bestimmten Aufgaben zu füllen. Wenn die KI dann Zeit freisetze, würde diese durch mehr Verwaltungsarbeit belegt. “Es gibt eine nicht enden wollende Liste von Aufgaben, die erledigt werden müssen”, so Janzer. Die Lösung bestehe darin, die Anreizsysteme zu überdenken. “Manager tendieren dazu, Anreize auf der Grundlage von Aktivitäts-Metriken zu schaffen und Input statt Output zu messen.” Statt auf den Wert zu schauen, den der Mitarbeiter dem Unternehmen bringt, würden sie die Anzahl der verschickten E-Mails oder die im Büro verbrachten Stunden zählen. Posteingänge außer Kontrolle Die Entwicklung schafft auch mehr Arbeit für andere Mitarbeitende, argumentiert Janzer. Wenn KI helfen kann, eine gut geschriebene E-Mail zehnmal schneller zu verfassen, werden vielleicht zehnmal so viele E-Mails wie zuvor verfasst – E-Mails, die nun jemand anderes lesen, sich Gedanken machen und vielleicht auch beantworten muss. Statt einen Artikel für die Wissensdatenbank des Unternehmens zu einem wirklich relevanten Thema zu schreiben, könnten Mitarbeiter mit KI ein Dutzend Artikel zu weniger interessanten Themen einreichen. Mitarbeiter, die ihren Vorgesetzten Berichte vorlegen müssen, könnten diese schneller fertig stellen und ihre Anzahl sowie die Länge erhöhen. “Diese Technologien können mehr Inhalte produzieren, die jemand konsumieren und zur Kenntnis nehmen muss”, so Anita Woolley, Professorin an der Carnegie Mellon University. Schon jetzt würden die Suchergebnisse mit immer mehr minderwertigen KI-Inhalten überflutet, was für Mitarbeiter, die im öffentlichen Web und in Wissensdatenbanken nach Informationen suchen, von Nachteil sei. Ein tatsächlich nützliches Ergebnis zu finden, gleiche der Suche nach einer Nadel im Heuhaufen. “Das Informationsvolumen ist definitiv einer der Bereiche, in denen die Produktivität sinken könnte”, sagt Woolley. Fragmentierte Aufmerksamkeit Eine weitere potenziell negative Auswirkung von KI ist die Fragmentierung der Aufmerksamkeit, ergänzt die CMU-Mitarbeiterin: “Die KI kann für Sie zu Meetings gehen und Notizen machen, so dass Sie an vier Orten gleichzeitig sein können”, berichtet Woolley und gibt zu bedenken: “Es gibt jedoch nur eine bestimmte Anzahl von Projekten, zu denen wir sinnvoll beitragen können, und von Gesprächen, an denen wir teilnehmen können.” Der KI-Einsatz trage nur dazu bei, dass wir das Gefühl hätten, es gäbe noch mehr für uns zu tun: “So laufen wir Gefahr, auszubrennen.” Wenn unsere Aufmerksamkeit zu sehr fragmentiert sei, könnten die Menschen anfangen, schlechte Entscheidungen zu treffen. Aufmerksamkeit teilen? Einige Unternehmen setzen Grenzen für die Anzahl der Projekte, mit denen sich Mitarbeiter gleichzeitig beschäftigen können. “Jeder ist um seine Karriere besorgt, und niemand ist sich wirklich sicher, was für seine Leistungsbewertung ausschlaggebend sein wird. Daher versuchen die Leute, mehr Aufgaben zu übernehmen.” Die Lösung bestehe nach Meinung von Woolley darin, dass Unternehmen klare Ziele und Leistungskriterien festlegen. Sie wollen eine explosionsartige Zunahme von Projekten, Initiativen und Teams unterbinden, die keinen Mehrwert schaffen, sondern nur Arbeit verursachen. “Vor allem in einer verteilten Umgebung ist es wichtiger denn je, von Besprechungen wegzukommen, die nur dazu da sind, zu zeigen, dass man arbeitet.” Tools beschränken Hinzu kommt: Jedes der vielen neuen KI-Tools erfordert eine gewisse Zeit, bis es tatsächlich einen Nutzen bringt. Woolley empfiehlt Unternehmen, sich auf eine Anzahl von Tools zu beschränken, die sie benötigen, um ihre Aufgaben zu erledigen. Zudem sollten sie einen Prozess zum Testen und Bewerten neuer KI-Systeme einrichten, um Mitarbeiter nicht von der eigentlichen Arbeit abzuhalten. Auch sei es empfehlenswert, wenn die Mitarbeitenden über ein gewisses Maß an persönlicher Autonomie verfügen. “Gibt es geprüfte Tools, mit denen ich nach eigenem Ermessen probieren und dadurch meine Arbeit besser erledigen kann – großartig!” Halluzinationen und Ungenauigkeiten Laut der oben erwähnten Slack-Umfrage sagen nur sieben Prozent der Büroarbeiter, dass KI-Ergebnisse für ihre Aufgaben völlig vertrauenswürdig sind. Mehr als ein Drittel gibt an, dass KI-Ergebnisse nur wenig oder gar nicht vertrauenswürdig sind. In einer aktuellen Studie von Forschern der Cornell University und weiterer Institute wurde festgestellt, dass selbst die leistungsstärksten KI-Modelle nur in einem Drittel der Fälle völlig korrekte Antworten geben konnten. Das bedeutet, dass der KI-Output zusätzlich beaufsichtigt, überprüft, bearbeitet, korrigiert oder überarbeitet werden muss. Das alles kostet Zeit und reduziert die Produktivität. Zu viel Datenwissenschaft, zu wenig Gewinn Viele Kunden wollen einfach nur KI einsetzen und haben die Use Cases nicht sorgfältig durchdacht. So kann die KI einen enormen Arbeitsaufwand für Data Scientists und Data Engineers verursachen. Sie müssen die Trainingsdaten sammeln und vorbereiten, die Modelle erstellen und testen, sie in den Unternehmens-Workflow integrieren und dann die Leistung überwachen, um sicherzustellen, dass die KI weiterhin gut funktioniert. Laut dem Jobportal ZipRecruiter lag das durchschnittliche Einstiegsgehalt für einen US-amerikanischen Datenexperten im Oktober 2024 bei 165.000 Dollar pro Jahr. “Machen Sie langsam”, empfiehlt Steve Ross, Director of Cybersecurity bei S-RM Intelligence and Risk Consulting. “Stellen Sie keine Datenwissenschaftler ein, nur um ein paar E-Mails zu schreiben.” Ohne einen eindeutigen Use Case sei die Wahrscheinlichkeit groß, dass das KI-Projekt nicht einmal über das Proof-of-Concept-Stadium hinauskommt, ergänzt Gartner. Das Marktforschungsunternehmen prognostiziert, dass bis Ende 2025 mindestens 30 Prozent der KI-Projekte aufgrund eines unklaren Geschäftsnutzens sowie schlechter Datenqualität, unzureichender Risikokontrollen und eskalierender Kosten aufgegeben werden. Verlagerung statt Ersparnis Das Hochschul-Marketing-Unternehmen Education Dynamics setzt KI zur Unterstützung von Kampagnen ein. Bei einigen Aufgaben gibt es nicht wirklich einen großen Produktivitätsschub, berichtet Marketing-Managerin Sarah Russell. “Vom Standpunkt der kreativen Bearbeitung und Überarbeitung aus gesehen, haben wir wirklich jede Zeitersparnis bei der ursprünglichen Erstellung ersetzt und in die Bearbeitung und Überarbeitung verlagert”, sagt sie. “Wir wollen vermeiden, dass unsere Texte KI-generiert klingen, keine Persönlichkeit haben oder überdreht sind. Für uns ist es weniger eine Zeitersparnis als vielmehr eine Verlagerung des Zeitaufwands.” Aber die Einführung der Technologie helfe dem Unternehmen immerhin, sich weiterzuentwickeln. (ajf/jd) 

Wie Sie sich mit KI mehr Arbeit aufhalsen​ Wenn KI helfen kann, eine gut geschriebene E-Mail zehnmal schneller zu verfassen, werden vielleicht zehnmal so viele E-Mails wie zuvor verfasst – E-Mails, die nun jemand anderes lesen, sich Gedanken machen und vielleicht auch beantworten muss.Martin Lauge Villadsen – shutterstock.com

Auf der Barclays Global Financial Services-Konferenz im September 2024 war der Tenor, dass KI Prozesse verbessern und Effizienz steigern wird. Laut Daniel Pinto, Präsident von JP Morgan Chase, rechnet die Bank mit einem Wertzuwachs von bis zu zwei Milliarden Dollar aus ihren KI-Use-Cases – ein Drittel mehr als in der Prognose vom Mai zuvor. Der Konzern habe bereits einen KI-Assistenten auf den Markt gebracht und wolle mit seiner Hilfe jeden Prozess optimieren, berichtete Pinto.

Operative Effizienz im Fokus

Auch viele andere Manager stehen der KI zuversichtlich gegenüber. Einem neuen IDC-Bericht zufolge betrachten 98 Prozent der Führungskräfte KI als Priorität für ihr Unternehmen. Zudem geht das Analystenhaus davon aus, dass KI der Weltwirtschaft bis 2030 rund 20 Billionen zusätzliche Dollar generieren wird.

Erst im August hatte OpenAI bekannt gegeben, dass sein ChatGPT inzwischen mehr als 200 Millionen wöchentliche Nutzer hat – doppelt so viele wie im November 2023. Die Nutzung der API hat sich ebenfalls verdoppelt, seit ChatGPT-4o mini im Juli veröffentlicht wurde.

Laut einer aktuellen Studie von Coleman Parkes Research im Auftrag von Riverbed sagen 59 Prozent der Entscheidungsträger in großen Unternehmen, dass KI-Projekte ihre Erwartungen erfüllt haben, bei 18 Prozent wurden sie übertroffen. “KI hat den IT-Bereich verlassen und sich in der Organisation etabliert”, berichtet Ian Beston, Direktor bei Coleman Parkes Research. Allerdings gibt knapp ein Viertel der Befragten an, dass KI die Erwartungen nicht erfüllt hat – trotz der gepriesenen Vorteile für die Effizienz reduziert die KI also nicht automatisch die Arbeitslast.

Mehr gesparte Zeit, mehr verschwendete Zeit

Wenn KI den Mitarbeitern hilft, ihre Arbeit schneller zu erledigen, gehen Unternehmen davon aus, dass die gewonnene Zeit für höherwertige Tätigkeiten genutzt wird. Das ist aber nicht unbedingt der Fall, sagt Christina Janzer, SVP of Research and Analytics bei Slack. Laut der jüngsten Umfrage des Unternehmens verbringen Knowledge Worker 37 Prozent mehr Zeit mit administrativen Routineaufgaben.

“Es gibt jedoch eine Menge Potenzial”, berichtet Janzer. “Auch wenn wir noch in den Kinderschuhen stecken, sehen wir unglaubliche Ergebnisse in Bezug auf die Produktivität und die Verbesserung der Work-Life-Balance sowie der Begeisterung für den Job.”

Das Problem: Menschen seien darauf programmiert, ihre Zeit mit bestimmten Aufgaben zu füllen. Wenn die KI dann Zeit freisetze, würde diese durch mehr Verwaltungsarbeit belegt. “Es gibt eine nicht enden wollende Liste von Aufgaben, die erledigt werden müssen”, so Janzer.

Die Lösung bestehe darin, die Anreizsysteme zu überdenken. “Manager tendieren dazu, Anreize auf der Grundlage von Aktivitäts-Metriken zu schaffen und Input statt Output zu messen.” Statt auf den Wert zu schauen, den der Mitarbeiter dem Unternehmen bringt, würden sie die Anzahl der verschickten E-Mails oder die im Büro verbrachten Stunden zählen.

Posteingänge außer Kontrolle

Die Entwicklung schafft auch mehr Arbeit für andere Mitarbeitende, argumentiert Janzer. Wenn KI helfen kann, eine gut geschriebene E-Mail zehnmal schneller zu verfassen, werden vielleicht zehnmal so viele E-Mails wie zuvor verfasst – E-Mails, die nun jemand anderes lesen, sich Gedanken machen und vielleicht auch beantworten muss. Statt einen Artikel für die Wissensdatenbank des Unternehmens zu einem wirklich relevanten Thema zu schreiben, könnten Mitarbeiter mit KI ein Dutzend Artikel zu weniger interessanten Themen einreichen. Mitarbeiter, die ihren Vorgesetzten Berichte vorlegen müssen, könnten diese schneller fertig stellen und ihre Anzahl sowie die Länge erhöhen.

“Diese Technologien können mehr Inhalte produzieren, die jemand konsumieren und zur Kenntnis nehmen muss”, so Anita Woolley, Professorin an der Carnegie Mellon University. Schon jetzt würden die Suchergebnisse mit immer mehr minderwertigen KI-Inhalten überflutet, was für Mitarbeiter, die im öffentlichen Web und in Wissensdatenbanken nach Informationen suchen, von Nachteil sei. Ein tatsächlich nützliches Ergebnis zu finden, gleiche der Suche nach einer Nadel im Heuhaufen. “Das Informationsvolumen ist definitiv einer der Bereiche, in denen die Produktivität sinken könnte”, sagt Woolley.

Fragmentierte Aufmerksamkeit

Eine weitere potenziell negative Auswirkung von KI ist die Fragmentierung der Aufmerksamkeit, ergänzt die CMU-Mitarbeiterin: “Die KI kann für Sie zu Meetings gehen und Notizen machen, so dass Sie an vier Orten gleichzeitig sein können”, berichtet Woolley und gibt zu bedenken: “Es gibt jedoch nur eine bestimmte Anzahl von Projekten, zu denen wir sinnvoll beitragen können, und von Gesprächen, an denen wir teilnehmen können.”

Der KI-Einsatz trage nur dazu bei, dass wir das Gefühl hätten, es gäbe noch mehr für uns zu tun: “So laufen wir Gefahr, auszubrennen.” Wenn unsere Aufmerksamkeit zu sehr fragmentiert sei, könnten die Menschen anfangen, schlechte Entscheidungen zu treffen.

Aufmerksamkeit teilen?

Einige Unternehmen setzen Grenzen für die Anzahl der Projekte, mit denen sich Mitarbeiter gleichzeitig beschäftigen können. “Jeder ist um seine Karriere besorgt, und niemand ist sich wirklich sicher, was für seine Leistungsbewertung ausschlaggebend sein wird. Daher versuchen die Leute, mehr Aufgaben zu übernehmen.”

Die Lösung bestehe nach Meinung von Woolley darin, dass Unternehmen klare Ziele und Leistungskriterien festlegen. Sie wollen eine explosionsartige Zunahme von Projekten, Initiativen und Teams unterbinden, die keinen Mehrwert schaffen, sondern nur Arbeit verursachen. “Vor allem in einer verteilten Umgebung ist es wichtiger denn je, von Besprechungen wegzukommen, die nur dazu da sind, zu zeigen, dass man arbeitet.”

Tools beschränken

Hinzu kommt: Jedes der vielen neuen KI-Tools erfordert eine gewisse Zeit, bis es tatsächlich einen Nutzen bringt. Woolley empfiehlt Unternehmen, sich auf eine Anzahl von Tools zu beschränken, die sie benötigen, um ihre Aufgaben zu erledigen. Zudem sollten sie einen Prozess zum Testen und Bewerten neuer KI-Systeme einrichten, um Mitarbeiter nicht von der eigentlichen Arbeit abzuhalten.

Auch sei es empfehlenswert, wenn die Mitarbeitenden über ein gewisses Maß an persönlicher Autonomie verfügen. “Gibt es geprüfte Tools, mit denen ich nach eigenem Ermessen probieren und dadurch meine Arbeit besser erledigen kann – großartig!”

Halluzinationen und Ungenauigkeiten

Laut der oben erwähnten Slack-Umfrage sagen nur sieben Prozent der Büroarbeiter, dass KI-Ergebnisse für ihre Aufgaben völlig vertrauenswürdig sind. Mehr als ein Drittel gibt an, dass KI-Ergebnisse nur wenig oder gar nicht vertrauenswürdig sind.

In einer aktuellen Studie von Forschern der Cornell University und weiterer Institute wurde festgestellt, dass selbst die leistungsstärksten KI-Modelle nur in einem Drittel der Fälle völlig korrekte Antworten geben konnten.

Das bedeutet, dass der KI-Output zusätzlich beaufsichtigt, überprüft, bearbeitet, korrigiert oder überarbeitet werden muss. Das alles kostet Zeit und reduziert die Produktivität.

Zu viel Datenwissenschaft, zu wenig Gewinn

Viele Kunden wollen einfach nur KI einsetzen und haben die Use Cases nicht sorgfältig durchdacht. So kann die KI einen enormen Arbeitsaufwand für Data Scientists und Data Engineers verursachen. Sie müssen die Trainingsdaten sammeln und vorbereiten, die Modelle erstellen und testen, sie in den Unternehmens-Workflow integrieren und dann die Leistung überwachen, um sicherzustellen, dass die KI weiterhin gut funktioniert.

Laut dem Jobportal ZipRecruiter lag das durchschnittliche Einstiegsgehalt für einen US-amerikanischen Datenexperten im Oktober 2024 bei 165.000 Dollar pro Jahr. “Machen Sie langsam”, empfiehlt Steve Ross, Director of Cybersecurity bei S-RM Intelligence and Risk Consulting. “Stellen Sie keine Datenwissenschaftler ein, nur um ein paar E-Mails zu schreiben.”

Ohne einen eindeutigen Use Case sei die Wahrscheinlichkeit groß, dass das KI-Projekt nicht einmal über das Proof-of-Concept-Stadium hinauskommt, ergänzt Gartner. Das Marktforschungsunternehmen prognostiziert, dass bis Ende 2025 mindestens 30 Prozent der KI-Projekte aufgrund eines unklaren Geschäftsnutzens sowie schlechter Datenqualität, unzureichender Risikokontrollen und eskalierender Kosten aufgegeben werden.

Verlagerung statt Ersparnis

Das Hochschul-Marketing-Unternehmen Education Dynamics setzt KI zur Unterstützung von Kampagnen ein. Bei einigen Aufgaben gibt es nicht wirklich einen großen Produktivitätsschub, berichtet Marketing-Managerin Sarah Russell. “Vom Standpunkt der kreativen Bearbeitung und Überarbeitung aus gesehen, haben wir wirklich jede Zeitersparnis bei der ursprünglichen Erstellung ersetzt und in die Bearbeitung und Überarbeitung verlagert”, sagt sie.

“Wir wollen vermeiden, dass unsere Texte KI-generiert klingen, keine Persönlichkeit haben oder überdreht sind. Für uns ist es weniger eine Zeitersparnis als vielmehr eine Verlagerung des Zeitaufwands.” Aber die Einführung der Technologie helfe dem Unternehmen immerhin, sich weiterzuentwickeln. (ajf/jd)

Wie Sie sich mit KI mehr Arbeit aufhalsen​ Weiterlesen »

Nach oben scrollen
×