Computerhaus Quickborn

Januar 2025

OpenAI: KI-Agent Operator erledigt Web-Aufgaben​

Allgemein

OpenAI präsentiert Operator: Ein KI-Agent, der Webseiten-Aufgaben automatisiert! Im Gegensatz zu bisherigen KI-Tools erledigt Operator selbstständig Aufgaben wie Formulare ausfüllen und online bestellen. Basierend auf GPT-4 und Reinforcement Learning interagiert er direkt mit grafischen Benutzeroberflächen (GUIs). Eine Research-Preview für OpenAI Pro-Nutzer in den USA läutet eine neue Ära der KI-Automatisierung ein.

OpenAI: KI-Agent Operator erledigt Web-Aufgaben​ Weiterlesen »

DeepSeek AI – Chinas KI-Geheimwaffe?​

Allgemein

Chinas KI-Startup DeepSeek revolutioniert das Feld mit DeepSeek-R1, einem kosteneffizienten, leistungsstarken Large Language Model. Es übertrifft westliche Konkurrenten und unterstreicht Chinas wachsende Innovationskraft trotz Chip-Beschränkungen. DeepSeeks Erfolg spiegelt Chinas strategische KI-Ambitionen wider, die durch massive Investitionen und ein starkes Ökosystem unterstützt werden.

DeepSeek AI – Chinas KI-Geheimwaffe?​ Weiterlesen »

So kommt Intel (vielleicht) wieder auf die Beine​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/01/Tada-Images_shutterstock_2396279541_16z9_DEOnly_NR.jpg?quality=50&strip=all 5464w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Tada-Images_shutterstock_2396279541_16z9_DEOnly_NR.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Tada-Images_shutterstock_2396279541_16z9_DEOnly_NR.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Tada-Images_shutterstock_2396279541_16z9_DEOnly_NR.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Tada-Images_shutterstock_2396279541_16z9_DEOnly_NR.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Tada-Images_shutterstock_2396279541_16z9_DEOnly_NR.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Tada-Images_shutterstock_2396279541_16z9_DEOnly_NR.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Tada-Images_shutterstock_2396279541_16z9_DEOnly_NR.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Tada-Images_shutterstock_2396279541_16z9_DEOnly_NR.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Tada-Images_shutterstock_2396279541_16z9_DEOnly_NR.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Tada-Images_shutterstock_2396279541_16z9_DEOnly_NR.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Seinem aktuellen Schattendasein zu entkommen, wird für Intel keine leichte Aufgabe.Tada Images | shutterstock.com Für das Gros der Chiphersteller – allen voran Nvidia und Broadcom – war 2024 ein Erfolgsjahr. Nicht so für Intel: Der ehemals dominante Chipriese hat mit Pat Gelsinger einen weiteren CEO verbrannt, massiv Marktanteile verloren und musste mit ansehen, wie sein Aktienkurs im Jahresverlauf um mehr als 60 Prozent einbrach. Das Ungemach bei Intel war 2024 so groß, dass etliche Branchenexperten empfahlen, was über Jahrzehnte undenkbar war: eine Private-Equity-Übernahme. Während Intel vor sich hinsiechte, gelang es Nvidia, sich vom Gaming-Spezialisten zum Synonym für künstliche Intelligenz zu transformieren. Und AMD – eine Company, deren Zukunft noch vor einem Jahrzehnt am seidenen Faden hing – weist heute eine Marktkapitalisierung auf, die doppelt so hoch ist wie die von Intel.    Dass Intel schon bald zu einer Dominanz zurückfindet wie vor zwanzig Jahren, ist eher nicht zu erwarten – es sei denn, Nvidia und AMD begehen in nächster Zeit katastrophale Fehler in Serie. Damit ist angesichts der derzeitigen Führungsteams bei den Hauptkonkurrenten von Intel jedoch nicht zu rechnen. Nichtsdestotrotz kann der angeschlagene Chipkonzern einige Maßnahmen ergreifen, um sich wieder Raum zum Atmen zu verschaffen – und künftig vielleicht auch wieder zu wachsen.    1. Den richtigen CEO finden Ähnlich wie AMD und Nvidia sollte Intels nächster CEO (wie auch schon Pat Gelsinger) wieder ein Elektroingenieur sein, der Halbleiter bis ins kleinste Detail versteht. Das sieht auch Forrester-Analyst Alvin Nguyen so: „Die Unternehmenskultur bei Intel wird sich verändern müssen. Dabei wird es darauf ankommen, einen glaubwürdigen Nachfolger für Gelsinger zu finden, der den Markt und die Technologie versteht. Das schränkt die Auswahl stark ein.“ Wie der Analyst anmerkt, komme es in der Zukunft für den neuen Intel-Lenker darauf an, technologische Wendepunkte zu erkennen: „Auch nach KI wird noch etwas kommen. Wenn es so weit ist, müssen die richtigen Entscheidungen getroffen werden. Das Schlimmste, was Intel passieren könnte, ist ein neuer CEO, der ausschließlich kurzfristig denkt – und damit die Fehler der Vergangenheit wiederholt:“ 2. Foundry-Kurs beibehalten… Intel befindet sich auf einer mehrjährigen Mission und will sich als Foundry-Dienstleister neu erfinden, um in diesem Bereich mit TSMC und Samsung zu konkurrieren. Wenn es etwas gibt, das man Pat Gelsinger zum Vorwurf machen kann, dann, dass er es nicht geschafft hat, dem Vorstand und den Investoren zu vermitteln, dass es sich bei dieser Initiative um ein langfristiges Projekt handelt, das Zeit und Geld erfordert, bevor es Früchte tragen kann.  Wie der selbständige Management-Berater Patrick Morehead argumentiert, sollte sich das dringend ändern: „Diese Initiative kann sich auszahlen, wenn Vorstand und Aktionäre ausreichend Geduld an den Tag legen. Intel muss die Strategie umsetzen, die es in den letzten drei Jahren definiert hat. Das heißt, im Bereich Foundry wettbewerbsfähig zu werden.“ Dabei könne der „18A“-Fertigungsprozess für Halbleiter künftig eine entscheidende Rolle spielen, erklärt Morehead: „Diese Technologie verwendet eine Process Node mit 1,8 Nanometer. Das würde Intel einen klaren Wettbewerbsvorteil gegenüber TSMC und Samsung verschaffen.“ Letztendlich komme es laut dem Berater darauf an, die neue Fertigungstechnologie so weit voranzubringen, dass sie ein profitables Geschäft ermöglicht, das nicht nur Intel sondern auch seine externen Partner unterstützt. Für dieses Unterfangen sind die Deadlines bereits gesetzt: In sechs Monaten soll die Massenproduktion im 18A-Verfahren für interne Produkte anlaufen. In 18 Monaten soll dann auch für die Partner produziert werden. 3. …oder sich aufspalten In Pat Gelsingers Vision sollte die Foundry-Sparte integraler Bestandteil von Intel sein. Mit Blick auf die Zukunft empfiehlt Nathan Brookwood, Research Fellow bei den Marktforschern von Insight 64, diesbezüglich einen Kurswechsel. Er rät, sich dabei eine Scheibe von AMD abzuschneiden: „Ich habe in den letzten Wochen mit diversen Experten gesprochen und die einhellige Wahrnehmung ist: Intel ist zu weit gegangen, um ein Konzern bleiben zu können. Es wird dem Unternehmen nichts anderes übrigbleiben, als sich aufzuspalten – in eine Produkt-Company und ein Foundry-Business.“ Zur Einordnung: AMD produzierte bis zum Jahr 2008 ebenfalls seine eigenen Chips. Dann entschied sich das Unternehmen dazu, sein Foundry-Geschäft an eine Investorengruppe aus Abu Dhabi zu veräußern. Das hat enorm dazu beigetragen, dass AMD heute floriert. Nebenbei ist aus diesem Move mit GlobalFoundries auch das heute nach Samsung und TSMC weltweit drittgrößte Chip-Fertigungsunternehmen entstanden. 4. Mehr Stellen abbauen Bereits Mitte August 2024 tauchten erste Berichte über massive Stellenstreichungen bei Intel auf. Bob O’Donnell, Chefanalyst von Technalysis Research, rechnet damit, dass es damit nicht getan sein wird: „Beim Einsparpotenzial besteht noch viel Raum nach oben, auch wenn Intel die meisten Mitarbeiter im Foundry-Bereich beschäftigt. Dennoch beschäftigt der Konzern im Bereich Design ungefähr doppelt so viele Mitarbeiter wie AMD – eventuell sogar mehr. Man wird lernen müssen, mit einer kleineren Belegschaft effizienter zu arbeiten.“ Einfach nur Personal abzubauen, wird dazu allerdings nicht ausreichen, wie Morehead klarstellt: „Man wird nicht effizienter, indem man Stellen streicht. Dazu gilt es, bisherige Arbeitsweisen auf den Prüfstand zu stellen und bestehende Prozesse zu optimieren.“ 5. KI-Strategie entwirren Intels Messaging rund um KI war bisher vor allem nicht fokussiert. Während Nvidia (Blackwell) und AMD (Instinct) klare Produktstrategien in diesem Bereich vorweisen können, verwirrt Intel potenzielle Kunden bislang mit seinen Gaudi-, CPU- Max-, Xeon- und Altera-Produktlinien. Research-Experte Brookwood fasst aus seiner Perspektive die To-Dos für Intel zusammen: „Das Unternehmen muss herausfinden, wie es im KI-Bereich Boden gut machen kann. Oder sie müssen eine andere Technologie finden, mit der sie neuartige Produkte entwickeln und sich eine wieder eine günstigere Marktposition erarbeiten können.“ If you had to express this meme, but as a stock chart, this is what it would look like pic.twitter.com/MsGiFKVHFA— siliconmemes (@realmemes6) December 3, 2024 Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

So kommt Intel (vielleicht) wieder auf die Beine​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/01/Tada-Images_shutterstock_2396279541_16z9_DEOnly_NR.jpg?quality=50&strip=all 5464w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Tada-Images_shutterstock_2396279541_16z9_DEOnly_NR.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Tada-Images_shutterstock_2396279541_16z9_DEOnly_NR.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Tada-Images_shutterstock_2396279541_16z9_DEOnly_NR.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Tada-Images_shutterstock_2396279541_16z9_DEOnly_NR.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Tada-Images_shutterstock_2396279541_16z9_DEOnly_NR.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Tada-Images_shutterstock_2396279541_16z9_DEOnly_NR.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Tada-Images_shutterstock_2396279541_16z9_DEOnly_NR.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Tada-Images_shutterstock_2396279541_16z9_DEOnly_NR.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Tada-Images_shutterstock_2396279541_16z9_DEOnly_NR.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Tada-Images_shutterstock_2396279541_16z9_DEOnly_NR.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Seinem aktuellen Schattendasein zu entkommen, wird für Intel keine leichte Aufgabe.Tada Images | shutterstock.com

Für das Gros der Chiphersteller – allen voran Nvidia und Broadcom – war 2024 ein Erfolgsjahr. Nicht so für Intel: Der ehemals dominante Chipriese hat mit Pat Gelsinger einen weiteren CEO verbrannt, massiv Marktanteile verloren und musste mit ansehen, wie sein Aktienkurs im Jahresverlauf um mehr als 60 Prozent einbrach. Das Ungemach bei Intel war 2024 so groß, dass etliche Branchenexperten empfahlen, was über Jahrzehnte undenkbar war: eine Private-Equity-Übernahme. Während Intel vor sich hinsiechte, gelang es Nvidia, sich vom Gaming-Spezialisten zum Synonym für künstliche Intelligenz zu transformieren. Und AMD – eine Company, deren Zukunft noch vor einem Jahrzehnt am seidenen Faden hing – weist heute eine Marktkapitalisierung auf, die doppelt so hoch ist wie die von Intel.   

Dass Intel schon bald zu einer Dominanz zurückfindet wie vor zwanzig Jahren, ist eher nicht zu erwarten – es sei denn, Nvidia und AMD begehen in nächster Zeit katastrophale Fehler in Serie. Damit ist angesichts der derzeitigen Führungsteams bei den Hauptkonkurrenten von Intel jedoch nicht zu rechnen. Nichtsdestotrotz kann der angeschlagene Chipkonzern einige Maßnahmen ergreifen, um sich wieder Raum zum Atmen zu verschaffen – und künftig vielleicht auch wieder zu wachsen.   

1. Den richtigen CEO finden

Ähnlich wie AMD und Nvidia sollte Intels nächster CEO (wie auch schon Pat Gelsinger) wieder ein Elektroingenieur sein, der Halbleiter bis ins kleinste Detail versteht. Das sieht auch Forrester-Analyst Alvin Nguyen so: „Die Unternehmenskultur bei Intel wird sich verändern müssen. Dabei wird es darauf ankommen, einen glaubwürdigen Nachfolger für Gelsinger zu finden, der den Markt und die Technologie versteht. Das schränkt die Auswahl stark ein.“

Wie der Analyst anmerkt, komme es in der Zukunft für den neuen Intel-Lenker darauf an, technologische Wendepunkte zu erkennen: „Auch nach KI wird noch etwas kommen. Wenn es so weit ist, müssen die richtigen Entscheidungen getroffen werden. Das Schlimmste, was Intel passieren könnte, ist ein neuer CEO, der ausschließlich kurzfristig denkt – und damit die Fehler der Vergangenheit wiederholt:“

2. Foundry-Kurs beibehalten…

Intel befindet sich auf einer mehrjährigen Mission und will sich als Foundry-Dienstleister neu erfinden, um in diesem Bereich mit TSMC und Samsung zu konkurrieren. Wenn es etwas gibt, das man Pat Gelsinger zum Vorwurf machen kann, dann, dass er es nicht geschafft hat, dem Vorstand und den Investoren zu vermitteln, dass es sich bei dieser Initiative um ein langfristiges Projekt handelt, das Zeit und Geld erfordert, bevor es Früchte tragen kann. 

Wie der selbständige Management-Berater Patrick Morehead argumentiert, sollte sich das dringend ändern: „Diese Initiative kann sich auszahlen, wenn Vorstand und Aktionäre ausreichend Geduld an den Tag legen. Intel muss die Strategie umsetzen, die es in den letzten drei Jahren definiert hat. Das heißt, im Bereich Foundry wettbewerbsfähig zu werden.“

Dabei könne der „18A“-Fertigungsprozess für Halbleiter künftig eine entscheidende Rolle spielen, erklärt Morehead: „Diese Technologie verwendet eine Process Node mit 1,8 Nanometer. Das würde Intel einen klaren Wettbewerbsvorteil gegenüber TSMC und Samsung verschaffen.“

Letztendlich komme es laut dem Berater darauf an, die neue Fertigungstechnologie so weit voranzubringen, dass sie ein profitables Geschäft ermöglicht, das nicht nur Intel sondern auch seine externen Partner unterstützt. Für dieses Unterfangen sind die Deadlines bereits gesetzt: In sechs Monaten soll die Massenproduktion im 18A-Verfahren für interne Produkte anlaufen. In 18 Monaten soll dann auch für die Partner produziert werden.

3. …oder sich aufspalten

In Pat Gelsingers Vision sollte die Foundry-Sparte integraler Bestandteil von Intel sein. Mit Blick auf die Zukunft empfiehlt Nathan Brookwood, Research Fellow bei den Marktforschern von Insight 64, diesbezüglich einen Kurswechsel. Er rät, sich dabei eine Scheibe von AMD abzuschneiden: „Ich habe in den letzten Wochen mit diversen Experten gesprochen und die einhellige Wahrnehmung ist: Intel ist zu weit gegangen, um ein Konzern bleiben zu können. Es wird dem Unternehmen nichts anderes übrigbleiben, als sich aufzuspalten – in eine Produkt-Company und ein Foundry-Business.“

Zur Einordnung: AMD produzierte bis zum Jahr 2008 ebenfalls seine eigenen Chips. Dann entschied sich das Unternehmen dazu, sein Foundry-Geschäft an eine Investorengruppe aus Abu Dhabi zu veräußern. Das hat enorm dazu beigetragen, dass AMD heute floriert. Nebenbei ist aus diesem Move mit GlobalFoundries auch das heute nach Samsung und TSMC weltweit drittgrößte Chip-Fertigungsunternehmen entstanden.

4. Mehr Stellen abbauen

Bereits Mitte August 2024 tauchten erste Berichte über massive Stellenstreichungen bei Intel auf. Bob O’Donnell, Chefanalyst von Technalysis Research, rechnet damit, dass es damit nicht getan sein wird: „Beim Einsparpotenzial besteht noch viel Raum nach oben, auch wenn Intel die meisten Mitarbeiter im Foundry-Bereich beschäftigt. Dennoch beschäftigt der Konzern im Bereich Design ungefähr doppelt so viele Mitarbeiter wie AMD – eventuell sogar mehr. Man wird lernen müssen, mit einer kleineren Belegschaft effizienter zu arbeiten.“

Einfach nur Personal abzubauen, wird dazu allerdings nicht ausreichen, wie Morehead klarstellt: „Man wird nicht effizienter, indem man Stellen streicht. Dazu gilt es, bisherige Arbeitsweisen auf den Prüfstand zu stellen und bestehende Prozesse zu optimieren.“

5. KI-Strategie entwirren

Intels Messaging rund um KI war bisher vor allem nicht fokussiert. Während Nvidia (Blackwell) und AMD (Instinct) klare Produktstrategien in diesem Bereich vorweisen können, verwirrt Intel potenzielle Kunden bislang mit seinen Gaudi-, CPU- Max-, Xeon- und Altera-Produktlinien.

Research-Experte Brookwood fasst aus seiner Perspektive die To-Dos für Intel zusammen: „Das Unternehmen muss herausfinden, wie es im KI-Bereich Boden gut machen kann. Oder sie müssen eine andere Technologie finden, mit der sie neuartige Produkte entwickeln und sich eine wieder eine günstigere Marktposition erarbeiten können.“

If you had to express this meme, but as a stock chart, this is what it would look like pic.twitter.com/MsGiFKVHFA— siliconmemes (@realmemes6) December 3, 2024

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

So kommt Intel (vielleicht) wieder auf die Beine​ Weiterlesen »

SAPs Gretchenfrage: Cloud First oder Cloud Only?​

Allgemein

width=”2500″ height=”1406″ sizes=”(max-width: 2500px) 100vw, 2500px”>Auf welchem Weg sollten Anwender SAP in die Cloud folgen? Die richtige Antwort auf diese Frage zu finden, ist alles andere als einfach. lassedesignen – shutterstock.com SAPs Cloud-Strategie hat in der IT-Szene für intensive Debatten gesorgt. Mit der Entscheidung, innovative Funktionen künftig hauptsächlich für Cloud-Versionen von S/4HANA bereitzustellen, stehen viele Unternehmen vor der Herausforderung, ihre bisherigen Investitionen in On-Premises-Systeme zu bewerten und ihre zukünftige IT-Strategie neu auszurichten. Besonders betroffen sind jene Betriebe, die kürzlich auf S/4HANA On-Premises migriert sind oder dies planen. On-Premises scheint für viele SAP-Kunden gesetzt Die Sorge, dass SAP ihre Kunden zu einer reinen „Cloud Only“-Strategie zwingt, hat zu Unsicherheiten geführt. Diese betreffen nicht nur die strategische Ausrichtung, sondern auch Fragen zur Kontrolle über Daten und den Umfang zukünftiger Investitionen. Bei genauerer Betrachtung zeigt sich jedoch ein differenzierteres Bild. Was bedeuten Cloud First und Cloud Only? Die Begriffe „Cloud First“ und „Cloud Only“ sind zentral für das Verständnis der aktuellen SAP-Strategie: „Cloud First“ bedeutet, dass neue Innovationen vorrangig für die Cloud entwickelt und bereitgestellt werden, während On-Premises-Optionen zwar weiterhin existieren, jedoch mit möglicherweise eingeschränkten Funktionalitäten. „Cloud Only“ hingegen impliziert, dass bestimmte Funktionen ausschließlich in der Cloud verfügbar sind. Offiziell verfolgt SAP eine „Cloud First“-Strategie, doch die schrittweise Einschränkung von On-Premises-Optionen deutet darauf hin, dass der Softwarekonzern langfristig stärker auf „Cloud Only“ setzt. Diese Ausrichtung hat bei vielen Anwenderunternehmen Bedenken hinsichtlich der Abhängigkeit von externen Anbietern, der Entwicklung der Lizenzkosten und insbesondere bezüglich der Datensicherheit hervorgerufen. Die Tatsache, dass die meisten Hyperscaler, bei denen SAP-Lösungen gehostet werden, ihren Hauptsitz außerhalb der EU haben, verstärkt diese Sorgen. Besonders für europäische Unternehmen, die unter die strengen Datenschutzregelungen der DSGVO fallen, stellt dies ein Risiko dar, selbst wenn SAP und die Hyperscaler versichern, dass Daten in europäischen Rechenzentren verbleiben. Der Unterschied zwischen Cloud- und On-Premises-Systemen Ein zentraler Aspekt in dieser Diskussion ist die Unterscheidung zwischen der klassischen On-Premises-Variante und den Cloud-Angeboten von SAP. On-Premises-Systeme werden in firmeneigenen Rechenzentren betrieben und bieten Unternehmen die volle Kontrolle über ihre Daten. Diese Systeme sind häufig das Ergebnis jahrelanger Anpassungen und Investitionen, um die SAP-Landschaften spezifisch auf die Bedürfnisse des jeweiligen Betriebs zuzuschneiden. Cloud-Anbieter: 9 Alternativen zu AWS, Azure und Google Cloud Cloud-Lösungen hingegen werden entweder in der Public Cloud oder in der Private Cloud gehostet. Die Public Cloud bietet standardisierte Services, die einfach skalierbar, aber weniger anpassbar sind. Die Private Cloud kombiniert die Vorteile der Cloud mit einem höheren Maß an Kontrolle und Anpassbarkeit, was insbesondere für Unternehmen mit spezifischen Compliance-Anforderungen attraktiv ist. Technologisch gesehen unterscheidet sich die Private Cloud kaum von einem klassischen On-Premises-System, da beide Ansätze ähnliche Erweiterungs- und Customizing-Optionen bieten. Diese Hybridmodelle gewinnen in der SAP-Community zunehmend an Bedeutung, da sie es Unternehmen ermöglichen, die Vorteile beider Welten zu nutzen. RISE und GROW – mehr Vertrag als Produkt In diesem Kontext spielen RISE with SAP und GROW with SAP eine entscheidende Rolle. Oft missverstanden, sind diese Konzepte keine eigenständigen Produkte, sondern im Grunde Vertragskonstrukte, die es Unternehmen ermöglichen, S/4HANA-Lizenzen mit zusätzlichen Services zu kombinieren. Sie bieten Zugang zu wichtigen Technologien wie der Integration Suite oder der Analytics Cloud, die Unternehmen dabei unterstützen, Cloud-Anwendungen in bestehende On-Premises-Systeme zu integrieren. Die Integration Suite beispielsweise ersetzt die klassische PI/PO-Lösung und zeigt, wie SAP versucht, Unternehmen schrittweise in die Cloud zu führen, ohne sie dazu zu zwingen. Wenn es um den KI-Einsatz geht, darf das SAP-Betriebsmodell eigentlich keine Rolle spielen, sagen zwei Drittel der von der DSAG befragten SAP-Anwender.DSAG Die Frage, ob SAP ihre Kunden bewusst in eine „Cloud Only“-Strategie drängt, lässt sich allerdings nicht eindeutig beantworten. Grundsätzlich wirft die Komplexität der Vertragsmodelle Fragen auf – etwa wie sich die Lizenzkosten langfristig entwickeln werden und wie hoch der Grad an Flexibilität sein wird, den diese Lösungen tatsächlich bieten. Schlussendlich priorisiert SAP die Cloud, doch hybride Modelle bleiben eine valide Option. Die SAP Business Technology Platform als Integrationsbrücke Ein Schlüssel zu diesen hybriden Szenarien ist die SAP Business Technology Platform (BTP). Sie ermöglicht es Unternehmen, Cloud-Lösungen wie die Digital Manufacturing Cloud oder die Analytics Cloud nahtlos mit On-Premises-Systemen zu verbinden. Die Integration erfolgt über Technologien wie beispielsweise den SAP Cloud Connector, der eine sichere Verbindung zwischen Cloud- und On-Premises-Systemen schafft. Auch die Nachfolgelösung für den Solution Manager, Cloud ALM, kann über die BTP in bestehende Landschaften eingebunden werden. Dies zeigt, dass SAP bewusst darauf setzt, Brücken zwischen Cloud und On-Premises zu bauen, um den Übergang für Unternehmen zu erleichtern. DSAG-Investitionsumfrage: SAP-Anwender schimpfen über Cloud-Preise Dennoch ist der Schritt in die Cloud mit Herausforderungen verbunden. Neben technischen Fragen zur Integration gibt es auch strategische Überlegungen, die Unternehmen berücksichtigen müssen. Dazu zählen Aspekte wie die langfristige Entwicklung der Lizenzkosten, Sicherheitsanforderungen und die Geschwindigkeit, mit der neue Innovationen eingeführt werden können. Innovationen und die Rolle der Cloud Ein weiteres wichtiges Thema ist die Entwicklungsgeschwindigkeit. Die Cloud ermöglicht SAP eine schnellere Einführung neuer Funktionen, da Updates zentralisiert und regelmäßig ausgerollt werden können. On-Premises-Systeme hingegen sind in dieser Hinsicht langsamer, da Unternehmen selbst für die Implementierung neuer Releases verantwortlich sind. Dies bedeutet jedoch nicht, dass On-Premises-Lösungen vollständig von Innovationen ausgeschlossen sind. Über die BTP können auch On-Premises-Nutzer von neuen Technologien profitieren, etwa durch die Integration moderner Analyse-Tools oder KI-gestützter Anwendungen. Anwender kritisieren SAPs KI-Kurs Die langfristige Entscheidung zwischen einer reinen Cloud-Strategie und einem hybriden Ansatz erfordert eine sorgfältige Abwägung der Vor- und Nachteile. Für viele Unternehmen stellen Sicherheitsbedenken einen zentralen Faktor dar. Obwohl die großen Hyperscaler umfangreiche Sicherheitsmaßnahmen bieten, bleibt die Kontrolle über Daten ein sensibles Thema, insbesondere in stark regulierten Branchen wie dem Finanz- oder Gesundheitswesen. Hier lesen Sie weitere Details zu SAPs KI-Strategie: SAP TechEd – das sind die wichtigsten Ankündigungen SAP-CEO Christian Klein: Alles, was wir tun, enthält KI Sapphire 2024: SAP trimmt seine Software auf KI-Kurs Generative-AI-Funktionen: SAP stellt mit Joule einen eigenen KI-Bot vor Andererseits bieten hybride Ansätze die Möglichkeit, bestehende Investitionen in On-Premises-Systeme zu schützen und gleichzeitig von den Innovationen der Cloud zu profitieren. Unternehmen, die sich für diesen Weg entscheiden, sollten jedoch beachten, dass die Verwaltung einer hybriden Landschaft zusätzliche Anforderungen an die IT-Abteilung stellt. Fazit: Cloud ja, aber bitte hybrid Die Zukunft der SAP-Strategie zeigt eine klare Ausrichtung auf die Cloud, doch hybride Ansätze bleiben für viele Unternehmen eine gangbare Lösung. Der Erfolg hängt von genauer Analyse und Planung ab, die sowohl technische als auch wirtschaftliche Aspekte berücksichtigen. Lösungen wie die BTP spielen hierbei eine zentrale Rolle, da sie den Weg in die Cloud ebnen und gleichzeitig bestehende Investitionen schützen. Unternehmen, die diesen Übergang erfolgreich gestalten, können von den Vorteilen der Cloud profitieren, ohne ihre bisherigen Systeme vollständig aufgeben zu müssen. Dies zeigt sich insbesondere bei der Integration neuer Technologien, die ausschließlich in der Cloud verfügbar sind, wie etwa fortschrittliche Analyse- und IoT-Lösungen. Die Entscheidung, ob „Cloud First“ oder „Cloud Only“ der richtige Weg ist, bleibt letztlich eine Frage der individuellen Anforderungen und Ziele. SAP bietet die Werkzeuge und Strategien, um beide Ansätze zu unterstützen. Wichtig ist, dass Unternehmen diese Chancen nutzen, um ihre digitale Transformation voranzutreiben und sich für die Zukunft zu rüsten. Die Cloud ist kein Selbstzweck, sondern ein Mittel, um Innovation, Effizienz und Wettbewerbsfähigkeit zu steigern. Unternehmen, die diese Potenziale erkennen und gezielt umsetzen, werden langfristig erfolgreich sein. 

SAPs Gretchenfrage: Cloud First oder Cloud Only?​ width=”2500″ height=”1406″ sizes=”(max-width: 2500px) 100vw, 2500px”>Auf welchem Weg sollten Anwender SAP in die Cloud folgen? Die richtige Antwort auf diese Frage zu finden, ist alles andere als einfach. lassedesignen – shutterstock.com

SAPs Cloud-Strategie hat in der IT-Szene für intensive Debatten gesorgt. Mit der Entscheidung, innovative Funktionen künftig hauptsächlich für Cloud-Versionen von S/4HANA bereitzustellen, stehen viele Unternehmen vor der Herausforderung, ihre bisherigen Investitionen in On-Premises-Systeme zu bewerten und ihre zukünftige IT-Strategie neu auszurichten. Besonders betroffen sind jene Betriebe, die kürzlich auf S/4HANA On-Premises migriert sind oder dies planen.

On-Premises scheint für viele SAP-Kunden gesetzt

Die Sorge, dass SAP ihre Kunden zu einer reinen „Cloud Only“-Strategie zwingt, hat zu Unsicherheiten geführt. Diese betreffen nicht nur die strategische Ausrichtung, sondern auch Fragen zur Kontrolle über Daten und den Umfang zukünftiger Investitionen. Bei genauerer Betrachtung zeigt sich jedoch ein differenzierteres Bild.

Was bedeuten Cloud First und Cloud Only?

Die Begriffe „Cloud First“ und „Cloud Only“ sind zentral für das Verständnis der aktuellen SAP-Strategie:

„Cloud First“ bedeutet, dass neue Innovationen vorrangig für die Cloud entwickelt und bereitgestellt werden, während On-Premises-Optionen zwar weiterhin existieren, jedoch mit möglicherweise eingeschränkten Funktionalitäten.

„Cloud Only“ hingegen impliziert, dass bestimmte Funktionen ausschließlich in der Cloud verfügbar sind.

Offiziell verfolgt SAP eine „Cloud First“-Strategie, doch die schrittweise Einschränkung von On-Premises-Optionen deutet darauf hin, dass der Softwarekonzern langfristig stärker auf „Cloud Only“ setzt.

Diese Ausrichtung hat bei vielen Anwenderunternehmen Bedenken hinsichtlich der Abhängigkeit von externen Anbietern, der Entwicklung der Lizenzkosten und insbesondere bezüglich der Datensicherheit hervorgerufen. Die Tatsache, dass die meisten Hyperscaler, bei denen SAP-Lösungen gehostet werden, ihren Hauptsitz außerhalb der EU haben, verstärkt diese Sorgen. Besonders für europäische Unternehmen, die unter die strengen Datenschutzregelungen der DSGVO fallen, stellt dies ein Risiko dar, selbst wenn SAP und die Hyperscaler versichern, dass Daten in europäischen Rechenzentren verbleiben.

Der Unterschied zwischen Cloud- und On-Premises-Systemen

Ein zentraler Aspekt in dieser Diskussion ist die Unterscheidung zwischen der klassischen On-Premises-Variante und den Cloud-Angeboten von SAP. On-Premises-Systeme werden in firmeneigenen Rechenzentren betrieben und bieten Unternehmen die volle Kontrolle über ihre Daten. Diese Systeme sind häufig das Ergebnis jahrelanger Anpassungen und Investitionen, um die SAP-Landschaften spezifisch auf die Bedürfnisse des jeweiligen Betriebs zuzuschneiden.

Cloud-Anbieter: 9 Alternativen zu AWS, Azure und Google Cloud

Cloud-Lösungen hingegen werden entweder in der Public Cloud oder in der Private Cloud gehostet. Die Public Cloud bietet standardisierte Services, die einfach skalierbar, aber weniger anpassbar sind. Die Private Cloud kombiniert die Vorteile der Cloud mit einem höheren Maß an Kontrolle und Anpassbarkeit, was insbesondere für Unternehmen mit spezifischen Compliance-Anforderungen attraktiv ist.

Technologisch gesehen unterscheidet sich die Private Cloud kaum von einem klassischen On-Premises-System, da beide Ansätze ähnliche Erweiterungs- und Customizing-Optionen bieten. Diese Hybridmodelle gewinnen in der SAP-Community zunehmend an Bedeutung, da sie es Unternehmen ermöglichen, die Vorteile beider Welten zu nutzen.

RISE und GROW – mehr Vertrag als Produkt

In diesem Kontext spielen RISE with SAP und GROW with SAP eine entscheidende Rolle. Oft missverstanden, sind diese Konzepte keine eigenständigen Produkte, sondern im Grunde Vertragskonstrukte, die es Unternehmen ermöglichen, S/4HANA-Lizenzen mit zusätzlichen Services zu kombinieren. Sie bieten Zugang zu wichtigen Technologien wie der Integration Suite oder der Analytics Cloud, die Unternehmen dabei unterstützen, Cloud-Anwendungen in bestehende On-Premises-Systeme zu integrieren. Die Integration Suite beispielsweise ersetzt die klassische PI/PO-Lösung und zeigt, wie SAP versucht, Unternehmen schrittweise in die Cloud zu führen, ohne sie dazu zu zwingen.

Wenn es um den KI-Einsatz geht, darf das SAP-Betriebsmodell eigentlich keine Rolle spielen, sagen zwei Drittel der von der DSAG befragten SAP-Anwender.DSAG

Die Frage, ob SAP ihre Kunden bewusst in eine „Cloud Only“-Strategie drängt, lässt sich allerdings nicht eindeutig beantworten. Grundsätzlich wirft die Komplexität der Vertragsmodelle Fragen auf – etwa wie sich die Lizenzkosten langfristig entwickeln werden und wie hoch der Grad an Flexibilität sein wird, den diese Lösungen tatsächlich bieten. Schlussendlich priorisiert SAP die Cloud, doch hybride Modelle bleiben eine valide Option.

Die SAP Business Technology Platform als Integrationsbrücke

Ein Schlüssel zu diesen hybriden Szenarien ist die SAP Business Technology Platform (BTP). Sie ermöglicht es Unternehmen, Cloud-Lösungen wie die Digital Manufacturing Cloud oder die Analytics Cloud nahtlos mit On-Premises-Systemen zu verbinden. Die Integration erfolgt über Technologien wie beispielsweise den SAP Cloud Connector, der eine sichere Verbindung zwischen Cloud- und On-Premises-Systemen schafft.

Auch die Nachfolgelösung für den Solution Manager, Cloud ALM, kann über die BTP in bestehende Landschaften eingebunden werden. Dies zeigt, dass SAP bewusst darauf setzt, Brücken zwischen Cloud und On-Premises zu bauen, um den Übergang für Unternehmen zu erleichtern.

DSAG-Investitionsumfrage: SAP-Anwender schimpfen über Cloud-Preise

Dennoch ist der Schritt in die Cloud mit Herausforderungen verbunden. Neben technischen Fragen zur Integration gibt es auch strategische Überlegungen, die Unternehmen berücksichtigen müssen. Dazu zählen Aspekte wie die langfristige Entwicklung der Lizenzkosten, Sicherheitsanforderungen und die Geschwindigkeit, mit der neue Innovationen eingeführt werden können.

Innovationen und die Rolle der Cloud

Ein weiteres wichtiges Thema ist die Entwicklungsgeschwindigkeit. Die Cloud ermöglicht SAP eine schnellere Einführung neuer Funktionen, da Updates zentralisiert und regelmäßig ausgerollt werden können. On-Premises-Systeme hingegen sind in dieser Hinsicht langsamer, da Unternehmen selbst für die Implementierung neuer Releases verantwortlich sind. Dies bedeutet jedoch nicht, dass On-Premises-Lösungen vollständig von Innovationen ausgeschlossen sind. Über die BTP können auch On-Premises-Nutzer von neuen Technologien profitieren, etwa durch die Integration moderner Analyse-Tools oder KI-gestützter Anwendungen.

Anwender kritisieren SAPs KI-Kurs

Die langfristige Entscheidung zwischen einer reinen Cloud-Strategie und einem hybriden Ansatz erfordert eine sorgfältige Abwägung der Vor- und Nachteile. Für viele Unternehmen stellen Sicherheitsbedenken einen zentralen Faktor dar. Obwohl die großen Hyperscaler umfangreiche Sicherheitsmaßnahmen bieten, bleibt die Kontrolle über Daten ein sensibles Thema, insbesondere in stark regulierten Branchen wie dem Finanz- oder Gesundheitswesen.

Hier lesen Sie weitere Details zu SAPs KI-Strategie:

SAP TechEd – das sind die wichtigsten Ankündigungen

SAP-CEO Christian Klein: Alles, was wir tun, enthält KI

Sapphire 2024: SAP trimmt seine Software auf KI-Kurs

Generative-AI-Funktionen: SAP stellt mit Joule einen eigenen KI-Bot vor

Andererseits bieten hybride Ansätze die Möglichkeit, bestehende Investitionen in On-Premises-Systeme zu schützen und gleichzeitig von den Innovationen der Cloud zu profitieren. Unternehmen, die sich für diesen Weg entscheiden, sollten jedoch beachten, dass die Verwaltung einer hybriden Landschaft zusätzliche Anforderungen an die IT-Abteilung stellt.

Fazit: Cloud ja, aber bitte hybrid

Die Zukunft der SAP-Strategie zeigt eine klare Ausrichtung auf die Cloud, doch hybride Ansätze bleiben für viele Unternehmen eine gangbare Lösung. Der Erfolg hängt von genauer Analyse und Planung ab, die sowohl technische als auch wirtschaftliche Aspekte berücksichtigen.

Lösungen wie die BTP spielen hierbei eine zentrale Rolle, da sie den Weg in die Cloud ebnen und gleichzeitig bestehende Investitionen schützen. Unternehmen, die diesen Übergang erfolgreich gestalten, können von den Vorteilen der Cloud profitieren, ohne ihre bisherigen Systeme vollständig aufgeben zu müssen. Dies zeigt sich insbesondere bei der Integration neuer Technologien, die ausschließlich in der Cloud verfügbar sind, wie etwa fortschrittliche Analyse- und IoT-Lösungen.

Die Entscheidung, ob „Cloud First“ oder „Cloud Only“ der richtige Weg ist, bleibt letztlich eine Frage der individuellen Anforderungen und Ziele. SAP bietet die Werkzeuge und Strategien, um beide Ansätze zu unterstützen. Wichtig ist, dass Unternehmen diese Chancen nutzen, um ihre digitale Transformation voranzutreiben und sich für die Zukunft zu rüsten. Die Cloud ist kein Selbstzweck, sondern ein Mittel, um Innovation, Effizienz und Wettbewerbsfähigkeit zu steigern. Unternehmen, die diese Potenziale erkennen und gezielt umsetzen, werden langfristig erfolgreich sein.

SAPs Gretchenfrage: Cloud First oder Cloud Only?​ Weiterlesen »

So „verkaufen“ Sie Lücken im Lebenslauf​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/01/Lebenslauf-shutterstock_2431952979.jpg?quality=50&strip=all 6000w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Lebenslauf-shutterstock_2431952979.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Lebenslauf-shutterstock_2431952979.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Lebenslauf-shutterstock_2431952979.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Lebenslauf-shutterstock_2431952979.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Lebenslauf-shutterstock_2431952979.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Lebenslauf-shutterstock_2431952979.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Lebenslauf-shutterstock_2431952979.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Lebenslauf-shutterstock_2431952979.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Lebenslauf-shutterstock_2431952979.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Lebenslauf-shutterstock_2431952979.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Eine berufliche Pause wird heute nicht mehr als Zeichen von Schwäche gewertet, sondern als Gelegenheit zur Weiterentwicklung und als Alleinstellungsmerkmal.A9 STUDIO – Shutterstock 2431952979 Elternzeit, Sabbatical, berufliche oder persönliche Weiterbildung, Pflege von Angehörigen oder berufliche Neuorientierung – für eine Karrierepause gibt es viele gute Gründe. Gerade zum Jahreswechsel denken viele über ihren nächsten beruflichen Schritt nach.   Dabei stellt sich oft die Frage, wie solche Lücken im Lebenslauf später kaschiert werden können. Doch warum eigentlich? Eine LinkedIn-Studie zeigte bereits vor einiger Zeit, dass besonders Arbeitnehmer von kleinen Auszeiten profitieren und vielfältige neue Hard- und Soft Skills erlernen.   Früher schien eine Auszeit vom Job undenkbar. Denn so ein Bruch wurde von Recruitern negativ bewertet. Heute beobachten wir ein Umdenken. Viele betrachten eine berufliche Pause nicht mehr als Zeichen von Schwäche, sondern als Gelegenheit zur Weiterentwicklung und als Alleinstellungsmerkmal. Ob für Weiterbildung, Reisen oder persönliche Projekte – eine Auszeit kann neue Perspektiven eröffnen und die Karriere vorantreiben.   Denn sogar in Pausen, die auf den ersten Blick nichts mit unserem Job zu tun haben, lernen wir dazu. Zum Beispiel verbessern viele Mütter und Väter in der Elternzeit ihr Zeitmanagement oder ihre Problemlösungskompetenz. Wichtig ist, dem Arbeitgeber die Vorteile aufzuzeigen und die potenziellen oder gewonnenen Erfahrungen und Qualifikationen selbstbewusst darzustellen.   Wie Ihnen das gelingt und Sie die berufliche Auszeit auch noch für Ihre berufliche Entwicklung nutzen können, verraten folgende Tipps:    1. Fassen Sie einen Plan und nutzen Sie Ihr Netzwerk Ob Sabbatical, bewusste Kündigung oder Bildungsurlaub – Auszeiten ohne Verpflichtungen wie die Pflege von Angehörigen oder Elternzeiten sind wertvolle Gelegenheiten, Dinge zu tun, für die Sie im Arbeitsalltag keine Zeit haben. Überlegen Sie sich vorher gut, was Sie in Ihrer Karrierepause erreichen möchten.   Welche privaten wie beruflichen Wünsche und Ziele haben Sie? Welche Prioritäten wollen Sie setzen? Diese Fragen helfen Ihnen nicht nur, einen Plan für Ihre Auszeit zu fassen, sondern sie auch Ihrem Arbeitgeber gegenüber zu begründen. Wertvolle Tipps dafür und neue Perspektiven können Ihnen Freunde, Bekannte oder Kollegen geben, die bereits eine Auszeit genommen haben.     2. Reflektieren Sie Ihre neuen Stärken Machen Sie sich bewusst, dass Sie auch außerhalb Ihres Arbeitsumfeldes etwas Nützliches für den Job lernen können. Denn mit jeder Ihrer Erfahrungen erweitern Sie Ihre Fähigkeiten. Zum Beispiel: Wenn Sie den täglichen Alltags-Wahnsinn mit kleinen Kindern jonglieren, setzen Sie als Mutter oder Vater Ihr Organisationstalent ein und üben sich vermutlich in Stressmanagement.   Auf Reisen stärken Sie Ihre interkulturellen Kompetenzen. Es lohnt sich, diese neu gewonnenen Skills zu reflektieren und zu kommunizieren – zum Beispiel auf Ihrem LinkedIn-Profil. Das eröffnet Ihnen möglicherweise neue Job-Perspektiven. Denn 45 Prozent der Recruiter suchen auf LinkedIn nicht nur nach Bildungs- und Berufsabschlüssen, sondern primär nach Fähigkeiten.    3. Stehen Sie zu Ihrer Pause Eine Karrierepause sollte nichts sein, wofür Sie sich rechtfertigen müssen. Vielmehr zeigt sie, dass Sie reflektiert und strategisch handeln. Gehen Sie offen damit um. Zum Beispiel, indem Sie die Pause auf Ihrem LinkedIn-Profil als Berufserfahrung angeben. Idealerweise erklären Sie in diesem Zuge Ihre Beweggründe und die Art der Pause.   Falls Sie sich in Zukunft für einen anderen Job bewerben, wirft diese „Lücke“ keine Fragen mehr auf. Am besten teilen Sie Ihre Erfahrungen auch in einem eigenen Beitrag. Erzählen Sie, was Sie dadurch gelernt haben – egal ob auf der Reise, bei der Pflege oder während einer Weiterbildung. Diese Transparenz schafft Vertrauen bei potenziellen Arbeitgebern. Gleichzeitig zeigen Sie, wie einzigartig Sie sind.    4. Bilden Sie sich weiter Falls Sie während Ihrer Auszeit noch Kapazitäten und Lust haben, bietet es sich an, Ihren Horizont zusätzlich zu erweitern. Das ist gerade jetzt wichtig, denn: Seit 2016 und bis 2030 werden sich, beschleunigt durch die Künstliche Intelligenz, rund 65 Prozent der Skills verändern, die wir für unsere Jobs brauchen – das haben LinkedIn-Analysen ergeben. Online gibt es viele Möglichkeiten, in kürzester Zeit Neues zu lernen – und das von überall auf der Welt.   Zum Beispiel bietet die Plattform LinkedIn Learning eine große Themenvielfalt. Sie können Einheiten wie „Prompt Engineering – fortgeschrittene Techniken“ oder „Business Englisch-Tipps“ prima in der Hängematte auf Bali, im Strandkorb in St. Peter-Ording oder auch auf dem heimischen Sofa absolvieren. Für was auch immer Sie sich entscheiden: Zertifikate über berufliche Weiterbildung zeigen, dass Sie Ihre Auszeit aktiv gestaltet haben und bereit sind, in Ihre Zukunft zu investieren. Und Spaß hatten Sie nebenbei auch – denn den sollten Sie dabei natürlich nicht vergessen!  

So „verkaufen“ Sie Lücken im Lebenslauf​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/01/Lebenslauf-shutterstock_2431952979.jpg?quality=50&strip=all 6000w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Lebenslauf-shutterstock_2431952979.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Lebenslauf-shutterstock_2431952979.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Lebenslauf-shutterstock_2431952979.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Lebenslauf-shutterstock_2431952979.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Lebenslauf-shutterstock_2431952979.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Lebenslauf-shutterstock_2431952979.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Lebenslauf-shutterstock_2431952979.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Lebenslauf-shutterstock_2431952979.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Lebenslauf-shutterstock_2431952979.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Lebenslauf-shutterstock_2431952979.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Eine berufliche Pause wird heute nicht mehr als Zeichen von Schwäche gewertet, sondern als Gelegenheit zur Weiterentwicklung und als Alleinstellungsmerkmal.A9 STUDIO – Shutterstock 2431952979

Elternzeit, Sabbatical, berufliche oder persönliche Weiterbildung, Pflege von Angehörigen oder berufliche Neuorientierung – für eine Karrierepause gibt es viele gute Gründe. Gerade zum Jahreswechsel denken viele über ihren nächsten beruflichen Schritt nach.  

Dabei stellt sich oft die Frage, wie solche Lücken im Lebenslauf später kaschiert werden können. Doch warum eigentlich? Eine LinkedIn-Studie zeigte bereits vor einiger Zeit, dass besonders Arbeitnehmer von kleinen Auszeiten profitieren und vielfältige neue Hard- und Soft Skills erlernen.  

Früher schien eine Auszeit vom Job undenkbar. Denn so ein Bruch wurde von Recruitern negativ bewertet. Heute beobachten wir ein Umdenken. Viele betrachten eine berufliche Pause nicht mehr als Zeichen von Schwäche, sondern als Gelegenheit zur Weiterentwicklung und als Alleinstellungsmerkmal. Ob für Weiterbildung, Reisen oder persönliche Projekte – eine Auszeit kann neue Perspektiven eröffnen und die Karriere vorantreiben.  

Denn sogar in Pausen, die auf den ersten Blick nichts mit unserem Job zu tun haben, lernen wir dazu. Zum Beispiel verbessern viele Mütter und Väter in der Elternzeit ihr Zeitmanagement oder ihre Problemlösungskompetenz. Wichtig ist, dem Arbeitgeber die Vorteile aufzuzeigen und die potenziellen oder gewonnenen Erfahrungen und Qualifikationen selbstbewusst darzustellen.  

Wie Ihnen das gelingt und Sie die berufliche Auszeit auch noch für Ihre berufliche Entwicklung nutzen können, verraten folgende Tipps: 

 

1. Fassen Sie einen Plan und nutzen Sie Ihr Netzwerk

Ob Sabbatical, bewusste Kündigung oder Bildungsurlaub – Auszeiten ohne Verpflichtungen wie die Pflege von Angehörigen oder Elternzeiten sind wertvolle Gelegenheiten, Dinge zu tun, für die Sie im Arbeitsalltag keine Zeit haben. Überlegen Sie sich vorher gut, was Sie in Ihrer Karrierepause erreichen möchten.  

Welche privaten wie beruflichen Wünsche und Ziele haben Sie? Welche Prioritäten wollen Sie setzen? Diese Fragen helfen Ihnen nicht nur, einen Plan für Ihre Auszeit zu fassen, sondern sie auch Ihrem Arbeitgeber gegenüber zu begründen. Wertvolle Tipps dafür und neue Perspektiven können Ihnen Freunde, Bekannte oder Kollegen geben, die bereits eine Auszeit genommen haben.  

 

2. Reflektieren Sie Ihre neuen Stärken

Machen Sie sich bewusst, dass Sie auch außerhalb Ihres Arbeitsumfeldes etwas Nützliches für den Job lernen können. Denn mit jeder Ihrer Erfahrungen erweitern Sie Ihre Fähigkeiten. Zum Beispiel: Wenn Sie den täglichen Alltags-Wahnsinn mit kleinen Kindern jonglieren, setzen Sie als Mutter oder Vater Ihr Organisationstalent ein und üben sich vermutlich in Stressmanagement.  

Auf Reisen stärken Sie Ihre interkulturellen Kompetenzen. Es lohnt sich, diese neu gewonnenen Skills zu reflektieren und zu kommunizieren – zum Beispiel auf Ihrem LinkedIn-Profil. Das eröffnet Ihnen möglicherweise neue Job-Perspektiven. Denn 45 Prozent der Recruiter suchen auf LinkedIn nicht nur nach Bildungs- und Berufsabschlüssen, sondern primär nach Fähigkeiten. 

 

3. Stehen Sie zu Ihrer Pause

Eine Karrierepause sollte nichts sein, wofür Sie sich rechtfertigen müssen. Vielmehr zeigt sie, dass Sie reflektiert und strategisch handeln. Gehen Sie offen damit um. Zum Beispiel, indem Sie die Pause auf Ihrem LinkedIn-Profil als Berufserfahrung angeben. Idealerweise erklären Sie in diesem Zuge Ihre Beweggründe und die Art der Pause.  

Falls Sie sich in Zukunft für einen anderen Job bewerben, wirft diese „Lücke“ keine Fragen mehr auf. Am besten teilen Sie Ihre Erfahrungen auch in einem eigenen Beitrag. Erzählen Sie, was Sie dadurch gelernt haben – egal ob auf der Reise, bei der Pflege oder während einer Weiterbildung. Diese Transparenz schafft Vertrauen bei potenziellen Arbeitgebern. Gleichzeitig zeigen Sie, wie einzigartig Sie sind. 

 

4. Bilden Sie sich weiter

Falls Sie während Ihrer Auszeit noch Kapazitäten und Lust haben, bietet es sich an, Ihren Horizont zusätzlich zu erweitern. Das ist gerade jetzt wichtig, denn: Seit 2016 und bis 2030 werden sich, beschleunigt durch die Künstliche Intelligenz, rund 65 Prozent der Skills verändern, die wir für unsere Jobs brauchen – das haben LinkedIn-Analysen ergeben. Online gibt es viele Möglichkeiten, in kürzester Zeit Neues zu lernen – und das von überall auf der Welt.  

Zum Beispiel bietet die Plattform LinkedIn Learning eine große Themenvielfalt. Sie können Einheiten wie „Prompt Engineering – fortgeschrittene Techniken“ oder „Business Englisch-Tipps“ prima in der Hängematte auf Bali, im Strandkorb in St. Peter-Ording oder auch auf dem heimischen Sofa absolvieren. Für was auch immer Sie sich entscheiden: Zertifikate über berufliche Weiterbildung zeigen, dass Sie Ihre Auszeit aktiv gestaltet haben und bereit sind, in Ihre Zukunft zu investieren. Und Spaß hatten Sie nebenbei auch – denn den sollten Sie dabei natürlich nicht vergessen! 

So „verkaufen“ Sie Lücken im Lebenslauf​ Weiterlesen »

KI erkennt am Gesicht, wer für einen Job geeignet ist​

Allgemein

KI benötigt nur ein Bild, um Persönlichkeitsmerkmale zu ermitteln und damit vorherzusagen, welche Erfolgschancen ein Bewerber hat, behaupten US-Forscher – und warnen vor den Folgen. shutterstock.com – Andrey_Popov Eine Studie von Forschern der Yale University, der University of Pennsylvania, der Reichman University und der Indiana University soll belegen, dass KI-Modelle anhand eines Gesichtsbildes Karriere- und Bildungserfolg vorhersagen können. Die Experten analysierten dafür Fotos von LinkedIn und Verzeichnissen mehrerer Top-MBA-Programme in den USA. Ziel der Untersuchung war es, die sogenannten Big-Five-Persönlichkeitsmerkmale von 96.000 Absolventen zu bestimmen. Diese Merkmale wurden dann mit deren beruflichen und akademischen Erfolgen korreliert. So sollten Zusammenhänge zwischen Persönlichkeit und Erfolg aufgedeckt werden. Die Forscher stellten fest, dass KI bereits heute die Einstellungspraxis von Unternehmen verändert. Beispielsweise würden Arbeitgeber und Bewerber zunehmend generative KI (genAI) nutzen, um automatisiert Auswahllisten und Bewerbungsunterlagen zu erstellen. Kelly Shue, Mitautorin der Studie und Professorin an der Yale School of Management, hebt den Einfluss der Persönlichkeit auf den beruflichen Erfolg hervor. Sie warnt darüber hinaus allerdings auch vor den moralischen Risiken bei der Verwendung von KI zur Persönlichkeitsbewertung. Gesichtsauswertung noch kein Industriestandard Unternehmen nutzen bereits heute Verhaltenstests wie Pymetrics zur Persönlichkeitsbewertung, jedoch noch nicht zur Gesichtsanalyse. Shue betont, dass Bewerber oft aufgrund unpassender Big-Five-Persönlichkeitsmerkmale abgelehnt würden. Wer im Big-Five-Modell besser abschneidet, wird von KI als aussichtsreicher bewertet.Yale School of Management Diese auch als OCEAN-Modell bekannten Merkmale stammen aus der Psychologie und umfassen folgende Merkmale: Offenheit (Neugier, ästhetische Sensibilität, Vorstellungskraft), Gewissenhaftigkeit (Organisation, Produktivität, Verantwortungsbewusstsein), Extraversion (Kontaktfreudigkeit, Durchsetzungsvermögen, Energie), Verträglichkeit (Mitgefühl, Respekt, Vertrauen) und Neurotizismus (Angst, Depression, emotionale Unbeständigkeit). Der Gesichtsausdruck kann die Zukunft verbauen Die KI-basierte Bewertung von Persönlichkeitsmerkmalen kann dazu führen, dass Bewerber je nach ihren Eigenschaften abgelehnt werden. Personen, deren Fotos zum Beispiel eine Neigung zum Neurotizismus suggerieren, haben geringere Chancen auf eine Einstellung. Der Grund hierfür ist, dass diese Eigenschaft negativ mit Arbeitsmarktanforderungen korreliert. Auch Bewerber mit geringerer Gewissenhaftigkeit könnten zum Beispiel bei der Studienzulassung übergangen werden. Laut Shue spielen Persönlichkeitsmerkmale zusätzlich eine Rolle bei der Zulassung in Schulen. Kandidaten, die voraussichtlich erfolgreich sein werden oder eine vielfältige Persönlichkeit aufweisen, würden hier bevorzugt ausgewählt. KI ist bequem, aber nicht perfekt Die Studie kritisiert zugleich den Einsatz von KI bei der Bewerberauswahl aufgrund oft fehlerhafter Datenquellen. Die Forscher fordern eine weitergehende Untersuchung der ethischen, praktischen und strategischen Implikationen. Sie weisen darauf hin, dass kognitive Fähigkeiten und Persönlichkeitsmerkmale entscheidend für den beruflichen Erfolg sind. Zusätzlich könnten Persönlichkeitsbewertungen anhand von Fotos genauso relevant sein wie traditionelle Lebenslaufkriterien. Darüber hinaus gebe es immer noch Gehaltsunterschiede, welche sich nur begrenzt durch Ethnie oder Bildung erklären ließen. Erfahrung und Fähigkeiten spielen ebenfalls eine Rolle, wobei auch innerhalb gleicher Bildungsniveaus große Unterschiede bestehen, so die Forscher. KI hat überproportional häufig Recht Für die aktuelle Forschung wurde auf frühere Studien zur Analyse von Persönlichkeitsmerkmalen durch Gesichtsbilder zurückgegriffen. In diesen Studien wurde auch die politische Zugehörigkeit mithilfe von Gesichtserkennung untersucht. Laut einer in Nature veröffentlichten Studie wurde die politische Ausrichtung in 72 Prozent der Fälle korrekt klassifiziert, was deutlich über der Zufallsrate (50 Prozent), menschlicher Genauigkeit (55 Prozent) und einem Persönlichkeitsfragebogen (66 Prozent) liegt. 

KI erkennt am Gesicht, wer für einen Job geeignet ist​ KI benötigt nur ein Bild, um Persönlichkeitsmerkmale zu ermitteln und damit vorherzusagen, welche Erfolgschancen ein Bewerber hat, behaupten US-Forscher – und warnen vor den Folgen.
shutterstock.com – Andrey_Popov

Eine Studie von Forschern der Yale University, der University of Pennsylvania, der Reichman University und der Indiana University soll belegen, dass KI-Modelle anhand eines Gesichtsbildes Karriere- und Bildungserfolg vorhersagen können. Die Experten analysierten dafür Fotos von LinkedIn und Verzeichnissen mehrerer Top-MBA-Programme in den USA.

Ziel der Untersuchung war es, die sogenannten Big-Five-Persönlichkeitsmerkmale von 96.000 Absolventen zu bestimmen. Diese Merkmale wurden dann mit deren beruflichen und akademischen Erfolgen korreliert. So sollten Zusammenhänge zwischen Persönlichkeit und Erfolg aufgedeckt werden.

Die Forscher stellten fest, dass KI bereits heute die Einstellungspraxis von Unternehmen verändert. Beispielsweise würden Arbeitgeber und Bewerber zunehmend generative KI (genAI) nutzen, um automatisiert Auswahllisten und Bewerbungsunterlagen zu erstellen. Kelly Shue, Mitautorin der Studie und Professorin an der Yale School of Management, hebt den Einfluss der Persönlichkeit auf den beruflichen Erfolg hervor. Sie warnt darüber hinaus allerdings auch vor den moralischen Risiken bei der Verwendung von KI zur Persönlichkeitsbewertung.

Gesichtsauswertung noch kein Industriestandard

Unternehmen nutzen bereits heute Verhaltenstests wie Pymetrics zur Persönlichkeitsbewertung, jedoch noch nicht zur Gesichtsanalyse. Shue betont, dass Bewerber oft aufgrund unpassender Big-Five-Persönlichkeitsmerkmale abgelehnt würden.

Wer im Big-Five-Modell besser abschneidet, wird von KI als aussichtsreicher bewertet.Yale School of Management

Diese auch als OCEAN-Modell bekannten Merkmale stammen aus der Psychologie und umfassen folgende Merkmale:

Offenheit (Neugier, ästhetische Sensibilität, Vorstellungskraft),

Gewissenhaftigkeit (Organisation, Produktivität, Verantwortungsbewusstsein),

Extraversion (Kontaktfreudigkeit, Durchsetzungsvermögen, Energie),

Verträglichkeit (Mitgefühl, Respekt, Vertrauen) und

Neurotizismus (Angst, Depression, emotionale Unbeständigkeit).

Der Gesichtsausdruck kann die Zukunft verbauen

Die KI-basierte Bewertung von Persönlichkeitsmerkmalen kann dazu führen, dass Bewerber je nach ihren Eigenschaften abgelehnt werden. Personen, deren Fotos zum Beispiel eine Neigung zum Neurotizismus suggerieren, haben geringere Chancen auf eine Einstellung. Der Grund hierfür ist, dass diese Eigenschaft negativ mit Arbeitsmarktanforderungen korreliert. Auch Bewerber mit geringerer Gewissenhaftigkeit könnten zum Beispiel bei der Studienzulassung übergangen werden.

Laut Shue spielen Persönlichkeitsmerkmale zusätzlich eine Rolle bei der Zulassung in Schulen. Kandidaten, die voraussichtlich erfolgreich sein werden oder eine vielfältige Persönlichkeit aufweisen, würden hier bevorzugt ausgewählt.

KI ist bequem, aber nicht perfekt

Die Studie kritisiert zugleich den Einsatz von KI bei der Bewerberauswahl aufgrund oft fehlerhafter Datenquellen. Die Forscher fordern eine weitergehende Untersuchung der ethischen, praktischen und strategischen Implikationen. Sie weisen darauf hin, dass kognitive Fähigkeiten und Persönlichkeitsmerkmale entscheidend für den beruflichen Erfolg sind. Zusätzlich könnten Persönlichkeitsbewertungen anhand von Fotos genauso relevant sein wie traditionelle Lebenslaufkriterien.

Darüber hinaus gebe es immer noch Gehaltsunterschiede, welche sich nur begrenzt durch Ethnie oder Bildung erklären ließen. Erfahrung und Fähigkeiten spielen ebenfalls eine Rolle, wobei auch innerhalb gleicher Bildungsniveaus große Unterschiede bestehen, so die Forscher.

KI hat überproportional häufig Recht

Für die aktuelle Forschung wurde auf frühere Studien zur Analyse von Persönlichkeitsmerkmalen durch Gesichtsbilder zurückgegriffen. In diesen Studien wurde auch die politische Zugehörigkeit mithilfe von Gesichtserkennung untersucht. Laut einer in Nature veröffentlichten Studie wurde die politische Ausrichtung in 72 Prozent der Fälle korrekt klassifiziert, was deutlich über der Zufallsrate (50 Prozent), menschlicher Genauigkeit (55 Prozent) und einem Persönlichkeitsfragebogen (66 Prozent) liegt.

KI erkennt am Gesicht, wer für einen Job geeignet ist​ Weiterlesen »

Gartner warnt vor langwierigen VMware-Migrationen​

Allgemein

Auch die Migration zu einer VMware-Alternative ist mitunter ein riskantes Unterfangen. crbelette/Shutterstock.com Auch im zweiten Jahr nach der Übernahme von VMware durch Broadcom suchen viele unzufriedene Kunden noch nach Alternativen für ihre virtuellen Workloads im lokalen Rechenzentrum. Grund dafür sind die teilweise drastischen Änderungen des neuen Eigentümers, was Aspekte wie Preisgestaltung und Lizenzierung, Produktportfolio, Investitionen in Forschung und Entwicklung und das VMware-Partner-Ökosystem betrifft. Zumindest ein Notfallplan in der Schublade Ist es dabei für kleinere Unternehmen noch relativ einfach, auf Alternativen wie Proxmox zu wechseln oder ihre virtuellen Maschinen in die Cloud verlagern, fällt größeren Unternehmen oder solchen mit größeren VMware-Deployments eine solche Entscheidung deutlich schwerer. Aus gutem Grund, erklären auch die Experten von Gartner: Für die meisten Unternehmen seien die Investitions- und Opportunitätskosten einer groß angelegten Migration eine Herausforderung. Was an Aufwand und potenziellen Kosten auf Gartner-Kunden zukommt, haben die Researcher in ihrer Analyse“Estimating a Large-Scale VMware Migration” (kostenlos für Gartner-Kunden) berechnet. Ausgehend von 2.000 oder mehr VMs und/oder mindestens 100 Hosts, die migriert werden sollen, rechnen sie mit einem Zeitaufwand zwischen 18 und 48 Monaten. Werden externe Dienstleister beauftragt, fallen laut der Berechnung von Gartner je nach Komplexität der Workloads, dem Umfang und der Art Migration (Standard- oder Live-Migration) zwischen 300 und 3.000 Dollar pro virtuelle Maschine an. Dennoch empfehlen sie, zumindest einen Notfallplan in der Schublade zu haben. Unternehmen sollten eher früher als später mit der Arbeit an Migrationsplänen beginnen, erklärt Michael Warrilow, Gartner-Analyst und einer der Autoren des Papiers, gegenüber The Register. Angesichts der für die Migration erforderlichen Zeit müssten die meisten Nutzer mindestens einmal die Lizenzen mit Broadcom neu verhandeln, bevor ihr Projekt abgeschlossen ist. Warrilow befürchtet, dass Broadcom die Preise in Zukunft noch weiter erhöhen wird, was die Kosten weiter in die Höhe treibe. Die tatsächlichen Kosten für die Migration Gartner hat in seinem Bericht die anfallenden Tätigkeiten und Kosten genauer aufgedröselt. Demnach würden allein für das erste Scoping sieben bis zehn Vollzeitmitarbeiter für einen Monat benötigt. Für die technische Bewertung potenzieller VMware-Ersatzlösungen rechnen die Analysten weitere sechs Mitarbeiter für bis zu neun Monate ein. Außerdem erfordere eine größere Migration neben dem Infrastructure & Operations Team zahlreiche weitere Ressourcen, einschließlich Sicherheits-, Datenbank- und Anwendungsexperten. Das Problem ergibt sich laut Gartner aus der Notwendigkeit, die VMware-Dienste zu entflechten. So sei die Server-Virtualisierungsplattform von VMware für seine Kunden nicht nur zum Knotenpunkt für die gesamte Server-, Speicher- und Netzwerkinfrastruktur im Rechenzentrum geworden. Über sie liefen auch ein Großteil der Aufgaben im IT-Betrieb, einschließlich der Bereitstellung von Workloads, der Datensicherung und der Notfallwiederherstellung. Komplexes Auswahlverfahren Dieser Umstand ist den Analysten zufolge auch mit ein Grund, warum die Suche nach Alternativen mindestens ein paar Monate dauern könne. Es gebe viele Optionen, aber keinen einzelnen oder einfachen Ersatz für alle Anforderungen des Unternehmens. Um sich hier nicht zu verzetteln, empfiehlt Gartner, die Potenzialliste einzuschränken. Dabei raten die Analysten, vier Kernbereiche zu bedenken: das Deployment Szenario: On/Off-Premises und Provider (VMware oder nicht VMware); die Ansätze für eine groß angelegte Migration (laut Gartner elf Stück) ; die mit VMware umgesetzten Anwendungsfälle (etwa Virtualisierung von Kernservern, hyperkonvergente integrierte Systeme (HCIS), private Clouds, virtuelle Desktop-Infrastrukturen (VDI) und Cloud-Hosting-Virtualisierung; geeignete Anbieter: Je nach Use Case gibt es eine Vielzahl potenzieller Anbieter und Angebote. Beispiele sind laut Gartner Servervirtualisierung und HCIS (zum Beispiel Microsoft, Nutanix), Public Cloud IaaS (z.B. AWS, Azure, Google Cloud) und Container (z.B. Red Hat, SUSE). Kostenlose oder kommerzielle Open-Source-Angebote können ebenfalls geeignet sein. Laut Gartner ist es mit der Abkehr von VMware allein allerdings in vielen Fällen nicht getan: „Ohne parallel ausreichend in die Modernisierung zu investieren, schafft eine Migration von der Server-Virtualisierungsplattform von VMware nur begrenzte Aussichten darauf, technische Schulden zu reduzieren“. 

Gartner warnt vor langwierigen VMware-Migrationen​ Auch die Migration zu einer VMware-Alternative ist mitunter ein riskantes Unterfangen. crbelette/Shutterstock.com

Auch im zweiten Jahr nach der Übernahme von VMware durch Broadcom suchen viele unzufriedene Kunden noch nach Alternativen für ihre virtuellen Workloads im lokalen Rechenzentrum. Grund dafür sind die teilweise drastischen Änderungen des neuen Eigentümers, was Aspekte wie Preisgestaltung und Lizenzierung, Produktportfolio, Investitionen in Forschung und Entwicklung und das VMware-Partner-Ökosystem betrifft.

Zumindest ein Notfallplan in der Schublade

Ist es dabei für kleinere Unternehmen noch relativ einfach, auf Alternativen wie Proxmox zu wechseln oder ihre virtuellen Maschinen in die Cloud verlagern, fällt größeren Unternehmen oder solchen mit größeren VMware-Deployments eine solche Entscheidung deutlich schwerer. Aus gutem Grund, erklären auch die Experten von Gartner: Für die meisten Unternehmen seien die Investitions- und Opportunitätskosten einer groß angelegten Migration eine Herausforderung.

Was an Aufwand und potenziellen Kosten auf Gartner-Kunden zukommt, haben die Researcher in ihrer Analyse“Estimating a Large-Scale VMware Migration” (kostenlos für Gartner-Kunden) berechnet.

Ausgehend von 2.000 oder mehr VMs und/oder mindestens 100 Hosts, die migriert werden sollen, rechnen sie mit einem Zeitaufwand zwischen 18 und 48 Monaten. Werden externe Dienstleister beauftragt, fallen laut der Berechnung von Gartner je nach Komplexität der Workloads, dem Umfang und der Art Migration (Standard- oder Live-Migration) zwischen 300 und 3.000 Dollar pro virtuelle Maschine an.

Dennoch empfehlen sie, zumindest einen Notfallplan in der Schublade zu haben. Unternehmen sollten eher früher als später mit der Arbeit an Migrationsplänen beginnen, erklärt Michael Warrilow, Gartner-Analyst und einer der Autoren des Papiers, gegenüber The Register. Angesichts der für die Migration erforderlichen Zeit müssten die meisten Nutzer mindestens einmal die Lizenzen mit Broadcom neu verhandeln, bevor ihr Projekt abgeschlossen ist. Warrilow befürchtet, dass Broadcom die Preise in Zukunft noch weiter erhöhen wird, was die Kosten weiter in die Höhe treibe.

Die tatsächlichen Kosten für die Migration

Gartner hat in seinem Bericht die anfallenden Tätigkeiten und Kosten genauer aufgedröselt. Demnach würden allein für das erste Scoping sieben bis zehn Vollzeitmitarbeiter für einen Monat benötigt. Für die technische Bewertung potenzieller VMware-Ersatzlösungen rechnen die Analysten weitere sechs Mitarbeiter für bis zu neun Monate ein. Außerdem erfordere eine größere Migration neben dem Infrastructure & Operations Team zahlreiche weitere Ressourcen, einschließlich Sicherheits-, Datenbank- und Anwendungsexperten.

Das Problem ergibt sich laut Gartner aus der Notwendigkeit, die VMware-Dienste zu entflechten. So sei die Server-Virtualisierungsplattform von VMware für seine Kunden nicht nur zum Knotenpunkt für die gesamte Server-, Speicher- und Netzwerkinfrastruktur im Rechenzentrum geworden. Über sie liefen auch ein Großteil der Aufgaben im IT-Betrieb, einschließlich der Bereitstellung von Workloads, der Datensicherung und der Notfallwiederherstellung.

Komplexes Auswahlverfahren

Dieser Umstand ist den Analysten zufolge auch mit ein Grund, warum die Suche nach Alternativen mindestens ein paar Monate dauern könne. Es gebe viele Optionen, aber keinen einzelnen oder einfachen Ersatz für alle Anforderungen des Unternehmens.

Um sich hier nicht zu verzetteln, empfiehlt Gartner, die Potenzialliste einzuschränken. Dabei raten die Analysten, vier Kernbereiche zu bedenken:

das Deployment Szenario: On/Off-Premises und Provider (VMware oder nicht VMware);

die Ansätze für eine groß angelegte Migration (laut Gartner elf Stück) ;

die mit VMware umgesetzten Anwendungsfälle (etwa Virtualisierung von Kernservern, hyperkonvergente integrierte Systeme (HCIS), private Clouds, virtuelle Desktop-Infrastrukturen (VDI) und Cloud-Hosting-Virtualisierung;

geeignete Anbieter: Je nach Use Case gibt es eine Vielzahl potenzieller Anbieter und Angebote. Beispiele sind laut Gartner Servervirtualisierung und HCIS (zum Beispiel Microsoft, Nutanix), Public Cloud IaaS (z.B. AWS, Azure, Google Cloud) und Container (z.B. Red Hat, SUSE). Kostenlose oder kommerzielle Open-Source-Angebote können ebenfalls geeignet sein.

Laut Gartner ist es mit der Abkehr von VMware allein allerdings in vielen Fällen nicht getan: „Ohne parallel ausreichend in die Modernisierung zu investieren, schafft eine Migration von der Server-Virtualisierungsplattform von VMware nur begrenzte Aussichten darauf, technische Schulden zu reduzieren“.

Gartner warnt vor langwierigen VMware-Migrationen​ Weiterlesen »

Nur 37 Prozent der deutschen Firmen sind NIS-2-konform​

Allgemein

Nur wenige deutsche Unternehmen haben die BestimmungEN von NIS 2 bereits umgesetzt.konstakorhonen – shutterstock 2471338245 Bis Oktober 2024 hätte Deutschland eigentlich die europäische NIS-2-Richtlinie in nationales Recht umsetzen müssen – was bislang nicht geschah. Aber auch die deutschen Unternehmen, die von der Richtlinie betroffen sind (KRITIS-Betreiber), scheinen diese auf die leichte Schulter zu nehmen. So gaben in einer Veeam-Studie 70 Prozent der deutschen (?!) Befragten zwar an, dass sie sich gut auf die neue EU-Richtlinie vorbereitet fühlen. Kommt es allerdings zum Schwur, dann sind nur 37 Prozent von ihnen nach eigener Angabe tatsächlich konform zur NIS 2. Kaum NIS-2-compliant Die Studie wurde im Auftrag von Veeam durch Censuswide durchgeführt. Dazu wurden über 500 IT-Experten und -Verantwortliche aus Deutschland, Belgien, Frankreich, den Niederlanden und dem Vereinigten Königreich befragt. Auch wenn das Vereinigte Königreich kein EU-Mitgliedstaat mehr ist, aufgrund seiner Geschäftskontakte mit EU-Ländern wird es dennoch erheblich von NIS 2 beeinflusst. Die Zahlen sind umso bedenklicher, wenn man ein anderes Ergebnis der Studie betrachtet: 87 Prozent der Teilnehmer räumen ein, dass sie in den vergangenen zwölf Monaten mindestens einen Sicherheitsvorfall erlebt haben, der durch NIS-2-Maßnahmen vermeidbar gewesen wäre. Zudem wurden 57 Prozent dieser Vorfälle als „hochgradig kritisch“ eingestuft. Fahrlässige Budget-Kürzungen Vor diesem Hintergrund hält Matthias Frühauf, Regional Vice President EMEA Central bei Veeam, die aktuelle Entwicklung der IT-Budgets für geradezu fahrlässig. So berichten 44 Prozent der IT-Sicherheitsverantwortlichen von Kürzungen, weitere 22 Prozent von stagnierenden Budgets seit der NIS-2-Ankündigung im Januar 2023. Für Frühauf offenbaren diese Zahlen ein gefährliches Missverständnis auf Führungsebene: Datenresilienz und damit auch Cyber-Sicherheit würden noch immer als optionaler Kostenfaktor betrachtet. Stattdessen sollten sie als geschäftskritische Investition in die Wettbewerbsfähigkeit des Unternehmens gewertet werden. Viele offene Baustellen Dabei haben die Unternehmen viele offene Baustellen. 26 Prozent der Befragten nennen veraltete Technologien als Haupthindernis auf dem Weg zur NIS-2-Compliance. Ebenso sind fehlendes Budget (24 Prozent) und organisatorische Silos (23 Prozent) weitere Problemfelder, mit denen die IT zu kämpfen hat. Am meisten beunruhigen sollte es Führungskräfte in den Augen des Veeam-Managers jedoch, wenn das eigene Unternehmen nicht über die sogenannte „letzte Verteidigungslinie“ verfügt. Nur 23 Prozent der IT-Zuständigen haben fortgeschrittene Backup-Verfahren implementiert, die multiple, unveränderliche und offline gespeicherte Sicherungen anlegen, um so im Notfall das Tagesgeschäft aufrechtzuerhalten. In Zeiten zunehmender Ransomware-Attacken und Betriebsausfälle durch Malware-Infektionen sei es, so Frühauf, schlicht existenzgefährdend, wenn Backup- und Recovery-Maßnahmen fehlen. Geringe Erwartungen an NIS 2 Gleichzeitig sind aber auch die Erwartungen an NIS 2 eher verhalten. Nur 51 Prozent der deutschen Befragten glauben, dass die Richtlinie Unternehmen in ihrer Resilienz stärken wird – der niedrigste Wert im internationalen Vergleich. Dies könnte eine Erklärung für den laxen Umgang mit NIS 2 sein. Zumal die Unternehmen noch vor zahlreichen anderen Herausforderungen stehen. Neben NIS 2 nennen sie Profitabilität (29 Prozent), Fachkräftemangel (22 Prozent) und weitere Compliance-Anforderungen wie DSGVO, den Cyber Resilience Act (CRA) oder DORA (22 Prozent) als wesentliche Druckfaktoren. Wie Unternehmen die IT NIS-2- und DORA-konform gestalten können, hören Sie in unserem aktuellen TechTalk-Podcast. width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/1BewIwGj5H8SxIaK1kS8s2?si=5c14ba7dc40b4c82&utm_source=oembed”> 

Nur 37 Prozent der deutschen Firmen sind NIS-2-konform​ Nur wenige deutsche Unternehmen haben die BestimmungEN von NIS 2 bereits umgesetzt.konstakorhonen – shutterstock 2471338245

Bis Oktober 2024 hätte Deutschland eigentlich die europäische NIS-2-Richtlinie in nationales Recht umsetzen müssen – was bislang nicht geschah. Aber auch die deutschen Unternehmen, die von der Richtlinie betroffen sind (KRITIS-Betreiber), scheinen diese auf die leichte Schulter zu nehmen.

So gaben in einer Veeam-Studie 70 Prozent der deutschen (?!) Befragten zwar an, dass sie sich gut auf die neue EU-Richtlinie vorbereitet fühlen. Kommt es allerdings zum Schwur, dann sind nur 37 Prozent von ihnen nach eigener Angabe tatsächlich konform zur NIS 2.

Kaum NIS-2-compliant

Die Studie wurde im Auftrag von Veeam durch Censuswide durchgeführt. Dazu wurden über 500 IT-Experten und -Verantwortliche aus Deutschland, Belgien, Frankreich, den Niederlanden und dem Vereinigten Königreich befragt. Auch wenn das Vereinigte Königreich kein EU-Mitgliedstaat mehr ist, aufgrund seiner Geschäftskontakte mit EU-Ländern wird es dennoch erheblich von NIS 2 beeinflusst.

Die Zahlen sind umso bedenklicher, wenn man ein anderes Ergebnis der Studie betrachtet: 87 Prozent der Teilnehmer räumen ein, dass sie in den vergangenen zwölf Monaten mindestens einen Sicherheitsvorfall erlebt haben, der durch NIS-2-Maßnahmen vermeidbar gewesen wäre. Zudem wurden 57 Prozent dieser Vorfälle als „hochgradig kritisch“ eingestuft.

Fahrlässige Budget-Kürzungen

Vor diesem Hintergrund hält Matthias Frühauf, Regional Vice President EMEA Central bei Veeam, die aktuelle Entwicklung der IT-Budgets für geradezu fahrlässig. So berichten 44 Prozent der IT-Sicherheitsverantwortlichen von Kürzungen, weitere 22 Prozent von stagnierenden Budgets seit der NIS-2-Ankündigung im Januar 2023.

Für Frühauf offenbaren diese Zahlen ein gefährliches Missverständnis auf Führungsebene: Datenresilienz und damit auch Cyber-Sicherheit würden noch immer als optionaler Kostenfaktor betrachtet. Stattdessen sollten sie als geschäftskritische Investition in die Wettbewerbsfähigkeit des Unternehmens gewertet werden.

Viele offene Baustellen

Dabei haben die Unternehmen viele offene Baustellen. 26 Prozent der Befragten nennen veraltete Technologien als Haupthindernis auf dem Weg zur NIS-2-Compliance. Ebenso sind fehlendes Budget (24 Prozent) und organisatorische Silos (23 Prozent) weitere Problemfelder, mit denen die IT zu kämpfen hat.

Am meisten beunruhigen sollte es Führungskräfte in den Augen des Veeam-Managers jedoch, wenn das eigene Unternehmen nicht über die sogenannte „letzte Verteidigungslinie“ verfügt. Nur 23 Prozent der IT-Zuständigen haben fortgeschrittene Backup-Verfahren implementiert, die multiple, unveränderliche und offline gespeicherte Sicherungen anlegen, um so im Notfall das Tagesgeschäft aufrechtzuerhalten. In Zeiten zunehmender Ransomware-Attacken und Betriebsausfälle durch Malware-Infektionen sei es, so Frühauf, schlicht existenzgefährdend, wenn Backup- und Recovery-Maßnahmen fehlen.

Geringe Erwartungen an NIS 2

Gleichzeitig sind aber auch die Erwartungen an NIS 2 eher verhalten. Nur 51 Prozent der deutschen Befragten glauben, dass die Richtlinie Unternehmen in ihrer Resilienz stärken wird – der niedrigste Wert im internationalen Vergleich.

Dies könnte eine Erklärung für den laxen Umgang mit NIS 2 sein. Zumal die Unternehmen noch vor zahlreichen anderen Herausforderungen stehen. Neben NIS 2 nennen sie Profitabilität (29 Prozent), Fachkräftemangel (22 Prozent) und weitere Compliance-Anforderungen wie DSGVO, den Cyber Resilience Act (CRA) oder DORA (22 Prozent) als wesentliche Druckfaktoren.

Wie Unternehmen die IT NIS-2- und DORA-konform gestalten können, hören Sie in unserem aktuellen TechTalk-Podcast.

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/1BewIwGj5H8SxIaK1kS8s2?si=5c14ba7dc40b4c82&utm_source=oembed”>

Nur 37 Prozent der deutschen Firmen sind NIS-2-konform​ Weiterlesen »

USA investieren 500 Milliarden Dollar in KI-Projekt Stargate​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/01/original-7-3.jpg?quality=50&strip=all 1867w, https://b2b-contenthub.com/wp-content/uploads/2025/01/original-7-3.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/01/original-7-3.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/01/original-7-3.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/01/original-7-3.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/01/original-7-3.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/01/original-7-3.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/01/original-7-3.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/01/original-7-3.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/01/original-7-3.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Project Stargate soll den USA im KI-Wettlauf einen Vorsprung gegenüber Ländern wie China sichern. Phil Mistry – shutterstock.com Das neue Unternehmen mit dem Namen „Project Stargate“ soll in den nächsten vier Jahren 500 Milliarden Dollar investieren, um die USA bei der schnelleren Erreichung der künstlichen allgemeinen Intelligenz (AGI) zu unterstützen – einer Phase, in der eine Maschine wie ein Mensch denken und handeln kann – und damit schneller als konkurrierende Nationen wie China.  Das Projekt, das finanziell von SoftBank und operativ von OpenAI geleitet wird, sieht eine sofortige Investition von 100 Milliarden Dollar vor. Softbank-CEO Masayoshi Son wird der Vorsitzende des Unternehmens sein.  Das Unternehmen werde ARM, Microsoft, Nvidia, Oracle und OpenAI als wichtigste Technologiepartner haben, teilten die Partner in einer gemeinsamen Erklärung mit und fügten hinzu, dass derzeit in Texas Rechenzentren dafür gebaut werden.  Während einer Pressekonferenz im Weißen Haus konkretisierte Oracle-CEO Larry Ellison, dass derzeit mindestens zehn Rechenzentren gebaut würden, wobei jedes Gebäude eine Fläche von mindestens einer halben Million Quadratfuß (knapp 50.000 Quadratmeter) haben werde.  Die Unternehmen suchten auch im ganzen Land nach potenziellen Standorten für weitere Betriebsstätten. Es gebe Pläne für den Bau von 20 weiteren Rechenzentren, fügte Ellison hinzu.  Microsoft hat das Vorkaufsrecht für die KI-Infrastruktur  Die Entwicklung bedeutet auch, dass Microsoft nicht mehr der einzige exklusive Partner für OpenAI sein wird, wenn es um die Infrastruktur für das Training der KI oder damit zusammenhängende Workloads geht.   In einem Blogbeitrag, der diese Woche veröffentlicht wurde, stellte Microsoft jedoch klar, dass es das Vorkaufsrecht haben werde. „Diese neue Vereinbarung beinhaltet auch Änderungen der Exklusivität bei neuen Kapazitäten, wobei zu einem Modell übergegangen wird, bei dem Microsoft ein Vorkaufsrecht (Right of First Refusal, ROFR) hat. Um OpenAI weiter zu unterstützen, hat Microsoft OpenAI die Möglichkeit eingeräumt, zusätzliche Kapazitäten aufzubauen, vor allem für die Forschung und das Training von Modellen“, schrieb das Unternehmen.  Tatsächlich ändern sich auch die anderen Elemente der bis 2030 geplanten Partnerschaft zwischen Microsoft und OpenAI nicht. Microsoft werde die Rechte an OpenAI-IP, einschließlich Modell und Infrastruktur, zur Nutzung in seinen Produkten wie dem Copilot haben, teilten die Redmonder mit. Sie fügten hinzu, dass die OpenAI-API exklusiv für Azure sei, auf Azure laufen werde und auch über den Azure OpenAI Service verfügbar sei.  Darüber hinaus würden beide Unternehmen weiterhin ihre Vereinbarungen zur Umsatzbeteiligung einhalten, die in beide Richtungen fließen.  Trump soll bei Energiebedarf helfen  Abgesehen von dem Wettlauf um die künstliche Intelligenz soll die Infrastruktur von Stargate „Hunderttausende von amerikanischen Arbeitsplätzen“ schaffen und die Reindustrialisierung der USA unterstützen. Gleichzeitig soll sie der nationalen Sicherheit dienen, wie es in der Ankündigung zu Project Stargate heißt.  Während einer Pressekonferenz im Weißen Haus erklärte US-Präsident Donald Trump, Stargate sei darauf ausgelegt, die USA vor Ländern wie China zu schützen.  Zuvor hatte der Präsident eine Verordnung von Joe Biden aus dem Jahr 2023 aufgehoben, die eine strengere Überwachung der Entwicklung künstlicher Intelligenz (KI) vorsah. Der Grund für die Aufhebung war offenbar, dass Bidens Verordnung zwar den Schutz vor potenziellen KI-Risiken im Fokus hatte, aber Unternehmen übermäßig belastete und den technologischen Fortschritt hemmte.  Während des Briefings zu Stargate kündigte Trump zudem an, er werde den Partnerunternehmen von Stargate dabei helfen, den Strom- und Energiebedarf für den Ausbau der Rechenzentren zu decken.  Trumps Versprechen ist von Bedeutung, da Unternehmen aufgrund von Stromengpässen in Rechenzentren und der steigenden KI-Auslastung nach neuen Stromquellen suchen. Einem Bericht des Marktforschungsunternehmens Gartner zufolge werden bis 2027 etwa 40 Prozent der bestehenden KI-Rechenzentren „durch die Stromverfügbarkeit in ihrer Betriebsfähigkeit eingeschränkt“ sein. Das Unternehmen schätzt, dass die Nachfrage nach zusätzlichen KI-Servern bis dahin 500 Terawattstunden pro Jahr erreichen wird, was dem 2,6-Fachen des Niveaus von 2023 entspricht.  

USA investieren 500 Milliarden Dollar in KI-Projekt Stargate​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/01/original-7-3.jpg?quality=50&strip=all 1867w, https://b2b-contenthub.com/wp-content/uploads/2025/01/original-7-3.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/01/original-7-3.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/01/original-7-3.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/01/original-7-3.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/01/original-7-3.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/01/original-7-3.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/01/original-7-3.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/01/original-7-3.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/01/original-7-3.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Project Stargate soll den USA im KI-Wettlauf einen Vorsprung gegenüber Ländern wie China sichern. Phil Mistry – shutterstock.com

Das neue Unternehmen mit dem Namen „Project Stargate“ soll in den nächsten vier Jahren 500 Milliarden Dollar investieren, um die USA bei der schnelleren Erreichung der künstlichen allgemeinen Intelligenz (AGI) zu unterstützen – einer Phase, in der eine Maschine wie ein Mensch denken und handeln kann – und damit schneller als konkurrierende Nationen wie China. 

Das Projekt, das finanziell von SoftBank und operativ von OpenAI geleitet wird, sieht eine sofortige Investition von 100 Milliarden Dollar vor. Softbank-CEO Masayoshi Son wird der Vorsitzende des Unternehmens sein. 

Das Unternehmen werde ARM, Microsoft, Nvidia, Oracle und OpenAI als wichtigste Technologiepartner haben, teilten die Partner in einer gemeinsamen Erklärung mit und fügten hinzu, dass derzeit in Texas Rechenzentren dafür gebaut werden. 

Während einer Pressekonferenz im Weißen Haus konkretisierte Oracle-CEO Larry Ellison, dass derzeit mindestens zehn Rechenzentren gebaut würden, wobei jedes Gebäude eine Fläche von mindestens einer halben Million Quadratfuß (knapp 50.000 Quadratmeter) haben werde. 

Die Unternehmen suchten auch im ganzen Land nach potenziellen Standorten für weitere Betriebsstätten. Es gebe Pläne für den Bau von 20 weiteren Rechenzentren, fügte Ellison hinzu. 

Microsoft hat das Vorkaufsrecht für die KI-Infrastruktur 

Die Entwicklung bedeutet auch, dass Microsoft nicht mehr der einzige exklusive Partner für OpenAI sein wird, wenn es um die Infrastruktur für das Training der KI oder damit zusammenhängende Workloads geht.  

In einem Blogbeitrag, der diese Woche veröffentlicht wurde, stellte Microsoft jedoch klar, dass es das Vorkaufsrecht haben werde. „Diese neue Vereinbarung beinhaltet auch Änderungen der Exklusivität bei neuen Kapazitäten, wobei zu einem Modell übergegangen wird, bei dem Microsoft ein Vorkaufsrecht (Right of First Refusal, ROFR) hat. Um OpenAI weiter zu unterstützen, hat Microsoft OpenAI die Möglichkeit eingeräumt, zusätzliche Kapazitäten aufzubauen, vor allem für die Forschung und das Training von Modellen“, schrieb das Unternehmen. 

Tatsächlich ändern sich auch die anderen Elemente der bis 2030 geplanten Partnerschaft zwischen Microsoft und OpenAI nicht. Microsoft werde die Rechte an OpenAI-IP, einschließlich Modell und Infrastruktur, zur Nutzung in seinen Produkten wie dem Copilot haben, teilten die Redmonder mit. Sie fügten hinzu, dass die OpenAI-API exklusiv für Azure sei, auf Azure laufen werde und auch über den Azure OpenAI Service verfügbar sei. 

Darüber hinaus würden beide Unternehmen weiterhin ihre Vereinbarungen zur Umsatzbeteiligung einhalten, die in beide Richtungen fließen. 

Trump soll bei Energiebedarf helfen 

Abgesehen von dem Wettlauf um die künstliche Intelligenz soll die Infrastruktur von Stargate „Hunderttausende von amerikanischen Arbeitsplätzen“ schaffen und die Reindustrialisierung der USA unterstützen. Gleichzeitig soll sie der nationalen Sicherheit dienen, wie es in der Ankündigung zu Project Stargate heißt. 

Während einer Pressekonferenz im Weißen Haus erklärte US-Präsident Donald Trump, Stargate sei darauf ausgelegt, die USA vor Ländern wie China zu schützen. 

Zuvor hatte der Präsident eine Verordnung von Joe Biden aus dem Jahr 2023 aufgehoben, die eine strengere Überwachung der Entwicklung künstlicher Intelligenz (KI) vorsah. Der Grund für die Aufhebung war offenbar, dass Bidens Verordnung zwar den Schutz vor potenziellen KI-Risiken im Fokus hatte, aber Unternehmen übermäßig belastete und den technologischen Fortschritt hemmte. 

Während des Briefings zu Stargate kündigte Trump zudem an, er werde den Partnerunternehmen von Stargate dabei helfen, den Strom- und Energiebedarf für den Ausbau der Rechenzentren zu decken. 

Trumps Versprechen ist von Bedeutung, da Unternehmen aufgrund von Stromengpässen in Rechenzentren und der steigenden KI-Auslastung nach neuen Stromquellen suchen. Einem Bericht des Marktforschungsunternehmens Gartner zufolge werden bis 2027 etwa 40 Prozent der bestehenden KI-Rechenzentren „durch die Stromverfügbarkeit in ihrer Betriebsfähigkeit eingeschränkt“ sein. Das Unternehmen schätzt, dass die Nachfrage nach zusätzlichen KI-Servern bis dahin 500 Terawattstunden pro Jahr erreichen wird, was dem 2,6-Fachen des Niveaus von 2023 entspricht. 

USA investieren 500 Milliarden Dollar in KI-Projekt Stargate​ Weiterlesen »

Roboter bekommen ihren „ChatGPT-Moment”​

Allgemein

Durch die Nutzung virtueller 3D-Welten und IoT-Sensoren können digitale Zwillinge mittels KI deutlich einfacher und effizienter trainiert werden. shutterstock.com – Andrey Suslov Zu Beginn des Jahres hat Nvidia auf der CES eine neue Plattform namens Cosmos vorgestellt. Dabei soll es sich laut Hersteller um eine World Foundation Model (WFM)-Entwicklungsplattform handeln. Diese ist darauf ausgelegt, die Entwicklung von sogenannter Physical AI für Roboter und selbstfahrende Fahrzeuge voranzutreiben und zu beschleunigen. KI lernt in einer Simulation der realen Welt Bei Physical AI handelt es sich um ein Konzept, dessen Ziel es ist unter anderem ist, komplexe virtuelle Umgebungen zu schaffen. In diesen wird die Physik der realen Welt simuliert, damit sowohl Roboter als auch Systeme von diesen digitale Nachbildungen lernen und ihre Leistung optimieren können. Für Fabrikroboter kann ein „digitaler Zwilling“ der Fabrik in einem Virtual-Reality-Raum erstellt werden, der jedes Detail der realen Fabrik exakt abbildet. Internet of Things (IoT)-Sensoren in der echten Fabrik speisen kontinuierlich Daten in den Zwilling ein, um ihn aktuell zu halten. Um die KI jedoch effektiv zu trainieren, muss der Zwilling mit physikalischen Eigenschaften wie Schwerkraft und Reibung ausgestattet sein. Mit Nvidias Omniverse können virtuelle 3D-Welten erstellt und simuliert werden, um Programme sowie Roboter und Robotersysteme zu trainieren. Das neu eingeführte Cosmos-System baut auf dieser Omniverse-Plattform auf und erweitert diese durch die Erstellung und Nutzung von World Foundation Models (WFMs). Omniverse + „World Foundation Models“ = Weltsimulation?  Der von Nvidia geprägte Begriff „World Foundation Model“ (WFM) vereint „Weltmodelle“, die komplexe Szenarien simulieren, und sogenannte „Foundation Models“, die auf großen Datensätzen trainiert werden. WFMs ermöglichen die Erstellung fotorealistischer, auf den physikalischen Grundregeln dieser Welt basierender Daten für das Training von Modellen. Entwickler können eigene Daten einbringen, die Cosmos erweitern, um Roboter für optimal für bestimmte Bewegungen zu programmieren. Die Cosmos-Plattform kombiniert WFMs, fortschrittliche Tokenizer und eine schnelle Videoverarbeitung, um präzise Szenarien zu generieren. Mit Nvidias Omniverse werden fotorealistische Videos für das Reinforcement Learning von Robotern erstellt, wobei Cosmos Tausende realistische Trainingsszenarien erzeugt. ChatGPT und Robotik Ein Vergleich mit ChatGPT hilft, das Konzept dahinter zu verstehen: Die „Audioübersichten“-Funktion von NotebookLM erstellt beispielsweise lebensechte Podcasts, die schneller und unterhaltsamer sind, als komplexe Texte zu lesen. Nutzer können den Schwierigkeitsgrad schrittweise von einfachen bis zu tiefer gehenden Erklärungen anpassen. Nvidia sieht in Cosmos einen „ChatGPT-Moment“ für die Robotik, da die Technologie neuronaler Netze durch Fortschritte wie das Transformer-Modell von Google revolutioniert wurde. Dies habe das Training beschleunigt, ähnlich wie bei LLM-Chatbots. Auch hier zeigt sich, dass Faktoren wie die Größe der Datensätze, die Trainingsgeschwindigkeit sowie die Leistung und Genauigkeit eng miteinander verbunden sind. KI-Daten sind eine begrenzte Ressource Die Trainingsdaten für Roboter sind begrenzt, da ihre Generierung in der realen Welt teuer und langsam ist. Elon Musk betonte kürzlich zudem, dass KI-Unternehmen die von Menschen erzeugten Daten für das KI-Training nahezu vollständig ausgeschöpft haben. Im Gegensatz zu von Menschen erstellten Texten müssen diese Daten neu erstellt werden. Roboter und autonome Fahrzeuge können jedoch lernen, Aufgaben zu bewältigen und sich in unbekanntem Terrain zurechtzufinden. Mehr autonome Fahrzeuge dank KI Der Einsatz von Cosmos für das Training autonomer Fahrzeuge ermöglicht die schnelle Erstellung realistischer, simulierter Szenarien, was die Fahrsicherheit und Effizienz im Vergleich zum traditionellen, riskanten Training in der realen Welt verbessert. Wenn Nvidia mit dem „ChatGPT-Moment“ der Robotik recht hat, könnte der Fortschritt in der Robotik deutlich beschleunigt werden, was zu mehr Effizienz und einer weitergehenden Verbreitung autonomer Fahrzeuge führen würde – möglicherweise schneller als erwartet. 

Roboter bekommen ihren „ChatGPT-Moment”​ Durch die Nutzung virtueller 3D-Welten und IoT-Sensoren können digitale Zwillinge mittels KI deutlich einfacher und effizienter trainiert werden.
shutterstock.com – Andrey Suslov

Zu Beginn des Jahres hat Nvidia auf der CES eine neue Plattform namens Cosmos vorgestellt. Dabei soll es sich laut Hersteller um eine World Foundation Model (WFM)-Entwicklungsplattform handeln. Diese ist darauf ausgelegt, die Entwicklung von sogenannter Physical AI für Roboter und selbstfahrende Fahrzeuge voranzutreiben und zu beschleunigen.

KI lernt in einer Simulation der realen Welt

Bei Physical AI handelt es sich um ein Konzept, dessen Ziel es ist unter anderem ist, komplexe virtuelle Umgebungen zu schaffen. In diesen wird die Physik der realen Welt simuliert, damit sowohl Roboter als auch Systeme von diesen digitale Nachbildungen lernen und ihre Leistung optimieren können.

Für Fabrikroboter kann ein „digitaler Zwilling“ der Fabrik in einem Virtual-Reality-Raum erstellt werden, der jedes Detail der realen Fabrik exakt abbildet. Internet of Things (IoT)-Sensoren in der echten Fabrik speisen kontinuierlich Daten in den Zwilling ein, um ihn aktuell zu halten. Um die KI jedoch effektiv zu trainieren, muss der Zwilling mit physikalischen Eigenschaften wie Schwerkraft und Reibung ausgestattet sein.

Mit Nvidias Omniverse können virtuelle 3D-Welten erstellt und simuliert werden, um Programme sowie Roboter und Robotersysteme zu trainieren. Das neu eingeführte Cosmos-System baut auf dieser Omniverse-Plattform auf und erweitert diese durch die Erstellung und Nutzung von World Foundation Models (WFMs).

Omniverse + „World Foundation Models“ = Weltsimulation?

 Der von Nvidia geprägte Begriff „World Foundation Model“ (WFM) vereint „Weltmodelle“, die komplexe Szenarien simulieren, und sogenannte „Foundation Models“, die auf großen Datensätzen trainiert werden. WFMs ermöglichen die Erstellung fotorealistischer, auf den physikalischen Grundregeln dieser Welt basierender Daten für das Training von Modellen. Entwickler können eigene Daten einbringen, die Cosmos erweitern, um Roboter für optimal für bestimmte Bewegungen zu programmieren.

Die Cosmos-Plattform kombiniert WFMs, fortschrittliche Tokenizer und eine schnelle Videoverarbeitung, um präzise Szenarien zu generieren. Mit Nvidias Omniverse werden fotorealistische Videos für das Reinforcement Learning von Robotern erstellt, wobei Cosmos Tausende realistische Trainingsszenarien erzeugt.

ChatGPT und Robotik

Ein Vergleich mit ChatGPT hilft, das Konzept dahinter zu verstehen: Die „Audioübersichten“-Funktion von NotebookLM erstellt beispielsweise lebensechte Podcasts, die schneller und unterhaltsamer sind, als komplexe Texte zu lesen. Nutzer können den Schwierigkeitsgrad schrittweise von einfachen bis zu tiefer gehenden Erklärungen anpassen.

Nvidia sieht in Cosmos einen „ChatGPT-Moment“ für die Robotik, da die Technologie neuronaler Netze durch Fortschritte wie das Transformer-Modell von Google revolutioniert wurde. Dies habe das Training beschleunigt, ähnlich wie bei LLM-Chatbots. Auch hier zeigt sich, dass Faktoren wie die Größe der Datensätze, die Trainingsgeschwindigkeit sowie die Leistung und Genauigkeit eng miteinander verbunden sind.

KI-Daten sind eine begrenzte Ressource

Die Trainingsdaten für Roboter sind begrenzt, da ihre Generierung in der realen Welt teuer und langsam ist. Elon Musk betonte kürzlich zudem, dass KI-Unternehmen die von Menschen erzeugten Daten für das KI-Training nahezu vollständig ausgeschöpft haben.

Im Gegensatz zu von Menschen erstellten Texten müssen diese Daten neu erstellt werden. Roboter und autonome Fahrzeuge können jedoch lernen, Aufgaben zu bewältigen und sich in unbekanntem Terrain zurechtzufinden.

Mehr autonome Fahrzeuge dank KI

Der Einsatz von Cosmos für das Training autonomer Fahrzeuge ermöglicht die schnelle Erstellung realistischer, simulierter Szenarien, was die Fahrsicherheit und Effizienz im Vergleich zum traditionellen, riskanten Training in der realen Welt verbessert.

Wenn Nvidia mit dem „ChatGPT-Moment“ der Robotik recht hat, könnte der Fortschritt in der Robotik deutlich beschleunigt werden, was zu mehr Effizienz und einer weitergehenden Verbreitung autonomer Fahrzeuge führen würde – möglicherweise schneller als erwartet.

Roboter bekommen ihren „ChatGPT-Moment”​ Weiterlesen »

KI sicherer machen in 8 Lektionen​

Allgemein

Red Teams, die KI-Systeme von allen Seiten unter die Lupe nehmen, können helfen, die Sicherheit zu verbessern.DC Studio / Shutterstock Microsofts Red Team, das für über 100 generativen KI-Produkten verantwortlich ist, ist zu dem Schluss gekommen, dass die Arbeit an sicheren KI-Systemen niemals enden wird. Unter einem Red Team versteht man eine Gruppe von Sicherheitsexperten, die von internen Stakeholdern oder externen Kunden beauftragt werden, bestimmte IT-Systeme unter die Lupe zu nehmen, diese Penetrationstests auszusetzen und über simulierte Angriffe zu versuchen, Sicherheitsmechanismen auszuhebeln und die entsprechenden Systeme zu kompromittieren. In einem Forschungspapier beschreiben die Autoren, darunter Microsofts Azure CTO Mark Russinovich, Teile der Arbeit des Red Teams und geben acht Empfehlungen, die darauf abzielen, Red Teaming-Bemühungen mit realen Risiken in Einklang zu bringen. “Da generative KI-Systeme (GenAI) in immer mehr Bereichen eingesetzt werden, hat sich das AI Red Teaming zu einer zentralen Praxis für die Bewertung der Sicherheit dieser Technologien entwickelt”, heißt es in dem Bericht. Interview mit Sebastian Schreiber: So arbeiten Red-Team- und PenTester Im Kern geht es beim KI-Red-Teaming darum, über die Sicherheitsbenchmarks auf Modellebene hinauszugehen, indem reale Angriffe auf End-to-End-Systeme emuliert werden. Es gibt jedoch viele offene Fragen darüber, wie Red Teaming-Operationen durchgeführt werden sollten. In dem Papier heißt es, dass sich das Microsoft AI Red Team (AIRT) bei seiner Gründung im Jahr 2018 in erster Linie auf die Identifizierung herkömmlicher Sicherheitsschwachstellen und Umgehungsangriffe gegen klassische ML-Modelle konzentriert habe. Seitdem hätten sich sowohl der Umfang als auch das Ausmaß des KI-Red-Teams bei Microsoft deutlich erweitert. als Reaktion auf zwei wichtige Trends erheblich erweitert.” Framework für Red Teams Das liege in erster Linie an zwei Entwicklungen. Zum einen sei KI-Technik immer ausgefeilter geworden, und zum zweiten hätten Microsofts jüngste Investitionen in KI zur Entwicklung von viel mehr Produkten geführt, die Red Teaming erforderten. “Dieser Anstieg des Volumens und der erweiterte Umfang des KI-Red-Teaming haben dazu geführt, dass vollständig manuelle Tests nicht mehr praktikabel und wir gezwungen waren, unsere Abläufe mit Hilfe von Automatisierung zu erweitern”, schreiben die Autoren. “Um dieses Ziel zu erreichen, haben wir PyRIT entwickelt, ein quelloffenes Python-Framework, das unsere Mitarbeiter bei Red Teaming-Aktivitäten intensiv nutzen.” Dadurch sei AIRT nun in die Lage, schwerwiegende Schwachstellen in KI-Systemen schneller zu identifizieren und einen größeren Teil der Risikolandschaft abzudecken, hieß es. Auf der Grundlage ihrer Erfahrungen haben die Autoren acht Lektionen zusammengestellt, inklusive detaillierter Erklärungen und Fallstudien, die dabei helfen sollen, KI-Systeme im Rahmen von Red-Teaming-Aktivitäten besser abzusichern: 1. Verstehen Sie, was das System tun kann und wo es eingesetzt wird Der erste Schritt bei einer KI-Red-Teaming-Operation besteht darin, zu bestimmen, welche Schwachstellen ins Visier genommen werden sollen. Die Autoren schlagen vor: “Wenn man von den potenziellen Auswirkungen und nicht von den Angriffsstrategien ausgeht, ist es wahrscheinlicher, dass eine Operation nützliche Ergebnisse liefert, die mit realen Risiken verbunden sind.” Nachdem diese Auswirkungen identifiziert seien, könnten Red Teams rückwärts arbeiten und die verschiedenen Wege skizzieren, die ein Angreifer nehmen könnte, um sie zu erreichen. 2. Sie müssen keine Gradienten berechnen, um ein KI-System zu brechen Um dies zu beweisen, verweist das Papier auf eine andere Studie. Demzufolge würden sich die meisten Forschungen viel zu sehr darauf konzentrieren, Strategien für die Verteidigung gegen ausgeklügelte Angriffe zu entwickeln. In der realen Welt verwendeten die Angreifer jedoch meist viel einfachere Techniken, um ihre Ziele zu erreichen. Gradienten-basierte Angriffe seien zwar mächtig, so die Autoren, “aber sie sind oft unpraktisch oder unnötig. Wir empfehlen, einfachen Techniken den Vorzug zu geben und Angriffe auf Systemebene zu orchestrieren”. Es sei wahrscheinlicher, dass echte Angreifer eher diesen Weg gehen würden. 3. AI Red Teaming ist kein Sicherheits-Benchmarking Beide Ansätze sind unterschiedlich, schreiben die Autoren. Sie seien beide nützlich und könnten sich ergänzen. Benchmarks machten es insbesondere einfach, die Leistung mehrerer Modelle auf Basis eines gemeinsamen Datensatzes zu vergleichen. KI-Red-Teaming erfordere darüber hinaus viel mehr menschlichen Einsatz, könne aber neue Schadenskategorien entdecken und nach kontextbezogenen Risiken suchen. Neue Risiken, die sich aus den neuen Fähigkeiten von KI-Systemen ergeben, seien möglicherweise noch nicht vollständig bekannt. Aufgabe der Red Teams sei es, diese zu definieren und Instrumente zu ihrer Messung zu entwickeln. 4. Automatisierung kann dabei helfen, einen größeren Teil der Risikolandschaft abzudecken Den Autoren zufolge hat die Komplexität der KI-Risikolandschaft zur Entwicklung einer Vielzahl von Tools geführt. Diese seien in der Lage, Schwachstellen schneller zu identifizieren, ausgefeilte Angriffe automatisch auszuführen und Tests in einem viel größeren Maßstab durchzuführen. Die Automatisierung beim KI-Red-Teaming spiele eine entscheidende Rolle, was letztendlich zur Entwicklung eines Open-Source-Frameworks, PyRIT, geführt habe. 5. Das menschliche Element beim KI-Red-Teaming ist entscheidend Automatisierung mag zwar wichtig sein, sagen die Autoren. Tools wie PyRIT unterstützten Red Teaming-Operationen, indem sie Prompts generieren, Angriffe orchestrieren und Antworten bewerten. Gleichzeitig warnen die Experten aber: “Diese Tools sind nützlich, sollten aber nicht mit der Absicht eingesetzt werden, den Menschen aus dem Spiel zu nehmen.” 6. Schäden durch Responsable AI (RAI) sind allgegenwärtig, aber schwer zu messen RAI-Schäden sind schwerer zu fassen als klassische Sicherheitslücken. Das hat nach Einschätzung der Experten vor allem mit fundamentalen Unterschieden zwischen KI-Systemen und herkömmlicher Software zu tun. Die meisten Bemühungen in Sachen KI-Sicherheit konzentrieren sich auf feindlich gesinnte User, die absichtlich gegen Leitplanken verstoßen. In Wahrheit sind aber “gutartige” Benutzerinnen und Benutzer, die versehentlich schädliche Inhalte generieren, mindestens genauso wichtig für die Absicherung des KI-Einsatzes. 7. LLMs verstärken bestehende Sicherheitsrisiken und führen neue ein Die Integration von generativen KI-Modellen in eine Vielzahl von Anwendungen hat neue Angriffsvektoren geschaffen und die Landschaft der Sicherheitsrisiken verändert. Es gelte daher die KI-Teams zu ermutigen, sowohl bestehende (typischerweise auf Systemebene) als auch neue (typischerweise auf Modellebene) Risiken im Blick zu behalten. 8. Die Arbeit zur Sicherung von KI-Systemen wird nie abgeschlossen sein Die Vorstellung, dass es möglich ist, die Sicherheit von KI-Systemen allein durch technische Fortschritte zu garantieren, ist unrealistisch, lautet das Fazit der Ted-Team-Spezialisten. Ein solcher Ansatz lasse andere wesentliche Faktoren außer Acht, wie zum Beispiel wirtschaftliche Aspekte, Fehlerbehebungszyklen und die Regulierung. Vor diesem Hintergrund heißt es in dem Papier: “In Ermangelung von Sicherheitsgarantien brauchen wir Methoden, um KI-Systeme zu entwickeln, die so schwer zu knacken sind, wie nur irgendwie möglich.” Eine Möglichkeit, dies zu erreichen, sei die Verwendung von Break-Fix-Zyklen, bei denen mehrere Runden von Red Teaming und Schadensbegrenzung durchgeführt werden, bis ein solches System tatsächlich zumindest gegen eine breite Palette von Angriffen gefeit ist. Fazit: KI bleibt ein extrem bewegliches Ziel Die Autoren des Berichts kommen zu dem Schluss, dass sich KI-Red-Teaming als eine neu entstehende Praxis entwickeln könnte, um Sicherheitsrisiken zu identifizieren, die von KI-Systemen ausgehen. Gleichzeitig werfen die Security-Experten aber auch eine Reihe von Fragen auf – vor allem an sich selbst. “Wie sollten wir nach gefährlichen Fähigkeiten in LLMs suchen”, fragen sie. “Welche neuartigen Risiken sollten wir in Modellen der jüngsten Videogeneration untersuchen und welche Fähigkeiten könnten in Modellen auftauchen, die weiter fortgeschritten sind als der aktuelle Stand der Technik?” Darüber hinaus drehen sich die Diskussionen darum, wie Red Teams ihre Praktiken anpassen können, um verschiedenen sprachlichen und kulturellen Kontexten gerecht zu werden. Und es geht um die Frage, auf welche Weise Red-Teaming-Praktiken standardisiert werden sollten, um es den Teams zu erleichtern, ihre Ergebnisse zu vergleichen und zu kommunizieren. Ein Anfang soll mit der Microsoft-internen Untersuchung gemacht sein, hieß es. “Da sich Unternehmen, Forschungseinrichtungen und Regierungen auf der ganzen Welt mit der Frage auseinandersetzen, wie sie KI-Risikobewertungen durchführen sollen, geben wir praktische Empfehlungen, die auf unseren Erfahrungen mit dem Red Teaming von über 100 GenAI-Produkten bei Microsoft basieren. Wir ermutigen andere, auf diesen Erkenntnissen aufzubauen und die offenen Fragen, die wir hervorgehoben haben, anzugehen.” 

KI sicherer machen in 8 Lektionen​ Red Teams, die KI-Systeme von allen Seiten unter die Lupe nehmen, können helfen, die Sicherheit zu verbessern.DC Studio / Shutterstock

Microsofts Red Team, das für über 100 generativen KI-Produkten verantwortlich ist, ist zu dem Schluss gekommen, dass die Arbeit an sicheren KI-Systemen niemals enden wird. Unter einem Red Team versteht man eine Gruppe von Sicherheitsexperten, die von internen Stakeholdern oder externen Kunden beauftragt werden, bestimmte IT-Systeme unter die Lupe zu nehmen, diese Penetrationstests auszusetzen und über simulierte Angriffe zu versuchen, Sicherheitsmechanismen auszuhebeln und die entsprechenden Systeme zu kompromittieren.

In einem Forschungspapier beschreiben die Autoren, darunter Microsofts Azure CTO Mark Russinovich, Teile der Arbeit des Red Teams und geben acht Empfehlungen, die darauf abzielen, Red Teaming-Bemühungen mit realen Risiken in Einklang zu bringen. “Da generative KI-Systeme (GenAI) in immer mehr Bereichen eingesetzt werden, hat sich das AI Red Teaming zu einer zentralen Praxis für die Bewertung der Sicherheit dieser Technologien entwickelt”, heißt es in dem Bericht.

Interview mit Sebastian Schreiber: So arbeiten Red-Team- und PenTester

Im Kern geht es beim KI-Red-Teaming darum, über die Sicherheitsbenchmarks auf Modellebene hinauszugehen, indem reale Angriffe auf End-to-End-Systeme emuliert werden. Es gibt jedoch viele offene Fragen darüber, wie Red Teaming-Operationen durchgeführt werden sollten. In dem Papier heißt es, dass sich das Microsoft AI Red Team (AIRT) bei seiner Gründung im Jahr 2018 in erster Linie auf die Identifizierung herkömmlicher Sicherheitsschwachstellen und Umgehungsangriffe gegen klassische ML-Modelle konzentriert habe. Seitdem hätten sich sowohl der Umfang als auch das Ausmaß des KI-Red-Teams bei Microsoft deutlich erweitert. als Reaktion auf zwei wichtige Trends erheblich erweitert.”

Framework für Red Teams

Das liege in erster Linie an zwei Entwicklungen. Zum einen sei KI-Technik immer ausgefeilter geworden, und zum zweiten hätten Microsofts jüngste Investitionen in KI zur Entwicklung von viel mehr Produkten geführt, die Red Teaming erforderten. “Dieser Anstieg des Volumens und der erweiterte Umfang des KI-Red-Teaming haben dazu geführt, dass vollständig manuelle Tests nicht mehr praktikabel und wir gezwungen waren, unsere Abläufe mit Hilfe von Automatisierung zu erweitern”, schreiben die Autoren.

“Um dieses Ziel zu erreichen, haben wir PyRIT entwickelt, ein quelloffenes Python-Framework, das unsere Mitarbeiter bei Red Teaming-Aktivitäten intensiv nutzen.” Dadurch sei AIRT nun in die Lage, schwerwiegende Schwachstellen in KI-Systemen schneller zu identifizieren und einen größeren Teil der Risikolandschaft abzudecken, hieß es.

Auf der Grundlage ihrer Erfahrungen haben die Autoren acht Lektionen zusammengestellt, inklusive detaillierter Erklärungen und Fallstudien, die dabei helfen sollen, KI-Systeme im Rahmen von Red-Teaming-Aktivitäten besser abzusichern:

1. Verstehen Sie, was das System tun kann und wo es eingesetzt wird

Der erste Schritt bei einer KI-Red-Teaming-Operation besteht darin, zu bestimmen, welche Schwachstellen ins Visier genommen werden sollen. Die Autoren schlagen vor: “Wenn man von den potenziellen Auswirkungen und nicht von den Angriffsstrategien ausgeht, ist es wahrscheinlicher, dass eine Operation nützliche Ergebnisse liefert, die mit realen Risiken verbunden sind.” Nachdem diese Auswirkungen identifiziert seien, könnten Red Teams rückwärts arbeiten und die verschiedenen Wege skizzieren, die ein Angreifer nehmen könnte, um sie zu erreichen.

2. Sie müssen keine Gradienten berechnen, um ein KI-System zu brechen

Um dies zu beweisen, verweist das Papier auf eine andere Studie. Demzufolge würden sich die meisten Forschungen viel zu sehr darauf konzentrieren, Strategien für die Verteidigung gegen ausgeklügelte Angriffe zu entwickeln. In der realen Welt verwendeten die Angreifer jedoch meist viel einfachere Techniken, um ihre Ziele zu erreichen. Gradienten-basierte Angriffe seien zwar mächtig, so die Autoren, “aber sie sind oft unpraktisch oder unnötig. Wir empfehlen, einfachen Techniken den Vorzug zu geben und Angriffe auf Systemebene zu orchestrieren”. Es sei wahrscheinlicher, dass echte Angreifer eher diesen Weg gehen würden.

3. AI Red Teaming ist kein Sicherheits-Benchmarking

Beide Ansätze sind unterschiedlich, schreiben die Autoren. Sie seien beide nützlich und könnten sich ergänzen. Benchmarks machten es insbesondere einfach, die Leistung mehrerer Modelle auf Basis eines gemeinsamen Datensatzes zu vergleichen. KI-Red-Teaming erfordere darüber hinaus viel mehr menschlichen Einsatz, könne aber neue Schadenskategorien entdecken und nach kontextbezogenen Risiken suchen. Neue Risiken, die sich aus den neuen Fähigkeiten von KI-Systemen ergeben, seien möglicherweise noch nicht vollständig bekannt. Aufgabe der Red Teams sei es, diese zu definieren und Instrumente zu ihrer Messung zu entwickeln.

4. Automatisierung kann dabei helfen, einen größeren Teil der Risikolandschaft abzudecken

Den Autoren zufolge hat die Komplexität der KI-Risikolandschaft zur Entwicklung einer Vielzahl von Tools geführt. Diese seien in der Lage, Schwachstellen schneller zu identifizieren, ausgefeilte Angriffe automatisch auszuführen und Tests in einem viel größeren Maßstab durchzuführen. Die Automatisierung beim KI-Red-Teaming spiele eine entscheidende Rolle, was letztendlich zur Entwicklung eines Open-Source-Frameworks, PyRIT, geführt habe.

5. Das menschliche Element beim KI-Red-Teaming ist entscheidend

Automatisierung mag zwar wichtig sein, sagen die Autoren. Tools wie PyRIT unterstützten Red Teaming-Operationen, indem sie Prompts generieren, Angriffe orchestrieren und Antworten bewerten. Gleichzeitig warnen die Experten aber: “Diese Tools sind nützlich, sollten aber nicht mit der Absicht eingesetzt werden, den Menschen aus dem Spiel zu nehmen.”

6. Schäden durch Responsable AI (RAI) sind allgegenwärtig, aber schwer zu messen

RAI-Schäden sind schwerer zu fassen als klassische Sicherheitslücken. Das hat nach Einschätzung der Experten vor allem mit fundamentalen Unterschieden zwischen KI-Systemen und herkömmlicher Software zu tun. Die meisten Bemühungen in Sachen KI-Sicherheit konzentrieren sich auf feindlich gesinnte User, die absichtlich gegen Leitplanken verstoßen. In Wahrheit sind aber “gutartige” Benutzerinnen und Benutzer, die versehentlich schädliche Inhalte generieren, mindestens genauso wichtig für die Absicherung des KI-Einsatzes.

7. LLMs verstärken bestehende Sicherheitsrisiken und führen neue ein

Die Integration von generativen KI-Modellen in eine Vielzahl von Anwendungen hat neue Angriffsvektoren geschaffen und die Landschaft der Sicherheitsrisiken verändert. Es gelte daher die KI-Teams zu ermutigen, sowohl bestehende (typischerweise auf Systemebene) als auch neue (typischerweise auf Modellebene) Risiken im Blick zu behalten.

8. Die Arbeit zur Sicherung von KI-Systemen wird nie abgeschlossen sein

Die Vorstellung, dass es möglich ist, die Sicherheit von KI-Systemen allein durch technische Fortschritte zu garantieren, ist unrealistisch, lautet das Fazit der Ted-Team-Spezialisten. Ein solcher Ansatz lasse andere wesentliche Faktoren außer Acht, wie zum Beispiel wirtschaftliche Aspekte, Fehlerbehebungszyklen und die Regulierung. Vor diesem Hintergrund heißt es in dem Papier: “In Ermangelung von Sicherheitsgarantien brauchen wir Methoden, um KI-Systeme zu entwickeln, die so schwer zu knacken sind, wie nur irgendwie möglich.” Eine Möglichkeit, dies zu erreichen, sei die Verwendung von Break-Fix-Zyklen, bei denen mehrere Runden von Red Teaming und Schadensbegrenzung durchgeführt werden, bis ein solches System tatsächlich zumindest gegen eine breite Palette von Angriffen gefeit ist.

Fazit: KI bleibt ein extrem bewegliches Ziel

Die Autoren des Berichts kommen zu dem Schluss, dass sich KI-Red-Teaming als eine neu entstehende Praxis entwickeln könnte, um Sicherheitsrisiken zu identifizieren, die von KI-Systemen ausgehen. Gleichzeitig werfen die Security-Experten aber auch eine Reihe von Fragen auf – vor allem an sich selbst. “Wie sollten wir nach gefährlichen Fähigkeiten in LLMs suchen”, fragen sie. “Welche neuartigen Risiken sollten wir in Modellen der jüngsten Videogeneration untersuchen und welche Fähigkeiten könnten in Modellen auftauchen, die weiter fortgeschritten sind als der aktuelle Stand der Technik?”

Darüber hinaus drehen sich die Diskussionen darum, wie Red Teams ihre Praktiken anpassen können, um verschiedenen sprachlichen und kulturellen Kontexten gerecht zu werden. Und es geht um die Frage, auf welche Weise Red-Teaming-Praktiken standardisiert werden sollten, um es den Teams zu erleichtern, ihre Ergebnisse zu vergleichen und zu kommunizieren.

Ein Anfang soll mit der Microsoft-internen Untersuchung gemacht sein, hieß es. “Da sich Unternehmen, Forschungseinrichtungen und Regierungen auf der ganzen Welt mit der Frage auseinandersetzen, wie sie KI-Risikobewertungen durchführen sollen, geben wir praktische Empfehlungen, die auf unseren Erfahrungen mit dem Red Teaming von über 100 GenAI-Produkten bei Microsoft basieren. Wir ermutigen andere, auf diesen Erkenntnissen aufzubauen und die offenen Fragen, die wir hervorgehoben haben, anzugehen.”

KI sicherer machen in 8 Lektionen​ Weiterlesen »

Gute Mitarbeiterbindung heißt weniger Krankmeldungen​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/01/Bindung-shutterstock_2418646745.jpg?quality=50&strip=all 6000w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Bindung-shutterstock_2418646745.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Bindung-shutterstock_2418646745.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Bindung-shutterstock_2418646745.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Bindung-shutterstock_2418646745.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Bindung-shutterstock_2418646745.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Bindung-shutterstock_2418646745.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Bindung-shutterstock_2418646745.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Bindung-shutterstock_2418646745.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Bindung-shutterstock_2418646745.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Bindung-shutterstock_2418646745.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Es zahlt sich für Arbeitgeber aus, in das Wohlbefinden der Arbeitnehmer sowie ein gutes Arbeitsklima zu investieren. 3rdtimeluckystudio – Shutterstock 2418646745 Sind es Grippeviren? Oder der Klassiker: Rückenbeschwerden? Einige Unternehmen geben auch der telefonischen Krankschreibung die Schuld, dass derzeit so viele Beschäftigte nicht zur Arbeit erscheinen. Das fördere Faulenzer, wie manche Unternehmen mutmaßen. Sie reagieren mit „Hausbesuchen“, um vermeintliche Blaumacher zu erwischen. Tatsache ist: Die Deutschen lassen sich derzeit besonders häufig krankschreiben.   Der Fehlzeiten-Report 2024 des AOK-Bundesverbands spricht von historischen Höchstständen. Der Spitzenwert von 225 Arbeitsunfähigkeitsfällen je 100 erwerbstätigen AOK-Mitgliedern aus 2023 wurde 2024 schon im August erreicht worden. Zu Spitzenzeiten fehlte jeder Zehnte wegen Krankheit. Das belastet die Arbeitgeber: Laut Institut der Deutschen Wirtschaft kostete die Entgeltfortzahlung 74 Milliarden Euro im Jahr 2020 und schon 2025 könnten es 84 Milliarden Euro sein.     Psychische Erkrankungen auf dem Vormarsch Klassiker wie Atemwegserkrankungen oder Rückenbeschwerden sind zwar immer noch die Ursache für die meisten Krankschreibungen. Aber in den letzten Jahren haben psychische Erkrankungen in Folge von Überlastung bis hin zum Burn-out zugenommen. Die Lösung liegt scheinbar auf der Hand: weniger arbeiten. Doch so einfach ist es nicht. Denn Überlastung lässt sich nicht allein an den Stunden in der Zeiterfassung bemessen oder an den Aktenbergen auf dem Schreibtisch.   Der Fehlzeiten-Report 2024 des AOK-Bundesverbands spricht hier von einem Zusammenhang zwischen Gesundheit und Bindung zum Unternehmen. Wer sich wertgeschätzt fühle und Sinn in seiner Arbeit finde, sagen die Autoren, werde messbar seltener krank. Das betreffe vor allem die steigenden Ausfallzeiten aufgrund von psychischen Erkrankungen, belegt der Fehlzeiten-Report.   Das deckt sich mit Erkenntnissen von Great Place to Work (GPTW). Während deutsche Arbeitgeber im Schnitt 14,6 Krankheitstage verzeichnen, sind es bei GPTW-zertifizierten Deutschlands besten Arbeitgebern nur vier Tage. „Ein guter Arbeitgeber ist gut für die Gesundheit der Mitarbeitenden“, sagt Andreas Schubert, CEO von GPTW. Darüber hinaus haben diese Unternehmen eine um 45 Prozent geringere Fluktuation und 4,7-mal mehr Bewerbungen.     Mitarbeitenden aufs Maul geschaut Da stellt sich die Frage: Wann ist ein Unternehmen ein guter Arbeitgeber und wie misst man das? Schubert nennt einige Indikatoren: Teamgeist, Identifikation mit dem Unternehmen, Stolz dort zu arbeiten, vertrauenswürdige Führung, Führungskräfte lassen Worten Taten folgen und haben immer ein offenes Ohr, um nur einige zu nennen. 60 Aspekte hat GPTW zusammengetragen und erhebt diese in ebenso vielen Fragen in seinen Mitarbeiterbefragungen, die selbstverständlich anonym ablaufen, 13 Minuten dauert das. „Wir schauen den Mitarbeitenden aufs Maul“, erklärt Schubert. Wichtig sei, wie der Mitarbeitende seine Arbeit erlebe, was wiederum entscheidend sei für die Bindung ans Unternehmen – und damit für die Gesundheit dieser Person.   Natürlich ist ein Unternehmen nicht sofort schlecht, weil ein einzelner Mitarbeitender mit seinem Chef unzufrieden ist. Die Erlebensweisen aller Mitarbeitenden werden aggregiert und zu einem Durchschnitt verrechnet. GPTW hat weltweit bereits weit mehr als 100.000 Unternehmen untersucht und damit eine Datenbasis geschaffen, mit der sich positive wie negative Erlebensweisen in Firmen sehr zuverlässig ableiten lassen.   Die Korrelation mit dem Krankenstand ist dann eine einfache Übung. Dieser wird vom Unternehmen mitgeteilt und mit den Ergebnissen aus der Umfrage in Beziehung gesetzt. „Der Zusammenhang ist eindeutig“, sagt Schubert. Eine mangelhafte Unternehmenskultur und damit geringe Bindung der Mitarbeitenden schlage sich messbar in den Krankschreibungen nieder. „In von GPTW zertifizierten Unternehmen liegt die Krankheitsquote 74 Prozent niedriger.“     srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/01/Andreas_Schubert_Great_Place_to_Work.jpg?quality=50&strip=all 1181w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Andreas_Schubert_Great_Place_to_Work.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Andreas_Schubert_Great_Place_to_Work.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Andreas_Schubert_Great_Place_to_Work.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Andreas_Schubert_Great_Place_to_Work.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Andreas_Schubert_Great_Place_to_Work.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Andreas_Schubert_Great_Place_to_Work.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Andreas_Schubert_Great_Place_to_Work.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Andreas Schubert, CEO von GPTW: “Eine mangelhafte Unternehmenskultur und damit geringe Bindung der Mitarbeitenden schlägt sich messbar in den Krankschreibungen nieder.”Andreas Schubert – GPTW Mangelhafte Führung als Kündigungsgrund Gemeinsam mit dem Management identifiziert das GPTW-Team die Lücken, die das positive Erleben der Belegschaft behindern, sowie Potenziale mit guter Aussicht auf Erfolg, außerdem Maßnahmen, die bereits in die richtige Richtung gehen. Wenn GPTW auf Kulturprobleme stößt, liegen vielfältige Ursachen zugrunde. Auf Platz 1: mangelhafte Führung. Man wählt einen neuen Arbeitsplatz wegen des Unternehmens aus und man verlässt ihn wegen des Vorgesetzten – diese Aussage trifft häufig zu.   Geringe Wertschätzung, mangelndes Feedback der Führungskraft, undurchsichtige Führungsprinzipien, und vor allem fehlende Empathie sind hier tiefer liegende Ursachen. Weitere Gründe für schlechte Stimmung sind Reibungen im Team oder mangelhafte Fairness im Umgang mit den Mitarbeitenden oder bei der Bezahlung.   Sind die Lücken identifiziert, moderiert GPTW den Verbesserungsprozess. Auch hier ist von Vorteil, dass GPTW auf einer Fülle von Best-Practices aus anderen Firmen aufbauen kann. „Wir arbeiten am Erleben und fragen: Wie erlebt ihr die Kultur in eurem Unternehmen, was ist schon gut und wo sind Potenziale?“, erläutert Schubert das Vorgehen. Das erfolgt sowohl in direkten Gesprächen als auch in Befragungen, die regelmäßig, etwa einmal im Jahr, bei dringendem Veränderungsbedarf auch häufiger, stattfinden sollten.   Diese Befragungen erfolgen digital, der Mitarbeitende kann über sein Smartphone teilnehmen. Dazu bekommt er einen QR-Code, etwa über die Lohnabrechnung. Weitere Touch-Points sind der PC oder das Zeiterfassungsterminal, das sich für einzelne Zwischenfragen außerhalb des Jahresrhythmus eignet. Die Teilnahmequote liegt nach GPTW-Erfahrung bei 70 Prozent. Die Umfragen gibt es in 50 Sprachen, die Auswertung erfolgt über ein interaktives Dashboard und natürlich anonym, eine Rückverfolgung auf einzelne Personen ist nicht möglich.     Durchhänger sind normal Wichtig sei, dass die Ergebnisse nicht in der Schublade verschwinden, sondern das Management Handlungsbedarf erkenne und transparent benenne. Unternehmen, die mit GPTW zusammenarbeiteten, wollten sich verbessern – „die anderen kommen gar nicht erst zu uns“, so Schubert. GPTW hat Kunden, die diese Umfrage seit über 20 Jahren machen und die Ergebnisse in eine Erfolgsbilanz der HR-Abteilung einfließen lassen. Nicht immer gehe es bei der Unternehmenskultur nur aufwärts, Durchhänger seien normal. Die Umfragedaten helfen aber, rechtzeitig gegenzusteuern.   Digitalisierung hilft nicht nur bei Umfragen, sondern auch, das Erleben der Mitarbeitenden zu verbessern. So bietet GPTW-Partner UKG digitale Tools, die mehr Flexibilität in den Arbeitsalltag bringen. Beliebt ist die Schichtplanung, mit der Mitarbeitende Schichten tauschen können, um flexibel die Bedürfnisse des Privatlebens auf das Berufsleben abzustimmen. Die Führungskräfte erhalten zudem Einblick in die Bedürfnisse der Mitarbeitenden. Die sind auf den ersten Blick nicht immer leicht zu erkennen.  Hier ist der Einsatz einer KI-basierten Software von Vorteil. Bryte von UKG ist so ein KI-Werkzeug. Es leuchtet in die Personal- und HR-Daten hinein und filtert die gewünschten Infos heraus und verknüpft sie – einfache Anfragen per Prompt genügen, wie bei ChatGPT. „Durch Conversational Reporting wird es auch technisch nicht versierten Anwendern ermöglicht, Daten detailliert zu analysieren. Darüber hinaus steht die Software auch allen Mitarbeitenden als Assistent bei Fragen zur Schichtplanung und Zeiterfassung zur Verfügung und führt im Auftrag der Beschäftigten Aktionen wie den Tausch von Schichten im System eigenständig durch“, erklärt Benedikt Lell, Vice President Sales Support von UKG.      srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/01/UKG-BenediktLell.jpg?quality=50&strip=all 4688w, https://b2b-contenthub.com/wp-content/uploads/2025/01/UKG-BenediktLell.jpg?resize=300%2C188&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/01/UKG-BenediktLell.jpg?resize=768%2C480&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/01/UKG-BenediktLell.jpg?resize=1024%2C640&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/01/UKG-BenediktLell.jpg?resize=1536%2C960&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/01/UKG-BenediktLell.jpg?resize=2048%2C1280&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/01/UKG-BenediktLell.jpg?resize=1115%2C697&quality=50&strip=all 1115w, https://b2b-contenthub.com/wp-content/uploads/2025/01/UKG-BenediktLell.jpg?resize=269%2C168&quality=50&strip=all 269w, https://b2b-contenthub.com/wp-content/uploads/2025/01/UKG-BenediktLell.jpg?resize=134%2C84&quality=50&strip=all 134w, https://b2b-contenthub.com/wp-content/uploads/2025/01/UKG-BenediktLell.jpg?resize=576%2C360&quality=50&strip=all 576w, https://b2b-contenthub.com/wp-content/uploads/2025/01/UKG-BenediktLell.jpg?resize=400%2C250&quality=50&strip=all 400w” width=”1024″ height=”640″ sizes=”(max-width: 1024px) 100vw, 1024px”>Benedikt Lell, Vice President Sales Support UKG: “Die KI erkennt Präferenzen, die der Mitarbeitende selbst noch gar nicht wahrgenommen hat oder sich nicht zu artikulieren traut.” Benedikt Lell KI als Managementwerkzeug KI ist aber weit mehr als nur ein Tool, um Daten zu sammeln. Sie entwickelt sich immer mehr zu einem wichtigen Managementwerkzeug. Die KI erkennt zum Beispiel Präferenzen, die der Mitarbeitende selbst noch gar nicht wahrgenommen hat oder nicht zu artikulieren traut. Thema Überstunden: Einzelne Mitarbeitende sind über Gebühr belastet, schieben Extraschichten, weil sie sich nicht den Mut haben, ihre Interessen durchzusetzen. Die KI in Bryte erkennt solche Schieflagen, macht den Vorgesetzten darauf aufmerksam und gibt sogar Tipps, wie das Problem zu lösen ist.   Oder ein Mitarbeitender kommt an bestimmten Wochentagen häufig zu spät. In extremen Fällen kann es auch sein, dass die Zahl der Überstunden stark ansteigt und sich in Folge davon die Fehlzeiten aufgrund von Krankheit summieren. Hier könnte sich ein Burnout ankündigen und sollte der Vorgesetzte schnell handeln.   Regelmäßige Umfragen und KI sind damit Schlüsselwerkzeuge für Unternehmen, um die Bindung ihrer Mitarbeitenden zu fördern – und damit Fehlzeiten zu senken.   

Gute Mitarbeiterbindung heißt weniger Krankmeldungen​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/01/Bindung-shutterstock_2418646745.jpg?quality=50&strip=all 6000w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Bindung-shutterstock_2418646745.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Bindung-shutterstock_2418646745.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Bindung-shutterstock_2418646745.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Bindung-shutterstock_2418646745.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Bindung-shutterstock_2418646745.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Bindung-shutterstock_2418646745.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Bindung-shutterstock_2418646745.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Bindung-shutterstock_2418646745.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Bindung-shutterstock_2418646745.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Bindung-shutterstock_2418646745.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Es zahlt sich für Arbeitgeber aus, in das Wohlbefinden der Arbeitnehmer sowie ein gutes Arbeitsklima zu investieren. 3rdtimeluckystudio – Shutterstock 2418646745

Sind es Grippeviren? Oder der Klassiker: Rückenbeschwerden? Einige Unternehmen geben auch der telefonischen Krankschreibung die Schuld, dass derzeit so viele Beschäftigte nicht zur Arbeit erscheinen. Das fördere Faulenzer, wie manche Unternehmen mutmaßen. Sie reagieren mit „Hausbesuchen“, um vermeintliche Blaumacher zu erwischen. Tatsache ist: Die Deutschen lassen sich derzeit besonders häufig krankschreiben.  

Der Fehlzeiten-Report 2024 des AOK-Bundesverbands spricht von historischen Höchstständen. Der Spitzenwert von 225 Arbeitsunfähigkeitsfällen je 100 erwerbstätigen AOK-Mitgliedern aus 2023 wurde 2024 schon im August erreicht worden. Zu Spitzenzeiten fehlte jeder Zehnte wegen Krankheit. Das belastet die Arbeitgeber: Laut Institut der Deutschen Wirtschaft kostete die Entgeltfortzahlung 74 Milliarden Euro im Jahr 2020 und schon 2025 könnten es 84 Milliarden Euro sein.  

 

Psychische Erkrankungen auf dem Vormarsch

Klassiker wie Atemwegserkrankungen oder Rückenbeschwerden sind zwar immer noch die Ursache für die meisten Krankschreibungen. Aber in den letzten Jahren haben psychische Erkrankungen in Folge von Überlastung bis hin zum Burn-out zugenommen. Die Lösung liegt scheinbar auf der Hand: weniger arbeiten. Doch so einfach ist es nicht. Denn Überlastung lässt sich nicht allein an den Stunden in der Zeiterfassung bemessen oder an den Aktenbergen auf dem Schreibtisch.  

Der Fehlzeiten-Report 2024 des AOK-Bundesverbands spricht hier von einem Zusammenhang zwischen Gesundheit und Bindung zum Unternehmen. Wer sich wertgeschätzt fühle und Sinn in seiner Arbeit finde, sagen die Autoren, werde messbar seltener krank. Das betreffe vor allem die steigenden Ausfallzeiten aufgrund von psychischen Erkrankungen, belegt der Fehlzeiten-Report.  

Das deckt sich mit Erkenntnissen von Great Place to Work (GPTW). Während deutsche Arbeitgeber im Schnitt 14,6 Krankheitstage verzeichnen, sind es bei GPTW-zertifizierten Deutschlands besten Arbeitgebern nur vier Tage. „Ein guter Arbeitgeber ist gut für die Gesundheit der Mitarbeitenden“, sagt Andreas Schubert, CEO von GPTW. Darüber hinaus haben diese Unternehmen eine um 45 Prozent geringere Fluktuation und 4,7-mal mehr Bewerbungen.  

 

Mitarbeitenden aufs Maul geschaut

Da stellt sich die Frage: Wann ist ein Unternehmen ein guter Arbeitgeber und wie misst man das? Schubert nennt einige Indikatoren: Teamgeist, Identifikation mit dem Unternehmen, Stolz dort zu arbeiten, vertrauenswürdige Führung, Führungskräfte lassen Worten Taten folgen und haben immer ein offenes Ohr, um nur einige zu nennen. 60 Aspekte hat GPTW zusammengetragen und erhebt diese in ebenso vielen Fragen in seinen Mitarbeiterbefragungen, die selbstverständlich anonym ablaufen, 13 Minuten dauert das. „Wir schauen den Mitarbeitenden aufs Maul“, erklärt Schubert. Wichtig sei, wie der Mitarbeitende seine Arbeit erlebe, was wiederum entscheidend sei für die Bindung ans Unternehmen – und damit für die Gesundheit dieser Person.  

Natürlich ist ein Unternehmen nicht sofort schlecht, weil ein einzelner Mitarbeitender mit seinem Chef unzufrieden ist. Die Erlebensweisen aller Mitarbeitenden werden aggregiert und zu einem Durchschnitt verrechnet. GPTW hat weltweit bereits weit mehr als 100.000 Unternehmen untersucht und damit eine Datenbasis geschaffen, mit der sich positive wie negative Erlebensweisen in Firmen sehr zuverlässig ableiten lassen.  

Die Korrelation mit dem Krankenstand ist dann eine einfache Übung. Dieser wird vom Unternehmen mitgeteilt und mit den Ergebnissen aus der Umfrage in Beziehung gesetzt. „Der Zusammenhang ist eindeutig“, sagt Schubert. Eine mangelhafte Unternehmenskultur und damit geringe Bindung der Mitarbeitenden schlage sich messbar in den Krankschreibungen nieder. „In von GPTW zertifizierten Unternehmen liegt die Krankheitsquote 74 Prozent niedriger.“  

 

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/01/Andreas_Schubert_Great_Place_to_Work.jpg?quality=50&strip=all 1181w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Andreas_Schubert_Great_Place_to_Work.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Andreas_Schubert_Great_Place_to_Work.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Andreas_Schubert_Great_Place_to_Work.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Andreas_Schubert_Great_Place_to_Work.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Andreas_Schubert_Great_Place_to_Work.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Andreas_Schubert_Great_Place_to_Work.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Andreas_Schubert_Great_Place_to_Work.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Andreas Schubert, CEO von GPTW: “Eine mangelhafte Unternehmenskultur und damit geringe Bindung der Mitarbeitenden schlägt sich messbar in den Krankschreibungen nieder.”Andreas Schubert – GPTW

Mangelhafte Führung als Kündigungsgrund

Gemeinsam mit dem Management identifiziert das GPTW-Team die Lücken, die das positive Erleben der Belegschaft behindern, sowie Potenziale mit guter Aussicht auf Erfolg, außerdem Maßnahmen, die bereits in die richtige Richtung gehen. Wenn GPTW auf Kulturprobleme stößt, liegen vielfältige Ursachen zugrunde. Auf Platz 1: mangelhafte Führung. Man wählt einen neuen Arbeitsplatz wegen des Unternehmens aus und man verlässt ihn wegen des Vorgesetzten – diese Aussage trifft häufig zu.  

Geringe Wertschätzung, mangelndes Feedback der Führungskraft, undurchsichtige Führungsprinzipien, und vor allem fehlende Empathie sind hier tiefer liegende Ursachen. Weitere Gründe für schlechte Stimmung sind Reibungen im Team oder mangelhafte Fairness im Umgang mit den Mitarbeitenden oder bei der Bezahlung.  

Sind die Lücken identifiziert, moderiert GPTW den Verbesserungsprozess. Auch hier ist von Vorteil, dass GPTW auf einer Fülle von Best-Practices aus anderen Firmen aufbauen kann. „Wir arbeiten am Erleben und fragen: Wie erlebt ihr die Kultur in eurem Unternehmen, was ist schon gut und wo sind Potenziale?“, erläutert Schubert das Vorgehen. Das erfolgt sowohl in direkten Gesprächen als auch in Befragungen, die regelmäßig, etwa einmal im Jahr, bei dringendem Veränderungsbedarf auch häufiger, stattfinden sollten.  

Diese Befragungen erfolgen digital, der Mitarbeitende kann über sein Smartphone teilnehmen. Dazu bekommt er einen QR-Code, etwa über die Lohnabrechnung. Weitere Touch-Points sind der PC oder das Zeiterfassungsterminal, das sich für einzelne Zwischenfragen außerhalb des Jahresrhythmus eignet. Die Teilnahmequote liegt nach GPTW-Erfahrung bei 70 Prozent. Die Umfragen gibt es in 50 Sprachen, die Auswertung erfolgt über ein interaktives Dashboard und natürlich anonym, eine Rückverfolgung auf einzelne Personen ist nicht möglich.  

 

Durchhänger sind normal

Wichtig sei, dass die Ergebnisse nicht in der Schublade verschwinden, sondern das Management Handlungsbedarf erkenne und transparent benenne. Unternehmen, die mit GPTW zusammenarbeiteten, wollten sich verbessern – „die anderen kommen gar nicht erst zu uns“, so Schubert. GPTW hat Kunden, die diese Umfrage seit über 20 Jahren machen und die Ergebnisse in eine Erfolgsbilanz der HR-Abteilung einfließen lassen. Nicht immer gehe es bei der Unternehmenskultur nur aufwärts, Durchhänger seien normal. Die Umfragedaten helfen aber, rechtzeitig gegenzusteuern.  

Digitalisierung hilft nicht nur bei Umfragen, sondern auch, das Erleben der Mitarbeitenden zu verbessern. So bietet GPTW-Partner UKG digitale Tools, die mehr Flexibilität in den Arbeitsalltag bringen. Beliebt ist die Schichtplanung, mit der Mitarbeitende Schichten tauschen können, um flexibel die Bedürfnisse des Privatlebens auf das Berufsleben abzustimmen. Die Führungskräfte erhalten zudem Einblick in die Bedürfnisse der Mitarbeitenden. Die sind auf den ersten Blick nicht immer leicht zu erkennen. 

Hier ist der Einsatz einer KI-basierten Software von Vorteil. Bryte von UKG ist so ein KI-Werkzeug. Es leuchtet in die Personal- und HR-Daten hinein und filtert die gewünschten Infos heraus und verknüpft sie – einfache Anfragen per Prompt genügen, wie bei ChatGPT. „Durch Conversational Reporting wird es auch technisch nicht versierten Anwendern ermöglicht, Daten detailliert zu analysieren. Darüber hinaus steht die Software auch allen Mitarbeitenden als Assistent bei Fragen zur Schichtplanung und Zeiterfassung zur Verfügung und führt im Auftrag der Beschäftigten Aktionen wie den Tausch von Schichten im System eigenständig durch“, erklärt Benedikt Lell, Vice President Sales Support von UKG.   

 

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/01/UKG-BenediktLell.jpg?quality=50&strip=all 4688w, https://b2b-contenthub.com/wp-content/uploads/2025/01/UKG-BenediktLell.jpg?resize=300%2C188&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/01/UKG-BenediktLell.jpg?resize=768%2C480&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/01/UKG-BenediktLell.jpg?resize=1024%2C640&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/01/UKG-BenediktLell.jpg?resize=1536%2C960&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/01/UKG-BenediktLell.jpg?resize=2048%2C1280&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/01/UKG-BenediktLell.jpg?resize=1115%2C697&quality=50&strip=all 1115w, https://b2b-contenthub.com/wp-content/uploads/2025/01/UKG-BenediktLell.jpg?resize=269%2C168&quality=50&strip=all 269w, https://b2b-contenthub.com/wp-content/uploads/2025/01/UKG-BenediktLell.jpg?resize=134%2C84&quality=50&strip=all 134w, https://b2b-contenthub.com/wp-content/uploads/2025/01/UKG-BenediktLell.jpg?resize=576%2C360&quality=50&strip=all 576w, https://b2b-contenthub.com/wp-content/uploads/2025/01/UKG-BenediktLell.jpg?resize=400%2C250&quality=50&strip=all 400w” width=”1024″ height=”640″ sizes=”(max-width: 1024px) 100vw, 1024px”>Benedikt Lell, Vice President Sales Support UKG: “Die KI erkennt Präferenzen, die der Mitarbeitende selbst noch gar nicht wahrgenommen hat oder sich nicht zu artikulieren traut.” Benedikt Lell

KI als Managementwerkzeug

KI ist aber weit mehr als nur ein Tool, um Daten zu sammeln. Sie entwickelt sich immer mehr zu einem wichtigen Managementwerkzeug. Die KI erkennt zum Beispiel Präferenzen, die der Mitarbeitende selbst noch gar nicht wahrgenommen hat oder nicht zu artikulieren traut. Thema Überstunden: Einzelne Mitarbeitende sind über Gebühr belastet, schieben Extraschichten, weil sie sich nicht den Mut haben, ihre Interessen durchzusetzen. Die KI in Bryte erkennt solche Schieflagen, macht den Vorgesetzten darauf aufmerksam und gibt sogar Tipps, wie das Problem zu lösen ist.  

Oder ein Mitarbeitender kommt an bestimmten Wochentagen häufig zu spät. In extremen Fällen kann es auch sein, dass die Zahl der Überstunden stark ansteigt und sich in Folge davon die Fehlzeiten aufgrund von Krankheit summieren. Hier könnte sich ein Burnout ankündigen und sollte der Vorgesetzte schnell handeln.  

Regelmäßige Umfragen und KI sind damit Schlüsselwerkzeuge für Unternehmen, um die Bindung ihrer Mitarbeitenden zu fördern – und damit Fehlzeiten zu senken.  

Gute Mitarbeiterbindung heißt weniger Krankmeldungen​ Weiterlesen »

Diese 10 Berufe sind in Deutschland besonders gefragt​

Allgemein

Welche Berufe im Jahr 2025 wo besonders gefragt sind, zeigt ein aktuelles Ranking, inklusive Jobeschreibung und Vorkenntnissen. shutterstock.com – Andrii Yalanskyi Die Arbeitswelt wandelt sich ständig, und neue Technologien wie Künstliche Intelligenz (KI) verändern Bewerbungs- und Einstellungsprozesse grundlegend. Gleichzeitig verschiebt sich die geopolitische Landschaft und deutsche Manager setzen andere Prioritäten als noch im Jahr 2024. Was das für Arbeitssuchende bedeutet und welche Jobs 2025 besonders attraktiv und gefragt sind, zeigt das diesjährige  „Jobs im Trend 2025“ – Ranking von LinkedIn.   1. Energiemanager Das Ranking führt der Energiemanager an – 2024 noch auf Rang 5 unter den Top 10. Energie-Manager, auch als Energiespezialisten oder Energie Consultants bezeichnet, spielen eine entscheidende Rolle bei der Optimierung des Energieverbrauchs in Unternehmen. Ihr Ziel ist es, Kosten zu senken und die Energieeffizienz nachhaltig zu steigern. Zu den wichtigsten Fähigkeiten dieser Fachkräfte gehören Kenntnisse in Sachen Energiemanagement, Energieaudits und Energiepolitik. Sie sind vor allem in Branchen wie dem Maschinenbau, in Unternehmensberatungen und bei der Herstellung von Transportausrüstung gefragt. Besonders hohe Nachfrage gibt es in den Metropolregionen Berlin/Brandenburg, München und Düsseldorf. Die Geschlechterverteilung in diesem Beruf ist aktuell unausgeglichen, mit einem Anteil von 20 Prozent Frauen und 80 Prozent Männern. Energie-Manager verfügen durchschnittlich über 3,7 Jahre Berufserfahrung und kommen häufig aus Vorberufen wie Sicherheitsmanager, wissenschaftliche Assistenten oder Office-Manager. Drei Prozent der Jobs lassen sich remote erledigen, 34 Prozent sind hybrid ausgelegt. 2. Business Process Owner Neu in den Top 10 ist in diesem Jahr der Business Process Owner, auch bekannt als Business Process Analyst oder Business Process Consultant. Er ist für die Entwicklung, Verwaltung und Optimierung der Geschäftsprozesse in einer Organisation verantwortlich. Sein Ziel ist es, diese Prozesse mit den Unternehmenszielen in Einklang zu bringen und deren Effizienz zu maximieren. Wichtige Fähigkeiten in diesem Beruf umfassen Geschäftsprozessoptimierung, den Umgang mit SAP ERP und Geschäftsprozessmanagement. Beschäftigung finden diese Fachkräfte besonders häufig in Branchen wie Maschinenbau, der Herstellung von Transportausrüstung und dem Großhandel. Zu den Regionen mit hoher Nachfrage zählen die Metropolregionen München und Berlin/Brandenburg sowie Nürnberg. Die Geschlechterverteilung in diesem Beruf ist vergleichsweise ausgewogen, mit einem Anteil von 41 Prozent Frauen und 59 Prozent Männern. Business Process Owner verfügen im Durchschnitt über 5,1 Jahre Berufserfahrung und kommen oft aus Vorberufen wie Prozessmanager, Geschäftsprozessexperte oder Einkäufer. Ungefähr jeder zwölfte Job in diesem Fach kann vollständig remote erledigt werden, während 45 Prozent hybrid gestaltet sind. 3. Spezialist für Employer Branding Der Spezialist für Employer Branding ist ebenfalls neu im Ranking, der Teilbereich Social Media landete allerdings als Influencer Marketing Manager bereits 2024 auf Rang 4. Employer-Branding-Spezialisten, auch bekannt als Employer Branding Manager oder Employer Brand Manager, entwickeln und implementieren Strategien zur Verbesserung der Arbeitgebermarke eines Unternehmens. Ihr Ziel ist es, Talente und Fachkräfte erfolgreich anzuwerben und langfristig zu binden. Zu den wichtigsten Fähigkeiten in diesem Beruf zählen Employer Branding, Personalmarketing und Recruiting. Besonders gefragt sind diese Spezialisten in Bereichen wie IT-Dienstleistungen und IT-Beratung, Maschinenbau sowie Technologie, Information und Internet. Die Metropolregionen München, Berlin/Brandenburg und die Region Köln/Bonn sind zentrale Standorte für diese Tätigkeit. Der Beruf ist überwiegend weiblich geprägt, mit einer Geschlechterverteilung von 86 Prozent Frauen und 14 Prozent Männern. Employer-Branding-Spezialisten verfügen im Durchschnitt über 3,3 Jahre Berufserfahrung und kommen häufig aus Positionen wie Talent Acquisition Spezialistin, Projektmanagerin oder HR-Spezialistin. Zwar sind nur 0,7 Prozent der Stellen vollständig remote zu erledigen, dafür aber 53 Prozent hybrid gestaltet. 4. Reiseberater Reiseberater oder auch Verkaufsberater Reisebranche beziehungsweise Reiseexperte, sind für die Koordination, Buchung und Verwaltung von Reisearrangements für Einzelpersonen oder Gruppen zuständig. Ihr Fokus liegt dabei auf der Kosteneffizienz und einer reibungslosen Organisation. Zu den zentralen Fähigkeiten in diesem Beruf zählen Reisemanagement, Vertrieb und Reiseplanung. Reiseberater finden Beschäftigung vor allem in den Branchen Reisebürodienstleistungen, Fluggesellschaften und Luftfahrt sowie Technologie, Information und Internet. Zu Hause ist diese Berufsgruppe vor allem in den Metropolregionen Berlin/Brandenburg und München sowie in Hamburg und Umgebung. Auch dieser Beruf ist mehrheitlich weiblich geprägt, mit einer Geschlechterverteilung von 61 Prozent Frauen und 39 Prozent Männern. Die durchschnittliche Berufserfahrung beträgt 3,3 Jahre, und viele Beschäftigte waren vorher in Rollen wie HR-Geschäftspartner, Produktmanager oder Digital-Marketing-Manager tätig. Flexible Arbeitsmodelle sind zunehmend verbreitet, wobei 23 Prozent der Stellen remote und 12 Prozent hybrid angeboten werden. 5. Nachhaltigkeitsmanager Ein weiterer Job, der 2024 unter anderem Namen als Nachhaltigkeitsspezialist die Top-10-Liste anführte, ist der Nachhaltigkeitsmanager. Nachhaltigkeitsmanager, auch bekannt als Nachhaltigkeitsbeauftragte oder Sustainability Consultants, sind dafür verantwortlich, die Nachhaltigkeitsstrategie eines Unternehmens zu planen, zu steuern und zu evaluieren. Dabei achten sie darauf, dass die Strategie mit den Unternehmenswerten übereinstimmt und messbare Nachhaltigkeitsziele setzt. Personen in diesem Beruf kümmern sich häufig um die Corporate Sustainability, das Erstellen von Nachhaltigkeitsberichten und die Entwicklung von Nachhaltigkeitsstrategien. Nachhaltigkeitsmanager sind vor allem in Branchen wie Unternehmensberatung, Maschinenbau und chemischer Produktion tätig. Wie auch der Spezialist für Employer Branding sind sie besonders in der Metropolregion München, der Region Köln/Bonn und der Metropolregion Berlin/Brandenburg gefragt. Die Geschlechterverteilung in diesem Beruf liegt bei 61 Prozent Frauen und 39 Prozent Männern. Die durchschnittliche Berufserfahrung beträgt 3,5 Jahre, und viele Fachkräfte kommen aus Tätigkeiten als Projektmanager oder Kundendienstmitarbeiter. Flexible Arbeitsmodelle sind nicht so verbreitet wie in anderen Branchen: Zwei Prozent der Stellen werden remote, 47 Prozent hybrid angeboten. 6. KI-Entwickler Ein alter Bekannter aus dem Jahr 2024, damals noch auf Rang 8, schafft es erneut in die Top 10 und verbessert sich auf Platz 6. KI-Entwickler, auch bekannt als KI-Programmierer, sind für die Programmierung, das Testen und die Verwaltung von KI-Software, Modellen sowie Infrastruktur verantwortlich. Ihr Ziel ist es, Aufgaben zu automatisieren und komplexe Probleme durch den Einsatz Künstlicher Intelligenz zu lösen. Wichtige Fähigkeiten in diesem Bereich umfassen Deep Learning, die Arbeit mit PyTorch und Expertise in Computer-Vision. KI-Entwickler sind vor allem in den Branchen Technologie, Information und Internet, IT-Dienstleistungen und -Beratung sowie Unternehmensberatung gefragt. Zu den Top-Regionen für Stellenangebote zählen die Metropolregion München, die Metropolregion Berlin/Brandenburg und die Region Frankfurt/Rhein-Main. Die Geschlechterverteilung in diesem Beruf ist vergleichbar mit der von Energiemanagern: 19 Prozent Frauen zu 81 Prozent Männern. Die durchschnittliche Berufserfahrung liegt bei 2,8 Jahren. Viele Beschäftigte wechseln aus Positionen wie Experte für Unternehmenstechnologie, wissenschaftliche Assistenz oder Dateningenieur in diesen Bereich. 28 Prozent der Stellen sind remote ausgelegt, und 50 Prozent bieten hybride Arbeitsmöglichkeiten. 7. Qualitätsingenieur für Zulieferer Qualitätsingenieur für Zulieferer sorgen durch Bewertung und Prüfung dafür, dass die Produkte und Materialien von Zulieferern bestimmten Qualitätsstandards entsprechen. Alternative Namen sind Lieferantenqualitätsingenieur und Supplier Quality Engineers. Mit Platz sieben sind sie 2025 neu im Top-10-Ranking. Wichtige Fähigkeiten in diesem Beruf umfassen das Produktionsteil-Abnahmeverfahren (PPAP) sowie Advanced Product Quality Planning (APQP). Gefragt sind diese Fachkräfte vor allem in den Branchen Maschinenbau, Herstellung von Transportausrüstung und Herstellung medizinischer Geräte. Zu den Top-Regionen für Stellenangebote zählen die Metropolregion Berlin/Brandenburg, Tübingen und Umgebung sowie Hamburg und Umgebung. Die Geschlechterverteilung zeigt, dass 21 Prozent Frauen und 79 Prozent Männer in diesem Beruf tätig sind. Die durchschnittliche Berufserfahrung beträgt vier Jahre, wobei viele Beschäftigte zuvor als Qualitätsbeauftragte, Spezialist für Lieferantenqualität oder Spezialist für Lieferantenentwicklung gearbeitet haben. Flexible Arbeitsmodelle sind begrenzt: Nur ein Prozent der Stellen sind remote, während 41 Prozent hybride Arbeitsmöglichkeiten bieten. 8. Spezialist für HR-Entwicklung Auf Platz acht folgen die Spezialisten für HR-Entwicklung, auch bekannt als Personalentwickler oder HR-Spezialisten. Sie analysieren die Fähigkeiten, die in einem Unternehmen benötigt werden, und fördern diese Kompetenzen in der Belegschaft. Ziel ist es, die berufliche Entwicklung der Mitarbeitenden zu unterstützen. Zu den häufigsten Fähigkeiten gehören Mitarbeiterentwicklung, Recruiting und Führungskräfteentwicklung. Besonders gefragt sind diese Fachkräfte Im Versicherungswesen, In Ämtern für öffentliche Ordnung und In der Kreditvermittlung. Die Top-Regionen für eine Anstellung sind die Metropolregion München, Frankfurt/Rhein-Main und die Metropolregion Berlin/Brandenburg. Die Geschlechterverteilung zeigt einen sehr hohen Frauenanteil von 87 Prozent und einen Männeranteil von 13 Prozent. Die durchschnittliche Berufserfahrung liegt bei 3,1 Jahren. Vorherige Berufserfahrungen umfassen Tätigkeiten als Projektmanager, Recruiter oder HR-Spezialist. In Bezug auf flexible Arbeitsmodelle bieten gerade einmal 0,4 Prozent der Stellen Remote-Arbeit, während 43 Prozent hybride Arbeitsmöglichkeiten ermöglichen. 9. Entwickler für Cybersicherheit Deutlich verschlechtert gegenüber seiner Spitzenplatzierung aus dem 2024, wo er noch den zweiten Platz erringen konnte, hat sich der Ingenieur für Cybersicherheit. Cyber-Security-Spezialisten, auch als Analyst oder Ingenieur für Cybersicherheit benannt, sind dafür verantwortlich Sicherheitsstandards zu implementieren, Risikofaktoren zu identifizieren und Schwachstellen aufzudecken, um ihre Organisation vor externen Cyberangriffen zu schützen. Zu den wichtigsten Fähigkeiten zählen Security Information and Event Management (SIEM), Netzwerksicherheit und Penetrationstests. Die häufigsten Branchen, in denen diese Fachkräfte tätig sind, umfassen IT-Dienstleistungen und IT-Beratung, die Herstellung von Transportausrüstung sowie Technologie und Information. Top-Regionen für Anstellungen sind die Metropolregion München, die Region Stuttgart und die Metropolregion Berlin/Brandenburg. Die Geschlechterverteilung ist mit der anderer Ingenieursberufe vergleichbar: 16 Prozent Frauen und 84 Prozent Männern, wobei die durchschnittliche Berufserfahrung vier Jahre beträgt. Viele Fachkräfte in diesem Bereich waren zuvor in der Systementwicklung, als Software-Ingenieur oder als IT-Berater tätig. In Bezug auf flexible Arbeitsmodelle ist jede achte Stelle remote und fast die Hälfte bietet hybride Arbeitsmöglichkeiten. 10. Plattform-Entwickler Ihren Platz 10 im Ranking aus dem Jahr 2024 konnten die Plattform-Entwickler verteidigen. Sie sind verantwortlich für die Planung und Wartung der IT-Infrastruktur sowie Plattformen eines Unternehmens, die Software-Anwendungen und -dienste unterstützen. Zu den häufigsten gefragten Fähigkeiten gehören Terraform, Kubernetes und Ansible. Diese Fachkräfte arbeiten vor allem in der IT-Dienstleistungs- und IT-Beratungs-, Technologie-, Informations- und Internet-Branche sowie dem Maschinenbau. Die wichtigsten Regionen für Anstellungen sind die Metropolregion Berlin/Brandenburg, die Metropolregion München sowie Hamburg und Umgebung. Die Geschlechterverteilung in diesem Bereich liegt bei 13 Prozent Frauen und 87 Prozent Männern. Die durchschnittliche Berufserfahrung beträgt 4,9 Jahre. Viele dieser Fachkräfte haben zuvor als Softwareingenieur, Plattform-Architekt oder Systemarchitekt gearbeitet. In Bezug auf flexible Arbeitsmodelle bietet fast jede fünfte Stelle Remote-Arbeit und 51 Prozent hybride Arbeitsmöglichkeiten an. 

Diese 10 Berufe sind in Deutschland besonders gefragt​ Welche Berufe im Jahr 2025 wo besonders gefragt sind, zeigt ein aktuelles Ranking, inklusive Jobeschreibung und Vorkenntnissen.
shutterstock.com – Andrii Yalanskyi

Die Arbeitswelt wandelt sich ständig, und neue Technologien wie Künstliche Intelligenz (KI) verändern Bewerbungs- und Einstellungsprozesse grundlegend. Gleichzeitig verschiebt sich die geopolitische Landschaft und deutsche Manager setzen andere Prioritäten als noch im Jahr 2024.

Was das für Arbeitssuchende bedeutet und welche Jobs 2025 besonders attraktiv und gefragt sind, zeigt das diesjährige  „Jobs im Trend 2025“ – Ranking von LinkedIn.  

1. Energiemanager

Das Ranking führt der Energiemanager an – 2024 noch auf Rang 5 unter den Top 10.

Energie-Manager, auch als Energiespezialisten oder Energie Consultants bezeichnet, spielen eine entscheidende Rolle bei der Optimierung des Energieverbrauchs in Unternehmen. Ihr Ziel ist es, Kosten zu senken und die Energieeffizienz nachhaltig zu steigern.

Zu den wichtigsten Fähigkeiten dieser Fachkräfte gehören Kenntnisse in Sachen Energiemanagement, Energieaudits und Energiepolitik. Sie sind vor allem in Branchen wie dem Maschinenbau, in Unternehmensberatungen und bei der Herstellung von Transportausrüstung gefragt. Besonders hohe Nachfrage gibt es in den Metropolregionen Berlin/Brandenburg, München und Düsseldorf.

Die Geschlechterverteilung in diesem Beruf ist aktuell unausgeglichen, mit einem Anteil von 20 Prozent Frauen und 80 Prozent Männern. Energie-Manager verfügen durchschnittlich über 3,7 Jahre Berufserfahrung und kommen häufig aus Vorberufen wie Sicherheitsmanager, wissenschaftliche Assistenten oder Office-Manager. Drei Prozent der Jobs lassen sich remote erledigen, 34 Prozent sind hybrid ausgelegt.

2. Business Process Owner

Neu in den Top 10 ist in diesem Jahr der Business Process Owner, auch bekannt als Business Process Analyst oder Business Process Consultant. Er ist für die Entwicklung, Verwaltung und Optimierung der Geschäftsprozesse in einer Organisation verantwortlich. Sein Ziel ist es, diese Prozesse mit den Unternehmenszielen in Einklang zu bringen und deren Effizienz zu maximieren.

Wichtige Fähigkeiten in diesem Beruf umfassen Geschäftsprozessoptimierung, den Umgang mit SAP ERP und Geschäftsprozessmanagement. Beschäftigung finden diese Fachkräfte besonders häufig in Branchen wie Maschinenbau, der Herstellung von Transportausrüstung und dem Großhandel. Zu den Regionen mit hoher Nachfrage zählen die Metropolregionen München und Berlin/Brandenburg sowie Nürnberg.

Die Geschlechterverteilung in diesem Beruf ist vergleichsweise ausgewogen, mit einem Anteil von 41 Prozent Frauen und 59 Prozent Männern. Business Process Owner verfügen im Durchschnitt über 5,1 Jahre Berufserfahrung und kommen oft aus Vorberufen wie Prozessmanager, Geschäftsprozessexperte oder Einkäufer. Ungefähr jeder zwölfte Job in diesem Fach kann vollständig remote erledigt werden, während 45 Prozent hybrid gestaltet sind.

3. Spezialist für Employer Branding

Der Spezialist für Employer Branding ist ebenfalls neu im Ranking, der Teilbereich Social Media landete allerdings als Influencer Marketing Manager bereits 2024 auf Rang 4.

Employer-Branding-Spezialisten, auch bekannt als Employer Branding Manager oder Employer Brand Manager, entwickeln und implementieren Strategien zur Verbesserung der Arbeitgebermarke eines Unternehmens. Ihr Ziel ist es, Talente und Fachkräfte erfolgreich anzuwerben und langfristig zu binden.

Zu den wichtigsten Fähigkeiten in diesem Beruf zählen Employer Branding, Personalmarketing und Recruiting. Besonders gefragt sind diese Spezialisten in Bereichen wie

IT-Dienstleistungen und IT-Beratung,

Maschinenbau sowie Technologie,

Information und

Internet.

Die Metropolregionen München, Berlin/Brandenburg und die Region Köln/Bonn sind zentrale Standorte für diese Tätigkeit.

Der Beruf ist überwiegend weiblich geprägt, mit einer Geschlechterverteilung von 86 Prozent Frauen und 14 Prozent Männern. Employer-Branding-Spezialisten verfügen im Durchschnitt über 3,3 Jahre Berufserfahrung und kommen häufig aus Positionen wie Talent Acquisition Spezialistin, Projektmanagerin oder HR-Spezialistin. Zwar sind nur 0,7 Prozent der Stellen vollständig remote zu erledigen, dafür aber 53 Prozent hybrid gestaltet.

4. Reiseberater

Reiseberater oder auch Verkaufsberater Reisebranche beziehungsweise Reiseexperte, sind für die Koordination, Buchung und Verwaltung von Reisearrangements für Einzelpersonen oder Gruppen zuständig. Ihr Fokus liegt dabei auf der Kosteneffizienz und einer reibungslosen Organisation.

Zu den zentralen Fähigkeiten in diesem Beruf zählen

Reisemanagement,

Vertrieb und

Reiseplanung.

Reiseberater finden Beschäftigung vor allem in den Branchen Reisebürodienstleistungen, Fluggesellschaften und Luftfahrt sowie Technologie, Information und Internet. Zu Hause ist diese Berufsgruppe vor allem in den Metropolregionen Berlin/Brandenburg und München sowie in Hamburg und Umgebung.

Auch dieser Beruf ist mehrheitlich weiblich geprägt, mit einer Geschlechterverteilung von 61 Prozent Frauen und 39 Prozent Männern. Die durchschnittliche Berufserfahrung beträgt 3,3 Jahre, und viele Beschäftigte waren vorher in Rollen wie HR-Geschäftspartner, Produktmanager oder Digital-Marketing-Manager tätig. Flexible Arbeitsmodelle sind zunehmend verbreitet, wobei 23 Prozent der Stellen remote und 12 Prozent hybrid angeboten werden.

5. Nachhaltigkeitsmanager

Ein weiterer Job, der 2024 unter anderem Namen als Nachhaltigkeitsspezialist die Top-10-Liste anführte, ist der Nachhaltigkeitsmanager.

Nachhaltigkeitsmanager, auch bekannt als Nachhaltigkeitsbeauftragte oder Sustainability Consultants, sind dafür verantwortlich, die Nachhaltigkeitsstrategie eines Unternehmens zu planen, zu steuern und zu evaluieren. Dabei achten sie darauf, dass die Strategie mit den Unternehmenswerten übereinstimmt und messbare Nachhaltigkeitsziele setzt.

Personen in diesem Beruf kümmern sich häufig um die Corporate Sustainability, das Erstellen von Nachhaltigkeitsberichten und die Entwicklung von Nachhaltigkeitsstrategien. Nachhaltigkeitsmanager sind vor allem in Branchen wie Unternehmensberatung, Maschinenbau und chemischer Produktion tätig. Wie auch der Spezialist für Employer Branding sind sie besonders in der Metropolregion München, der Region Köln/Bonn und der Metropolregion Berlin/Brandenburg gefragt.

Die Geschlechterverteilung in diesem Beruf liegt bei 61 Prozent Frauen und 39 Prozent Männern. Die durchschnittliche Berufserfahrung beträgt 3,5 Jahre, und viele Fachkräfte kommen aus Tätigkeiten als Projektmanager oder Kundendienstmitarbeiter. Flexible Arbeitsmodelle sind nicht so verbreitet wie in anderen Branchen: Zwei Prozent der Stellen werden remote, 47 Prozent hybrid angeboten.

6. KI-Entwickler

Ein alter Bekannter aus dem Jahr 2024, damals noch auf Rang 8, schafft es erneut in die Top 10 und verbessert sich auf Platz 6.

KI-Entwickler, auch bekannt als KI-Programmierer, sind für

die Programmierung,

das Testen und

die Verwaltung von KI-Software, Modellen sowie Infrastruktur verantwortlich.

Ihr Ziel ist es, Aufgaben zu automatisieren und komplexe Probleme durch den Einsatz Künstlicher Intelligenz zu lösen.

Wichtige Fähigkeiten in diesem Bereich umfassen Deep Learning, die Arbeit mit PyTorch und Expertise in Computer-Vision. KI-Entwickler sind vor allem in den Branchen Technologie, Information und Internet, IT-Dienstleistungen und -Beratung sowie Unternehmensberatung gefragt.

Zu den Top-Regionen für Stellenangebote zählen die Metropolregion München, die Metropolregion Berlin/Brandenburg und die Region Frankfurt/Rhein-Main.

Die Geschlechterverteilung in diesem Beruf ist vergleichbar mit der von Energiemanagern: 19 Prozent Frauen zu 81 Prozent Männern. Die durchschnittliche Berufserfahrung liegt bei 2,8 Jahren. Viele Beschäftigte wechseln aus Positionen wie Experte für Unternehmenstechnologie, wissenschaftliche Assistenz oder Dateningenieur in diesen Bereich. 28 Prozent der Stellen sind remote ausgelegt, und 50 Prozent bieten hybride Arbeitsmöglichkeiten.

7. Qualitätsingenieur für Zulieferer

Qualitätsingenieur für Zulieferer sorgen durch Bewertung und Prüfung dafür, dass die Produkte und Materialien von Zulieferern bestimmten Qualitätsstandards entsprechen. Alternative Namen sind Lieferantenqualitätsingenieur und Supplier Quality Engineers. Mit Platz sieben sind sie 2025 neu im Top-10-Ranking.

Wichtige Fähigkeiten in diesem Beruf umfassen das Produktionsteil-Abnahmeverfahren (PPAP) sowie Advanced Product Quality Planning (APQP). Gefragt sind diese Fachkräfte vor allem in den Branchen

Maschinenbau,

Herstellung von Transportausrüstung und

Herstellung medizinischer Geräte.

Zu den Top-Regionen für Stellenangebote zählen die Metropolregion Berlin/Brandenburg, Tübingen und Umgebung sowie Hamburg und Umgebung.

Die Geschlechterverteilung zeigt, dass 21 Prozent Frauen und 79 Prozent Männer in diesem Beruf tätig sind. Die durchschnittliche Berufserfahrung beträgt vier Jahre, wobei viele Beschäftigte zuvor als Qualitätsbeauftragte, Spezialist für Lieferantenqualität oder Spezialist für Lieferantenentwicklung gearbeitet haben. Flexible Arbeitsmodelle sind begrenzt: Nur ein Prozent der Stellen sind remote, während 41 Prozent hybride Arbeitsmöglichkeiten bieten.

8. Spezialist für HR-Entwicklung

Auf Platz acht folgen die Spezialisten für HR-Entwicklung, auch bekannt als Personalentwickler oder HR-Spezialisten. Sie analysieren die Fähigkeiten, die in einem Unternehmen benötigt werden, und fördern diese Kompetenzen in der Belegschaft. Ziel ist es, die berufliche Entwicklung der Mitarbeitenden zu unterstützen.

Zu den häufigsten Fähigkeiten gehören Mitarbeiterentwicklung, Recruiting und Führungskräfteentwicklung. Besonders gefragt sind diese Fachkräfte

Im Versicherungswesen,

In Ämtern für öffentliche Ordnung und

In der Kreditvermittlung.

Die Top-Regionen für eine Anstellung sind die Metropolregion München, Frankfurt/Rhein-Main und die Metropolregion Berlin/Brandenburg.

Die Geschlechterverteilung zeigt einen sehr hohen Frauenanteil von 87 Prozent und einen Männeranteil von 13 Prozent. Die durchschnittliche Berufserfahrung liegt bei 3,1 Jahren. Vorherige Berufserfahrungen umfassen Tätigkeiten als Projektmanager, Recruiter oder HR-Spezialist. In Bezug auf flexible Arbeitsmodelle bieten gerade einmal 0,4 Prozent der Stellen Remote-Arbeit, während 43 Prozent hybride Arbeitsmöglichkeiten ermöglichen.

9. Entwickler für Cybersicherheit

Deutlich verschlechtert gegenüber seiner Spitzenplatzierung aus dem 2024, wo er noch den zweiten Platz erringen konnte, hat sich der Ingenieur für Cybersicherheit.

Cyber-Security-Spezialisten, auch als Analyst oder Ingenieur für Cybersicherheit benannt, sind dafür verantwortlich

Sicherheitsstandards zu implementieren,

Risikofaktoren zu identifizieren und

Schwachstellen aufzudecken, um ihre Organisation vor externen Cyberangriffen zu schützen.

Zu den wichtigsten Fähigkeiten zählen Security Information and Event Management (SIEM), Netzwerksicherheit und Penetrationstests.

Die häufigsten Branchen, in denen diese Fachkräfte tätig sind, umfassen IT-Dienstleistungen und IT-Beratung, die Herstellung von Transportausrüstung sowie Technologie und Information.

Top-Regionen für Anstellungen sind die Metropolregion München, die Region Stuttgart und die Metropolregion Berlin/Brandenburg.

Die Geschlechterverteilung ist mit der anderer Ingenieursberufe vergleichbar: 16 Prozent Frauen und 84 Prozent Männern, wobei die durchschnittliche Berufserfahrung vier Jahre beträgt. Viele Fachkräfte in diesem Bereich waren zuvor in der Systementwicklung, als Software-Ingenieur oder als IT-Berater tätig. In Bezug auf flexible Arbeitsmodelle ist jede achte Stelle remote und fast die Hälfte bietet hybride Arbeitsmöglichkeiten.

10. Plattform-Entwickler

Ihren Platz 10 im Ranking aus dem Jahr 2024 konnten die Plattform-Entwickler verteidigen. Sie sind verantwortlich für

die Planung und Wartung der IT-Infrastruktur sowie

Plattformen eines Unternehmens, die Software-Anwendungen und -dienste unterstützen.

Zu den häufigsten gefragten Fähigkeiten gehören Terraform, Kubernetes und Ansible.

Diese Fachkräfte arbeiten vor allem in der IT-Dienstleistungs- und IT-Beratungs-, Technologie-, Informations- und Internet-Branche sowie dem Maschinenbau. Die wichtigsten Regionen für Anstellungen sind die Metropolregion Berlin/Brandenburg, die Metropolregion München sowie Hamburg und Umgebung.

Die Geschlechterverteilung in diesem Bereich liegt bei 13 Prozent Frauen und 87 Prozent Männern. Die durchschnittliche Berufserfahrung beträgt 4,9 Jahre. Viele dieser Fachkräfte haben zuvor als Softwareingenieur, Plattform-Architekt oder Systemarchitekt gearbeitet. In Bezug auf flexible Arbeitsmodelle bietet fast jede fünfte Stelle Remote-Arbeit und 51 Prozent hybride Arbeitsmöglichkeiten an.

Diese 10 Berufe sind in Deutschland besonders gefragt​ Weiterlesen »

Nach oben scrollen
×