Computerhaus Quickborn

Allgemein

So kommt Intel (vielleicht) wieder auf die Beine​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/01/Tada-Images_shutterstock_2396279541_16z9_DEOnly_NR.jpg?quality=50&strip=all 5464w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Tada-Images_shutterstock_2396279541_16z9_DEOnly_NR.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Tada-Images_shutterstock_2396279541_16z9_DEOnly_NR.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Tada-Images_shutterstock_2396279541_16z9_DEOnly_NR.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Tada-Images_shutterstock_2396279541_16z9_DEOnly_NR.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Tada-Images_shutterstock_2396279541_16z9_DEOnly_NR.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Tada-Images_shutterstock_2396279541_16z9_DEOnly_NR.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Tada-Images_shutterstock_2396279541_16z9_DEOnly_NR.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Tada-Images_shutterstock_2396279541_16z9_DEOnly_NR.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Tada-Images_shutterstock_2396279541_16z9_DEOnly_NR.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Tada-Images_shutterstock_2396279541_16z9_DEOnly_NR.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Seinem aktuellen Schattendasein zu entkommen, wird für Intel keine leichte Aufgabe.Tada Images | shutterstock.com Für das Gros der Chiphersteller – allen voran Nvidia und Broadcom – war 2024 ein Erfolgsjahr. Nicht so für Intel: Der ehemals dominante Chipriese hat mit Pat Gelsinger einen weiteren CEO verbrannt, massiv Marktanteile verloren und musste mit ansehen, wie sein Aktienkurs im Jahresverlauf um mehr als 60 Prozent einbrach. Das Ungemach bei Intel war 2024 so groß, dass etliche Branchenexperten empfahlen, was über Jahrzehnte undenkbar war: eine Private-Equity-Übernahme. Während Intel vor sich hinsiechte, gelang es Nvidia, sich vom Gaming-Spezialisten zum Synonym für künstliche Intelligenz zu transformieren. Und AMD – eine Company, deren Zukunft noch vor einem Jahrzehnt am seidenen Faden hing – weist heute eine Marktkapitalisierung auf, die doppelt so hoch ist wie die von Intel.    Dass Intel schon bald zu einer Dominanz zurückfindet wie vor zwanzig Jahren, ist eher nicht zu erwarten – es sei denn, Nvidia und AMD begehen in nächster Zeit katastrophale Fehler in Serie. Damit ist angesichts der derzeitigen Führungsteams bei den Hauptkonkurrenten von Intel jedoch nicht zu rechnen. Nichtsdestotrotz kann der angeschlagene Chipkonzern einige Maßnahmen ergreifen, um sich wieder Raum zum Atmen zu verschaffen – und künftig vielleicht auch wieder zu wachsen.    1. Den richtigen CEO finden Ähnlich wie AMD und Nvidia sollte Intels nächster CEO (wie auch schon Pat Gelsinger) wieder ein Elektroingenieur sein, der Halbleiter bis ins kleinste Detail versteht. Das sieht auch Forrester-Analyst Alvin Nguyen so: „Die Unternehmenskultur bei Intel wird sich verändern müssen. Dabei wird es darauf ankommen, einen glaubwürdigen Nachfolger für Gelsinger zu finden, der den Markt und die Technologie versteht. Das schränkt die Auswahl stark ein.“ Wie der Analyst anmerkt, komme es in der Zukunft für den neuen Intel-Lenker darauf an, technologische Wendepunkte zu erkennen: „Auch nach KI wird noch etwas kommen. Wenn es so weit ist, müssen die richtigen Entscheidungen getroffen werden. Das Schlimmste, was Intel passieren könnte, ist ein neuer CEO, der ausschließlich kurzfristig denkt – und damit die Fehler der Vergangenheit wiederholt:“ 2. Foundry-Kurs beibehalten… Intel befindet sich auf einer mehrjährigen Mission und will sich als Foundry-Dienstleister neu erfinden, um in diesem Bereich mit TSMC und Samsung zu konkurrieren. Wenn es etwas gibt, das man Pat Gelsinger zum Vorwurf machen kann, dann, dass er es nicht geschafft hat, dem Vorstand und den Investoren zu vermitteln, dass es sich bei dieser Initiative um ein langfristiges Projekt handelt, das Zeit und Geld erfordert, bevor es Früchte tragen kann.  Wie der selbständige Management-Berater Patrick Morehead argumentiert, sollte sich das dringend ändern: „Diese Initiative kann sich auszahlen, wenn Vorstand und Aktionäre ausreichend Geduld an den Tag legen. Intel muss die Strategie umsetzen, die es in den letzten drei Jahren definiert hat. Das heißt, im Bereich Foundry wettbewerbsfähig zu werden.“ Dabei könne der „18A“-Fertigungsprozess für Halbleiter künftig eine entscheidende Rolle spielen, erklärt Morehead: „Diese Technologie verwendet eine Process Node mit 1,8 Nanometer. Das würde Intel einen klaren Wettbewerbsvorteil gegenüber TSMC und Samsung verschaffen.“ Letztendlich komme es laut dem Berater darauf an, die neue Fertigungstechnologie so weit voranzubringen, dass sie ein profitables Geschäft ermöglicht, das nicht nur Intel sondern auch seine externen Partner unterstützt. Für dieses Unterfangen sind die Deadlines bereits gesetzt: In sechs Monaten soll die Massenproduktion im 18A-Verfahren für interne Produkte anlaufen. In 18 Monaten soll dann auch für die Partner produziert werden. 3. …oder sich aufspalten In Pat Gelsingers Vision sollte die Foundry-Sparte integraler Bestandteil von Intel sein. Mit Blick auf die Zukunft empfiehlt Nathan Brookwood, Research Fellow bei den Marktforschern von Insight 64, diesbezüglich einen Kurswechsel. Er rät, sich dabei eine Scheibe von AMD abzuschneiden: „Ich habe in den letzten Wochen mit diversen Experten gesprochen und die einhellige Wahrnehmung ist: Intel ist zu weit gegangen, um ein Konzern bleiben zu können. Es wird dem Unternehmen nichts anderes übrigbleiben, als sich aufzuspalten – in eine Produkt-Company und ein Foundry-Business.“ Zur Einordnung: AMD produzierte bis zum Jahr 2008 ebenfalls seine eigenen Chips. Dann entschied sich das Unternehmen dazu, sein Foundry-Geschäft an eine Investorengruppe aus Abu Dhabi zu veräußern. Das hat enorm dazu beigetragen, dass AMD heute floriert. Nebenbei ist aus diesem Move mit GlobalFoundries auch das heute nach Samsung und TSMC weltweit drittgrößte Chip-Fertigungsunternehmen entstanden. 4. Mehr Stellen abbauen Bereits Mitte August 2024 tauchten erste Berichte über massive Stellenstreichungen bei Intel auf. Bob O’Donnell, Chefanalyst von Technalysis Research, rechnet damit, dass es damit nicht getan sein wird: „Beim Einsparpotenzial besteht noch viel Raum nach oben, auch wenn Intel die meisten Mitarbeiter im Foundry-Bereich beschäftigt. Dennoch beschäftigt der Konzern im Bereich Design ungefähr doppelt so viele Mitarbeiter wie AMD – eventuell sogar mehr. Man wird lernen müssen, mit einer kleineren Belegschaft effizienter zu arbeiten.“ Einfach nur Personal abzubauen, wird dazu allerdings nicht ausreichen, wie Morehead klarstellt: „Man wird nicht effizienter, indem man Stellen streicht. Dazu gilt es, bisherige Arbeitsweisen auf den Prüfstand zu stellen und bestehende Prozesse zu optimieren.“ 5. KI-Strategie entwirren Intels Messaging rund um KI war bisher vor allem nicht fokussiert. Während Nvidia (Blackwell) und AMD (Instinct) klare Produktstrategien in diesem Bereich vorweisen können, verwirrt Intel potenzielle Kunden bislang mit seinen Gaudi-, CPU- Max-, Xeon- und Altera-Produktlinien. Research-Experte Brookwood fasst aus seiner Perspektive die To-Dos für Intel zusammen: „Das Unternehmen muss herausfinden, wie es im KI-Bereich Boden gut machen kann. Oder sie müssen eine andere Technologie finden, mit der sie neuartige Produkte entwickeln und sich eine wieder eine günstigere Marktposition erarbeiten können.“ If you had to express this meme, but as a stock chart, this is what it would look like pic.twitter.com/MsGiFKVHFA— siliconmemes (@realmemes6) December 3, 2024 Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

So kommt Intel (vielleicht) wieder auf die Beine​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/01/Tada-Images_shutterstock_2396279541_16z9_DEOnly_NR.jpg?quality=50&strip=all 5464w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Tada-Images_shutterstock_2396279541_16z9_DEOnly_NR.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Tada-Images_shutterstock_2396279541_16z9_DEOnly_NR.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Tada-Images_shutterstock_2396279541_16z9_DEOnly_NR.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Tada-Images_shutterstock_2396279541_16z9_DEOnly_NR.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Tada-Images_shutterstock_2396279541_16z9_DEOnly_NR.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Tada-Images_shutterstock_2396279541_16z9_DEOnly_NR.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Tada-Images_shutterstock_2396279541_16z9_DEOnly_NR.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Tada-Images_shutterstock_2396279541_16z9_DEOnly_NR.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Tada-Images_shutterstock_2396279541_16z9_DEOnly_NR.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Tada-Images_shutterstock_2396279541_16z9_DEOnly_NR.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Seinem aktuellen Schattendasein zu entkommen, wird für Intel keine leichte Aufgabe.Tada Images | shutterstock.com

Für das Gros der Chiphersteller – allen voran Nvidia und Broadcom – war 2024 ein Erfolgsjahr. Nicht so für Intel: Der ehemals dominante Chipriese hat mit Pat Gelsinger einen weiteren CEO verbrannt, massiv Marktanteile verloren und musste mit ansehen, wie sein Aktienkurs im Jahresverlauf um mehr als 60 Prozent einbrach. Das Ungemach bei Intel war 2024 so groß, dass etliche Branchenexperten empfahlen, was über Jahrzehnte undenkbar war: eine Private-Equity-Übernahme. Während Intel vor sich hinsiechte, gelang es Nvidia, sich vom Gaming-Spezialisten zum Synonym für künstliche Intelligenz zu transformieren. Und AMD – eine Company, deren Zukunft noch vor einem Jahrzehnt am seidenen Faden hing – weist heute eine Marktkapitalisierung auf, die doppelt so hoch ist wie die von Intel.   

Dass Intel schon bald zu einer Dominanz zurückfindet wie vor zwanzig Jahren, ist eher nicht zu erwarten – es sei denn, Nvidia und AMD begehen in nächster Zeit katastrophale Fehler in Serie. Damit ist angesichts der derzeitigen Führungsteams bei den Hauptkonkurrenten von Intel jedoch nicht zu rechnen. Nichtsdestotrotz kann der angeschlagene Chipkonzern einige Maßnahmen ergreifen, um sich wieder Raum zum Atmen zu verschaffen – und künftig vielleicht auch wieder zu wachsen.   

1. Den richtigen CEO finden

Ähnlich wie AMD und Nvidia sollte Intels nächster CEO (wie auch schon Pat Gelsinger) wieder ein Elektroingenieur sein, der Halbleiter bis ins kleinste Detail versteht. Das sieht auch Forrester-Analyst Alvin Nguyen so: „Die Unternehmenskultur bei Intel wird sich verändern müssen. Dabei wird es darauf ankommen, einen glaubwürdigen Nachfolger für Gelsinger zu finden, der den Markt und die Technologie versteht. Das schränkt die Auswahl stark ein.“

Wie der Analyst anmerkt, komme es in der Zukunft für den neuen Intel-Lenker darauf an, technologische Wendepunkte zu erkennen: „Auch nach KI wird noch etwas kommen. Wenn es so weit ist, müssen die richtigen Entscheidungen getroffen werden. Das Schlimmste, was Intel passieren könnte, ist ein neuer CEO, der ausschließlich kurzfristig denkt – und damit die Fehler der Vergangenheit wiederholt:“

2. Foundry-Kurs beibehalten…

Intel befindet sich auf einer mehrjährigen Mission und will sich als Foundry-Dienstleister neu erfinden, um in diesem Bereich mit TSMC und Samsung zu konkurrieren. Wenn es etwas gibt, das man Pat Gelsinger zum Vorwurf machen kann, dann, dass er es nicht geschafft hat, dem Vorstand und den Investoren zu vermitteln, dass es sich bei dieser Initiative um ein langfristiges Projekt handelt, das Zeit und Geld erfordert, bevor es Früchte tragen kann. 

Wie der selbständige Management-Berater Patrick Morehead argumentiert, sollte sich das dringend ändern: „Diese Initiative kann sich auszahlen, wenn Vorstand und Aktionäre ausreichend Geduld an den Tag legen. Intel muss die Strategie umsetzen, die es in den letzten drei Jahren definiert hat. Das heißt, im Bereich Foundry wettbewerbsfähig zu werden.“

Dabei könne der „18A“-Fertigungsprozess für Halbleiter künftig eine entscheidende Rolle spielen, erklärt Morehead: „Diese Technologie verwendet eine Process Node mit 1,8 Nanometer. Das würde Intel einen klaren Wettbewerbsvorteil gegenüber TSMC und Samsung verschaffen.“

Letztendlich komme es laut dem Berater darauf an, die neue Fertigungstechnologie so weit voranzubringen, dass sie ein profitables Geschäft ermöglicht, das nicht nur Intel sondern auch seine externen Partner unterstützt. Für dieses Unterfangen sind die Deadlines bereits gesetzt: In sechs Monaten soll die Massenproduktion im 18A-Verfahren für interne Produkte anlaufen. In 18 Monaten soll dann auch für die Partner produziert werden.

3. …oder sich aufspalten

In Pat Gelsingers Vision sollte die Foundry-Sparte integraler Bestandteil von Intel sein. Mit Blick auf die Zukunft empfiehlt Nathan Brookwood, Research Fellow bei den Marktforschern von Insight 64, diesbezüglich einen Kurswechsel. Er rät, sich dabei eine Scheibe von AMD abzuschneiden: „Ich habe in den letzten Wochen mit diversen Experten gesprochen und die einhellige Wahrnehmung ist: Intel ist zu weit gegangen, um ein Konzern bleiben zu können. Es wird dem Unternehmen nichts anderes übrigbleiben, als sich aufzuspalten – in eine Produkt-Company und ein Foundry-Business.“

Zur Einordnung: AMD produzierte bis zum Jahr 2008 ebenfalls seine eigenen Chips. Dann entschied sich das Unternehmen dazu, sein Foundry-Geschäft an eine Investorengruppe aus Abu Dhabi zu veräußern. Das hat enorm dazu beigetragen, dass AMD heute floriert. Nebenbei ist aus diesem Move mit GlobalFoundries auch das heute nach Samsung und TSMC weltweit drittgrößte Chip-Fertigungsunternehmen entstanden.

4. Mehr Stellen abbauen

Bereits Mitte August 2024 tauchten erste Berichte über massive Stellenstreichungen bei Intel auf. Bob O’Donnell, Chefanalyst von Technalysis Research, rechnet damit, dass es damit nicht getan sein wird: „Beim Einsparpotenzial besteht noch viel Raum nach oben, auch wenn Intel die meisten Mitarbeiter im Foundry-Bereich beschäftigt. Dennoch beschäftigt der Konzern im Bereich Design ungefähr doppelt so viele Mitarbeiter wie AMD – eventuell sogar mehr. Man wird lernen müssen, mit einer kleineren Belegschaft effizienter zu arbeiten.“

Einfach nur Personal abzubauen, wird dazu allerdings nicht ausreichen, wie Morehead klarstellt: „Man wird nicht effizienter, indem man Stellen streicht. Dazu gilt es, bisherige Arbeitsweisen auf den Prüfstand zu stellen und bestehende Prozesse zu optimieren.“

5. KI-Strategie entwirren

Intels Messaging rund um KI war bisher vor allem nicht fokussiert. Während Nvidia (Blackwell) und AMD (Instinct) klare Produktstrategien in diesem Bereich vorweisen können, verwirrt Intel potenzielle Kunden bislang mit seinen Gaudi-, CPU- Max-, Xeon- und Altera-Produktlinien.

Research-Experte Brookwood fasst aus seiner Perspektive die To-Dos für Intel zusammen: „Das Unternehmen muss herausfinden, wie es im KI-Bereich Boden gut machen kann. Oder sie müssen eine andere Technologie finden, mit der sie neuartige Produkte entwickeln und sich eine wieder eine günstigere Marktposition erarbeiten können.“

If you had to express this meme, but as a stock chart, this is what it would look like pic.twitter.com/MsGiFKVHFA— siliconmemes (@realmemes6) December 3, 2024

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

So kommt Intel (vielleicht) wieder auf die Beine​ Weiterlesen »

So „verkaufen“ Sie Lücken im Lebenslauf​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/01/Lebenslauf-shutterstock_2431952979.jpg?quality=50&strip=all 6000w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Lebenslauf-shutterstock_2431952979.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Lebenslauf-shutterstock_2431952979.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Lebenslauf-shutterstock_2431952979.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Lebenslauf-shutterstock_2431952979.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Lebenslauf-shutterstock_2431952979.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Lebenslauf-shutterstock_2431952979.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Lebenslauf-shutterstock_2431952979.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Lebenslauf-shutterstock_2431952979.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Lebenslauf-shutterstock_2431952979.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Lebenslauf-shutterstock_2431952979.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Eine berufliche Pause wird heute nicht mehr als Zeichen von Schwäche gewertet, sondern als Gelegenheit zur Weiterentwicklung und als Alleinstellungsmerkmal.A9 STUDIO – Shutterstock 2431952979 Elternzeit, Sabbatical, berufliche oder persönliche Weiterbildung, Pflege von Angehörigen oder berufliche Neuorientierung – für eine Karrierepause gibt es viele gute Gründe. Gerade zum Jahreswechsel denken viele über ihren nächsten beruflichen Schritt nach.   Dabei stellt sich oft die Frage, wie solche Lücken im Lebenslauf später kaschiert werden können. Doch warum eigentlich? Eine LinkedIn-Studie zeigte bereits vor einiger Zeit, dass besonders Arbeitnehmer von kleinen Auszeiten profitieren und vielfältige neue Hard- und Soft Skills erlernen.   Früher schien eine Auszeit vom Job undenkbar. Denn so ein Bruch wurde von Recruitern negativ bewertet. Heute beobachten wir ein Umdenken. Viele betrachten eine berufliche Pause nicht mehr als Zeichen von Schwäche, sondern als Gelegenheit zur Weiterentwicklung und als Alleinstellungsmerkmal. Ob für Weiterbildung, Reisen oder persönliche Projekte – eine Auszeit kann neue Perspektiven eröffnen und die Karriere vorantreiben.   Denn sogar in Pausen, die auf den ersten Blick nichts mit unserem Job zu tun haben, lernen wir dazu. Zum Beispiel verbessern viele Mütter und Väter in der Elternzeit ihr Zeitmanagement oder ihre Problemlösungskompetenz. Wichtig ist, dem Arbeitgeber die Vorteile aufzuzeigen und die potenziellen oder gewonnenen Erfahrungen und Qualifikationen selbstbewusst darzustellen.   Wie Ihnen das gelingt und Sie die berufliche Auszeit auch noch für Ihre berufliche Entwicklung nutzen können, verraten folgende Tipps:    1. Fassen Sie einen Plan und nutzen Sie Ihr Netzwerk Ob Sabbatical, bewusste Kündigung oder Bildungsurlaub – Auszeiten ohne Verpflichtungen wie die Pflege von Angehörigen oder Elternzeiten sind wertvolle Gelegenheiten, Dinge zu tun, für die Sie im Arbeitsalltag keine Zeit haben. Überlegen Sie sich vorher gut, was Sie in Ihrer Karrierepause erreichen möchten.   Welche privaten wie beruflichen Wünsche und Ziele haben Sie? Welche Prioritäten wollen Sie setzen? Diese Fragen helfen Ihnen nicht nur, einen Plan für Ihre Auszeit zu fassen, sondern sie auch Ihrem Arbeitgeber gegenüber zu begründen. Wertvolle Tipps dafür und neue Perspektiven können Ihnen Freunde, Bekannte oder Kollegen geben, die bereits eine Auszeit genommen haben.     2. Reflektieren Sie Ihre neuen Stärken Machen Sie sich bewusst, dass Sie auch außerhalb Ihres Arbeitsumfeldes etwas Nützliches für den Job lernen können. Denn mit jeder Ihrer Erfahrungen erweitern Sie Ihre Fähigkeiten. Zum Beispiel: Wenn Sie den täglichen Alltags-Wahnsinn mit kleinen Kindern jonglieren, setzen Sie als Mutter oder Vater Ihr Organisationstalent ein und üben sich vermutlich in Stressmanagement.   Auf Reisen stärken Sie Ihre interkulturellen Kompetenzen. Es lohnt sich, diese neu gewonnenen Skills zu reflektieren und zu kommunizieren – zum Beispiel auf Ihrem LinkedIn-Profil. Das eröffnet Ihnen möglicherweise neue Job-Perspektiven. Denn 45 Prozent der Recruiter suchen auf LinkedIn nicht nur nach Bildungs- und Berufsabschlüssen, sondern primär nach Fähigkeiten.    3. Stehen Sie zu Ihrer Pause Eine Karrierepause sollte nichts sein, wofür Sie sich rechtfertigen müssen. Vielmehr zeigt sie, dass Sie reflektiert und strategisch handeln. Gehen Sie offen damit um. Zum Beispiel, indem Sie die Pause auf Ihrem LinkedIn-Profil als Berufserfahrung angeben. Idealerweise erklären Sie in diesem Zuge Ihre Beweggründe und die Art der Pause.   Falls Sie sich in Zukunft für einen anderen Job bewerben, wirft diese „Lücke“ keine Fragen mehr auf. Am besten teilen Sie Ihre Erfahrungen auch in einem eigenen Beitrag. Erzählen Sie, was Sie dadurch gelernt haben – egal ob auf der Reise, bei der Pflege oder während einer Weiterbildung. Diese Transparenz schafft Vertrauen bei potenziellen Arbeitgebern. Gleichzeitig zeigen Sie, wie einzigartig Sie sind.    4. Bilden Sie sich weiter Falls Sie während Ihrer Auszeit noch Kapazitäten und Lust haben, bietet es sich an, Ihren Horizont zusätzlich zu erweitern. Das ist gerade jetzt wichtig, denn: Seit 2016 und bis 2030 werden sich, beschleunigt durch die Künstliche Intelligenz, rund 65 Prozent der Skills verändern, die wir für unsere Jobs brauchen – das haben LinkedIn-Analysen ergeben. Online gibt es viele Möglichkeiten, in kürzester Zeit Neues zu lernen – und das von überall auf der Welt.   Zum Beispiel bietet die Plattform LinkedIn Learning eine große Themenvielfalt. Sie können Einheiten wie „Prompt Engineering – fortgeschrittene Techniken“ oder „Business Englisch-Tipps“ prima in der Hängematte auf Bali, im Strandkorb in St. Peter-Ording oder auch auf dem heimischen Sofa absolvieren. Für was auch immer Sie sich entscheiden: Zertifikate über berufliche Weiterbildung zeigen, dass Sie Ihre Auszeit aktiv gestaltet haben und bereit sind, in Ihre Zukunft zu investieren. Und Spaß hatten Sie nebenbei auch – denn den sollten Sie dabei natürlich nicht vergessen!  

So „verkaufen“ Sie Lücken im Lebenslauf​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/01/Lebenslauf-shutterstock_2431952979.jpg?quality=50&strip=all 6000w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Lebenslauf-shutterstock_2431952979.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Lebenslauf-shutterstock_2431952979.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Lebenslauf-shutterstock_2431952979.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Lebenslauf-shutterstock_2431952979.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Lebenslauf-shutterstock_2431952979.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Lebenslauf-shutterstock_2431952979.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Lebenslauf-shutterstock_2431952979.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Lebenslauf-shutterstock_2431952979.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Lebenslauf-shutterstock_2431952979.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Lebenslauf-shutterstock_2431952979.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Eine berufliche Pause wird heute nicht mehr als Zeichen von Schwäche gewertet, sondern als Gelegenheit zur Weiterentwicklung und als Alleinstellungsmerkmal.A9 STUDIO – Shutterstock 2431952979

Elternzeit, Sabbatical, berufliche oder persönliche Weiterbildung, Pflege von Angehörigen oder berufliche Neuorientierung – für eine Karrierepause gibt es viele gute Gründe. Gerade zum Jahreswechsel denken viele über ihren nächsten beruflichen Schritt nach.  

Dabei stellt sich oft die Frage, wie solche Lücken im Lebenslauf später kaschiert werden können. Doch warum eigentlich? Eine LinkedIn-Studie zeigte bereits vor einiger Zeit, dass besonders Arbeitnehmer von kleinen Auszeiten profitieren und vielfältige neue Hard- und Soft Skills erlernen.  

Früher schien eine Auszeit vom Job undenkbar. Denn so ein Bruch wurde von Recruitern negativ bewertet. Heute beobachten wir ein Umdenken. Viele betrachten eine berufliche Pause nicht mehr als Zeichen von Schwäche, sondern als Gelegenheit zur Weiterentwicklung und als Alleinstellungsmerkmal. Ob für Weiterbildung, Reisen oder persönliche Projekte – eine Auszeit kann neue Perspektiven eröffnen und die Karriere vorantreiben.  

Denn sogar in Pausen, die auf den ersten Blick nichts mit unserem Job zu tun haben, lernen wir dazu. Zum Beispiel verbessern viele Mütter und Väter in der Elternzeit ihr Zeitmanagement oder ihre Problemlösungskompetenz. Wichtig ist, dem Arbeitgeber die Vorteile aufzuzeigen und die potenziellen oder gewonnenen Erfahrungen und Qualifikationen selbstbewusst darzustellen.  

Wie Ihnen das gelingt und Sie die berufliche Auszeit auch noch für Ihre berufliche Entwicklung nutzen können, verraten folgende Tipps: 

 

1. Fassen Sie einen Plan und nutzen Sie Ihr Netzwerk

Ob Sabbatical, bewusste Kündigung oder Bildungsurlaub – Auszeiten ohne Verpflichtungen wie die Pflege von Angehörigen oder Elternzeiten sind wertvolle Gelegenheiten, Dinge zu tun, für die Sie im Arbeitsalltag keine Zeit haben. Überlegen Sie sich vorher gut, was Sie in Ihrer Karrierepause erreichen möchten.  

Welche privaten wie beruflichen Wünsche und Ziele haben Sie? Welche Prioritäten wollen Sie setzen? Diese Fragen helfen Ihnen nicht nur, einen Plan für Ihre Auszeit zu fassen, sondern sie auch Ihrem Arbeitgeber gegenüber zu begründen. Wertvolle Tipps dafür und neue Perspektiven können Ihnen Freunde, Bekannte oder Kollegen geben, die bereits eine Auszeit genommen haben.  

 

2. Reflektieren Sie Ihre neuen Stärken

Machen Sie sich bewusst, dass Sie auch außerhalb Ihres Arbeitsumfeldes etwas Nützliches für den Job lernen können. Denn mit jeder Ihrer Erfahrungen erweitern Sie Ihre Fähigkeiten. Zum Beispiel: Wenn Sie den täglichen Alltags-Wahnsinn mit kleinen Kindern jonglieren, setzen Sie als Mutter oder Vater Ihr Organisationstalent ein und üben sich vermutlich in Stressmanagement.  

Auf Reisen stärken Sie Ihre interkulturellen Kompetenzen. Es lohnt sich, diese neu gewonnenen Skills zu reflektieren und zu kommunizieren – zum Beispiel auf Ihrem LinkedIn-Profil. Das eröffnet Ihnen möglicherweise neue Job-Perspektiven. Denn 45 Prozent der Recruiter suchen auf LinkedIn nicht nur nach Bildungs- und Berufsabschlüssen, sondern primär nach Fähigkeiten. 

 

3. Stehen Sie zu Ihrer Pause

Eine Karrierepause sollte nichts sein, wofür Sie sich rechtfertigen müssen. Vielmehr zeigt sie, dass Sie reflektiert und strategisch handeln. Gehen Sie offen damit um. Zum Beispiel, indem Sie die Pause auf Ihrem LinkedIn-Profil als Berufserfahrung angeben. Idealerweise erklären Sie in diesem Zuge Ihre Beweggründe und die Art der Pause.  

Falls Sie sich in Zukunft für einen anderen Job bewerben, wirft diese „Lücke“ keine Fragen mehr auf. Am besten teilen Sie Ihre Erfahrungen auch in einem eigenen Beitrag. Erzählen Sie, was Sie dadurch gelernt haben – egal ob auf der Reise, bei der Pflege oder während einer Weiterbildung. Diese Transparenz schafft Vertrauen bei potenziellen Arbeitgebern. Gleichzeitig zeigen Sie, wie einzigartig Sie sind. 

 

4. Bilden Sie sich weiter

Falls Sie während Ihrer Auszeit noch Kapazitäten und Lust haben, bietet es sich an, Ihren Horizont zusätzlich zu erweitern. Das ist gerade jetzt wichtig, denn: Seit 2016 und bis 2030 werden sich, beschleunigt durch die Künstliche Intelligenz, rund 65 Prozent der Skills verändern, die wir für unsere Jobs brauchen – das haben LinkedIn-Analysen ergeben. Online gibt es viele Möglichkeiten, in kürzester Zeit Neues zu lernen – und das von überall auf der Welt.  

Zum Beispiel bietet die Plattform LinkedIn Learning eine große Themenvielfalt. Sie können Einheiten wie „Prompt Engineering – fortgeschrittene Techniken“ oder „Business Englisch-Tipps“ prima in der Hängematte auf Bali, im Strandkorb in St. Peter-Ording oder auch auf dem heimischen Sofa absolvieren. Für was auch immer Sie sich entscheiden: Zertifikate über berufliche Weiterbildung zeigen, dass Sie Ihre Auszeit aktiv gestaltet haben und bereit sind, in Ihre Zukunft zu investieren. Und Spaß hatten Sie nebenbei auch – denn den sollten Sie dabei natürlich nicht vergessen! 

So „verkaufen“ Sie Lücken im Lebenslauf​ Weiterlesen »

SAPs Gretchenfrage: Cloud First oder Cloud Only?​

Allgemein

width=”2500″ height=”1406″ sizes=”(max-width: 2500px) 100vw, 2500px”>Auf welchem Weg sollten Anwender SAP in die Cloud folgen? Die richtige Antwort auf diese Frage zu finden, ist alles andere als einfach. lassedesignen – shutterstock.com SAPs Cloud-Strategie hat in der IT-Szene für intensive Debatten gesorgt. Mit der Entscheidung, innovative Funktionen künftig hauptsächlich für Cloud-Versionen von S/4HANA bereitzustellen, stehen viele Unternehmen vor der Herausforderung, ihre bisherigen Investitionen in On-Premises-Systeme zu bewerten und ihre zukünftige IT-Strategie neu auszurichten. Besonders betroffen sind jene Betriebe, die kürzlich auf S/4HANA On-Premises migriert sind oder dies planen. On-Premises scheint für viele SAP-Kunden gesetzt Die Sorge, dass SAP ihre Kunden zu einer reinen „Cloud Only“-Strategie zwingt, hat zu Unsicherheiten geführt. Diese betreffen nicht nur die strategische Ausrichtung, sondern auch Fragen zur Kontrolle über Daten und den Umfang zukünftiger Investitionen. Bei genauerer Betrachtung zeigt sich jedoch ein differenzierteres Bild. Was bedeuten Cloud First und Cloud Only? Die Begriffe „Cloud First“ und „Cloud Only“ sind zentral für das Verständnis der aktuellen SAP-Strategie: „Cloud First“ bedeutet, dass neue Innovationen vorrangig für die Cloud entwickelt und bereitgestellt werden, während On-Premises-Optionen zwar weiterhin existieren, jedoch mit möglicherweise eingeschränkten Funktionalitäten. „Cloud Only“ hingegen impliziert, dass bestimmte Funktionen ausschließlich in der Cloud verfügbar sind. Offiziell verfolgt SAP eine „Cloud First“-Strategie, doch die schrittweise Einschränkung von On-Premises-Optionen deutet darauf hin, dass der Softwarekonzern langfristig stärker auf „Cloud Only“ setzt. Diese Ausrichtung hat bei vielen Anwenderunternehmen Bedenken hinsichtlich der Abhängigkeit von externen Anbietern, der Entwicklung der Lizenzkosten und insbesondere bezüglich der Datensicherheit hervorgerufen. Die Tatsache, dass die meisten Hyperscaler, bei denen SAP-Lösungen gehostet werden, ihren Hauptsitz außerhalb der EU haben, verstärkt diese Sorgen. Besonders für europäische Unternehmen, die unter die strengen Datenschutzregelungen der DSGVO fallen, stellt dies ein Risiko dar, selbst wenn SAP und die Hyperscaler versichern, dass Daten in europäischen Rechenzentren verbleiben. Der Unterschied zwischen Cloud- und On-Premises-Systemen Ein zentraler Aspekt in dieser Diskussion ist die Unterscheidung zwischen der klassischen On-Premises-Variante und den Cloud-Angeboten von SAP. On-Premises-Systeme werden in firmeneigenen Rechenzentren betrieben und bieten Unternehmen die volle Kontrolle über ihre Daten. Diese Systeme sind häufig das Ergebnis jahrelanger Anpassungen und Investitionen, um die SAP-Landschaften spezifisch auf die Bedürfnisse des jeweiligen Betriebs zuzuschneiden. Cloud-Anbieter: 9 Alternativen zu AWS, Azure und Google Cloud Cloud-Lösungen hingegen werden entweder in der Public Cloud oder in der Private Cloud gehostet. Die Public Cloud bietet standardisierte Services, die einfach skalierbar, aber weniger anpassbar sind. Die Private Cloud kombiniert die Vorteile der Cloud mit einem höheren Maß an Kontrolle und Anpassbarkeit, was insbesondere für Unternehmen mit spezifischen Compliance-Anforderungen attraktiv ist. Technologisch gesehen unterscheidet sich die Private Cloud kaum von einem klassischen On-Premises-System, da beide Ansätze ähnliche Erweiterungs- und Customizing-Optionen bieten. Diese Hybridmodelle gewinnen in der SAP-Community zunehmend an Bedeutung, da sie es Unternehmen ermöglichen, die Vorteile beider Welten zu nutzen. RISE und GROW – mehr Vertrag als Produkt In diesem Kontext spielen RISE with SAP und GROW with SAP eine entscheidende Rolle. Oft missverstanden, sind diese Konzepte keine eigenständigen Produkte, sondern im Grunde Vertragskonstrukte, die es Unternehmen ermöglichen, S/4HANA-Lizenzen mit zusätzlichen Services zu kombinieren. Sie bieten Zugang zu wichtigen Technologien wie der Integration Suite oder der Analytics Cloud, die Unternehmen dabei unterstützen, Cloud-Anwendungen in bestehende On-Premises-Systeme zu integrieren. Die Integration Suite beispielsweise ersetzt die klassische PI/PO-Lösung und zeigt, wie SAP versucht, Unternehmen schrittweise in die Cloud zu führen, ohne sie dazu zu zwingen. Wenn es um den KI-Einsatz geht, darf das SAP-Betriebsmodell eigentlich keine Rolle spielen, sagen zwei Drittel der von der DSAG befragten SAP-Anwender.DSAG Die Frage, ob SAP ihre Kunden bewusst in eine „Cloud Only“-Strategie drängt, lässt sich allerdings nicht eindeutig beantworten. Grundsätzlich wirft die Komplexität der Vertragsmodelle Fragen auf – etwa wie sich die Lizenzkosten langfristig entwickeln werden und wie hoch der Grad an Flexibilität sein wird, den diese Lösungen tatsächlich bieten. Schlussendlich priorisiert SAP die Cloud, doch hybride Modelle bleiben eine valide Option. Die SAP Business Technology Platform als Integrationsbrücke Ein Schlüssel zu diesen hybriden Szenarien ist die SAP Business Technology Platform (BTP). Sie ermöglicht es Unternehmen, Cloud-Lösungen wie die Digital Manufacturing Cloud oder die Analytics Cloud nahtlos mit On-Premises-Systemen zu verbinden. Die Integration erfolgt über Technologien wie beispielsweise den SAP Cloud Connector, der eine sichere Verbindung zwischen Cloud- und On-Premises-Systemen schafft. Auch die Nachfolgelösung für den Solution Manager, Cloud ALM, kann über die BTP in bestehende Landschaften eingebunden werden. Dies zeigt, dass SAP bewusst darauf setzt, Brücken zwischen Cloud und On-Premises zu bauen, um den Übergang für Unternehmen zu erleichtern. DSAG-Investitionsumfrage: SAP-Anwender schimpfen über Cloud-Preise Dennoch ist der Schritt in die Cloud mit Herausforderungen verbunden. Neben technischen Fragen zur Integration gibt es auch strategische Überlegungen, die Unternehmen berücksichtigen müssen. Dazu zählen Aspekte wie die langfristige Entwicklung der Lizenzkosten, Sicherheitsanforderungen und die Geschwindigkeit, mit der neue Innovationen eingeführt werden können. Innovationen und die Rolle der Cloud Ein weiteres wichtiges Thema ist die Entwicklungsgeschwindigkeit. Die Cloud ermöglicht SAP eine schnellere Einführung neuer Funktionen, da Updates zentralisiert und regelmäßig ausgerollt werden können. On-Premises-Systeme hingegen sind in dieser Hinsicht langsamer, da Unternehmen selbst für die Implementierung neuer Releases verantwortlich sind. Dies bedeutet jedoch nicht, dass On-Premises-Lösungen vollständig von Innovationen ausgeschlossen sind. Über die BTP können auch On-Premises-Nutzer von neuen Technologien profitieren, etwa durch die Integration moderner Analyse-Tools oder KI-gestützter Anwendungen. Anwender kritisieren SAPs KI-Kurs Die langfristige Entscheidung zwischen einer reinen Cloud-Strategie und einem hybriden Ansatz erfordert eine sorgfältige Abwägung der Vor- und Nachteile. Für viele Unternehmen stellen Sicherheitsbedenken einen zentralen Faktor dar. Obwohl die großen Hyperscaler umfangreiche Sicherheitsmaßnahmen bieten, bleibt die Kontrolle über Daten ein sensibles Thema, insbesondere in stark regulierten Branchen wie dem Finanz- oder Gesundheitswesen. Hier lesen Sie weitere Details zu SAPs KI-Strategie: SAP TechEd – das sind die wichtigsten Ankündigungen SAP-CEO Christian Klein: Alles, was wir tun, enthält KI Sapphire 2024: SAP trimmt seine Software auf KI-Kurs Generative-AI-Funktionen: SAP stellt mit Joule einen eigenen KI-Bot vor Andererseits bieten hybride Ansätze die Möglichkeit, bestehende Investitionen in On-Premises-Systeme zu schützen und gleichzeitig von den Innovationen der Cloud zu profitieren. Unternehmen, die sich für diesen Weg entscheiden, sollten jedoch beachten, dass die Verwaltung einer hybriden Landschaft zusätzliche Anforderungen an die IT-Abteilung stellt. Fazit: Cloud ja, aber bitte hybrid Die Zukunft der SAP-Strategie zeigt eine klare Ausrichtung auf die Cloud, doch hybride Ansätze bleiben für viele Unternehmen eine gangbare Lösung. Der Erfolg hängt von genauer Analyse und Planung ab, die sowohl technische als auch wirtschaftliche Aspekte berücksichtigen. Lösungen wie die BTP spielen hierbei eine zentrale Rolle, da sie den Weg in die Cloud ebnen und gleichzeitig bestehende Investitionen schützen. Unternehmen, die diesen Übergang erfolgreich gestalten, können von den Vorteilen der Cloud profitieren, ohne ihre bisherigen Systeme vollständig aufgeben zu müssen. Dies zeigt sich insbesondere bei der Integration neuer Technologien, die ausschließlich in der Cloud verfügbar sind, wie etwa fortschrittliche Analyse- und IoT-Lösungen. Die Entscheidung, ob „Cloud First“ oder „Cloud Only“ der richtige Weg ist, bleibt letztlich eine Frage der individuellen Anforderungen und Ziele. SAP bietet die Werkzeuge und Strategien, um beide Ansätze zu unterstützen. Wichtig ist, dass Unternehmen diese Chancen nutzen, um ihre digitale Transformation voranzutreiben und sich für die Zukunft zu rüsten. Die Cloud ist kein Selbstzweck, sondern ein Mittel, um Innovation, Effizienz und Wettbewerbsfähigkeit zu steigern. Unternehmen, die diese Potenziale erkennen und gezielt umsetzen, werden langfristig erfolgreich sein. 

SAPs Gretchenfrage: Cloud First oder Cloud Only?​ width=”2500″ height=”1406″ sizes=”(max-width: 2500px) 100vw, 2500px”>Auf welchem Weg sollten Anwender SAP in die Cloud folgen? Die richtige Antwort auf diese Frage zu finden, ist alles andere als einfach. lassedesignen – shutterstock.com

SAPs Cloud-Strategie hat in der IT-Szene für intensive Debatten gesorgt. Mit der Entscheidung, innovative Funktionen künftig hauptsächlich für Cloud-Versionen von S/4HANA bereitzustellen, stehen viele Unternehmen vor der Herausforderung, ihre bisherigen Investitionen in On-Premises-Systeme zu bewerten und ihre zukünftige IT-Strategie neu auszurichten. Besonders betroffen sind jene Betriebe, die kürzlich auf S/4HANA On-Premises migriert sind oder dies planen.

On-Premises scheint für viele SAP-Kunden gesetzt

Die Sorge, dass SAP ihre Kunden zu einer reinen „Cloud Only“-Strategie zwingt, hat zu Unsicherheiten geführt. Diese betreffen nicht nur die strategische Ausrichtung, sondern auch Fragen zur Kontrolle über Daten und den Umfang zukünftiger Investitionen. Bei genauerer Betrachtung zeigt sich jedoch ein differenzierteres Bild.

Was bedeuten Cloud First und Cloud Only?

Die Begriffe „Cloud First“ und „Cloud Only“ sind zentral für das Verständnis der aktuellen SAP-Strategie:

„Cloud First“ bedeutet, dass neue Innovationen vorrangig für die Cloud entwickelt und bereitgestellt werden, während On-Premises-Optionen zwar weiterhin existieren, jedoch mit möglicherweise eingeschränkten Funktionalitäten.

„Cloud Only“ hingegen impliziert, dass bestimmte Funktionen ausschließlich in der Cloud verfügbar sind.

Offiziell verfolgt SAP eine „Cloud First“-Strategie, doch die schrittweise Einschränkung von On-Premises-Optionen deutet darauf hin, dass der Softwarekonzern langfristig stärker auf „Cloud Only“ setzt.

Diese Ausrichtung hat bei vielen Anwenderunternehmen Bedenken hinsichtlich der Abhängigkeit von externen Anbietern, der Entwicklung der Lizenzkosten und insbesondere bezüglich der Datensicherheit hervorgerufen. Die Tatsache, dass die meisten Hyperscaler, bei denen SAP-Lösungen gehostet werden, ihren Hauptsitz außerhalb der EU haben, verstärkt diese Sorgen. Besonders für europäische Unternehmen, die unter die strengen Datenschutzregelungen der DSGVO fallen, stellt dies ein Risiko dar, selbst wenn SAP und die Hyperscaler versichern, dass Daten in europäischen Rechenzentren verbleiben.

Der Unterschied zwischen Cloud- und On-Premises-Systemen

Ein zentraler Aspekt in dieser Diskussion ist die Unterscheidung zwischen der klassischen On-Premises-Variante und den Cloud-Angeboten von SAP. On-Premises-Systeme werden in firmeneigenen Rechenzentren betrieben und bieten Unternehmen die volle Kontrolle über ihre Daten. Diese Systeme sind häufig das Ergebnis jahrelanger Anpassungen und Investitionen, um die SAP-Landschaften spezifisch auf die Bedürfnisse des jeweiligen Betriebs zuzuschneiden.

Cloud-Anbieter: 9 Alternativen zu AWS, Azure und Google Cloud

Cloud-Lösungen hingegen werden entweder in der Public Cloud oder in der Private Cloud gehostet. Die Public Cloud bietet standardisierte Services, die einfach skalierbar, aber weniger anpassbar sind. Die Private Cloud kombiniert die Vorteile der Cloud mit einem höheren Maß an Kontrolle und Anpassbarkeit, was insbesondere für Unternehmen mit spezifischen Compliance-Anforderungen attraktiv ist.

Technologisch gesehen unterscheidet sich die Private Cloud kaum von einem klassischen On-Premises-System, da beide Ansätze ähnliche Erweiterungs- und Customizing-Optionen bieten. Diese Hybridmodelle gewinnen in der SAP-Community zunehmend an Bedeutung, da sie es Unternehmen ermöglichen, die Vorteile beider Welten zu nutzen.

RISE und GROW – mehr Vertrag als Produkt

In diesem Kontext spielen RISE with SAP und GROW with SAP eine entscheidende Rolle. Oft missverstanden, sind diese Konzepte keine eigenständigen Produkte, sondern im Grunde Vertragskonstrukte, die es Unternehmen ermöglichen, S/4HANA-Lizenzen mit zusätzlichen Services zu kombinieren. Sie bieten Zugang zu wichtigen Technologien wie der Integration Suite oder der Analytics Cloud, die Unternehmen dabei unterstützen, Cloud-Anwendungen in bestehende On-Premises-Systeme zu integrieren. Die Integration Suite beispielsweise ersetzt die klassische PI/PO-Lösung und zeigt, wie SAP versucht, Unternehmen schrittweise in die Cloud zu führen, ohne sie dazu zu zwingen.

Wenn es um den KI-Einsatz geht, darf das SAP-Betriebsmodell eigentlich keine Rolle spielen, sagen zwei Drittel der von der DSAG befragten SAP-Anwender.DSAG

Die Frage, ob SAP ihre Kunden bewusst in eine „Cloud Only“-Strategie drängt, lässt sich allerdings nicht eindeutig beantworten. Grundsätzlich wirft die Komplexität der Vertragsmodelle Fragen auf – etwa wie sich die Lizenzkosten langfristig entwickeln werden und wie hoch der Grad an Flexibilität sein wird, den diese Lösungen tatsächlich bieten. Schlussendlich priorisiert SAP die Cloud, doch hybride Modelle bleiben eine valide Option.

Die SAP Business Technology Platform als Integrationsbrücke

Ein Schlüssel zu diesen hybriden Szenarien ist die SAP Business Technology Platform (BTP). Sie ermöglicht es Unternehmen, Cloud-Lösungen wie die Digital Manufacturing Cloud oder die Analytics Cloud nahtlos mit On-Premises-Systemen zu verbinden. Die Integration erfolgt über Technologien wie beispielsweise den SAP Cloud Connector, der eine sichere Verbindung zwischen Cloud- und On-Premises-Systemen schafft.

Auch die Nachfolgelösung für den Solution Manager, Cloud ALM, kann über die BTP in bestehende Landschaften eingebunden werden. Dies zeigt, dass SAP bewusst darauf setzt, Brücken zwischen Cloud und On-Premises zu bauen, um den Übergang für Unternehmen zu erleichtern.

DSAG-Investitionsumfrage: SAP-Anwender schimpfen über Cloud-Preise

Dennoch ist der Schritt in die Cloud mit Herausforderungen verbunden. Neben technischen Fragen zur Integration gibt es auch strategische Überlegungen, die Unternehmen berücksichtigen müssen. Dazu zählen Aspekte wie die langfristige Entwicklung der Lizenzkosten, Sicherheitsanforderungen und die Geschwindigkeit, mit der neue Innovationen eingeführt werden können.

Innovationen und die Rolle der Cloud

Ein weiteres wichtiges Thema ist die Entwicklungsgeschwindigkeit. Die Cloud ermöglicht SAP eine schnellere Einführung neuer Funktionen, da Updates zentralisiert und regelmäßig ausgerollt werden können. On-Premises-Systeme hingegen sind in dieser Hinsicht langsamer, da Unternehmen selbst für die Implementierung neuer Releases verantwortlich sind. Dies bedeutet jedoch nicht, dass On-Premises-Lösungen vollständig von Innovationen ausgeschlossen sind. Über die BTP können auch On-Premises-Nutzer von neuen Technologien profitieren, etwa durch die Integration moderner Analyse-Tools oder KI-gestützter Anwendungen.

Anwender kritisieren SAPs KI-Kurs

Die langfristige Entscheidung zwischen einer reinen Cloud-Strategie und einem hybriden Ansatz erfordert eine sorgfältige Abwägung der Vor- und Nachteile. Für viele Unternehmen stellen Sicherheitsbedenken einen zentralen Faktor dar. Obwohl die großen Hyperscaler umfangreiche Sicherheitsmaßnahmen bieten, bleibt die Kontrolle über Daten ein sensibles Thema, insbesondere in stark regulierten Branchen wie dem Finanz- oder Gesundheitswesen.

Hier lesen Sie weitere Details zu SAPs KI-Strategie:

SAP TechEd – das sind die wichtigsten Ankündigungen

SAP-CEO Christian Klein: Alles, was wir tun, enthält KI

Sapphire 2024: SAP trimmt seine Software auf KI-Kurs

Generative-AI-Funktionen: SAP stellt mit Joule einen eigenen KI-Bot vor

Andererseits bieten hybride Ansätze die Möglichkeit, bestehende Investitionen in On-Premises-Systeme zu schützen und gleichzeitig von den Innovationen der Cloud zu profitieren. Unternehmen, die sich für diesen Weg entscheiden, sollten jedoch beachten, dass die Verwaltung einer hybriden Landschaft zusätzliche Anforderungen an die IT-Abteilung stellt.

Fazit: Cloud ja, aber bitte hybrid

Die Zukunft der SAP-Strategie zeigt eine klare Ausrichtung auf die Cloud, doch hybride Ansätze bleiben für viele Unternehmen eine gangbare Lösung. Der Erfolg hängt von genauer Analyse und Planung ab, die sowohl technische als auch wirtschaftliche Aspekte berücksichtigen.

Lösungen wie die BTP spielen hierbei eine zentrale Rolle, da sie den Weg in die Cloud ebnen und gleichzeitig bestehende Investitionen schützen. Unternehmen, die diesen Übergang erfolgreich gestalten, können von den Vorteilen der Cloud profitieren, ohne ihre bisherigen Systeme vollständig aufgeben zu müssen. Dies zeigt sich insbesondere bei der Integration neuer Technologien, die ausschließlich in der Cloud verfügbar sind, wie etwa fortschrittliche Analyse- und IoT-Lösungen.

Die Entscheidung, ob „Cloud First“ oder „Cloud Only“ der richtige Weg ist, bleibt letztlich eine Frage der individuellen Anforderungen und Ziele. SAP bietet die Werkzeuge und Strategien, um beide Ansätze zu unterstützen. Wichtig ist, dass Unternehmen diese Chancen nutzen, um ihre digitale Transformation voranzutreiben und sich für die Zukunft zu rüsten. Die Cloud ist kein Selbstzweck, sondern ein Mittel, um Innovation, Effizienz und Wettbewerbsfähigkeit zu steigern. Unternehmen, die diese Potenziale erkennen und gezielt umsetzen, werden langfristig erfolgreich sein.

SAPs Gretchenfrage: Cloud First oder Cloud Only?​ Weiterlesen »

KI erkennt am Gesicht, wer für einen Job geeignet ist​

Allgemein

KI benötigt nur ein Bild, um Persönlichkeitsmerkmale zu ermitteln und damit vorherzusagen, welche Erfolgschancen ein Bewerber hat, behaupten US-Forscher – und warnen vor den Folgen. shutterstock.com – Andrey_Popov Eine Studie von Forschern der Yale University, der University of Pennsylvania, der Reichman University und der Indiana University soll belegen, dass KI-Modelle anhand eines Gesichtsbildes Karriere- und Bildungserfolg vorhersagen können. Die Experten analysierten dafür Fotos von LinkedIn und Verzeichnissen mehrerer Top-MBA-Programme in den USA. Ziel der Untersuchung war es, die sogenannten Big-Five-Persönlichkeitsmerkmale von 96.000 Absolventen zu bestimmen. Diese Merkmale wurden dann mit deren beruflichen und akademischen Erfolgen korreliert. So sollten Zusammenhänge zwischen Persönlichkeit und Erfolg aufgedeckt werden. Die Forscher stellten fest, dass KI bereits heute die Einstellungspraxis von Unternehmen verändert. Beispielsweise würden Arbeitgeber und Bewerber zunehmend generative KI (genAI) nutzen, um automatisiert Auswahllisten und Bewerbungsunterlagen zu erstellen. Kelly Shue, Mitautorin der Studie und Professorin an der Yale School of Management, hebt den Einfluss der Persönlichkeit auf den beruflichen Erfolg hervor. Sie warnt darüber hinaus allerdings auch vor den moralischen Risiken bei der Verwendung von KI zur Persönlichkeitsbewertung. Gesichtsauswertung noch kein Industriestandard Unternehmen nutzen bereits heute Verhaltenstests wie Pymetrics zur Persönlichkeitsbewertung, jedoch noch nicht zur Gesichtsanalyse. Shue betont, dass Bewerber oft aufgrund unpassender Big-Five-Persönlichkeitsmerkmale abgelehnt würden. Wer im Big-Five-Modell besser abschneidet, wird von KI als aussichtsreicher bewertet.Yale School of Management Diese auch als OCEAN-Modell bekannten Merkmale stammen aus der Psychologie und umfassen folgende Merkmale: Offenheit (Neugier, ästhetische Sensibilität, Vorstellungskraft), Gewissenhaftigkeit (Organisation, Produktivität, Verantwortungsbewusstsein), Extraversion (Kontaktfreudigkeit, Durchsetzungsvermögen, Energie), Verträglichkeit (Mitgefühl, Respekt, Vertrauen) und Neurotizismus (Angst, Depression, emotionale Unbeständigkeit). Der Gesichtsausdruck kann die Zukunft verbauen Die KI-basierte Bewertung von Persönlichkeitsmerkmalen kann dazu führen, dass Bewerber je nach ihren Eigenschaften abgelehnt werden. Personen, deren Fotos zum Beispiel eine Neigung zum Neurotizismus suggerieren, haben geringere Chancen auf eine Einstellung. Der Grund hierfür ist, dass diese Eigenschaft negativ mit Arbeitsmarktanforderungen korreliert. Auch Bewerber mit geringerer Gewissenhaftigkeit könnten zum Beispiel bei der Studienzulassung übergangen werden. Laut Shue spielen Persönlichkeitsmerkmale zusätzlich eine Rolle bei der Zulassung in Schulen. Kandidaten, die voraussichtlich erfolgreich sein werden oder eine vielfältige Persönlichkeit aufweisen, würden hier bevorzugt ausgewählt. KI ist bequem, aber nicht perfekt Die Studie kritisiert zugleich den Einsatz von KI bei der Bewerberauswahl aufgrund oft fehlerhafter Datenquellen. Die Forscher fordern eine weitergehende Untersuchung der ethischen, praktischen und strategischen Implikationen. Sie weisen darauf hin, dass kognitive Fähigkeiten und Persönlichkeitsmerkmale entscheidend für den beruflichen Erfolg sind. Zusätzlich könnten Persönlichkeitsbewertungen anhand von Fotos genauso relevant sein wie traditionelle Lebenslaufkriterien. Darüber hinaus gebe es immer noch Gehaltsunterschiede, welche sich nur begrenzt durch Ethnie oder Bildung erklären ließen. Erfahrung und Fähigkeiten spielen ebenfalls eine Rolle, wobei auch innerhalb gleicher Bildungsniveaus große Unterschiede bestehen, so die Forscher. KI hat überproportional häufig Recht Für die aktuelle Forschung wurde auf frühere Studien zur Analyse von Persönlichkeitsmerkmalen durch Gesichtsbilder zurückgegriffen. In diesen Studien wurde auch die politische Zugehörigkeit mithilfe von Gesichtserkennung untersucht. Laut einer in Nature veröffentlichten Studie wurde die politische Ausrichtung in 72 Prozent der Fälle korrekt klassifiziert, was deutlich über der Zufallsrate (50 Prozent), menschlicher Genauigkeit (55 Prozent) und einem Persönlichkeitsfragebogen (66 Prozent) liegt. 

KI erkennt am Gesicht, wer für einen Job geeignet ist​ KI benötigt nur ein Bild, um Persönlichkeitsmerkmale zu ermitteln und damit vorherzusagen, welche Erfolgschancen ein Bewerber hat, behaupten US-Forscher – und warnen vor den Folgen.
shutterstock.com – Andrey_Popov

Eine Studie von Forschern der Yale University, der University of Pennsylvania, der Reichman University und der Indiana University soll belegen, dass KI-Modelle anhand eines Gesichtsbildes Karriere- und Bildungserfolg vorhersagen können. Die Experten analysierten dafür Fotos von LinkedIn und Verzeichnissen mehrerer Top-MBA-Programme in den USA.

Ziel der Untersuchung war es, die sogenannten Big-Five-Persönlichkeitsmerkmale von 96.000 Absolventen zu bestimmen. Diese Merkmale wurden dann mit deren beruflichen und akademischen Erfolgen korreliert. So sollten Zusammenhänge zwischen Persönlichkeit und Erfolg aufgedeckt werden.

Die Forscher stellten fest, dass KI bereits heute die Einstellungspraxis von Unternehmen verändert. Beispielsweise würden Arbeitgeber und Bewerber zunehmend generative KI (genAI) nutzen, um automatisiert Auswahllisten und Bewerbungsunterlagen zu erstellen. Kelly Shue, Mitautorin der Studie und Professorin an der Yale School of Management, hebt den Einfluss der Persönlichkeit auf den beruflichen Erfolg hervor. Sie warnt darüber hinaus allerdings auch vor den moralischen Risiken bei der Verwendung von KI zur Persönlichkeitsbewertung.

Gesichtsauswertung noch kein Industriestandard

Unternehmen nutzen bereits heute Verhaltenstests wie Pymetrics zur Persönlichkeitsbewertung, jedoch noch nicht zur Gesichtsanalyse. Shue betont, dass Bewerber oft aufgrund unpassender Big-Five-Persönlichkeitsmerkmale abgelehnt würden.

Wer im Big-Five-Modell besser abschneidet, wird von KI als aussichtsreicher bewertet.Yale School of Management

Diese auch als OCEAN-Modell bekannten Merkmale stammen aus der Psychologie und umfassen folgende Merkmale:

Offenheit (Neugier, ästhetische Sensibilität, Vorstellungskraft),

Gewissenhaftigkeit (Organisation, Produktivität, Verantwortungsbewusstsein),

Extraversion (Kontaktfreudigkeit, Durchsetzungsvermögen, Energie),

Verträglichkeit (Mitgefühl, Respekt, Vertrauen) und

Neurotizismus (Angst, Depression, emotionale Unbeständigkeit).

Der Gesichtsausdruck kann die Zukunft verbauen

Die KI-basierte Bewertung von Persönlichkeitsmerkmalen kann dazu führen, dass Bewerber je nach ihren Eigenschaften abgelehnt werden. Personen, deren Fotos zum Beispiel eine Neigung zum Neurotizismus suggerieren, haben geringere Chancen auf eine Einstellung. Der Grund hierfür ist, dass diese Eigenschaft negativ mit Arbeitsmarktanforderungen korreliert. Auch Bewerber mit geringerer Gewissenhaftigkeit könnten zum Beispiel bei der Studienzulassung übergangen werden.

Laut Shue spielen Persönlichkeitsmerkmale zusätzlich eine Rolle bei der Zulassung in Schulen. Kandidaten, die voraussichtlich erfolgreich sein werden oder eine vielfältige Persönlichkeit aufweisen, würden hier bevorzugt ausgewählt.

KI ist bequem, aber nicht perfekt

Die Studie kritisiert zugleich den Einsatz von KI bei der Bewerberauswahl aufgrund oft fehlerhafter Datenquellen. Die Forscher fordern eine weitergehende Untersuchung der ethischen, praktischen und strategischen Implikationen. Sie weisen darauf hin, dass kognitive Fähigkeiten und Persönlichkeitsmerkmale entscheidend für den beruflichen Erfolg sind. Zusätzlich könnten Persönlichkeitsbewertungen anhand von Fotos genauso relevant sein wie traditionelle Lebenslaufkriterien.

Darüber hinaus gebe es immer noch Gehaltsunterschiede, welche sich nur begrenzt durch Ethnie oder Bildung erklären ließen. Erfahrung und Fähigkeiten spielen ebenfalls eine Rolle, wobei auch innerhalb gleicher Bildungsniveaus große Unterschiede bestehen, so die Forscher.

KI hat überproportional häufig Recht

Für die aktuelle Forschung wurde auf frühere Studien zur Analyse von Persönlichkeitsmerkmalen durch Gesichtsbilder zurückgegriffen. In diesen Studien wurde auch die politische Zugehörigkeit mithilfe von Gesichtserkennung untersucht. Laut einer in Nature veröffentlichten Studie wurde die politische Ausrichtung in 72 Prozent der Fälle korrekt klassifiziert, was deutlich über der Zufallsrate (50 Prozent), menschlicher Genauigkeit (55 Prozent) und einem Persönlichkeitsfragebogen (66 Prozent) liegt.

KI erkennt am Gesicht, wer für einen Job geeignet ist​ Weiterlesen »

Gartner warnt vor langwierigen VMware-Migrationen​

Allgemein

Auch die Migration zu einer VMware-Alternative ist mitunter ein riskantes Unterfangen. crbelette/Shutterstock.com Auch im zweiten Jahr nach der Übernahme von VMware durch Broadcom suchen viele unzufriedene Kunden noch nach Alternativen für ihre virtuellen Workloads im lokalen Rechenzentrum. Grund dafür sind die teilweise drastischen Änderungen des neuen Eigentümers, was Aspekte wie Preisgestaltung und Lizenzierung, Produktportfolio, Investitionen in Forschung und Entwicklung und das VMware-Partner-Ökosystem betrifft. Zumindest ein Notfallplan in der Schublade Ist es dabei für kleinere Unternehmen noch relativ einfach, auf Alternativen wie Proxmox zu wechseln oder ihre virtuellen Maschinen in die Cloud verlagern, fällt größeren Unternehmen oder solchen mit größeren VMware-Deployments eine solche Entscheidung deutlich schwerer. Aus gutem Grund, erklären auch die Experten von Gartner: Für die meisten Unternehmen seien die Investitions- und Opportunitätskosten einer groß angelegten Migration eine Herausforderung. Was an Aufwand und potenziellen Kosten auf Gartner-Kunden zukommt, haben die Researcher in ihrer Analyse“Estimating a Large-Scale VMware Migration” (kostenlos für Gartner-Kunden) berechnet. Ausgehend von 2.000 oder mehr VMs und/oder mindestens 100 Hosts, die migriert werden sollen, rechnen sie mit einem Zeitaufwand zwischen 18 und 48 Monaten. Werden externe Dienstleister beauftragt, fallen laut der Berechnung von Gartner je nach Komplexität der Workloads, dem Umfang und der Art Migration (Standard- oder Live-Migration) zwischen 300 und 3.000 Dollar pro virtuelle Maschine an. Dennoch empfehlen sie, zumindest einen Notfallplan in der Schublade zu haben. Unternehmen sollten eher früher als später mit der Arbeit an Migrationsplänen beginnen, erklärt Michael Warrilow, Gartner-Analyst und einer der Autoren des Papiers, gegenüber The Register. Angesichts der für die Migration erforderlichen Zeit müssten die meisten Nutzer mindestens einmal die Lizenzen mit Broadcom neu verhandeln, bevor ihr Projekt abgeschlossen ist. Warrilow befürchtet, dass Broadcom die Preise in Zukunft noch weiter erhöhen wird, was die Kosten weiter in die Höhe treibe. Die tatsächlichen Kosten für die Migration Gartner hat in seinem Bericht die anfallenden Tätigkeiten und Kosten genauer aufgedröselt. Demnach würden allein für das erste Scoping sieben bis zehn Vollzeitmitarbeiter für einen Monat benötigt. Für die technische Bewertung potenzieller VMware-Ersatzlösungen rechnen die Analysten weitere sechs Mitarbeiter für bis zu neun Monate ein. Außerdem erfordere eine größere Migration neben dem Infrastructure & Operations Team zahlreiche weitere Ressourcen, einschließlich Sicherheits-, Datenbank- und Anwendungsexperten. Das Problem ergibt sich laut Gartner aus der Notwendigkeit, die VMware-Dienste zu entflechten. So sei die Server-Virtualisierungsplattform von VMware für seine Kunden nicht nur zum Knotenpunkt für die gesamte Server-, Speicher- und Netzwerkinfrastruktur im Rechenzentrum geworden. Über sie liefen auch ein Großteil der Aufgaben im IT-Betrieb, einschließlich der Bereitstellung von Workloads, der Datensicherung und der Notfallwiederherstellung. Komplexes Auswahlverfahren Dieser Umstand ist den Analysten zufolge auch mit ein Grund, warum die Suche nach Alternativen mindestens ein paar Monate dauern könne. Es gebe viele Optionen, aber keinen einzelnen oder einfachen Ersatz für alle Anforderungen des Unternehmens. Um sich hier nicht zu verzetteln, empfiehlt Gartner, die Potenzialliste einzuschränken. Dabei raten die Analysten, vier Kernbereiche zu bedenken: das Deployment Szenario: On/Off-Premises und Provider (VMware oder nicht VMware); die Ansätze für eine groß angelegte Migration (laut Gartner elf Stück) ; die mit VMware umgesetzten Anwendungsfälle (etwa Virtualisierung von Kernservern, hyperkonvergente integrierte Systeme (HCIS), private Clouds, virtuelle Desktop-Infrastrukturen (VDI) und Cloud-Hosting-Virtualisierung; geeignete Anbieter: Je nach Use Case gibt es eine Vielzahl potenzieller Anbieter und Angebote. Beispiele sind laut Gartner Servervirtualisierung und HCIS (zum Beispiel Microsoft, Nutanix), Public Cloud IaaS (z.B. AWS, Azure, Google Cloud) und Container (z.B. Red Hat, SUSE). Kostenlose oder kommerzielle Open-Source-Angebote können ebenfalls geeignet sein. Laut Gartner ist es mit der Abkehr von VMware allein allerdings in vielen Fällen nicht getan: „Ohne parallel ausreichend in die Modernisierung zu investieren, schafft eine Migration von der Server-Virtualisierungsplattform von VMware nur begrenzte Aussichten darauf, technische Schulden zu reduzieren“. 

Gartner warnt vor langwierigen VMware-Migrationen​ Auch die Migration zu einer VMware-Alternative ist mitunter ein riskantes Unterfangen. crbelette/Shutterstock.com

Auch im zweiten Jahr nach der Übernahme von VMware durch Broadcom suchen viele unzufriedene Kunden noch nach Alternativen für ihre virtuellen Workloads im lokalen Rechenzentrum. Grund dafür sind die teilweise drastischen Änderungen des neuen Eigentümers, was Aspekte wie Preisgestaltung und Lizenzierung, Produktportfolio, Investitionen in Forschung und Entwicklung und das VMware-Partner-Ökosystem betrifft.

Zumindest ein Notfallplan in der Schublade

Ist es dabei für kleinere Unternehmen noch relativ einfach, auf Alternativen wie Proxmox zu wechseln oder ihre virtuellen Maschinen in die Cloud verlagern, fällt größeren Unternehmen oder solchen mit größeren VMware-Deployments eine solche Entscheidung deutlich schwerer. Aus gutem Grund, erklären auch die Experten von Gartner: Für die meisten Unternehmen seien die Investitions- und Opportunitätskosten einer groß angelegten Migration eine Herausforderung.

Was an Aufwand und potenziellen Kosten auf Gartner-Kunden zukommt, haben die Researcher in ihrer Analyse“Estimating a Large-Scale VMware Migration” (kostenlos für Gartner-Kunden) berechnet.

Ausgehend von 2.000 oder mehr VMs und/oder mindestens 100 Hosts, die migriert werden sollen, rechnen sie mit einem Zeitaufwand zwischen 18 und 48 Monaten. Werden externe Dienstleister beauftragt, fallen laut der Berechnung von Gartner je nach Komplexität der Workloads, dem Umfang und der Art Migration (Standard- oder Live-Migration) zwischen 300 und 3.000 Dollar pro virtuelle Maschine an.

Dennoch empfehlen sie, zumindest einen Notfallplan in der Schublade zu haben. Unternehmen sollten eher früher als später mit der Arbeit an Migrationsplänen beginnen, erklärt Michael Warrilow, Gartner-Analyst und einer der Autoren des Papiers, gegenüber The Register. Angesichts der für die Migration erforderlichen Zeit müssten die meisten Nutzer mindestens einmal die Lizenzen mit Broadcom neu verhandeln, bevor ihr Projekt abgeschlossen ist. Warrilow befürchtet, dass Broadcom die Preise in Zukunft noch weiter erhöhen wird, was die Kosten weiter in die Höhe treibe.

Die tatsächlichen Kosten für die Migration

Gartner hat in seinem Bericht die anfallenden Tätigkeiten und Kosten genauer aufgedröselt. Demnach würden allein für das erste Scoping sieben bis zehn Vollzeitmitarbeiter für einen Monat benötigt. Für die technische Bewertung potenzieller VMware-Ersatzlösungen rechnen die Analysten weitere sechs Mitarbeiter für bis zu neun Monate ein. Außerdem erfordere eine größere Migration neben dem Infrastructure & Operations Team zahlreiche weitere Ressourcen, einschließlich Sicherheits-, Datenbank- und Anwendungsexperten.

Das Problem ergibt sich laut Gartner aus der Notwendigkeit, die VMware-Dienste zu entflechten. So sei die Server-Virtualisierungsplattform von VMware für seine Kunden nicht nur zum Knotenpunkt für die gesamte Server-, Speicher- und Netzwerkinfrastruktur im Rechenzentrum geworden. Über sie liefen auch ein Großteil der Aufgaben im IT-Betrieb, einschließlich der Bereitstellung von Workloads, der Datensicherung und der Notfallwiederherstellung.

Komplexes Auswahlverfahren

Dieser Umstand ist den Analysten zufolge auch mit ein Grund, warum die Suche nach Alternativen mindestens ein paar Monate dauern könne. Es gebe viele Optionen, aber keinen einzelnen oder einfachen Ersatz für alle Anforderungen des Unternehmens.

Um sich hier nicht zu verzetteln, empfiehlt Gartner, die Potenzialliste einzuschränken. Dabei raten die Analysten, vier Kernbereiche zu bedenken:

das Deployment Szenario: On/Off-Premises und Provider (VMware oder nicht VMware);

die Ansätze für eine groß angelegte Migration (laut Gartner elf Stück) ;

die mit VMware umgesetzten Anwendungsfälle (etwa Virtualisierung von Kernservern, hyperkonvergente integrierte Systeme (HCIS), private Clouds, virtuelle Desktop-Infrastrukturen (VDI) und Cloud-Hosting-Virtualisierung;

geeignete Anbieter: Je nach Use Case gibt es eine Vielzahl potenzieller Anbieter und Angebote. Beispiele sind laut Gartner Servervirtualisierung und HCIS (zum Beispiel Microsoft, Nutanix), Public Cloud IaaS (z.B. AWS, Azure, Google Cloud) und Container (z.B. Red Hat, SUSE). Kostenlose oder kommerzielle Open-Source-Angebote können ebenfalls geeignet sein.

Laut Gartner ist es mit der Abkehr von VMware allein allerdings in vielen Fällen nicht getan: „Ohne parallel ausreichend in die Modernisierung zu investieren, schafft eine Migration von der Server-Virtualisierungsplattform von VMware nur begrenzte Aussichten darauf, technische Schulden zu reduzieren“.

Gartner warnt vor langwierigen VMware-Migrationen​ Weiterlesen »

Nur 37 Prozent der deutschen Firmen sind NIS-2-konform​

Allgemein

Nur wenige deutsche Unternehmen haben die BestimmungEN von NIS 2 bereits umgesetzt.konstakorhonen – shutterstock 2471338245 Bis Oktober 2024 hätte Deutschland eigentlich die europäische NIS-2-Richtlinie in nationales Recht umsetzen müssen – was bislang nicht geschah. Aber auch die deutschen Unternehmen, die von der Richtlinie betroffen sind (KRITIS-Betreiber), scheinen diese auf die leichte Schulter zu nehmen. So gaben in einer Veeam-Studie 70 Prozent der deutschen (?!) Befragten zwar an, dass sie sich gut auf die neue EU-Richtlinie vorbereitet fühlen. Kommt es allerdings zum Schwur, dann sind nur 37 Prozent von ihnen nach eigener Angabe tatsächlich konform zur NIS 2. Kaum NIS-2-compliant Die Studie wurde im Auftrag von Veeam durch Censuswide durchgeführt. Dazu wurden über 500 IT-Experten und -Verantwortliche aus Deutschland, Belgien, Frankreich, den Niederlanden und dem Vereinigten Königreich befragt. Auch wenn das Vereinigte Königreich kein EU-Mitgliedstaat mehr ist, aufgrund seiner Geschäftskontakte mit EU-Ländern wird es dennoch erheblich von NIS 2 beeinflusst. Die Zahlen sind umso bedenklicher, wenn man ein anderes Ergebnis der Studie betrachtet: 87 Prozent der Teilnehmer räumen ein, dass sie in den vergangenen zwölf Monaten mindestens einen Sicherheitsvorfall erlebt haben, der durch NIS-2-Maßnahmen vermeidbar gewesen wäre. Zudem wurden 57 Prozent dieser Vorfälle als „hochgradig kritisch“ eingestuft. Fahrlässige Budget-Kürzungen Vor diesem Hintergrund hält Matthias Frühauf, Regional Vice President EMEA Central bei Veeam, die aktuelle Entwicklung der IT-Budgets für geradezu fahrlässig. So berichten 44 Prozent der IT-Sicherheitsverantwortlichen von Kürzungen, weitere 22 Prozent von stagnierenden Budgets seit der NIS-2-Ankündigung im Januar 2023. Für Frühauf offenbaren diese Zahlen ein gefährliches Missverständnis auf Führungsebene: Datenresilienz und damit auch Cyber-Sicherheit würden noch immer als optionaler Kostenfaktor betrachtet. Stattdessen sollten sie als geschäftskritische Investition in die Wettbewerbsfähigkeit des Unternehmens gewertet werden. Viele offene Baustellen Dabei haben die Unternehmen viele offene Baustellen. 26 Prozent der Befragten nennen veraltete Technologien als Haupthindernis auf dem Weg zur NIS-2-Compliance. Ebenso sind fehlendes Budget (24 Prozent) und organisatorische Silos (23 Prozent) weitere Problemfelder, mit denen die IT zu kämpfen hat. Am meisten beunruhigen sollte es Führungskräfte in den Augen des Veeam-Managers jedoch, wenn das eigene Unternehmen nicht über die sogenannte „letzte Verteidigungslinie“ verfügt. Nur 23 Prozent der IT-Zuständigen haben fortgeschrittene Backup-Verfahren implementiert, die multiple, unveränderliche und offline gespeicherte Sicherungen anlegen, um so im Notfall das Tagesgeschäft aufrechtzuerhalten. In Zeiten zunehmender Ransomware-Attacken und Betriebsausfälle durch Malware-Infektionen sei es, so Frühauf, schlicht existenzgefährdend, wenn Backup- und Recovery-Maßnahmen fehlen. Geringe Erwartungen an NIS 2 Gleichzeitig sind aber auch die Erwartungen an NIS 2 eher verhalten. Nur 51 Prozent der deutschen Befragten glauben, dass die Richtlinie Unternehmen in ihrer Resilienz stärken wird – der niedrigste Wert im internationalen Vergleich. Dies könnte eine Erklärung für den laxen Umgang mit NIS 2 sein. Zumal die Unternehmen noch vor zahlreichen anderen Herausforderungen stehen. Neben NIS 2 nennen sie Profitabilität (29 Prozent), Fachkräftemangel (22 Prozent) und weitere Compliance-Anforderungen wie DSGVO, den Cyber Resilience Act (CRA) oder DORA (22 Prozent) als wesentliche Druckfaktoren. Wie Unternehmen die IT NIS-2- und DORA-konform gestalten können, hören Sie in unserem aktuellen TechTalk-Podcast. width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/1BewIwGj5H8SxIaK1kS8s2?si=5c14ba7dc40b4c82&utm_source=oembed”> 

Nur 37 Prozent der deutschen Firmen sind NIS-2-konform​ Nur wenige deutsche Unternehmen haben die BestimmungEN von NIS 2 bereits umgesetzt.konstakorhonen – shutterstock 2471338245

Bis Oktober 2024 hätte Deutschland eigentlich die europäische NIS-2-Richtlinie in nationales Recht umsetzen müssen – was bislang nicht geschah. Aber auch die deutschen Unternehmen, die von der Richtlinie betroffen sind (KRITIS-Betreiber), scheinen diese auf die leichte Schulter zu nehmen.

So gaben in einer Veeam-Studie 70 Prozent der deutschen (?!) Befragten zwar an, dass sie sich gut auf die neue EU-Richtlinie vorbereitet fühlen. Kommt es allerdings zum Schwur, dann sind nur 37 Prozent von ihnen nach eigener Angabe tatsächlich konform zur NIS 2.

Kaum NIS-2-compliant

Die Studie wurde im Auftrag von Veeam durch Censuswide durchgeführt. Dazu wurden über 500 IT-Experten und -Verantwortliche aus Deutschland, Belgien, Frankreich, den Niederlanden und dem Vereinigten Königreich befragt. Auch wenn das Vereinigte Königreich kein EU-Mitgliedstaat mehr ist, aufgrund seiner Geschäftskontakte mit EU-Ländern wird es dennoch erheblich von NIS 2 beeinflusst.

Die Zahlen sind umso bedenklicher, wenn man ein anderes Ergebnis der Studie betrachtet: 87 Prozent der Teilnehmer räumen ein, dass sie in den vergangenen zwölf Monaten mindestens einen Sicherheitsvorfall erlebt haben, der durch NIS-2-Maßnahmen vermeidbar gewesen wäre. Zudem wurden 57 Prozent dieser Vorfälle als „hochgradig kritisch“ eingestuft.

Fahrlässige Budget-Kürzungen

Vor diesem Hintergrund hält Matthias Frühauf, Regional Vice President EMEA Central bei Veeam, die aktuelle Entwicklung der IT-Budgets für geradezu fahrlässig. So berichten 44 Prozent der IT-Sicherheitsverantwortlichen von Kürzungen, weitere 22 Prozent von stagnierenden Budgets seit der NIS-2-Ankündigung im Januar 2023.

Für Frühauf offenbaren diese Zahlen ein gefährliches Missverständnis auf Führungsebene: Datenresilienz und damit auch Cyber-Sicherheit würden noch immer als optionaler Kostenfaktor betrachtet. Stattdessen sollten sie als geschäftskritische Investition in die Wettbewerbsfähigkeit des Unternehmens gewertet werden.

Viele offene Baustellen

Dabei haben die Unternehmen viele offene Baustellen. 26 Prozent der Befragten nennen veraltete Technologien als Haupthindernis auf dem Weg zur NIS-2-Compliance. Ebenso sind fehlendes Budget (24 Prozent) und organisatorische Silos (23 Prozent) weitere Problemfelder, mit denen die IT zu kämpfen hat.

Am meisten beunruhigen sollte es Führungskräfte in den Augen des Veeam-Managers jedoch, wenn das eigene Unternehmen nicht über die sogenannte „letzte Verteidigungslinie“ verfügt. Nur 23 Prozent der IT-Zuständigen haben fortgeschrittene Backup-Verfahren implementiert, die multiple, unveränderliche und offline gespeicherte Sicherungen anlegen, um so im Notfall das Tagesgeschäft aufrechtzuerhalten. In Zeiten zunehmender Ransomware-Attacken und Betriebsausfälle durch Malware-Infektionen sei es, so Frühauf, schlicht existenzgefährdend, wenn Backup- und Recovery-Maßnahmen fehlen.

Geringe Erwartungen an NIS 2

Gleichzeitig sind aber auch die Erwartungen an NIS 2 eher verhalten. Nur 51 Prozent der deutschen Befragten glauben, dass die Richtlinie Unternehmen in ihrer Resilienz stärken wird – der niedrigste Wert im internationalen Vergleich.

Dies könnte eine Erklärung für den laxen Umgang mit NIS 2 sein. Zumal die Unternehmen noch vor zahlreichen anderen Herausforderungen stehen. Neben NIS 2 nennen sie Profitabilität (29 Prozent), Fachkräftemangel (22 Prozent) und weitere Compliance-Anforderungen wie DSGVO, den Cyber Resilience Act (CRA) oder DORA (22 Prozent) als wesentliche Druckfaktoren.

Wie Unternehmen die IT NIS-2- und DORA-konform gestalten können, hören Sie in unserem aktuellen TechTalk-Podcast.

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/1BewIwGj5H8SxIaK1kS8s2?si=5c14ba7dc40b4c82&utm_source=oembed”>

Nur 37 Prozent der deutschen Firmen sind NIS-2-konform​ Weiterlesen »

USA investieren 500 Milliarden Dollar in KI-Projekt Stargate​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/01/original-7-3.jpg?quality=50&strip=all 1867w, https://b2b-contenthub.com/wp-content/uploads/2025/01/original-7-3.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/01/original-7-3.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/01/original-7-3.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/01/original-7-3.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/01/original-7-3.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/01/original-7-3.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/01/original-7-3.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/01/original-7-3.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/01/original-7-3.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Project Stargate soll den USA im KI-Wettlauf einen Vorsprung gegenüber Ländern wie China sichern. Phil Mistry – shutterstock.com Das neue Unternehmen mit dem Namen „Project Stargate“ soll in den nächsten vier Jahren 500 Milliarden Dollar investieren, um die USA bei der schnelleren Erreichung der künstlichen allgemeinen Intelligenz (AGI) zu unterstützen – einer Phase, in der eine Maschine wie ein Mensch denken und handeln kann – und damit schneller als konkurrierende Nationen wie China.  Das Projekt, das finanziell von SoftBank und operativ von OpenAI geleitet wird, sieht eine sofortige Investition von 100 Milliarden Dollar vor. Softbank-CEO Masayoshi Son wird der Vorsitzende des Unternehmens sein.  Das Unternehmen werde ARM, Microsoft, Nvidia, Oracle und OpenAI als wichtigste Technologiepartner haben, teilten die Partner in einer gemeinsamen Erklärung mit und fügten hinzu, dass derzeit in Texas Rechenzentren dafür gebaut werden.  Während einer Pressekonferenz im Weißen Haus konkretisierte Oracle-CEO Larry Ellison, dass derzeit mindestens zehn Rechenzentren gebaut würden, wobei jedes Gebäude eine Fläche von mindestens einer halben Million Quadratfuß (knapp 50.000 Quadratmeter) haben werde.  Die Unternehmen suchten auch im ganzen Land nach potenziellen Standorten für weitere Betriebsstätten. Es gebe Pläne für den Bau von 20 weiteren Rechenzentren, fügte Ellison hinzu.  Microsoft hat das Vorkaufsrecht für die KI-Infrastruktur  Die Entwicklung bedeutet auch, dass Microsoft nicht mehr der einzige exklusive Partner für OpenAI sein wird, wenn es um die Infrastruktur für das Training der KI oder damit zusammenhängende Workloads geht.   In einem Blogbeitrag, der diese Woche veröffentlicht wurde, stellte Microsoft jedoch klar, dass es das Vorkaufsrecht haben werde. „Diese neue Vereinbarung beinhaltet auch Änderungen der Exklusivität bei neuen Kapazitäten, wobei zu einem Modell übergegangen wird, bei dem Microsoft ein Vorkaufsrecht (Right of First Refusal, ROFR) hat. Um OpenAI weiter zu unterstützen, hat Microsoft OpenAI die Möglichkeit eingeräumt, zusätzliche Kapazitäten aufzubauen, vor allem für die Forschung und das Training von Modellen“, schrieb das Unternehmen.  Tatsächlich ändern sich auch die anderen Elemente der bis 2030 geplanten Partnerschaft zwischen Microsoft und OpenAI nicht. Microsoft werde die Rechte an OpenAI-IP, einschließlich Modell und Infrastruktur, zur Nutzung in seinen Produkten wie dem Copilot haben, teilten die Redmonder mit. Sie fügten hinzu, dass die OpenAI-API exklusiv für Azure sei, auf Azure laufen werde und auch über den Azure OpenAI Service verfügbar sei.  Darüber hinaus würden beide Unternehmen weiterhin ihre Vereinbarungen zur Umsatzbeteiligung einhalten, die in beide Richtungen fließen.  Trump soll bei Energiebedarf helfen  Abgesehen von dem Wettlauf um die künstliche Intelligenz soll die Infrastruktur von Stargate „Hunderttausende von amerikanischen Arbeitsplätzen“ schaffen und die Reindustrialisierung der USA unterstützen. Gleichzeitig soll sie der nationalen Sicherheit dienen, wie es in der Ankündigung zu Project Stargate heißt.  Während einer Pressekonferenz im Weißen Haus erklärte US-Präsident Donald Trump, Stargate sei darauf ausgelegt, die USA vor Ländern wie China zu schützen.  Zuvor hatte der Präsident eine Verordnung von Joe Biden aus dem Jahr 2023 aufgehoben, die eine strengere Überwachung der Entwicklung künstlicher Intelligenz (KI) vorsah. Der Grund für die Aufhebung war offenbar, dass Bidens Verordnung zwar den Schutz vor potenziellen KI-Risiken im Fokus hatte, aber Unternehmen übermäßig belastete und den technologischen Fortschritt hemmte.  Während des Briefings zu Stargate kündigte Trump zudem an, er werde den Partnerunternehmen von Stargate dabei helfen, den Strom- und Energiebedarf für den Ausbau der Rechenzentren zu decken.  Trumps Versprechen ist von Bedeutung, da Unternehmen aufgrund von Stromengpässen in Rechenzentren und der steigenden KI-Auslastung nach neuen Stromquellen suchen. Einem Bericht des Marktforschungsunternehmens Gartner zufolge werden bis 2027 etwa 40 Prozent der bestehenden KI-Rechenzentren „durch die Stromverfügbarkeit in ihrer Betriebsfähigkeit eingeschränkt“ sein. Das Unternehmen schätzt, dass die Nachfrage nach zusätzlichen KI-Servern bis dahin 500 Terawattstunden pro Jahr erreichen wird, was dem 2,6-Fachen des Niveaus von 2023 entspricht.  

USA investieren 500 Milliarden Dollar in KI-Projekt Stargate​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/01/original-7-3.jpg?quality=50&strip=all 1867w, https://b2b-contenthub.com/wp-content/uploads/2025/01/original-7-3.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/01/original-7-3.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/01/original-7-3.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/01/original-7-3.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/01/original-7-3.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/01/original-7-3.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/01/original-7-3.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/01/original-7-3.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/01/original-7-3.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Project Stargate soll den USA im KI-Wettlauf einen Vorsprung gegenüber Ländern wie China sichern. Phil Mistry – shutterstock.com

Das neue Unternehmen mit dem Namen „Project Stargate“ soll in den nächsten vier Jahren 500 Milliarden Dollar investieren, um die USA bei der schnelleren Erreichung der künstlichen allgemeinen Intelligenz (AGI) zu unterstützen – einer Phase, in der eine Maschine wie ein Mensch denken und handeln kann – und damit schneller als konkurrierende Nationen wie China. 

Das Projekt, das finanziell von SoftBank und operativ von OpenAI geleitet wird, sieht eine sofortige Investition von 100 Milliarden Dollar vor. Softbank-CEO Masayoshi Son wird der Vorsitzende des Unternehmens sein. 

Das Unternehmen werde ARM, Microsoft, Nvidia, Oracle und OpenAI als wichtigste Technologiepartner haben, teilten die Partner in einer gemeinsamen Erklärung mit und fügten hinzu, dass derzeit in Texas Rechenzentren dafür gebaut werden. 

Während einer Pressekonferenz im Weißen Haus konkretisierte Oracle-CEO Larry Ellison, dass derzeit mindestens zehn Rechenzentren gebaut würden, wobei jedes Gebäude eine Fläche von mindestens einer halben Million Quadratfuß (knapp 50.000 Quadratmeter) haben werde. 

Die Unternehmen suchten auch im ganzen Land nach potenziellen Standorten für weitere Betriebsstätten. Es gebe Pläne für den Bau von 20 weiteren Rechenzentren, fügte Ellison hinzu. 

Microsoft hat das Vorkaufsrecht für die KI-Infrastruktur 

Die Entwicklung bedeutet auch, dass Microsoft nicht mehr der einzige exklusive Partner für OpenAI sein wird, wenn es um die Infrastruktur für das Training der KI oder damit zusammenhängende Workloads geht.  

In einem Blogbeitrag, der diese Woche veröffentlicht wurde, stellte Microsoft jedoch klar, dass es das Vorkaufsrecht haben werde. „Diese neue Vereinbarung beinhaltet auch Änderungen der Exklusivität bei neuen Kapazitäten, wobei zu einem Modell übergegangen wird, bei dem Microsoft ein Vorkaufsrecht (Right of First Refusal, ROFR) hat. Um OpenAI weiter zu unterstützen, hat Microsoft OpenAI die Möglichkeit eingeräumt, zusätzliche Kapazitäten aufzubauen, vor allem für die Forschung und das Training von Modellen“, schrieb das Unternehmen. 

Tatsächlich ändern sich auch die anderen Elemente der bis 2030 geplanten Partnerschaft zwischen Microsoft und OpenAI nicht. Microsoft werde die Rechte an OpenAI-IP, einschließlich Modell und Infrastruktur, zur Nutzung in seinen Produkten wie dem Copilot haben, teilten die Redmonder mit. Sie fügten hinzu, dass die OpenAI-API exklusiv für Azure sei, auf Azure laufen werde und auch über den Azure OpenAI Service verfügbar sei. 

Darüber hinaus würden beide Unternehmen weiterhin ihre Vereinbarungen zur Umsatzbeteiligung einhalten, die in beide Richtungen fließen. 

Trump soll bei Energiebedarf helfen 

Abgesehen von dem Wettlauf um die künstliche Intelligenz soll die Infrastruktur von Stargate „Hunderttausende von amerikanischen Arbeitsplätzen“ schaffen und die Reindustrialisierung der USA unterstützen. Gleichzeitig soll sie der nationalen Sicherheit dienen, wie es in der Ankündigung zu Project Stargate heißt. 

Während einer Pressekonferenz im Weißen Haus erklärte US-Präsident Donald Trump, Stargate sei darauf ausgelegt, die USA vor Ländern wie China zu schützen. 

Zuvor hatte der Präsident eine Verordnung von Joe Biden aus dem Jahr 2023 aufgehoben, die eine strengere Überwachung der Entwicklung künstlicher Intelligenz (KI) vorsah. Der Grund für die Aufhebung war offenbar, dass Bidens Verordnung zwar den Schutz vor potenziellen KI-Risiken im Fokus hatte, aber Unternehmen übermäßig belastete und den technologischen Fortschritt hemmte. 

Während des Briefings zu Stargate kündigte Trump zudem an, er werde den Partnerunternehmen von Stargate dabei helfen, den Strom- und Energiebedarf für den Ausbau der Rechenzentren zu decken. 

Trumps Versprechen ist von Bedeutung, da Unternehmen aufgrund von Stromengpässen in Rechenzentren und der steigenden KI-Auslastung nach neuen Stromquellen suchen. Einem Bericht des Marktforschungsunternehmens Gartner zufolge werden bis 2027 etwa 40 Prozent der bestehenden KI-Rechenzentren „durch die Stromverfügbarkeit in ihrer Betriebsfähigkeit eingeschränkt“ sein. Das Unternehmen schätzt, dass die Nachfrage nach zusätzlichen KI-Servern bis dahin 500 Terawattstunden pro Jahr erreichen wird, was dem 2,6-Fachen des Niveaus von 2023 entspricht. 

USA investieren 500 Milliarden Dollar in KI-Projekt Stargate​ Weiterlesen »

Roboter bekommen ihren „ChatGPT-Moment”​

Allgemein

Durch die Nutzung virtueller 3D-Welten und IoT-Sensoren können digitale Zwillinge mittels KI deutlich einfacher und effizienter trainiert werden. shutterstock.com – Andrey Suslov Zu Beginn des Jahres hat Nvidia auf der CES eine neue Plattform namens Cosmos vorgestellt. Dabei soll es sich laut Hersteller um eine World Foundation Model (WFM)-Entwicklungsplattform handeln. Diese ist darauf ausgelegt, die Entwicklung von sogenannter Physical AI für Roboter und selbstfahrende Fahrzeuge voranzutreiben und zu beschleunigen. KI lernt in einer Simulation der realen Welt Bei Physical AI handelt es sich um ein Konzept, dessen Ziel es ist unter anderem ist, komplexe virtuelle Umgebungen zu schaffen. In diesen wird die Physik der realen Welt simuliert, damit sowohl Roboter als auch Systeme von diesen digitale Nachbildungen lernen und ihre Leistung optimieren können. Für Fabrikroboter kann ein „digitaler Zwilling“ der Fabrik in einem Virtual-Reality-Raum erstellt werden, der jedes Detail der realen Fabrik exakt abbildet. Internet of Things (IoT)-Sensoren in der echten Fabrik speisen kontinuierlich Daten in den Zwilling ein, um ihn aktuell zu halten. Um die KI jedoch effektiv zu trainieren, muss der Zwilling mit physikalischen Eigenschaften wie Schwerkraft und Reibung ausgestattet sein. Mit Nvidias Omniverse können virtuelle 3D-Welten erstellt und simuliert werden, um Programme sowie Roboter und Robotersysteme zu trainieren. Das neu eingeführte Cosmos-System baut auf dieser Omniverse-Plattform auf und erweitert diese durch die Erstellung und Nutzung von World Foundation Models (WFMs). Omniverse + „World Foundation Models“ = Weltsimulation?  Der von Nvidia geprägte Begriff „World Foundation Model“ (WFM) vereint „Weltmodelle“, die komplexe Szenarien simulieren, und sogenannte „Foundation Models“, die auf großen Datensätzen trainiert werden. WFMs ermöglichen die Erstellung fotorealistischer, auf den physikalischen Grundregeln dieser Welt basierender Daten für das Training von Modellen. Entwickler können eigene Daten einbringen, die Cosmos erweitern, um Roboter für optimal für bestimmte Bewegungen zu programmieren. Die Cosmos-Plattform kombiniert WFMs, fortschrittliche Tokenizer und eine schnelle Videoverarbeitung, um präzise Szenarien zu generieren. Mit Nvidias Omniverse werden fotorealistische Videos für das Reinforcement Learning von Robotern erstellt, wobei Cosmos Tausende realistische Trainingsszenarien erzeugt. ChatGPT und Robotik Ein Vergleich mit ChatGPT hilft, das Konzept dahinter zu verstehen: Die „Audioübersichten“-Funktion von NotebookLM erstellt beispielsweise lebensechte Podcasts, die schneller und unterhaltsamer sind, als komplexe Texte zu lesen. Nutzer können den Schwierigkeitsgrad schrittweise von einfachen bis zu tiefer gehenden Erklärungen anpassen. Nvidia sieht in Cosmos einen „ChatGPT-Moment“ für die Robotik, da die Technologie neuronaler Netze durch Fortschritte wie das Transformer-Modell von Google revolutioniert wurde. Dies habe das Training beschleunigt, ähnlich wie bei LLM-Chatbots. Auch hier zeigt sich, dass Faktoren wie die Größe der Datensätze, die Trainingsgeschwindigkeit sowie die Leistung und Genauigkeit eng miteinander verbunden sind. KI-Daten sind eine begrenzte Ressource Die Trainingsdaten für Roboter sind begrenzt, da ihre Generierung in der realen Welt teuer und langsam ist. Elon Musk betonte kürzlich zudem, dass KI-Unternehmen die von Menschen erzeugten Daten für das KI-Training nahezu vollständig ausgeschöpft haben. Im Gegensatz zu von Menschen erstellten Texten müssen diese Daten neu erstellt werden. Roboter und autonome Fahrzeuge können jedoch lernen, Aufgaben zu bewältigen und sich in unbekanntem Terrain zurechtzufinden. Mehr autonome Fahrzeuge dank KI Der Einsatz von Cosmos für das Training autonomer Fahrzeuge ermöglicht die schnelle Erstellung realistischer, simulierter Szenarien, was die Fahrsicherheit und Effizienz im Vergleich zum traditionellen, riskanten Training in der realen Welt verbessert. Wenn Nvidia mit dem „ChatGPT-Moment“ der Robotik recht hat, könnte der Fortschritt in der Robotik deutlich beschleunigt werden, was zu mehr Effizienz und einer weitergehenden Verbreitung autonomer Fahrzeuge führen würde – möglicherweise schneller als erwartet. 

Roboter bekommen ihren „ChatGPT-Moment”​ Durch die Nutzung virtueller 3D-Welten und IoT-Sensoren können digitale Zwillinge mittels KI deutlich einfacher und effizienter trainiert werden.
shutterstock.com – Andrey Suslov

Zu Beginn des Jahres hat Nvidia auf der CES eine neue Plattform namens Cosmos vorgestellt. Dabei soll es sich laut Hersteller um eine World Foundation Model (WFM)-Entwicklungsplattform handeln. Diese ist darauf ausgelegt, die Entwicklung von sogenannter Physical AI für Roboter und selbstfahrende Fahrzeuge voranzutreiben und zu beschleunigen.

KI lernt in einer Simulation der realen Welt

Bei Physical AI handelt es sich um ein Konzept, dessen Ziel es ist unter anderem ist, komplexe virtuelle Umgebungen zu schaffen. In diesen wird die Physik der realen Welt simuliert, damit sowohl Roboter als auch Systeme von diesen digitale Nachbildungen lernen und ihre Leistung optimieren können.

Für Fabrikroboter kann ein „digitaler Zwilling“ der Fabrik in einem Virtual-Reality-Raum erstellt werden, der jedes Detail der realen Fabrik exakt abbildet. Internet of Things (IoT)-Sensoren in der echten Fabrik speisen kontinuierlich Daten in den Zwilling ein, um ihn aktuell zu halten. Um die KI jedoch effektiv zu trainieren, muss der Zwilling mit physikalischen Eigenschaften wie Schwerkraft und Reibung ausgestattet sein.

Mit Nvidias Omniverse können virtuelle 3D-Welten erstellt und simuliert werden, um Programme sowie Roboter und Robotersysteme zu trainieren. Das neu eingeführte Cosmos-System baut auf dieser Omniverse-Plattform auf und erweitert diese durch die Erstellung und Nutzung von World Foundation Models (WFMs).

Omniverse + „World Foundation Models“ = Weltsimulation?

 Der von Nvidia geprägte Begriff „World Foundation Model“ (WFM) vereint „Weltmodelle“, die komplexe Szenarien simulieren, und sogenannte „Foundation Models“, die auf großen Datensätzen trainiert werden. WFMs ermöglichen die Erstellung fotorealistischer, auf den physikalischen Grundregeln dieser Welt basierender Daten für das Training von Modellen. Entwickler können eigene Daten einbringen, die Cosmos erweitern, um Roboter für optimal für bestimmte Bewegungen zu programmieren.

Die Cosmos-Plattform kombiniert WFMs, fortschrittliche Tokenizer und eine schnelle Videoverarbeitung, um präzise Szenarien zu generieren. Mit Nvidias Omniverse werden fotorealistische Videos für das Reinforcement Learning von Robotern erstellt, wobei Cosmos Tausende realistische Trainingsszenarien erzeugt.

ChatGPT und Robotik

Ein Vergleich mit ChatGPT hilft, das Konzept dahinter zu verstehen: Die „Audioübersichten“-Funktion von NotebookLM erstellt beispielsweise lebensechte Podcasts, die schneller und unterhaltsamer sind, als komplexe Texte zu lesen. Nutzer können den Schwierigkeitsgrad schrittweise von einfachen bis zu tiefer gehenden Erklärungen anpassen.

Nvidia sieht in Cosmos einen „ChatGPT-Moment“ für die Robotik, da die Technologie neuronaler Netze durch Fortschritte wie das Transformer-Modell von Google revolutioniert wurde. Dies habe das Training beschleunigt, ähnlich wie bei LLM-Chatbots. Auch hier zeigt sich, dass Faktoren wie die Größe der Datensätze, die Trainingsgeschwindigkeit sowie die Leistung und Genauigkeit eng miteinander verbunden sind.

KI-Daten sind eine begrenzte Ressource

Die Trainingsdaten für Roboter sind begrenzt, da ihre Generierung in der realen Welt teuer und langsam ist. Elon Musk betonte kürzlich zudem, dass KI-Unternehmen die von Menschen erzeugten Daten für das KI-Training nahezu vollständig ausgeschöpft haben.

Im Gegensatz zu von Menschen erstellten Texten müssen diese Daten neu erstellt werden. Roboter und autonome Fahrzeuge können jedoch lernen, Aufgaben zu bewältigen und sich in unbekanntem Terrain zurechtzufinden.

Mehr autonome Fahrzeuge dank KI

Der Einsatz von Cosmos für das Training autonomer Fahrzeuge ermöglicht die schnelle Erstellung realistischer, simulierter Szenarien, was die Fahrsicherheit und Effizienz im Vergleich zum traditionellen, riskanten Training in der realen Welt verbessert.

Wenn Nvidia mit dem „ChatGPT-Moment“ der Robotik recht hat, könnte der Fortschritt in der Robotik deutlich beschleunigt werden, was zu mehr Effizienz und einer weitergehenden Verbreitung autonomer Fahrzeuge führen würde – möglicherweise schneller als erwartet.

Roboter bekommen ihren „ChatGPT-Moment”​ Weiterlesen »

Gute Mitarbeiterbindung heißt weniger Krankmeldungen​

Allgemein

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/01/Bindung-shutterstock_2418646745.jpg?quality=50&strip=all 6000w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Bindung-shutterstock_2418646745.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Bindung-shutterstock_2418646745.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Bindung-shutterstock_2418646745.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Bindung-shutterstock_2418646745.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Bindung-shutterstock_2418646745.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Bindung-shutterstock_2418646745.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Bindung-shutterstock_2418646745.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Bindung-shutterstock_2418646745.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Bindung-shutterstock_2418646745.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Bindung-shutterstock_2418646745.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Es zahlt sich für Arbeitgeber aus, in das Wohlbefinden der Arbeitnehmer sowie ein gutes Arbeitsklima zu investieren. 3rdtimeluckystudio – Shutterstock 2418646745 Sind es Grippeviren? Oder der Klassiker: Rückenbeschwerden? Einige Unternehmen geben auch der telefonischen Krankschreibung die Schuld, dass derzeit so viele Beschäftigte nicht zur Arbeit erscheinen. Das fördere Faulenzer, wie manche Unternehmen mutmaßen. Sie reagieren mit „Hausbesuchen“, um vermeintliche Blaumacher zu erwischen. Tatsache ist: Die Deutschen lassen sich derzeit besonders häufig krankschreiben.   Der Fehlzeiten-Report 2024 des AOK-Bundesverbands spricht von historischen Höchstständen. Der Spitzenwert von 225 Arbeitsunfähigkeitsfällen je 100 erwerbstätigen AOK-Mitgliedern aus 2023 wurde 2024 schon im August erreicht worden. Zu Spitzenzeiten fehlte jeder Zehnte wegen Krankheit. Das belastet die Arbeitgeber: Laut Institut der Deutschen Wirtschaft kostete die Entgeltfortzahlung 74 Milliarden Euro im Jahr 2020 und schon 2025 könnten es 84 Milliarden Euro sein.     Psychische Erkrankungen auf dem Vormarsch Klassiker wie Atemwegserkrankungen oder Rückenbeschwerden sind zwar immer noch die Ursache für die meisten Krankschreibungen. Aber in den letzten Jahren haben psychische Erkrankungen in Folge von Überlastung bis hin zum Burn-out zugenommen. Die Lösung liegt scheinbar auf der Hand: weniger arbeiten. Doch so einfach ist es nicht. Denn Überlastung lässt sich nicht allein an den Stunden in der Zeiterfassung bemessen oder an den Aktenbergen auf dem Schreibtisch.   Der Fehlzeiten-Report 2024 des AOK-Bundesverbands spricht hier von einem Zusammenhang zwischen Gesundheit und Bindung zum Unternehmen. Wer sich wertgeschätzt fühle und Sinn in seiner Arbeit finde, sagen die Autoren, werde messbar seltener krank. Das betreffe vor allem die steigenden Ausfallzeiten aufgrund von psychischen Erkrankungen, belegt der Fehlzeiten-Report.   Das deckt sich mit Erkenntnissen von Great Place to Work (GPTW). Während deutsche Arbeitgeber im Schnitt 14,6 Krankheitstage verzeichnen, sind es bei GPTW-zertifizierten Deutschlands besten Arbeitgebern nur vier Tage. „Ein guter Arbeitgeber ist gut für die Gesundheit der Mitarbeitenden“, sagt Andreas Schubert, CEO von GPTW. Darüber hinaus haben diese Unternehmen eine um 45 Prozent geringere Fluktuation und 4,7-mal mehr Bewerbungen.     Mitarbeitenden aufs Maul geschaut Da stellt sich die Frage: Wann ist ein Unternehmen ein guter Arbeitgeber und wie misst man das? Schubert nennt einige Indikatoren: Teamgeist, Identifikation mit dem Unternehmen, Stolz dort zu arbeiten, vertrauenswürdige Führung, Führungskräfte lassen Worten Taten folgen und haben immer ein offenes Ohr, um nur einige zu nennen. 60 Aspekte hat GPTW zusammengetragen und erhebt diese in ebenso vielen Fragen in seinen Mitarbeiterbefragungen, die selbstverständlich anonym ablaufen, 13 Minuten dauert das. „Wir schauen den Mitarbeitenden aufs Maul“, erklärt Schubert. Wichtig sei, wie der Mitarbeitende seine Arbeit erlebe, was wiederum entscheidend sei für die Bindung ans Unternehmen – und damit für die Gesundheit dieser Person.   Natürlich ist ein Unternehmen nicht sofort schlecht, weil ein einzelner Mitarbeitender mit seinem Chef unzufrieden ist. Die Erlebensweisen aller Mitarbeitenden werden aggregiert und zu einem Durchschnitt verrechnet. GPTW hat weltweit bereits weit mehr als 100.000 Unternehmen untersucht und damit eine Datenbasis geschaffen, mit der sich positive wie negative Erlebensweisen in Firmen sehr zuverlässig ableiten lassen.   Die Korrelation mit dem Krankenstand ist dann eine einfache Übung. Dieser wird vom Unternehmen mitgeteilt und mit den Ergebnissen aus der Umfrage in Beziehung gesetzt. „Der Zusammenhang ist eindeutig“, sagt Schubert. Eine mangelhafte Unternehmenskultur und damit geringe Bindung der Mitarbeitenden schlage sich messbar in den Krankschreibungen nieder. „In von GPTW zertifizierten Unternehmen liegt die Krankheitsquote 74 Prozent niedriger.“     srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/01/Andreas_Schubert_Great_Place_to_Work.jpg?quality=50&strip=all 1181w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Andreas_Schubert_Great_Place_to_Work.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Andreas_Schubert_Great_Place_to_Work.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Andreas_Schubert_Great_Place_to_Work.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Andreas_Schubert_Great_Place_to_Work.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Andreas_Schubert_Great_Place_to_Work.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Andreas_Schubert_Great_Place_to_Work.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Andreas_Schubert_Great_Place_to_Work.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Andreas Schubert, CEO von GPTW: “Eine mangelhafte Unternehmenskultur und damit geringe Bindung der Mitarbeitenden schlägt sich messbar in den Krankschreibungen nieder.”Andreas Schubert – GPTW Mangelhafte Führung als Kündigungsgrund Gemeinsam mit dem Management identifiziert das GPTW-Team die Lücken, die das positive Erleben der Belegschaft behindern, sowie Potenziale mit guter Aussicht auf Erfolg, außerdem Maßnahmen, die bereits in die richtige Richtung gehen. Wenn GPTW auf Kulturprobleme stößt, liegen vielfältige Ursachen zugrunde. Auf Platz 1: mangelhafte Führung. Man wählt einen neuen Arbeitsplatz wegen des Unternehmens aus und man verlässt ihn wegen des Vorgesetzten – diese Aussage trifft häufig zu.   Geringe Wertschätzung, mangelndes Feedback der Führungskraft, undurchsichtige Führungsprinzipien, und vor allem fehlende Empathie sind hier tiefer liegende Ursachen. Weitere Gründe für schlechte Stimmung sind Reibungen im Team oder mangelhafte Fairness im Umgang mit den Mitarbeitenden oder bei der Bezahlung.   Sind die Lücken identifiziert, moderiert GPTW den Verbesserungsprozess. Auch hier ist von Vorteil, dass GPTW auf einer Fülle von Best-Practices aus anderen Firmen aufbauen kann. „Wir arbeiten am Erleben und fragen: Wie erlebt ihr die Kultur in eurem Unternehmen, was ist schon gut und wo sind Potenziale?“, erläutert Schubert das Vorgehen. Das erfolgt sowohl in direkten Gesprächen als auch in Befragungen, die regelmäßig, etwa einmal im Jahr, bei dringendem Veränderungsbedarf auch häufiger, stattfinden sollten.   Diese Befragungen erfolgen digital, der Mitarbeitende kann über sein Smartphone teilnehmen. Dazu bekommt er einen QR-Code, etwa über die Lohnabrechnung. Weitere Touch-Points sind der PC oder das Zeiterfassungsterminal, das sich für einzelne Zwischenfragen außerhalb des Jahresrhythmus eignet. Die Teilnahmequote liegt nach GPTW-Erfahrung bei 70 Prozent. Die Umfragen gibt es in 50 Sprachen, die Auswertung erfolgt über ein interaktives Dashboard und natürlich anonym, eine Rückverfolgung auf einzelne Personen ist nicht möglich.     Durchhänger sind normal Wichtig sei, dass die Ergebnisse nicht in der Schublade verschwinden, sondern das Management Handlungsbedarf erkenne und transparent benenne. Unternehmen, die mit GPTW zusammenarbeiteten, wollten sich verbessern – „die anderen kommen gar nicht erst zu uns“, so Schubert. GPTW hat Kunden, die diese Umfrage seit über 20 Jahren machen und die Ergebnisse in eine Erfolgsbilanz der HR-Abteilung einfließen lassen. Nicht immer gehe es bei der Unternehmenskultur nur aufwärts, Durchhänger seien normal. Die Umfragedaten helfen aber, rechtzeitig gegenzusteuern.   Digitalisierung hilft nicht nur bei Umfragen, sondern auch, das Erleben der Mitarbeitenden zu verbessern. So bietet GPTW-Partner UKG digitale Tools, die mehr Flexibilität in den Arbeitsalltag bringen. Beliebt ist die Schichtplanung, mit der Mitarbeitende Schichten tauschen können, um flexibel die Bedürfnisse des Privatlebens auf das Berufsleben abzustimmen. Die Führungskräfte erhalten zudem Einblick in die Bedürfnisse der Mitarbeitenden. Die sind auf den ersten Blick nicht immer leicht zu erkennen.  Hier ist der Einsatz einer KI-basierten Software von Vorteil. Bryte von UKG ist so ein KI-Werkzeug. Es leuchtet in die Personal- und HR-Daten hinein und filtert die gewünschten Infos heraus und verknüpft sie – einfache Anfragen per Prompt genügen, wie bei ChatGPT. „Durch Conversational Reporting wird es auch technisch nicht versierten Anwendern ermöglicht, Daten detailliert zu analysieren. Darüber hinaus steht die Software auch allen Mitarbeitenden als Assistent bei Fragen zur Schichtplanung und Zeiterfassung zur Verfügung und führt im Auftrag der Beschäftigten Aktionen wie den Tausch von Schichten im System eigenständig durch“, erklärt Benedikt Lell, Vice President Sales Support von UKG.      srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/01/UKG-BenediktLell.jpg?quality=50&strip=all 4688w, https://b2b-contenthub.com/wp-content/uploads/2025/01/UKG-BenediktLell.jpg?resize=300%2C188&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/01/UKG-BenediktLell.jpg?resize=768%2C480&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/01/UKG-BenediktLell.jpg?resize=1024%2C640&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/01/UKG-BenediktLell.jpg?resize=1536%2C960&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/01/UKG-BenediktLell.jpg?resize=2048%2C1280&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/01/UKG-BenediktLell.jpg?resize=1115%2C697&quality=50&strip=all 1115w, https://b2b-contenthub.com/wp-content/uploads/2025/01/UKG-BenediktLell.jpg?resize=269%2C168&quality=50&strip=all 269w, https://b2b-contenthub.com/wp-content/uploads/2025/01/UKG-BenediktLell.jpg?resize=134%2C84&quality=50&strip=all 134w, https://b2b-contenthub.com/wp-content/uploads/2025/01/UKG-BenediktLell.jpg?resize=576%2C360&quality=50&strip=all 576w, https://b2b-contenthub.com/wp-content/uploads/2025/01/UKG-BenediktLell.jpg?resize=400%2C250&quality=50&strip=all 400w” width=”1024″ height=”640″ sizes=”(max-width: 1024px) 100vw, 1024px”>Benedikt Lell, Vice President Sales Support UKG: “Die KI erkennt Präferenzen, die der Mitarbeitende selbst noch gar nicht wahrgenommen hat oder sich nicht zu artikulieren traut.” Benedikt Lell KI als Managementwerkzeug KI ist aber weit mehr als nur ein Tool, um Daten zu sammeln. Sie entwickelt sich immer mehr zu einem wichtigen Managementwerkzeug. Die KI erkennt zum Beispiel Präferenzen, die der Mitarbeitende selbst noch gar nicht wahrgenommen hat oder nicht zu artikulieren traut. Thema Überstunden: Einzelne Mitarbeitende sind über Gebühr belastet, schieben Extraschichten, weil sie sich nicht den Mut haben, ihre Interessen durchzusetzen. Die KI in Bryte erkennt solche Schieflagen, macht den Vorgesetzten darauf aufmerksam und gibt sogar Tipps, wie das Problem zu lösen ist.   Oder ein Mitarbeitender kommt an bestimmten Wochentagen häufig zu spät. In extremen Fällen kann es auch sein, dass die Zahl der Überstunden stark ansteigt und sich in Folge davon die Fehlzeiten aufgrund von Krankheit summieren. Hier könnte sich ein Burnout ankündigen und sollte der Vorgesetzte schnell handeln.   Regelmäßige Umfragen und KI sind damit Schlüsselwerkzeuge für Unternehmen, um die Bindung ihrer Mitarbeitenden zu fördern – und damit Fehlzeiten zu senken.   

Gute Mitarbeiterbindung heißt weniger Krankmeldungen​ srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/01/Bindung-shutterstock_2418646745.jpg?quality=50&strip=all 6000w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Bindung-shutterstock_2418646745.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Bindung-shutterstock_2418646745.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Bindung-shutterstock_2418646745.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Bindung-shutterstock_2418646745.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Bindung-shutterstock_2418646745.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Bindung-shutterstock_2418646745.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Bindung-shutterstock_2418646745.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Bindung-shutterstock_2418646745.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Bindung-shutterstock_2418646745.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Bindung-shutterstock_2418646745.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Es zahlt sich für Arbeitgeber aus, in das Wohlbefinden der Arbeitnehmer sowie ein gutes Arbeitsklima zu investieren. 3rdtimeluckystudio – Shutterstock 2418646745

Sind es Grippeviren? Oder der Klassiker: Rückenbeschwerden? Einige Unternehmen geben auch der telefonischen Krankschreibung die Schuld, dass derzeit so viele Beschäftigte nicht zur Arbeit erscheinen. Das fördere Faulenzer, wie manche Unternehmen mutmaßen. Sie reagieren mit „Hausbesuchen“, um vermeintliche Blaumacher zu erwischen. Tatsache ist: Die Deutschen lassen sich derzeit besonders häufig krankschreiben.  

Der Fehlzeiten-Report 2024 des AOK-Bundesverbands spricht von historischen Höchstständen. Der Spitzenwert von 225 Arbeitsunfähigkeitsfällen je 100 erwerbstätigen AOK-Mitgliedern aus 2023 wurde 2024 schon im August erreicht worden. Zu Spitzenzeiten fehlte jeder Zehnte wegen Krankheit. Das belastet die Arbeitgeber: Laut Institut der Deutschen Wirtschaft kostete die Entgeltfortzahlung 74 Milliarden Euro im Jahr 2020 und schon 2025 könnten es 84 Milliarden Euro sein.  

 

Psychische Erkrankungen auf dem Vormarsch

Klassiker wie Atemwegserkrankungen oder Rückenbeschwerden sind zwar immer noch die Ursache für die meisten Krankschreibungen. Aber in den letzten Jahren haben psychische Erkrankungen in Folge von Überlastung bis hin zum Burn-out zugenommen. Die Lösung liegt scheinbar auf der Hand: weniger arbeiten. Doch so einfach ist es nicht. Denn Überlastung lässt sich nicht allein an den Stunden in der Zeiterfassung bemessen oder an den Aktenbergen auf dem Schreibtisch.  

Der Fehlzeiten-Report 2024 des AOK-Bundesverbands spricht hier von einem Zusammenhang zwischen Gesundheit und Bindung zum Unternehmen. Wer sich wertgeschätzt fühle und Sinn in seiner Arbeit finde, sagen die Autoren, werde messbar seltener krank. Das betreffe vor allem die steigenden Ausfallzeiten aufgrund von psychischen Erkrankungen, belegt der Fehlzeiten-Report.  

Das deckt sich mit Erkenntnissen von Great Place to Work (GPTW). Während deutsche Arbeitgeber im Schnitt 14,6 Krankheitstage verzeichnen, sind es bei GPTW-zertifizierten Deutschlands besten Arbeitgebern nur vier Tage. „Ein guter Arbeitgeber ist gut für die Gesundheit der Mitarbeitenden“, sagt Andreas Schubert, CEO von GPTW. Darüber hinaus haben diese Unternehmen eine um 45 Prozent geringere Fluktuation und 4,7-mal mehr Bewerbungen.  

 

Mitarbeitenden aufs Maul geschaut

Da stellt sich die Frage: Wann ist ein Unternehmen ein guter Arbeitgeber und wie misst man das? Schubert nennt einige Indikatoren: Teamgeist, Identifikation mit dem Unternehmen, Stolz dort zu arbeiten, vertrauenswürdige Führung, Führungskräfte lassen Worten Taten folgen und haben immer ein offenes Ohr, um nur einige zu nennen. 60 Aspekte hat GPTW zusammengetragen und erhebt diese in ebenso vielen Fragen in seinen Mitarbeiterbefragungen, die selbstverständlich anonym ablaufen, 13 Minuten dauert das. „Wir schauen den Mitarbeitenden aufs Maul“, erklärt Schubert. Wichtig sei, wie der Mitarbeitende seine Arbeit erlebe, was wiederum entscheidend sei für die Bindung ans Unternehmen – und damit für die Gesundheit dieser Person.  

Natürlich ist ein Unternehmen nicht sofort schlecht, weil ein einzelner Mitarbeitender mit seinem Chef unzufrieden ist. Die Erlebensweisen aller Mitarbeitenden werden aggregiert und zu einem Durchschnitt verrechnet. GPTW hat weltweit bereits weit mehr als 100.000 Unternehmen untersucht und damit eine Datenbasis geschaffen, mit der sich positive wie negative Erlebensweisen in Firmen sehr zuverlässig ableiten lassen.  

Die Korrelation mit dem Krankenstand ist dann eine einfache Übung. Dieser wird vom Unternehmen mitgeteilt und mit den Ergebnissen aus der Umfrage in Beziehung gesetzt. „Der Zusammenhang ist eindeutig“, sagt Schubert. Eine mangelhafte Unternehmenskultur und damit geringe Bindung der Mitarbeitenden schlage sich messbar in den Krankschreibungen nieder. „In von GPTW zertifizierten Unternehmen liegt die Krankheitsquote 74 Prozent niedriger.“  

 

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/01/Andreas_Schubert_Great_Place_to_Work.jpg?quality=50&strip=all 1181w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Andreas_Schubert_Great_Place_to_Work.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Andreas_Schubert_Great_Place_to_Work.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Andreas_Schubert_Great_Place_to_Work.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Andreas_Schubert_Great_Place_to_Work.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Andreas_Schubert_Great_Place_to_Work.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Andreas_Schubert_Great_Place_to_Work.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Andreas_Schubert_Great_Place_to_Work.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Andreas Schubert, CEO von GPTW: “Eine mangelhafte Unternehmenskultur und damit geringe Bindung der Mitarbeitenden schlägt sich messbar in den Krankschreibungen nieder.”Andreas Schubert – GPTW

Mangelhafte Führung als Kündigungsgrund

Gemeinsam mit dem Management identifiziert das GPTW-Team die Lücken, die das positive Erleben der Belegschaft behindern, sowie Potenziale mit guter Aussicht auf Erfolg, außerdem Maßnahmen, die bereits in die richtige Richtung gehen. Wenn GPTW auf Kulturprobleme stößt, liegen vielfältige Ursachen zugrunde. Auf Platz 1: mangelhafte Führung. Man wählt einen neuen Arbeitsplatz wegen des Unternehmens aus und man verlässt ihn wegen des Vorgesetzten – diese Aussage trifft häufig zu.  

Geringe Wertschätzung, mangelndes Feedback der Führungskraft, undurchsichtige Führungsprinzipien, und vor allem fehlende Empathie sind hier tiefer liegende Ursachen. Weitere Gründe für schlechte Stimmung sind Reibungen im Team oder mangelhafte Fairness im Umgang mit den Mitarbeitenden oder bei der Bezahlung.  

Sind die Lücken identifiziert, moderiert GPTW den Verbesserungsprozess. Auch hier ist von Vorteil, dass GPTW auf einer Fülle von Best-Practices aus anderen Firmen aufbauen kann. „Wir arbeiten am Erleben und fragen: Wie erlebt ihr die Kultur in eurem Unternehmen, was ist schon gut und wo sind Potenziale?“, erläutert Schubert das Vorgehen. Das erfolgt sowohl in direkten Gesprächen als auch in Befragungen, die regelmäßig, etwa einmal im Jahr, bei dringendem Veränderungsbedarf auch häufiger, stattfinden sollten.  

Diese Befragungen erfolgen digital, der Mitarbeitende kann über sein Smartphone teilnehmen. Dazu bekommt er einen QR-Code, etwa über die Lohnabrechnung. Weitere Touch-Points sind der PC oder das Zeiterfassungsterminal, das sich für einzelne Zwischenfragen außerhalb des Jahresrhythmus eignet. Die Teilnahmequote liegt nach GPTW-Erfahrung bei 70 Prozent. Die Umfragen gibt es in 50 Sprachen, die Auswertung erfolgt über ein interaktives Dashboard und natürlich anonym, eine Rückverfolgung auf einzelne Personen ist nicht möglich.  

 

Durchhänger sind normal

Wichtig sei, dass die Ergebnisse nicht in der Schublade verschwinden, sondern das Management Handlungsbedarf erkenne und transparent benenne. Unternehmen, die mit GPTW zusammenarbeiteten, wollten sich verbessern – „die anderen kommen gar nicht erst zu uns“, so Schubert. GPTW hat Kunden, die diese Umfrage seit über 20 Jahren machen und die Ergebnisse in eine Erfolgsbilanz der HR-Abteilung einfließen lassen. Nicht immer gehe es bei der Unternehmenskultur nur aufwärts, Durchhänger seien normal. Die Umfragedaten helfen aber, rechtzeitig gegenzusteuern.  

Digitalisierung hilft nicht nur bei Umfragen, sondern auch, das Erleben der Mitarbeitenden zu verbessern. So bietet GPTW-Partner UKG digitale Tools, die mehr Flexibilität in den Arbeitsalltag bringen. Beliebt ist die Schichtplanung, mit der Mitarbeitende Schichten tauschen können, um flexibel die Bedürfnisse des Privatlebens auf das Berufsleben abzustimmen. Die Führungskräfte erhalten zudem Einblick in die Bedürfnisse der Mitarbeitenden. Die sind auf den ersten Blick nicht immer leicht zu erkennen. 

Hier ist der Einsatz einer KI-basierten Software von Vorteil. Bryte von UKG ist so ein KI-Werkzeug. Es leuchtet in die Personal- und HR-Daten hinein und filtert die gewünschten Infos heraus und verknüpft sie – einfache Anfragen per Prompt genügen, wie bei ChatGPT. „Durch Conversational Reporting wird es auch technisch nicht versierten Anwendern ermöglicht, Daten detailliert zu analysieren. Darüber hinaus steht die Software auch allen Mitarbeitenden als Assistent bei Fragen zur Schichtplanung und Zeiterfassung zur Verfügung und führt im Auftrag der Beschäftigten Aktionen wie den Tausch von Schichten im System eigenständig durch“, erklärt Benedikt Lell, Vice President Sales Support von UKG.   

 

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/01/UKG-BenediktLell.jpg?quality=50&strip=all 4688w, https://b2b-contenthub.com/wp-content/uploads/2025/01/UKG-BenediktLell.jpg?resize=300%2C188&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/01/UKG-BenediktLell.jpg?resize=768%2C480&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/01/UKG-BenediktLell.jpg?resize=1024%2C640&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/01/UKG-BenediktLell.jpg?resize=1536%2C960&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/01/UKG-BenediktLell.jpg?resize=2048%2C1280&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/01/UKG-BenediktLell.jpg?resize=1115%2C697&quality=50&strip=all 1115w, https://b2b-contenthub.com/wp-content/uploads/2025/01/UKG-BenediktLell.jpg?resize=269%2C168&quality=50&strip=all 269w, https://b2b-contenthub.com/wp-content/uploads/2025/01/UKG-BenediktLell.jpg?resize=134%2C84&quality=50&strip=all 134w, https://b2b-contenthub.com/wp-content/uploads/2025/01/UKG-BenediktLell.jpg?resize=576%2C360&quality=50&strip=all 576w, https://b2b-contenthub.com/wp-content/uploads/2025/01/UKG-BenediktLell.jpg?resize=400%2C250&quality=50&strip=all 400w” width=”1024″ height=”640″ sizes=”(max-width: 1024px) 100vw, 1024px”>Benedikt Lell, Vice President Sales Support UKG: “Die KI erkennt Präferenzen, die der Mitarbeitende selbst noch gar nicht wahrgenommen hat oder sich nicht zu artikulieren traut.” Benedikt Lell

KI als Managementwerkzeug

KI ist aber weit mehr als nur ein Tool, um Daten zu sammeln. Sie entwickelt sich immer mehr zu einem wichtigen Managementwerkzeug. Die KI erkennt zum Beispiel Präferenzen, die der Mitarbeitende selbst noch gar nicht wahrgenommen hat oder nicht zu artikulieren traut. Thema Überstunden: Einzelne Mitarbeitende sind über Gebühr belastet, schieben Extraschichten, weil sie sich nicht den Mut haben, ihre Interessen durchzusetzen. Die KI in Bryte erkennt solche Schieflagen, macht den Vorgesetzten darauf aufmerksam und gibt sogar Tipps, wie das Problem zu lösen ist.  

Oder ein Mitarbeitender kommt an bestimmten Wochentagen häufig zu spät. In extremen Fällen kann es auch sein, dass die Zahl der Überstunden stark ansteigt und sich in Folge davon die Fehlzeiten aufgrund von Krankheit summieren. Hier könnte sich ein Burnout ankündigen und sollte der Vorgesetzte schnell handeln.  

Regelmäßige Umfragen und KI sind damit Schlüsselwerkzeuge für Unternehmen, um die Bindung ihrer Mitarbeitenden zu fördern – und damit Fehlzeiten zu senken.  

Gute Mitarbeiterbindung heißt weniger Krankmeldungen​ Weiterlesen »

KI sicherer machen in 8 Lektionen​

Allgemein

Red Teams, die KI-Systeme von allen Seiten unter die Lupe nehmen, können helfen, die Sicherheit zu verbessern.DC Studio / Shutterstock Microsofts Red Team, das für über 100 generativen KI-Produkten verantwortlich ist, ist zu dem Schluss gekommen, dass die Arbeit an sicheren KI-Systemen niemals enden wird. Unter einem Red Team versteht man eine Gruppe von Sicherheitsexperten, die von internen Stakeholdern oder externen Kunden beauftragt werden, bestimmte IT-Systeme unter die Lupe zu nehmen, diese Penetrationstests auszusetzen und über simulierte Angriffe zu versuchen, Sicherheitsmechanismen auszuhebeln und die entsprechenden Systeme zu kompromittieren. In einem Forschungspapier beschreiben die Autoren, darunter Microsofts Azure CTO Mark Russinovich, Teile der Arbeit des Red Teams und geben acht Empfehlungen, die darauf abzielen, Red Teaming-Bemühungen mit realen Risiken in Einklang zu bringen. “Da generative KI-Systeme (GenAI) in immer mehr Bereichen eingesetzt werden, hat sich das AI Red Teaming zu einer zentralen Praxis für die Bewertung der Sicherheit dieser Technologien entwickelt”, heißt es in dem Bericht. Interview mit Sebastian Schreiber: So arbeiten Red-Team- und PenTester Im Kern geht es beim KI-Red-Teaming darum, über die Sicherheitsbenchmarks auf Modellebene hinauszugehen, indem reale Angriffe auf End-to-End-Systeme emuliert werden. Es gibt jedoch viele offene Fragen darüber, wie Red Teaming-Operationen durchgeführt werden sollten. In dem Papier heißt es, dass sich das Microsoft AI Red Team (AIRT) bei seiner Gründung im Jahr 2018 in erster Linie auf die Identifizierung herkömmlicher Sicherheitsschwachstellen und Umgehungsangriffe gegen klassische ML-Modelle konzentriert habe. Seitdem hätten sich sowohl der Umfang als auch das Ausmaß des KI-Red-Teams bei Microsoft deutlich erweitert. als Reaktion auf zwei wichtige Trends erheblich erweitert.” Framework für Red Teams Das liege in erster Linie an zwei Entwicklungen. Zum einen sei KI-Technik immer ausgefeilter geworden, und zum zweiten hätten Microsofts jüngste Investitionen in KI zur Entwicklung von viel mehr Produkten geführt, die Red Teaming erforderten. “Dieser Anstieg des Volumens und der erweiterte Umfang des KI-Red-Teaming haben dazu geführt, dass vollständig manuelle Tests nicht mehr praktikabel und wir gezwungen waren, unsere Abläufe mit Hilfe von Automatisierung zu erweitern”, schreiben die Autoren. “Um dieses Ziel zu erreichen, haben wir PyRIT entwickelt, ein quelloffenes Python-Framework, das unsere Mitarbeiter bei Red Teaming-Aktivitäten intensiv nutzen.” Dadurch sei AIRT nun in die Lage, schwerwiegende Schwachstellen in KI-Systemen schneller zu identifizieren und einen größeren Teil der Risikolandschaft abzudecken, hieß es. Auf der Grundlage ihrer Erfahrungen haben die Autoren acht Lektionen zusammengestellt, inklusive detaillierter Erklärungen und Fallstudien, die dabei helfen sollen, KI-Systeme im Rahmen von Red-Teaming-Aktivitäten besser abzusichern: 1. Verstehen Sie, was das System tun kann und wo es eingesetzt wird Der erste Schritt bei einer KI-Red-Teaming-Operation besteht darin, zu bestimmen, welche Schwachstellen ins Visier genommen werden sollen. Die Autoren schlagen vor: “Wenn man von den potenziellen Auswirkungen und nicht von den Angriffsstrategien ausgeht, ist es wahrscheinlicher, dass eine Operation nützliche Ergebnisse liefert, die mit realen Risiken verbunden sind.” Nachdem diese Auswirkungen identifiziert seien, könnten Red Teams rückwärts arbeiten und die verschiedenen Wege skizzieren, die ein Angreifer nehmen könnte, um sie zu erreichen. 2. Sie müssen keine Gradienten berechnen, um ein KI-System zu brechen Um dies zu beweisen, verweist das Papier auf eine andere Studie. Demzufolge würden sich die meisten Forschungen viel zu sehr darauf konzentrieren, Strategien für die Verteidigung gegen ausgeklügelte Angriffe zu entwickeln. In der realen Welt verwendeten die Angreifer jedoch meist viel einfachere Techniken, um ihre Ziele zu erreichen. Gradienten-basierte Angriffe seien zwar mächtig, so die Autoren, “aber sie sind oft unpraktisch oder unnötig. Wir empfehlen, einfachen Techniken den Vorzug zu geben und Angriffe auf Systemebene zu orchestrieren”. Es sei wahrscheinlicher, dass echte Angreifer eher diesen Weg gehen würden. 3. AI Red Teaming ist kein Sicherheits-Benchmarking Beide Ansätze sind unterschiedlich, schreiben die Autoren. Sie seien beide nützlich und könnten sich ergänzen. Benchmarks machten es insbesondere einfach, die Leistung mehrerer Modelle auf Basis eines gemeinsamen Datensatzes zu vergleichen. KI-Red-Teaming erfordere darüber hinaus viel mehr menschlichen Einsatz, könne aber neue Schadenskategorien entdecken und nach kontextbezogenen Risiken suchen. Neue Risiken, die sich aus den neuen Fähigkeiten von KI-Systemen ergeben, seien möglicherweise noch nicht vollständig bekannt. Aufgabe der Red Teams sei es, diese zu definieren und Instrumente zu ihrer Messung zu entwickeln. 4. Automatisierung kann dabei helfen, einen größeren Teil der Risikolandschaft abzudecken Den Autoren zufolge hat die Komplexität der KI-Risikolandschaft zur Entwicklung einer Vielzahl von Tools geführt. Diese seien in der Lage, Schwachstellen schneller zu identifizieren, ausgefeilte Angriffe automatisch auszuführen und Tests in einem viel größeren Maßstab durchzuführen. Die Automatisierung beim KI-Red-Teaming spiele eine entscheidende Rolle, was letztendlich zur Entwicklung eines Open-Source-Frameworks, PyRIT, geführt habe. 5. Das menschliche Element beim KI-Red-Teaming ist entscheidend Automatisierung mag zwar wichtig sein, sagen die Autoren. Tools wie PyRIT unterstützten Red Teaming-Operationen, indem sie Prompts generieren, Angriffe orchestrieren und Antworten bewerten. Gleichzeitig warnen die Experten aber: “Diese Tools sind nützlich, sollten aber nicht mit der Absicht eingesetzt werden, den Menschen aus dem Spiel zu nehmen.” 6. Schäden durch Responsable AI (RAI) sind allgegenwärtig, aber schwer zu messen RAI-Schäden sind schwerer zu fassen als klassische Sicherheitslücken. Das hat nach Einschätzung der Experten vor allem mit fundamentalen Unterschieden zwischen KI-Systemen und herkömmlicher Software zu tun. Die meisten Bemühungen in Sachen KI-Sicherheit konzentrieren sich auf feindlich gesinnte User, die absichtlich gegen Leitplanken verstoßen. In Wahrheit sind aber “gutartige” Benutzerinnen und Benutzer, die versehentlich schädliche Inhalte generieren, mindestens genauso wichtig für die Absicherung des KI-Einsatzes. 7. LLMs verstärken bestehende Sicherheitsrisiken und führen neue ein Die Integration von generativen KI-Modellen in eine Vielzahl von Anwendungen hat neue Angriffsvektoren geschaffen und die Landschaft der Sicherheitsrisiken verändert. Es gelte daher die KI-Teams zu ermutigen, sowohl bestehende (typischerweise auf Systemebene) als auch neue (typischerweise auf Modellebene) Risiken im Blick zu behalten. 8. Die Arbeit zur Sicherung von KI-Systemen wird nie abgeschlossen sein Die Vorstellung, dass es möglich ist, die Sicherheit von KI-Systemen allein durch technische Fortschritte zu garantieren, ist unrealistisch, lautet das Fazit der Ted-Team-Spezialisten. Ein solcher Ansatz lasse andere wesentliche Faktoren außer Acht, wie zum Beispiel wirtschaftliche Aspekte, Fehlerbehebungszyklen und die Regulierung. Vor diesem Hintergrund heißt es in dem Papier: “In Ermangelung von Sicherheitsgarantien brauchen wir Methoden, um KI-Systeme zu entwickeln, die so schwer zu knacken sind, wie nur irgendwie möglich.” Eine Möglichkeit, dies zu erreichen, sei die Verwendung von Break-Fix-Zyklen, bei denen mehrere Runden von Red Teaming und Schadensbegrenzung durchgeführt werden, bis ein solches System tatsächlich zumindest gegen eine breite Palette von Angriffen gefeit ist. Fazit: KI bleibt ein extrem bewegliches Ziel Die Autoren des Berichts kommen zu dem Schluss, dass sich KI-Red-Teaming als eine neu entstehende Praxis entwickeln könnte, um Sicherheitsrisiken zu identifizieren, die von KI-Systemen ausgehen. Gleichzeitig werfen die Security-Experten aber auch eine Reihe von Fragen auf – vor allem an sich selbst. “Wie sollten wir nach gefährlichen Fähigkeiten in LLMs suchen”, fragen sie. “Welche neuartigen Risiken sollten wir in Modellen der jüngsten Videogeneration untersuchen und welche Fähigkeiten könnten in Modellen auftauchen, die weiter fortgeschritten sind als der aktuelle Stand der Technik?” Darüber hinaus drehen sich die Diskussionen darum, wie Red Teams ihre Praktiken anpassen können, um verschiedenen sprachlichen und kulturellen Kontexten gerecht zu werden. Und es geht um die Frage, auf welche Weise Red-Teaming-Praktiken standardisiert werden sollten, um es den Teams zu erleichtern, ihre Ergebnisse zu vergleichen und zu kommunizieren. Ein Anfang soll mit der Microsoft-internen Untersuchung gemacht sein, hieß es. “Da sich Unternehmen, Forschungseinrichtungen und Regierungen auf der ganzen Welt mit der Frage auseinandersetzen, wie sie KI-Risikobewertungen durchführen sollen, geben wir praktische Empfehlungen, die auf unseren Erfahrungen mit dem Red Teaming von über 100 GenAI-Produkten bei Microsoft basieren. Wir ermutigen andere, auf diesen Erkenntnissen aufzubauen und die offenen Fragen, die wir hervorgehoben haben, anzugehen.” 

KI sicherer machen in 8 Lektionen​ Red Teams, die KI-Systeme von allen Seiten unter die Lupe nehmen, können helfen, die Sicherheit zu verbessern.DC Studio / Shutterstock

Microsofts Red Team, das für über 100 generativen KI-Produkten verantwortlich ist, ist zu dem Schluss gekommen, dass die Arbeit an sicheren KI-Systemen niemals enden wird. Unter einem Red Team versteht man eine Gruppe von Sicherheitsexperten, die von internen Stakeholdern oder externen Kunden beauftragt werden, bestimmte IT-Systeme unter die Lupe zu nehmen, diese Penetrationstests auszusetzen und über simulierte Angriffe zu versuchen, Sicherheitsmechanismen auszuhebeln und die entsprechenden Systeme zu kompromittieren.

In einem Forschungspapier beschreiben die Autoren, darunter Microsofts Azure CTO Mark Russinovich, Teile der Arbeit des Red Teams und geben acht Empfehlungen, die darauf abzielen, Red Teaming-Bemühungen mit realen Risiken in Einklang zu bringen. “Da generative KI-Systeme (GenAI) in immer mehr Bereichen eingesetzt werden, hat sich das AI Red Teaming zu einer zentralen Praxis für die Bewertung der Sicherheit dieser Technologien entwickelt”, heißt es in dem Bericht.

Interview mit Sebastian Schreiber: So arbeiten Red-Team- und PenTester

Im Kern geht es beim KI-Red-Teaming darum, über die Sicherheitsbenchmarks auf Modellebene hinauszugehen, indem reale Angriffe auf End-to-End-Systeme emuliert werden. Es gibt jedoch viele offene Fragen darüber, wie Red Teaming-Operationen durchgeführt werden sollten. In dem Papier heißt es, dass sich das Microsoft AI Red Team (AIRT) bei seiner Gründung im Jahr 2018 in erster Linie auf die Identifizierung herkömmlicher Sicherheitsschwachstellen und Umgehungsangriffe gegen klassische ML-Modelle konzentriert habe. Seitdem hätten sich sowohl der Umfang als auch das Ausmaß des KI-Red-Teams bei Microsoft deutlich erweitert. als Reaktion auf zwei wichtige Trends erheblich erweitert.”

Framework für Red Teams

Das liege in erster Linie an zwei Entwicklungen. Zum einen sei KI-Technik immer ausgefeilter geworden, und zum zweiten hätten Microsofts jüngste Investitionen in KI zur Entwicklung von viel mehr Produkten geführt, die Red Teaming erforderten. “Dieser Anstieg des Volumens und der erweiterte Umfang des KI-Red-Teaming haben dazu geführt, dass vollständig manuelle Tests nicht mehr praktikabel und wir gezwungen waren, unsere Abläufe mit Hilfe von Automatisierung zu erweitern”, schreiben die Autoren.

“Um dieses Ziel zu erreichen, haben wir PyRIT entwickelt, ein quelloffenes Python-Framework, das unsere Mitarbeiter bei Red Teaming-Aktivitäten intensiv nutzen.” Dadurch sei AIRT nun in die Lage, schwerwiegende Schwachstellen in KI-Systemen schneller zu identifizieren und einen größeren Teil der Risikolandschaft abzudecken, hieß es.

Auf der Grundlage ihrer Erfahrungen haben die Autoren acht Lektionen zusammengestellt, inklusive detaillierter Erklärungen und Fallstudien, die dabei helfen sollen, KI-Systeme im Rahmen von Red-Teaming-Aktivitäten besser abzusichern:

1. Verstehen Sie, was das System tun kann und wo es eingesetzt wird

Der erste Schritt bei einer KI-Red-Teaming-Operation besteht darin, zu bestimmen, welche Schwachstellen ins Visier genommen werden sollen. Die Autoren schlagen vor: “Wenn man von den potenziellen Auswirkungen und nicht von den Angriffsstrategien ausgeht, ist es wahrscheinlicher, dass eine Operation nützliche Ergebnisse liefert, die mit realen Risiken verbunden sind.” Nachdem diese Auswirkungen identifiziert seien, könnten Red Teams rückwärts arbeiten und die verschiedenen Wege skizzieren, die ein Angreifer nehmen könnte, um sie zu erreichen.

2. Sie müssen keine Gradienten berechnen, um ein KI-System zu brechen

Um dies zu beweisen, verweist das Papier auf eine andere Studie. Demzufolge würden sich die meisten Forschungen viel zu sehr darauf konzentrieren, Strategien für die Verteidigung gegen ausgeklügelte Angriffe zu entwickeln. In der realen Welt verwendeten die Angreifer jedoch meist viel einfachere Techniken, um ihre Ziele zu erreichen. Gradienten-basierte Angriffe seien zwar mächtig, so die Autoren, “aber sie sind oft unpraktisch oder unnötig. Wir empfehlen, einfachen Techniken den Vorzug zu geben und Angriffe auf Systemebene zu orchestrieren”. Es sei wahrscheinlicher, dass echte Angreifer eher diesen Weg gehen würden.

3. AI Red Teaming ist kein Sicherheits-Benchmarking

Beide Ansätze sind unterschiedlich, schreiben die Autoren. Sie seien beide nützlich und könnten sich ergänzen. Benchmarks machten es insbesondere einfach, die Leistung mehrerer Modelle auf Basis eines gemeinsamen Datensatzes zu vergleichen. KI-Red-Teaming erfordere darüber hinaus viel mehr menschlichen Einsatz, könne aber neue Schadenskategorien entdecken und nach kontextbezogenen Risiken suchen. Neue Risiken, die sich aus den neuen Fähigkeiten von KI-Systemen ergeben, seien möglicherweise noch nicht vollständig bekannt. Aufgabe der Red Teams sei es, diese zu definieren und Instrumente zu ihrer Messung zu entwickeln.

4. Automatisierung kann dabei helfen, einen größeren Teil der Risikolandschaft abzudecken

Den Autoren zufolge hat die Komplexität der KI-Risikolandschaft zur Entwicklung einer Vielzahl von Tools geführt. Diese seien in der Lage, Schwachstellen schneller zu identifizieren, ausgefeilte Angriffe automatisch auszuführen und Tests in einem viel größeren Maßstab durchzuführen. Die Automatisierung beim KI-Red-Teaming spiele eine entscheidende Rolle, was letztendlich zur Entwicklung eines Open-Source-Frameworks, PyRIT, geführt habe.

5. Das menschliche Element beim KI-Red-Teaming ist entscheidend

Automatisierung mag zwar wichtig sein, sagen die Autoren. Tools wie PyRIT unterstützten Red Teaming-Operationen, indem sie Prompts generieren, Angriffe orchestrieren und Antworten bewerten. Gleichzeitig warnen die Experten aber: “Diese Tools sind nützlich, sollten aber nicht mit der Absicht eingesetzt werden, den Menschen aus dem Spiel zu nehmen.”

6. Schäden durch Responsable AI (RAI) sind allgegenwärtig, aber schwer zu messen

RAI-Schäden sind schwerer zu fassen als klassische Sicherheitslücken. Das hat nach Einschätzung der Experten vor allem mit fundamentalen Unterschieden zwischen KI-Systemen und herkömmlicher Software zu tun. Die meisten Bemühungen in Sachen KI-Sicherheit konzentrieren sich auf feindlich gesinnte User, die absichtlich gegen Leitplanken verstoßen. In Wahrheit sind aber “gutartige” Benutzerinnen und Benutzer, die versehentlich schädliche Inhalte generieren, mindestens genauso wichtig für die Absicherung des KI-Einsatzes.

7. LLMs verstärken bestehende Sicherheitsrisiken und führen neue ein

Die Integration von generativen KI-Modellen in eine Vielzahl von Anwendungen hat neue Angriffsvektoren geschaffen und die Landschaft der Sicherheitsrisiken verändert. Es gelte daher die KI-Teams zu ermutigen, sowohl bestehende (typischerweise auf Systemebene) als auch neue (typischerweise auf Modellebene) Risiken im Blick zu behalten.

8. Die Arbeit zur Sicherung von KI-Systemen wird nie abgeschlossen sein

Die Vorstellung, dass es möglich ist, die Sicherheit von KI-Systemen allein durch technische Fortschritte zu garantieren, ist unrealistisch, lautet das Fazit der Ted-Team-Spezialisten. Ein solcher Ansatz lasse andere wesentliche Faktoren außer Acht, wie zum Beispiel wirtschaftliche Aspekte, Fehlerbehebungszyklen und die Regulierung. Vor diesem Hintergrund heißt es in dem Papier: “In Ermangelung von Sicherheitsgarantien brauchen wir Methoden, um KI-Systeme zu entwickeln, die so schwer zu knacken sind, wie nur irgendwie möglich.” Eine Möglichkeit, dies zu erreichen, sei die Verwendung von Break-Fix-Zyklen, bei denen mehrere Runden von Red Teaming und Schadensbegrenzung durchgeführt werden, bis ein solches System tatsächlich zumindest gegen eine breite Palette von Angriffen gefeit ist.

Fazit: KI bleibt ein extrem bewegliches Ziel

Die Autoren des Berichts kommen zu dem Schluss, dass sich KI-Red-Teaming als eine neu entstehende Praxis entwickeln könnte, um Sicherheitsrisiken zu identifizieren, die von KI-Systemen ausgehen. Gleichzeitig werfen die Security-Experten aber auch eine Reihe von Fragen auf – vor allem an sich selbst. “Wie sollten wir nach gefährlichen Fähigkeiten in LLMs suchen”, fragen sie. “Welche neuartigen Risiken sollten wir in Modellen der jüngsten Videogeneration untersuchen und welche Fähigkeiten könnten in Modellen auftauchen, die weiter fortgeschritten sind als der aktuelle Stand der Technik?”

Darüber hinaus drehen sich die Diskussionen darum, wie Red Teams ihre Praktiken anpassen können, um verschiedenen sprachlichen und kulturellen Kontexten gerecht zu werden. Und es geht um die Frage, auf welche Weise Red-Teaming-Praktiken standardisiert werden sollten, um es den Teams zu erleichtern, ihre Ergebnisse zu vergleichen und zu kommunizieren.

Ein Anfang soll mit der Microsoft-internen Untersuchung gemacht sein, hieß es. “Da sich Unternehmen, Forschungseinrichtungen und Regierungen auf der ganzen Welt mit der Frage auseinandersetzen, wie sie KI-Risikobewertungen durchführen sollen, geben wir praktische Empfehlungen, die auf unseren Erfahrungen mit dem Red Teaming von über 100 GenAI-Produkten bei Microsoft basieren. Wir ermutigen andere, auf diesen Erkenntnissen aufzubauen und die offenen Fragen, die wir hervorgehoben haben, anzugehen.”

KI sicherer machen in 8 Lektionen​ Weiterlesen »

Diese 10 Berufe sind in Deutschland besonders gefragt​

Allgemein

Welche Berufe im Jahr 2025 wo besonders gefragt sind, zeigt ein aktuelles Ranking, inklusive Jobeschreibung und Vorkenntnissen. shutterstock.com – Andrii Yalanskyi Die Arbeitswelt wandelt sich ständig, und neue Technologien wie Künstliche Intelligenz (KI) verändern Bewerbungs- und Einstellungsprozesse grundlegend. Gleichzeitig verschiebt sich die geopolitische Landschaft und deutsche Manager setzen andere Prioritäten als noch im Jahr 2024. Was das für Arbeitssuchende bedeutet und welche Jobs 2025 besonders attraktiv und gefragt sind, zeigt das diesjährige  „Jobs im Trend 2025“ – Ranking von LinkedIn.   1. Energiemanager Das Ranking führt der Energiemanager an – 2024 noch auf Rang 5 unter den Top 10. Energie-Manager, auch als Energiespezialisten oder Energie Consultants bezeichnet, spielen eine entscheidende Rolle bei der Optimierung des Energieverbrauchs in Unternehmen. Ihr Ziel ist es, Kosten zu senken und die Energieeffizienz nachhaltig zu steigern. Zu den wichtigsten Fähigkeiten dieser Fachkräfte gehören Kenntnisse in Sachen Energiemanagement, Energieaudits und Energiepolitik. Sie sind vor allem in Branchen wie dem Maschinenbau, in Unternehmensberatungen und bei der Herstellung von Transportausrüstung gefragt. Besonders hohe Nachfrage gibt es in den Metropolregionen Berlin/Brandenburg, München und Düsseldorf. Die Geschlechterverteilung in diesem Beruf ist aktuell unausgeglichen, mit einem Anteil von 20 Prozent Frauen und 80 Prozent Männern. Energie-Manager verfügen durchschnittlich über 3,7 Jahre Berufserfahrung und kommen häufig aus Vorberufen wie Sicherheitsmanager, wissenschaftliche Assistenten oder Office-Manager. Drei Prozent der Jobs lassen sich remote erledigen, 34 Prozent sind hybrid ausgelegt. 2. Business Process Owner Neu in den Top 10 ist in diesem Jahr der Business Process Owner, auch bekannt als Business Process Analyst oder Business Process Consultant. Er ist für die Entwicklung, Verwaltung und Optimierung der Geschäftsprozesse in einer Organisation verantwortlich. Sein Ziel ist es, diese Prozesse mit den Unternehmenszielen in Einklang zu bringen und deren Effizienz zu maximieren. Wichtige Fähigkeiten in diesem Beruf umfassen Geschäftsprozessoptimierung, den Umgang mit SAP ERP und Geschäftsprozessmanagement. Beschäftigung finden diese Fachkräfte besonders häufig in Branchen wie Maschinenbau, der Herstellung von Transportausrüstung und dem Großhandel. Zu den Regionen mit hoher Nachfrage zählen die Metropolregionen München und Berlin/Brandenburg sowie Nürnberg. Die Geschlechterverteilung in diesem Beruf ist vergleichsweise ausgewogen, mit einem Anteil von 41 Prozent Frauen und 59 Prozent Männern. Business Process Owner verfügen im Durchschnitt über 5,1 Jahre Berufserfahrung und kommen oft aus Vorberufen wie Prozessmanager, Geschäftsprozessexperte oder Einkäufer. Ungefähr jeder zwölfte Job in diesem Fach kann vollständig remote erledigt werden, während 45 Prozent hybrid gestaltet sind. 3. Spezialist für Employer Branding Der Spezialist für Employer Branding ist ebenfalls neu im Ranking, der Teilbereich Social Media landete allerdings als Influencer Marketing Manager bereits 2024 auf Rang 4. Employer-Branding-Spezialisten, auch bekannt als Employer Branding Manager oder Employer Brand Manager, entwickeln und implementieren Strategien zur Verbesserung der Arbeitgebermarke eines Unternehmens. Ihr Ziel ist es, Talente und Fachkräfte erfolgreich anzuwerben und langfristig zu binden. Zu den wichtigsten Fähigkeiten in diesem Beruf zählen Employer Branding, Personalmarketing und Recruiting. Besonders gefragt sind diese Spezialisten in Bereichen wie IT-Dienstleistungen und IT-Beratung, Maschinenbau sowie Technologie, Information und Internet. Die Metropolregionen München, Berlin/Brandenburg und die Region Köln/Bonn sind zentrale Standorte für diese Tätigkeit. Der Beruf ist überwiegend weiblich geprägt, mit einer Geschlechterverteilung von 86 Prozent Frauen und 14 Prozent Männern. Employer-Branding-Spezialisten verfügen im Durchschnitt über 3,3 Jahre Berufserfahrung und kommen häufig aus Positionen wie Talent Acquisition Spezialistin, Projektmanagerin oder HR-Spezialistin. Zwar sind nur 0,7 Prozent der Stellen vollständig remote zu erledigen, dafür aber 53 Prozent hybrid gestaltet. 4. Reiseberater Reiseberater oder auch Verkaufsberater Reisebranche beziehungsweise Reiseexperte, sind für die Koordination, Buchung und Verwaltung von Reisearrangements für Einzelpersonen oder Gruppen zuständig. Ihr Fokus liegt dabei auf der Kosteneffizienz und einer reibungslosen Organisation. Zu den zentralen Fähigkeiten in diesem Beruf zählen Reisemanagement, Vertrieb und Reiseplanung. Reiseberater finden Beschäftigung vor allem in den Branchen Reisebürodienstleistungen, Fluggesellschaften und Luftfahrt sowie Technologie, Information und Internet. Zu Hause ist diese Berufsgruppe vor allem in den Metropolregionen Berlin/Brandenburg und München sowie in Hamburg und Umgebung. Auch dieser Beruf ist mehrheitlich weiblich geprägt, mit einer Geschlechterverteilung von 61 Prozent Frauen und 39 Prozent Männern. Die durchschnittliche Berufserfahrung beträgt 3,3 Jahre, und viele Beschäftigte waren vorher in Rollen wie HR-Geschäftspartner, Produktmanager oder Digital-Marketing-Manager tätig. Flexible Arbeitsmodelle sind zunehmend verbreitet, wobei 23 Prozent der Stellen remote und 12 Prozent hybrid angeboten werden. 5. Nachhaltigkeitsmanager Ein weiterer Job, der 2024 unter anderem Namen als Nachhaltigkeitsspezialist die Top-10-Liste anführte, ist der Nachhaltigkeitsmanager. Nachhaltigkeitsmanager, auch bekannt als Nachhaltigkeitsbeauftragte oder Sustainability Consultants, sind dafür verantwortlich, die Nachhaltigkeitsstrategie eines Unternehmens zu planen, zu steuern und zu evaluieren. Dabei achten sie darauf, dass die Strategie mit den Unternehmenswerten übereinstimmt und messbare Nachhaltigkeitsziele setzt. Personen in diesem Beruf kümmern sich häufig um die Corporate Sustainability, das Erstellen von Nachhaltigkeitsberichten und die Entwicklung von Nachhaltigkeitsstrategien. Nachhaltigkeitsmanager sind vor allem in Branchen wie Unternehmensberatung, Maschinenbau und chemischer Produktion tätig. Wie auch der Spezialist für Employer Branding sind sie besonders in der Metropolregion München, der Region Köln/Bonn und der Metropolregion Berlin/Brandenburg gefragt. Die Geschlechterverteilung in diesem Beruf liegt bei 61 Prozent Frauen und 39 Prozent Männern. Die durchschnittliche Berufserfahrung beträgt 3,5 Jahre, und viele Fachkräfte kommen aus Tätigkeiten als Projektmanager oder Kundendienstmitarbeiter. Flexible Arbeitsmodelle sind nicht so verbreitet wie in anderen Branchen: Zwei Prozent der Stellen werden remote, 47 Prozent hybrid angeboten. 6. KI-Entwickler Ein alter Bekannter aus dem Jahr 2024, damals noch auf Rang 8, schafft es erneut in die Top 10 und verbessert sich auf Platz 6. KI-Entwickler, auch bekannt als KI-Programmierer, sind für die Programmierung, das Testen und die Verwaltung von KI-Software, Modellen sowie Infrastruktur verantwortlich. Ihr Ziel ist es, Aufgaben zu automatisieren und komplexe Probleme durch den Einsatz Künstlicher Intelligenz zu lösen. Wichtige Fähigkeiten in diesem Bereich umfassen Deep Learning, die Arbeit mit PyTorch und Expertise in Computer-Vision. KI-Entwickler sind vor allem in den Branchen Technologie, Information und Internet, IT-Dienstleistungen und -Beratung sowie Unternehmensberatung gefragt. Zu den Top-Regionen für Stellenangebote zählen die Metropolregion München, die Metropolregion Berlin/Brandenburg und die Region Frankfurt/Rhein-Main. Die Geschlechterverteilung in diesem Beruf ist vergleichbar mit der von Energiemanagern: 19 Prozent Frauen zu 81 Prozent Männern. Die durchschnittliche Berufserfahrung liegt bei 2,8 Jahren. Viele Beschäftigte wechseln aus Positionen wie Experte für Unternehmenstechnologie, wissenschaftliche Assistenz oder Dateningenieur in diesen Bereich. 28 Prozent der Stellen sind remote ausgelegt, und 50 Prozent bieten hybride Arbeitsmöglichkeiten. 7. Qualitätsingenieur für Zulieferer Qualitätsingenieur für Zulieferer sorgen durch Bewertung und Prüfung dafür, dass die Produkte und Materialien von Zulieferern bestimmten Qualitätsstandards entsprechen. Alternative Namen sind Lieferantenqualitätsingenieur und Supplier Quality Engineers. Mit Platz sieben sind sie 2025 neu im Top-10-Ranking. Wichtige Fähigkeiten in diesem Beruf umfassen das Produktionsteil-Abnahmeverfahren (PPAP) sowie Advanced Product Quality Planning (APQP). Gefragt sind diese Fachkräfte vor allem in den Branchen Maschinenbau, Herstellung von Transportausrüstung und Herstellung medizinischer Geräte. Zu den Top-Regionen für Stellenangebote zählen die Metropolregion Berlin/Brandenburg, Tübingen und Umgebung sowie Hamburg und Umgebung. Die Geschlechterverteilung zeigt, dass 21 Prozent Frauen und 79 Prozent Männer in diesem Beruf tätig sind. Die durchschnittliche Berufserfahrung beträgt vier Jahre, wobei viele Beschäftigte zuvor als Qualitätsbeauftragte, Spezialist für Lieferantenqualität oder Spezialist für Lieferantenentwicklung gearbeitet haben. Flexible Arbeitsmodelle sind begrenzt: Nur ein Prozent der Stellen sind remote, während 41 Prozent hybride Arbeitsmöglichkeiten bieten. 8. Spezialist für HR-Entwicklung Auf Platz acht folgen die Spezialisten für HR-Entwicklung, auch bekannt als Personalentwickler oder HR-Spezialisten. Sie analysieren die Fähigkeiten, die in einem Unternehmen benötigt werden, und fördern diese Kompetenzen in der Belegschaft. Ziel ist es, die berufliche Entwicklung der Mitarbeitenden zu unterstützen. Zu den häufigsten Fähigkeiten gehören Mitarbeiterentwicklung, Recruiting und Führungskräfteentwicklung. Besonders gefragt sind diese Fachkräfte Im Versicherungswesen, In Ämtern für öffentliche Ordnung und In der Kreditvermittlung. Die Top-Regionen für eine Anstellung sind die Metropolregion München, Frankfurt/Rhein-Main und die Metropolregion Berlin/Brandenburg. Die Geschlechterverteilung zeigt einen sehr hohen Frauenanteil von 87 Prozent und einen Männeranteil von 13 Prozent. Die durchschnittliche Berufserfahrung liegt bei 3,1 Jahren. Vorherige Berufserfahrungen umfassen Tätigkeiten als Projektmanager, Recruiter oder HR-Spezialist. In Bezug auf flexible Arbeitsmodelle bieten gerade einmal 0,4 Prozent der Stellen Remote-Arbeit, während 43 Prozent hybride Arbeitsmöglichkeiten ermöglichen. 9. Entwickler für Cybersicherheit Deutlich verschlechtert gegenüber seiner Spitzenplatzierung aus dem 2024, wo er noch den zweiten Platz erringen konnte, hat sich der Ingenieur für Cybersicherheit. Cyber-Security-Spezialisten, auch als Analyst oder Ingenieur für Cybersicherheit benannt, sind dafür verantwortlich Sicherheitsstandards zu implementieren, Risikofaktoren zu identifizieren und Schwachstellen aufzudecken, um ihre Organisation vor externen Cyberangriffen zu schützen. Zu den wichtigsten Fähigkeiten zählen Security Information and Event Management (SIEM), Netzwerksicherheit und Penetrationstests. Die häufigsten Branchen, in denen diese Fachkräfte tätig sind, umfassen IT-Dienstleistungen und IT-Beratung, die Herstellung von Transportausrüstung sowie Technologie und Information. Top-Regionen für Anstellungen sind die Metropolregion München, die Region Stuttgart und die Metropolregion Berlin/Brandenburg. Die Geschlechterverteilung ist mit der anderer Ingenieursberufe vergleichbar: 16 Prozent Frauen und 84 Prozent Männern, wobei die durchschnittliche Berufserfahrung vier Jahre beträgt. Viele Fachkräfte in diesem Bereich waren zuvor in der Systementwicklung, als Software-Ingenieur oder als IT-Berater tätig. In Bezug auf flexible Arbeitsmodelle ist jede achte Stelle remote und fast die Hälfte bietet hybride Arbeitsmöglichkeiten. 10. Plattform-Entwickler Ihren Platz 10 im Ranking aus dem Jahr 2024 konnten die Plattform-Entwickler verteidigen. Sie sind verantwortlich für die Planung und Wartung der IT-Infrastruktur sowie Plattformen eines Unternehmens, die Software-Anwendungen und -dienste unterstützen. Zu den häufigsten gefragten Fähigkeiten gehören Terraform, Kubernetes und Ansible. Diese Fachkräfte arbeiten vor allem in der IT-Dienstleistungs- und IT-Beratungs-, Technologie-, Informations- und Internet-Branche sowie dem Maschinenbau. Die wichtigsten Regionen für Anstellungen sind die Metropolregion Berlin/Brandenburg, die Metropolregion München sowie Hamburg und Umgebung. Die Geschlechterverteilung in diesem Bereich liegt bei 13 Prozent Frauen und 87 Prozent Männern. Die durchschnittliche Berufserfahrung beträgt 4,9 Jahre. Viele dieser Fachkräfte haben zuvor als Softwareingenieur, Plattform-Architekt oder Systemarchitekt gearbeitet. In Bezug auf flexible Arbeitsmodelle bietet fast jede fünfte Stelle Remote-Arbeit und 51 Prozent hybride Arbeitsmöglichkeiten an. 

Diese 10 Berufe sind in Deutschland besonders gefragt​ Welche Berufe im Jahr 2025 wo besonders gefragt sind, zeigt ein aktuelles Ranking, inklusive Jobeschreibung und Vorkenntnissen.
shutterstock.com – Andrii Yalanskyi

Die Arbeitswelt wandelt sich ständig, und neue Technologien wie Künstliche Intelligenz (KI) verändern Bewerbungs- und Einstellungsprozesse grundlegend. Gleichzeitig verschiebt sich die geopolitische Landschaft und deutsche Manager setzen andere Prioritäten als noch im Jahr 2024.

Was das für Arbeitssuchende bedeutet und welche Jobs 2025 besonders attraktiv und gefragt sind, zeigt das diesjährige  „Jobs im Trend 2025“ – Ranking von LinkedIn.  

1. Energiemanager

Das Ranking führt der Energiemanager an – 2024 noch auf Rang 5 unter den Top 10.

Energie-Manager, auch als Energiespezialisten oder Energie Consultants bezeichnet, spielen eine entscheidende Rolle bei der Optimierung des Energieverbrauchs in Unternehmen. Ihr Ziel ist es, Kosten zu senken und die Energieeffizienz nachhaltig zu steigern.

Zu den wichtigsten Fähigkeiten dieser Fachkräfte gehören Kenntnisse in Sachen Energiemanagement, Energieaudits und Energiepolitik. Sie sind vor allem in Branchen wie dem Maschinenbau, in Unternehmensberatungen und bei der Herstellung von Transportausrüstung gefragt. Besonders hohe Nachfrage gibt es in den Metropolregionen Berlin/Brandenburg, München und Düsseldorf.

Die Geschlechterverteilung in diesem Beruf ist aktuell unausgeglichen, mit einem Anteil von 20 Prozent Frauen und 80 Prozent Männern. Energie-Manager verfügen durchschnittlich über 3,7 Jahre Berufserfahrung und kommen häufig aus Vorberufen wie Sicherheitsmanager, wissenschaftliche Assistenten oder Office-Manager. Drei Prozent der Jobs lassen sich remote erledigen, 34 Prozent sind hybrid ausgelegt.

2. Business Process Owner

Neu in den Top 10 ist in diesem Jahr der Business Process Owner, auch bekannt als Business Process Analyst oder Business Process Consultant. Er ist für die Entwicklung, Verwaltung und Optimierung der Geschäftsprozesse in einer Organisation verantwortlich. Sein Ziel ist es, diese Prozesse mit den Unternehmenszielen in Einklang zu bringen und deren Effizienz zu maximieren.

Wichtige Fähigkeiten in diesem Beruf umfassen Geschäftsprozessoptimierung, den Umgang mit SAP ERP und Geschäftsprozessmanagement. Beschäftigung finden diese Fachkräfte besonders häufig in Branchen wie Maschinenbau, der Herstellung von Transportausrüstung und dem Großhandel. Zu den Regionen mit hoher Nachfrage zählen die Metropolregionen München und Berlin/Brandenburg sowie Nürnberg.

Die Geschlechterverteilung in diesem Beruf ist vergleichsweise ausgewogen, mit einem Anteil von 41 Prozent Frauen und 59 Prozent Männern. Business Process Owner verfügen im Durchschnitt über 5,1 Jahre Berufserfahrung und kommen oft aus Vorberufen wie Prozessmanager, Geschäftsprozessexperte oder Einkäufer. Ungefähr jeder zwölfte Job in diesem Fach kann vollständig remote erledigt werden, während 45 Prozent hybrid gestaltet sind.

3. Spezialist für Employer Branding

Der Spezialist für Employer Branding ist ebenfalls neu im Ranking, der Teilbereich Social Media landete allerdings als Influencer Marketing Manager bereits 2024 auf Rang 4.

Employer-Branding-Spezialisten, auch bekannt als Employer Branding Manager oder Employer Brand Manager, entwickeln und implementieren Strategien zur Verbesserung der Arbeitgebermarke eines Unternehmens. Ihr Ziel ist es, Talente und Fachkräfte erfolgreich anzuwerben und langfristig zu binden.

Zu den wichtigsten Fähigkeiten in diesem Beruf zählen Employer Branding, Personalmarketing und Recruiting. Besonders gefragt sind diese Spezialisten in Bereichen wie

IT-Dienstleistungen und IT-Beratung,

Maschinenbau sowie Technologie,

Information und

Internet.

Die Metropolregionen München, Berlin/Brandenburg und die Region Köln/Bonn sind zentrale Standorte für diese Tätigkeit.

Der Beruf ist überwiegend weiblich geprägt, mit einer Geschlechterverteilung von 86 Prozent Frauen und 14 Prozent Männern. Employer-Branding-Spezialisten verfügen im Durchschnitt über 3,3 Jahre Berufserfahrung und kommen häufig aus Positionen wie Talent Acquisition Spezialistin, Projektmanagerin oder HR-Spezialistin. Zwar sind nur 0,7 Prozent der Stellen vollständig remote zu erledigen, dafür aber 53 Prozent hybrid gestaltet.

4. Reiseberater

Reiseberater oder auch Verkaufsberater Reisebranche beziehungsweise Reiseexperte, sind für die Koordination, Buchung und Verwaltung von Reisearrangements für Einzelpersonen oder Gruppen zuständig. Ihr Fokus liegt dabei auf der Kosteneffizienz und einer reibungslosen Organisation.

Zu den zentralen Fähigkeiten in diesem Beruf zählen

Reisemanagement,

Vertrieb und

Reiseplanung.

Reiseberater finden Beschäftigung vor allem in den Branchen Reisebürodienstleistungen, Fluggesellschaften und Luftfahrt sowie Technologie, Information und Internet. Zu Hause ist diese Berufsgruppe vor allem in den Metropolregionen Berlin/Brandenburg und München sowie in Hamburg und Umgebung.

Auch dieser Beruf ist mehrheitlich weiblich geprägt, mit einer Geschlechterverteilung von 61 Prozent Frauen und 39 Prozent Männern. Die durchschnittliche Berufserfahrung beträgt 3,3 Jahre, und viele Beschäftigte waren vorher in Rollen wie HR-Geschäftspartner, Produktmanager oder Digital-Marketing-Manager tätig. Flexible Arbeitsmodelle sind zunehmend verbreitet, wobei 23 Prozent der Stellen remote und 12 Prozent hybrid angeboten werden.

5. Nachhaltigkeitsmanager

Ein weiterer Job, der 2024 unter anderem Namen als Nachhaltigkeitsspezialist die Top-10-Liste anführte, ist der Nachhaltigkeitsmanager.

Nachhaltigkeitsmanager, auch bekannt als Nachhaltigkeitsbeauftragte oder Sustainability Consultants, sind dafür verantwortlich, die Nachhaltigkeitsstrategie eines Unternehmens zu planen, zu steuern und zu evaluieren. Dabei achten sie darauf, dass die Strategie mit den Unternehmenswerten übereinstimmt und messbare Nachhaltigkeitsziele setzt.

Personen in diesem Beruf kümmern sich häufig um die Corporate Sustainability, das Erstellen von Nachhaltigkeitsberichten und die Entwicklung von Nachhaltigkeitsstrategien. Nachhaltigkeitsmanager sind vor allem in Branchen wie Unternehmensberatung, Maschinenbau und chemischer Produktion tätig. Wie auch der Spezialist für Employer Branding sind sie besonders in der Metropolregion München, der Region Köln/Bonn und der Metropolregion Berlin/Brandenburg gefragt.

Die Geschlechterverteilung in diesem Beruf liegt bei 61 Prozent Frauen und 39 Prozent Männern. Die durchschnittliche Berufserfahrung beträgt 3,5 Jahre, und viele Fachkräfte kommen aus Tätigkeiten als Projektmanager oder Kundendienstmitarbeiter. Flexible Arbeitsmodelle sind nicht so verbreitet wie in anderen Branchen: Zwei Prozent der Stellen werden remote, 47 Prozent hybrid angeboten.

6. KI-Entwickler

Ein alter Bekannter aus dem Jahr 2024, damals noch auf Rang 8, schafft es erneut in die Top 10 und verbessert sich auf Platz 6.

KI-Entwickler, auch bekannt als KI-Programmierer, sind für

die Programmierung,

das Testen und

die Verwaltung von KI-Software, Modellen sowie Infrastruktur verantwortlich.

Ihr Ziel ist es, Aufgaben zu automatisieren und komplexe Probleme durch den Einsatz Künstlicher Intelligenz zu lösen.

Wichtige Fähigkeiten in diesem Bereich umfassen Deep Learning, die Arbeit mit PyTorch und Expertise in Computer-Vision. KI-Entwickler sind vor allem in den Branchen Technologie, Information und Internet, IT-Dienstleistungen und -Beratung sowie Unternehmensberatung gefragt.

Zu den Top-Regionen für Stellenangebote zählen die Metropolregion München, die Metropolregion Berlin/Brandenburg und die Region Frankfurt/Rhein-Main.

Die Geschlechterverteilung in diesem Beruf ist vergleichbar mit der von Energiemanagern: 19 Prozent Frauen zu 81 Prozent Männern. Die durchschnittliche Berufserfahrung liegt bei 2,8 Jahren. Viele Beschäftigte wechseln aus Positionen wie Experte für Unternehmenstechnologie, wissenschaftliche Assistenz oder Dateningenieur in diesen Bereich. 28 Prozent der Stellen sind remote ausgelegt, und 50 Prozent bieten hybride Arbeitsmöglichkeiten.

7. Qualitätsingenieur für Zulieferer

Qualitätsingenieur für Zulieferer sorgen durch Bewertung und Prüfung dafür, dass die Produkte und Materialien von Zulieferern bestimmten Qualitätsstandards entsprechen. Alternative Namen sind Lieferantenqualitätsingenieur und Supplier Quality Engineers. Mit Platz sieben sind sie 2025 neu im Top-10-Ranking.

Wichtige Fähigkeiten in diesem Beruf umfassen das Produktionsteil-Abnahmeverfahren (PPAP) sowie Advanced Product Quality Planning (APQP). Gefragt sind diese Fachkräfte vor allem in den Branchen

Maschinenbau,

Herstellung von Transportausrüstung und

Herstellung medizinischer Geräte.

Zu den Top-Regionen für Stellenangebote zählen die Metropolregion Berlin/Brandenburg, Tübingen und Umgebung sowie Hamburg und Umgebung.

Die Geschlechterverteilung zeigt, dass 21 Prozent Frauen und 79 Prozent Männer in diesem Beruf tätig sind. Die durchschnittliche Berufserfahrung beträgt vier Jahre, wobei viele Beschäftigte zuvor als Qualitätsbeauftragte, Spezialist für Lieferantenqualität oder Spezialist für Lieferantenentwicklung gearbeitet haben. Flexible Arbeitsmodelle sind begrenzt: Nur ein Prozent der Stellen sind remote, während 41 Prozent hybride Arbeitsmöglichkeiten bieten.

8. Spezialist für HR-Entwicklung

Auf Platz acht folgen die Spezialisten für HR-Entwicklung, auch bekannt als Personalentwickler oder HR-Spezialisten. Sie analysieren die Fähigkeiten, die in einem Unternehmen benötigt werden, und fördern diese Kompetenzen in der Belegschaft. Ziel ist es, die berufliche Entwicklung der Mitarbeitenden zu unterstützen.

Zu den häufigsten Fähigkeiten gehören Mitarbeiterentwicklung, Recruiting und Führungskräfteentwicklung. Besonders gefragt sind diese Fachkräfte

Im Versicherungswesen,

In Ämtern für öffentliche Ordnung und

In der Kreditvermittlung.

Die Top-Regionen für eine Anstellung sind die Metropolregion München, Frankfurt/Rhein-Main und die Metropolregion Berlin/Brandenburg.

Die Geschlechterverteilung zeigt einen sehr hohen Frauenanteil von 87 Prozent und einen Männeranteil von 13 Prozent. Die durchschnittliche Berufserfahrung liegt bei 3,1 Jahren. Vorherige Berufserfahrungen umfassen Tätigkeiten als Projektmanager, Recruiter oder HR-Spezialist. In Bezug auf flexible Arbeitsmodelle bieten gerade einmal 0,4 Prozent der Stellen Remote-Arbeit, während 43 Prozent hybride Arbeitsmöglichkeiten ermöglichen.

9. Entwickler für Cybersicherheit

Deutlich verschlechtert gegenüber seiner Spitzenplatzierung aus dem 2024, wo er noch den zweiten Platz erringen konnte, hat sich der Ingenieur für Cybersicherheit.

Cyber-Security-Spezialisten, auch als Analyst oder Ingenieur für Cybersicherheit benannt, sind dafür verantwortlich

Sicherheitsstandards zu implementieren,

Risikofaktoren zu identifizieren und

Schwachstellen aufzudecken, um ihre Organisation vor externen Cyberangriffen zu schützen.

Zu den wichtigsten Fähigkeiten zählen Security Information and Event Management (SIEM), Netzwerksicherheit und Penetrationstests.

Die häufigsten Branchen, in denen diese Fachkräfte tätig sind, umfassen IT-Dienstleistungen und IT-Beratung, die Herstellung von Transportausrüstung sowie Technologie und Information.

Top-Regionen für Anstellungen sind die Metropolregion München, die Region Stuttgart und die Metropolregion Berlin/Brandenburg.

Die Geschlechterverteilung ist mit der anderer Ingenieursberufe vergleichbar: 16 Prozent Frauen und 84 Prozent Männern, wobei die durchschnittliche Berufserfahrung vier Jahre beträgt. Viele Fachkräfte in diesem Bereich waren zuvor in der Systementwicklung, als Software-Ingenieur oder als IT-Berater tätig. In Bezug auf flexible Arbeitsmodelle ist jede achte Stelle remote und fast die Hälfte bietet hybride Arbeitsmöglichkeiten.

10. Plattform-Entwickler

Ihren Platz 10 im Ranking aus dem Jahr 2024 konnten die Plattform-Entwickler verteidigen. Sie sind verantwortlich für

die Planung und Wartung der IT-Infrastruktur sowie

Plattformen eines Unternehmens, die Software-Anwendungen und -dienste unterstützen.

Zu den häufigsten gefragten Fähigkeiten gehören Terraform, Kubernetes und Ansible.

Diese Fachkräfte arbeiten vor allem in der IT-Dienstleistungs- und IT-Beratungs-, Technologie-, Informations- und Internet-Branche sowie dem Maschinenbau. Die wichtigsten Regionen für Anstellungen sind die Metropolregion Berlin/Brandenburg, die Metropolregion München sowie Hamburg und Umgebung.

Die Geschlechterverteilung in diesem Bereich liegt bei 13 Prozent Frauen und 87 Prozent Männern. Die durchschnittliche Berufserfahrung beträgt 4,9 Jahre. Viele dieser Fachkräfte haben zuvor als Softwareingenieur, Plattform-Architekt oder Systemarchitekt gearbeitet. In Bezug auf flexible Arbeitsmodelle bietet fast jede fünfte Stelle Remote-Arbeit und 51 Prozent hybride Arbeitsmöglichkeiten an.

Diese 10 Berufe sind in Deutschland besonders gefragt​ Weiterlesen »

EU AI Act – jetzt erst recht?​

Allgemein

404 Error: Die Website mit dem Präsidentenerlass zur KI-Entwicklung ist verschwunden.Foundry/Screenshot Nur wenige Stunden nach seinem Amtsantritt als neuer Präsident der USA hat Donald Trump die von seinem Vorgänger Joe Biden eingesetzte Executive Order 14110 widerrufen. Ziel des am 30. Oktober 2023 unterzeichneten Präsidentenerlasses war es, die Risiken von KI für Verbraucher, Arbeitnehmer und die nationale Sicherheit zu verringern. So wurde etwa das National Institute of Standards and Technology (NIST) des Handelsministeriums beauftragt, Leitlinien und Best Practices für Unternehmen zur Identifizierung und Behebung von Problemen in KI-Modellen, einschließlich Bias, zu erstellen. Darüber hinaus wurden KI-Entwickler durch den Erlass verpflichtet, die Ergebnisse von Sicherheitstests mit der Regierung zu teilen, noch bevor sie ihre Systeme öffentlich freigeben. Dadurch sollte sichergestellt werden, dass fortschrittliche KI-Technologien Sicherheits- und Ethikstandards erfüllen. Zu große Belastung für KI-Firmen? Trumps Schritt, Bidens weitreichende KI-Verordnung zu kippen, kommt nicht unerwartet – insbesondere, wenn man betrachtet, dass Firmen wie Meta, OpenAI, Google und Microsoft in den letzten Monaten die Nähe und Gunst des designierten US-Präsidenten suchten. Vertreter der KI-Industrie argumentierten schon länger, dass die durch die Executive Order auferlegten Melde- und Offenlegungspflichten eine zu große Belastung für sie darstellten. Einige behaupteten sogar, dass diese Anforderungen Unternehmen dazu zwingen würden, Geschäftsgeheimnisse preiszugeben, was möglicherweise die Innovation und Wettbewerbsfähigkeit untergraben würde. Mit dem Widerruf des Präsidentenerlasses in den USA gerät auch die im Juni 2024 verabschiedete KI-Verordnung (AI Act) der EU wieder stärker in den Brennpunkt. So ist zu erwarten, dass die neuen Freiheiten in den USA den führenden Akteuren im (Gen)AI-Umfeld – und – damit verbunden – den dort ansässigen Anwenderunternehmen weiteren Auftrieb geben. Das Nachsehen dürften indes Wettbewerber und Anwender in Europa haben, die durch strengere Regelungen beim KI-Einsatz ausgebremst werden. Hierzulande warnt etwa der Bitkom davor, dass viele Unternehmen aus Angst vor Datenschutz- und anderen Verstößen beim Einsatz von künstlicher Intelligenz zögerten. Wie eine Umfrage des Digitalverbands im Sommer vergangenen Jahres ergab, sind rechtliche Unsicherheiten für 40 Prozent der Unternehmen in Deutschland ein Hemmnis für den KI-Einsatz. Und sogar 68 Prozent jener Unternehmen, die KI bereits im Praxiseinsatz haben, sehen den Einsatz aufgrund rechtlicher Unsicherheiten behindert. Auf der anderen Seite könnte sich die KI-Verordnung der EU aber auch zu einem ähnlichen Erfolgsmodell wie die EU-DSGVO entwickeln und AI-Act-konforme Lösungen zu einem Exportschlager werden. srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/01/Pega-Gesetzgebung-internationaler-KI-Markt.jpg?quality=50&strip=all 8666w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Pega-Gesetzgebung-internationaler-KI-Markt.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Pega-Gesetzgebung-internationaler-KI-Markt.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Pega-Gesetzgebung-internationaler-KI-Markt.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Pega-Gesetzgebung-internationaler-KI-Markt.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Pega-Gesetzgebung-internationaler-KI-Markt.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Pega-Gesetzgebung-internationaler-KI-Markt.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Pega-Gesetzgebung-internationaler-KI-Markt.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Pega-Gesetzgebung-internationaler-KI-Markt.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Pega-Gesetzgebung-internationaler-KI-Markt.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Pega-Gesetzgebung-internationaler-KI-Markt.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Wie eine Übersicht von Pega Systems zeigt, ist die EU mit ihrer KI-Verordnung weltweit führend.Pega Systems 

EU AI Act – jetzt erst recht?​ 404 Error: Die Website mit dem Präsidentenerlass zur KI-Entwicklung ist verschwunden.Foundry/Screenshot

Nur wenige Stunden nach seinem Amtsantritt als neuer Präsident der USA hat Donald Trump die von seinem Vorgänger Joe Biden eingesetzte Executive Order 14110 widerrufen. Ziel des am 30. Oktober 2023 unterzeichneten Präsidentenerlasses war es, die Risiken von KI für Verbraucher, Arbeitnehmer und die nationale Sicherheit zu verringern. So wurde etwa das National Institute of Standards and Technology (NIST) des Handelsministeriums beauftragt, Leitlinien und Best Practices für Unternehmen zur Identifizierung und Behebung von Problemen in KI-Modellen, einschließlich Bias, zu erstellen.

Darüber hinaus wurden KI-Entwickler durch den Erlass verpflichtet, die Ergebnisse von Sicherheitstests mit der Regierung zu teilen, noch bevor sie ihre Systeme öffentlich freigeben. Dadurch sollte sichergestellt werden, dass fortschrittliche KI-Technologien Sicherheits- und Ethikstandards erfüllen.

Zu große Belastung für KI-Firmen?

Trumps Schritt, Bidens weitreichende KI-Verordnung zu kippen, kommt nicht unerwartet – insbesondere, wenn man betrachtet, dass Firmen wie Meta, OpenAI, Google und Microsoft in den letzten Monaten die Nähe und Gunst des designierten US-Präsidenten suchten. Vertreter der KI-Industrie argumentierten schon länger, dass die durch die Executive Order auferlegten Melde- und Offenlegungspflichten eine zu große Belastung für sie darstellten. Einige behaupteten sogar, dass diese Anforderungen Unternehmen dazu zwingen würden, Geschäftsgeheimnisse preiszugeben, was möglicherweise die Innovation und Wettbewerbsfähigkeit untergraben würde.

Mit dem Widerruf des Präsidentenerlasses in den USA gerät auch die im Juni 2024 verabschiedete KI-Verordnung (AI Act) der EU wieder stärker in den Brennpunkt. So ist zu erwarten, dass die neuen Freiheiten in den USA den führenden Akteuren im (Gen)AI-Umfeld – und – damit verbunden – den dort ansässigen Anwenderunternehmen weiteren Auftrieb geben. Das Nachsehen dürften indes Wettbewerber und Anwender in Europa haben, die durch strengere Regelungen beim KI-Einsatz ausgebremst werden.

Hierzulande warnt etwa der Bitkom davor, dass viele Unternehmen aus Angst vor Datenschutz- und anderen Verstößen beim Einsatz von künstlicher Intelligenz zögerten. Wie eine Umfrage des Digitalverbands im Sommer vergangenen Jahres ergab, sind rechtliche Unsicherheiten für 40 Prozent der Unternehmen in Deutschland ein Hemmnis für den KI-Einsatz. Und sogar 68 Prozent jener Unternehmen, die KI bereits im Praxiseinsatz haben, sehen den Einsatz aufgrund rechtlicher Unsicherheiten behindert.

Auf der anderen Seite könnte sich die KI-Verordnung der EU aber auch zu einem ähnlichen Erfolgsmodell wie die EU-DSGVO entwickeln und AI-Act-konforme Lösungen zu einem Exportschlager werden.

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/01/Pega-Gesetzgebung-internationaler-KI-Markt.jpg?quality=50&strip=all 8666w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Pega-Gesetzgebung-internationaler-KI-Markt.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Pega-Gesetzgebung-internationaler-KI-Markt.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Pega-Gesetzgebung-internationaler-KI-Markt.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Pega-Gesetzgebung-internationaler-KI-Markt.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Pega-Gesetzgebung-internationaler-KI-Markt.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Pega-Gesetzgebung-internationaler-KI-Markt.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Pega-Gesetzgebung-internationaler-KI-Markt.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Pega-Gesetzgebung-internationaler-KI-Markt.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Pega-Gesetzgebung-internationaler-KI-Markt.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Pega-Gesetzgebung-internationaler-KI-Markt.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Wie eine Übersicht von Pega Systems zeigt, ist die EU mit ihrer KI-Verordnung weltweit führend.Pega Systems

EU AI Act – jetzt erst recht?​ Weiterlesen »

TechTalk-Podcast: NIS 2 und DORA​

Allgemein

Im beruflichen Alltag ist unser Podcast-Gast Andreas Weinberger,  Bereichsleiter IT bei der Privatbank Donner und Reuschel AG, als Experte mit Themen wie NIS 2, DORA und KI befasst. Aber auch in seiner Freizeit lässt Weinberger das Thema IT nicht los und er beschäftigt sich mit historischem IT-Equipment und deren Nutzung als Kulturgut in Museen und in der bildenden Kunst. Matthias Weinberger Seit dem 17. Januar gilt der Digital Operational Resilience Act (DORA) und die Umsetzung der EU-Richtlinie NIS 2 in nationales Recht ist längst überfällig. Unser aktueller Podcast zeigt, was auf die Unternehmen zukommt, und gibt Tipps zur Bewältigung des Spannungsfeldes von Regulatorik und Cybersicherheit. Die neue Folge von TechTalk, dem Podcast von Computerwoche, CIO Magazin und CSO online widmet sich der Thematik “NIS 2 und DORA“. und gibt Ratschläge zur Umsetzung einer NIS-2- und DORA-Compliance. Hören Sie, welche unterschiedlichen Ansätze es dazu gibt. Die Herausforderungen von NIS 2 und DORA In der neuesten Folge spricht Jürgen Hill, Chefreporter Future Technologies, mit Andreas Weinberger, Bereichsleiter IT bei der Privatbank Donner und Reuschel AG. Weinberger ist Experte für NIS 2, DORA und KI. Im Gespräch beleuchtet er die aktuellen Herausforderungen und erzählt, wie er dies in der Praxis im eigenen Unternehmen gemeistert hat. Ein zentrales Thema der Folge ist dabei die Bewältigung des Spagats zwischen Regulatorik und eigener Cybersicherheit. Hören Sie, was für den Praktiker Weinberger dabei Kür und Pflicht ist und welche Prioritäten er dabei gesetzt hat. Aktives Risikomanagement Weinberger veranschaulicht, was NIS-2- und DORA-Compliance im täglichen Geschäft bedeuten. Zudem erklärt er, warum ein einmaliges Doing nicht ausreicht, sondern die Unternehmen auch künftig aktiv daran arbeiten müssen. Dabei beschreibt der Praktiker aus dem Finanzwesen, wie er im eigenen Unternehmen ein aktives Risikomanagement realisiert hat. Damit ihm und seinem Team dabei die Arbeit nicht über den Kopf wächst, hat er einen Teil dieser Aufgaben mit KI-Unterstützung automatisiert. Doch egal, wieviel Technik auch im Spiel ist – egal, ob KI oder ausgefuchste Sicherheitslösungen – die Stärkung der menschlichen Resilienz bleibt essenziell. IT-Bereichsleiter Weinberger rät deshalb die Resilienz der Mitarbeiter durch Übungen, etwa Phishing-Simulationen, zu fördern. Nur so lasse sich eine “Cyber-Awareness” schaffen, die unabhängig von sich ändernden Werkzeugen ist. Aber hören Sie selbst. Unseren Podcast finden Sie auf allen gängigen Podcast-Plattformen. width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/1BewIwGj5H8SxIaK1kS8s2?utm_source=oembed”> 

TechTalk-Podcast: NIS 2 und DORA​ Im beruflichen Alltag ist unser Podcast-Gast Andreas Weinberger,  Bereichsleiter IT bei der Privatbank Donner und Reuschel AG, als Experte mit Themen wie NIS 2, DORA und KI befasst. Aber auch in seiner Freizeit lässt Weinberger das Thema IT nicht los und er beschäftigt sich mit historischem IT-Equipment und deren Nutzung als Kulturgut in Museen und in der bildenden Kunst.
Matthias Weinberger

Seit dem 17. Januar gilt der Digital Operational Resilience Act (DORA) und die Umsetzung der EU-Richtlinie NIS 2 in nationales Recht ist längst überfällig. Unser aktueller Podcast zeigt, was auf die Unternehmen zukommt, und gibt Tipps zur Bewältigung des Spannungsfeldes von Regulatorik und Cybersicherheit.

Die neue Folge von TechTalk, dem Podcast von Computerwoche, CIO Magazin und CSO online widmet sich der Thematik “NIS 2 und DORA“. und gibt Ratschläge zur Umsetzung einer NIS-2- und DORA-Compliance. Hören Sie, welche unterschiedlichen Ansätze es dazu gibt.

Die Herausforderungen von NIS 2 und DORA

In der neuesten Folge spricht Jürgen Hill, Chefreporter Future Technologies, mit Andreas Weinberger, Bereichsleiter IT bei der Privatbank Donner und Reuschel AG. Weinberger ist Experte für NIS 2, DORA und KI. Im Gespräch beleuchtet er die aktuellen Herausforderungen und erzählt, wie er dies in der Praxis im eigenen Unternehmen gemeistert hat.

Ein zentrales Thema der Folge ist dabei die Bewältigung des Spagats zwischen Regulatorik und eigener Cybersicherheit. Hören Sie, was für den Praktiker Weinberger dabei Kür und Pflicht ist und welche Prioritäten er dabei gesetzt hat.

Aktives Risikomanagement

Weinberger veranschaulicht, was NIS-2- und DORA-Compliance im täglichen Geschäft bedeuten. Zudem erklärt er, warum ein einmaliges Doing nicht ausreicht, sondern die Unternehmen auch künftig aktiv daran arbeiten müssen. Dabei beschreibt der Praktiker aus dem Finanzwesen, wie er im eigenen Unternehmen ein aktives Risikomanagement realisiert hat. Damit ihm und seinem Team dabei die Arbeit nicht über den Kopf wächst, hat er einen Teil dieser Aufgaben mit KI-Unterstützung automatisiert.

Doch egal, wieviel Technik auch im Spiel ist – egal, ob KI oder ausgefuchste Sicherheitslösungen – die Stärkung der menschlichen Resilienz bleibt essenziell. IT-Bereichsleiter Weinberger rät deshalb die Resilienz der Mitarbeiter durch Übungen, etwa Phishing-Simulationen, zu fördern. Nur so lasse sich eine “Cyber-Awareness” schaffen, die unabhängig von sich ändernden Werkzeugen ist.

Aber hören Sie selbst. Unseren Podcast finden Sie auf allen gängigen Podcast-Plattformen.

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/1BewIwGj5H8SxIaK1kS8s2?utm_source=oembed”>

TechTalk-Podcast: NIS 2 und DORA​ Weiterlesen »

Das verdienen IT-Profis 2025​

Allgemein

Gut vorbereitet kann man beim Bewerbungs- oder Gehaltsgespräch besser verhandeln.VHarasymiv/Shutterstock.com Wer in seinem IT-Job schon früh viel Geld verdienen will, wird am besten IT-Berater, IT-Projektmanager, SAP-Berater oder Softwarearchitekt. In diesen Tätigkeiten winken laut Kununu bereits in den ersten drei Berufsjahren Durchschnittsgehälter von über 50.000 Euro brutto. Je nach Aufgabengebiet kann das mittlere Jahresgehalt dann im weiteren Verlauf der Karriere auf knapp 100.000 Euro ansteigen. Zu diesen Ergebnissen kommt eine Auswertung, die das Bewertungsportal Kununu für die Computerwoche erstellt hat. Grundlage für die Berechnungen für zehn weit verbreitete IT-Jobs ist der Kununu Gehaltscheck 2025, für den das Unternehmen mehr als 830.000 Gehaltsdaten für den deutschen Arbeitsmarkt ausgewertet hat. Die Zahlen basieren auf freiwilligen Angaben von Kununu-Nutzern. JobtitelGehaltsangabenDurchschnittsgehaltweiblichmännlichSoftwareentwickler:in20.32761.184 €58.597 €61.838 €Anwendungsentwickler:in2.37543.743 €44.652 €43.694 €Applikations-Integrator:in3.88840.579 €38.875 €40.739 €IT Berater:in6.79562.827 €60.807 €63.737 €IT-Projektmanager:in5.15870.622 €64.443 €72.697 €IT-Supporter7.08445.297 €45.237 €45.624 €IT-Systemadministrator:in9.51351.035 €48.216 €51.430 €SAP-Berater:in2.47269.436 €64.374 €70.815 €Softwarearchitekt:in3.29785.890 €79.031 €86.748 €Systemingenieur:in2.85462.506 €63.468 €62.777 € Wie die Untersuchung zeigt, gibt es aber auch IT-Stellen mit einer schlechteren Ausgangsposition: Mit im Schnitt 40.000 Euro oder weniger in den ersten drei Berufsjahren müssen Bewerberinnen und Bewerber etwa bei Jobs wie Applikations-Integrator (38.247 Euro), Anwendungs-Entwickler (39.852 Euro) oder IT-Supporter (40.489 Euro) rechnen. Bei diesen Tätigkeiten braucht es viel Durchhaltevermögen, Talent und sicher auch etwas Glück, um mehr als 50.000 Euro brutto zu verdienen. Bei allen zehn betrachteten Jobs macht sich auch die Übertragung von Personalverantwortung mit einem Plus auf dem Gehaltszettel bemerkbar. Je nach Tätigkeit fällt dieses aber unterschiedlich hoch aus. Die Spanne des Mehrverdienstes reicht dabei laut Auswertung von knapp 1.000 Euro (IT-Support) über 7.000 Euro (Softwareentwickler) bis hin zu 14.500 Euro (SAP-Berater) jährlich. So viel kostet Frauen der Gender Pay Gap Wenig überraschend scheint sich auch in der IT das Geschlecht auf die Höhe des Salärs auszuwirken – im Schnitt verdienen Frauen 3.240 Euro brutto jährlich weniger als ihre männlichen Kollegen. Eine kleine Ausnahme stellt dabei der IT-Support dar – hier werden Männlein und Weiblein mit einem Durchschnittsgehalt von 45.237 beziehungsweise 45.624 Euro jährlich ähnlich gut (beziehungsweise schlecht) bezahlt. Und als Anwendungsentwicklerin (44.652 Euro) oder Systemingenieurin (63.468 Euro) verdienen Frauen sogar rund einen Tausender mehr im Jahr als ihre männlichen Kollegen. Allerdings gibt es bei allen untersuchten IT-Jobs deutlich weniger Gehaltsangaben von Frauen, was die Ergebnisse verzerren könnte. So wurden beispielsweise fünf Mal so viele männliche IT-Berater erfasst, bei den Softwarearchitekten beträgt das Verhältnis 1:15, im IT-Support gar 1:20. Für eine gewisse Unschärfe spricht auch der Umstand, dass die von Kununu über alle Jobs ermittelte Lohnlücke zwischen Männern und Frauen bei fast 7.000 Euro liegt. Eine Auswertung nach Städten und Bundesländern fand nicht statt. Allgemein ergab der Gehaltscheck 2025 von Kununu jedoch, dass München, Frankfurt und Stuttgart die Gehaltshochburgen in Deutschland sind, während Menschen in Bochum, Duisburg, Dresden und Leipzig am wenigsten verdienen. Bei den Bundesländern liegen Hessen, Bayern und Hamburg ganz vorne, während in ostdeutschen Bundesländern am wenigsten bezahlt wird. 

Das verdienen IT-Profis 2025​ Gut vorbereitet kann man beim Bewerbungs- oder Gehaltsgespräch besser verhandeln.VHarasymiv/Shutterstock.com

Wer in seinem IT-Job schon früh viel Geld verdienen will, wird am besten IT-Berater, IT-Projektmanager, SAP-Berater oder Softwarearchitekt. In diesen Tätigkeiten winken laut Kununu bereits in den ersten drei Berufsjahren Durchschnittsgehälter von über 50.000 Euro brutto. Je nach Aufgabengebiet kann das mittlere Jahresgehalt dann im weiteren Verlauf der Karriere auf knapp 100.000 Euro ansteigen.

Zu diesen Ergebnissen kommt eine Auswertung, die das Bewertungsportal Kununu für die Computerwoche erstellt hat. Grundlage für die Berechnungen für zehn weit verbreitete IT-Jobs ist der Kununu Gehaltscheck 2025, für den das Unternehmen mehr als 830.000 Gehaltsdaten für den deutschen Arbeitsmarkt ausgewertet hat. Die Zahlen basieren auf freiwilligen Angaben von Kununu-Nutzern.

JobtitelGehaltsangabenDurchschnittsgehaltweiblichmännlichSoftwareentwickler:in20.32761.184 €58.597 €61.838 €Anwendungsentwickler:in2.37543.743 €44.652 €43.694 €Applikations-Integrator:in3.88840.579 €38.875 €40.739 €IT Berater:in6.79562.827 €60.807 €63.737 €IT-Projektmanager:in5.15870.622 €64.443 €72.697 €IT-Supporter7.08445.297 €45.237 €45.624 €IT-Systemadministrator:in9.51351.035 €48.216 €51.430 €SAP-Berater:in2.47269.436 €64.374 €70.815 €Softwarearchitekt:in3.29785.890 €79.031 €86.748 €Systemingenieur:in2.85462.506 €63.468 €62.777 €

Wie die Untersuchung zeigt, gibt es aber auch IT-Stellen mit einer schlechteren Ausgangsposition: Mit im Schnitt 40.000 Euro oder weniger in den ersten drei Berufsjahren müssen Bewerberinnen und Bewerber etwa bei Jobs wie Applikations-Integrator (38.247 Euro), Anwendungs-Entwickler (39.852 Euro) oder IT-Supporter (40.489 Euro) rechnen. Bei diesen Tätigkeiten braucht es viel Durchhaltevermögen, Talent und sicher auch etwas Glück, um mehr als 50.000 Euro brutto zu verdienen.

Bei allen zehn betrachteten Jobs macht sich auch die Übertragung von Personalverantwortung mit einem Plus auf dem Gehaltszettel bemerkbar. Je nach Tätigkeit fällt dieses aber unterschiedlich hoch aus. Die Spanne des Mehrverdienstes reicht dabei laut Auswertung von knapp 1.000 Euro (IT-Support) über 7.000 Euro (Softwareentwickler) bis hin zu 14.500 Euro (SAP-Berater) jährlich.

So viel kostet Frauen der Gender Pay Gap

Wenig überraschend scheint sich auch in der IT das Geschlecht auf die Höhe des Salärs auszuwirken – im Schnitt verdienen Frauen 3.240 Euro brutto jährlich weniger als ihre männlichen Kollegen. Eine kleine Ausnahme stellt dabei der IT-Support dar – hier werden Männlein und Weiblein mit einem Durchschnittsgehalt von 45.237 beziehungsweise 45.624 Euro jährlich ähnlich gut (beziehungsweise schlecht) bezahlt. Und als Anwendungsentwicklerin (44.652 Euro) oder Systemingenieurin (63.468 Euro) verdienen Frauen sogar rund einen Tausender mehr im Jahr als ihre männlichen Kollegen.

Allerdings gibt es bei allen untersuchten IT-Jobs deutlich weniger Gehaltsangaben von Frauen, was die Ergebnisse verzerren könnte. So wurden beispielsweise fünf Mal so viele männliche IT-Berater erfasst, bei den Softwarearchitekten beträgt das Verhältnis 1:15, im IT-Support gar 1:20. Für eine gewisse Unschärfe spricht auch der Umstand, dass die von Kununu über alle Jobs ermittelte Lohnlücke zwischen Männern und Frauen bei fast 7.000 Euro liegt.

Eine Auswertung nach Städten und Bundesländern fand nicht statt. Allgemein ergab der Gehaltscheck 2025 von Kununu jedoch, dass München, Frankfurt und Stuttgart die Gehaltshochburgen in Deutschland sind, während Menschen in Bochum, Duisburg, Dresden und Leipzig am wenigsten verdienen. Bei den Bundesländern liegen Hessen, Bayern und Hamburg ganz vorne, während in ostdeutschen Bundesländern am wenigsten bezahlt wird.

Das verdienen IT-Profis 2025​ Weiterlesen »

Die gefragtesten Devops-Zertifizierungen​

Allgemein

Eine Devops-Zertifizierung macht mit Blick auf die Zukunft Sinn.JLStock | shutterstock.com Devops ist in Entwicklungsumgebungen weiterhin auf dem Vormarsch, vom Startup- bis hin zum Enterprise-Umfeld. Die Marktforscher von The Business Research Company gehen davon aus, dass sich daran in den kommenden Jahren auch nichts ändern wird – im Gegenteil. Sie prophezeien dem globalen Markt für Devops-Produkte und-Services bis zum Jahr 2029 eine jährliche Wachstumsrate von 26,1 Prozent – und ein Marktvolumen von mehr als 38 Milliarden Dollar (2024: 12,54 Milliarden Dollar). Entsprechend stark dürfte auch der Bedarf der Unternehmen für ausgewiesene Devops-Experten steigen, die: die Devops-Kultur verstehen, mit den entsprechenden Tools vertraut, und über Best Practices informiert sind. Entwickler mit einer einschlägigen (Devops-)Zertifizierung haben oft nicht nur bessere Chancen auf einen Job, sie verdienen meist auch mehr. 4 karrierefördernde Devops-Zertifizierungen Die folgenden vier Zertifizierungen im Bereich Devops sind Experten zufolge bei Unternehmen besonders gefragt. 1. AWS Certified DevOps Engineer – Professional Das anhaltende Wachstum bei Cloud Services und die zunehmende Verbreitung von Cloud-Native-Umgebungen macht diese AWS-spezifische Zertifizierung populär. Sie bescheinigt ihren Inhabern laut Amazon Web Services das nötige Fachwissen, um verteilte Anwendungssysteme auf der AWS-Plattform: bereitzustellen, zu betreiben und zu managen. Diese Zertifizierung richtet sich an Personen mit mindestens zwei Jahren AWS-Erfahrung. 2. Certified Kubernetes Administrator (CKA) Containerisierung wird für die Workflows von Softwareentwicklern immer wichtiger. Deshalb sind auch Kubernetes-Experten zunehmend gefragt. Die Zertifizierung zum Certified Kubernetes Administrator wurde von der Linux Foundation in Kooperation mit der Cloud Native Computing Foundation (CNCF) entwickelt. Es vermittelt Kompetenzen in den Bereichen: Storage, Troubleshooting, Workloads, Cluster-Architektur und -Konfiguration, sowie Services und Networking.   Dieses Online-Examen fußt auf Kubernetes v1.31 und befähigt Absolventen, künftig die Aufgaben eines Kubernetes-Admins zu übernehmen. 3. Microsoft Certified: Azure DevOps Engineer Expert Diese Microsoft-zentrische Devops-Zertifizierung bescheinigt Expertise in Ende-zu-Ende-Devops-Prozessen auf der Azure Cloud-Plattform. In diesem Rahmen werden unter anderem folgende Skills vermittelt und bewertet: Prozesse und Kommunikation entwerfen und umsetzen, Strategie für die Quellcodeverwaltung konzipieren, Build- und Release-Pipelines aufsetzen und implementieren, Security- und Compliance-Pläne, sowie eine Instrumentierungsstrategie entwickeln. Diese Zertifizierung setzt einschlägige Management- und Entwicklungs-Kenntnisse mit Blick auf Microsoft Azure voraus. Zudem empfiehlt Microsoft auch vorhandenes Knowhow mit Blick auf Github- und Azure-Devops-Lösungen. 4. Professional Cloud DevOps Engineer Von Google Cloud zertifizierte Professional Cloud DevOps Engineers kennen sich bestens mit den Best Practices und Tools des Hyperscalers aus. Sie können: Google-Cloud-Organisationen einrichten und managen, Site Reliability Engineering anwenden, CI/CD Pipelines erstellen und implementieren, Observability-Praktiken umsetzen. Laut Google sollten Interessenten für die Onlineprüfung mindestens drei Jahre Berufserfahrung mitbringen – wovon idealerweise eines auf spezifisches Google-Cloud-Knowhow entfällt. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Die gefragtesten Devops-Zertifizierungen​ Eine Devops-Zertifizierung macht mit Blick auf die Zukunft Sinn.JLStock | shutterstock.com

Devops ist in Entwicklungsumgebungen weiterhin auf dem Vormarsch, vom Startup- bis hin zum Enterprise-Umfeld. Die Marktforscher von The Business Research Company gehen davon aus, dass sich daran in den kommenden Jahren auch nichts ändern wird – im Gegenteil. Sie prophezeien dem globalen Markt für Devops-Produkte und-Services bis zum Jahr 2029 eine jährliche Wachstumsrate von 26,1 Prozent – und ein Marktvolumen von mehr als 38 Milliarden Dollar (2024: 12,54 Milliarden Dollar).

Entsprechend stark dürfte auch der Bedarf der Unternehmen für ausgewiesene Devops-Experten steigen, die:

die Devops-Kultur verstehen,

mit den entsprechenden Tools vertraut, und

über Best Practices informiert sind.

Entwickler mit einer einschlägigen (Devops-)Zertifizierung haben oft nicht nur bessere Chancen auf einen Job, sie verdienen meist auch mehr.

4 karrierefördernde Devops-Zertifizierungen

Die folgenden vier Zertifizierungen im Bereich Devops sind Experten zufolge bei Unternehmen besonders gefragt.

1. AWS Certified DevOps Engineer – Professional

Das anhaltende Wachstum bei Cloud Services und die zunehmende Verbreitung von Cloud-Native-Umgebungen macht diese AWS-spezifische Zertifizierung populär. Sie bescheinigt ihren Inhabern laut Amazon Web Services das nötige Fachwissen, um verteilte Anwendungssysteme auf der AWS-Plattform:

bereitzustellen,

zu betreiben und

zu managen.

Diese Zertifizierung richtet sich an Personen mit mindestens zwei Jahren AWS-Erfahrung.

2. Certified Kubernetes Administrator (CKA)

Containerisierung wird für die Workflows von Softwareentwicklern immer wichtiger. Deshalb sind auch Kubernetes-Experten zunehmend gefragt. Die Zertifizierung zum Certified Kubernetes Administrator wurde von der Linux Foundation in Kooperation mit der Cloud Native Computing Foundation (CNCF) entwickelt. Es vermittelt Kompetenzen in den Bereichen:

Storage,

Troubleshooting,

Workloads,

Cluster-Architektur und -Konfiguration, sowie

Services und Networking.  

Dieses Online-Examen fußt auf Kubernetes v1.31 und befähigt Absolventen, künftig die Aufgaben eines Kubernetes-Admins zu übernehmen.

3. Microsoft Certified: Azure DevOps Engineer Expert

Diese Microsoft-zentrische Devops-Zertifizierung bescheinigt Expertise in Ende-zu-Ende-Devops-Prozessen auf der Azure Cloud-Plattform. In diesem Rahmen werden unter anderem folgende Skills vermittelt und bewertet:

Prozesse und Kommunikation entwerfen und umsetzen,

Strategie für die Quellcodeverwaltung konzipieren,

Build- und Release-Pipelines aufsetzen und implementieren,

Security- und Compliance-Pläne, sowie

eine Instrumentierungsstrategie entwickeln.

Diese Zertifizierung setzt einschlägige Management- und Entwicklungs-Kenntnisse mit Blick auf Microsoft Azure voraus. Zudem empfiehlt Microsoft auch vorhandenes Knowhow mit Blick auf Github- und Azure-Devops-Lösungen.

4. Professional Cloud DevOps Engineer

Von Google Cloud zertifizierte Professional Cloud DevOps Engineers kennen sich bestens mit den Best Practices und Tools des Hyperscalers aus. Sie können:

Google-Cloud-Organisationen einrichten und managen,

Site Reliability Engineering anwenden,

CI/CD Pipelines erstellen und implementieren,

Observability-Praktiken umsetzen.

Laut Google sollten Interessenten für die Onlineprüfung mindestens drei Jahre Berufserfahrung mitbringen – wovon idealerweise eines auf spezifisches Google-Cloud-Knowhow entfällt. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Die gefragtesten Devops-Zertifizierungen​ Weiterlesen »

KI-Kompetenz ist ab Februar Pflicht​

Allgemein

Schulungen sind nur ein Mittel, um die von der EU geforderte KI-Kompetenz der Mitarbeiter zu gewährleisten.TippaPattShutterstock.com Nachdem die KI-Verordnung (AI Act) im Juni 2024 von der EU verabschiedet wurde, treten die darunterfallenden Bestimmungen nach und nach in Kraft. Dazu zählt nicht nur, dass ab 2. Februar 2025 der Einsatz der in “Artikel 5: Verbotene AI-Praktiken” beschriebenen KI-Anwendungen in der EU untersagt ist.   Gleichzeitig müssen Anbieter und Betreiber von KI-Systemen gemäß Artikel 4: KI-Kompetenz ab kommenden Monat auch Maßnahmen ergreifen, die sicherstellen, dass   „ihr Personal und andere Personen, die in ihrem Auftrag mit dem Betrieb und der Nutzung von KI-Systemen befasst sind, über ein ausreichendes Maß an KI-Kompetenz verfügen“.   Details dazu, was der Gesetzgeber konkret unter KI-Kompetenz versteht, finden sich im Artikel 3: Begriffsbestimmungen. Demnach handelt es sich dabei um   „Fähigkeiten, Kenntnisse und Verständnis, die es Anbietern, Anwendern und Betroffenen ermöglichen, KI-Systeme unter Berücksichtigung ihrer jeweiligen Rechte und Pflichten im Rahmen dieser Verordnung in Kenntnis der Sachlage einzusetzen und sich über die Chancen und Risiken von KI und mögliche Schäden, die sie verursachen kann, bewusst zu werden“.  Gefordert sind damit also nicht nur technische Kenntnisse, sondern auch ein Verständnis über die sozialen, ethischen und rechtlichen Implikationen der KI-Nutzung. Um seiner Belegschaft KI-Kompetenz zu vermitteln, reicht es für ein Unternehmen entsprechend nicht nur, diese in Schulungen zu schicken. Es muss auch Richtlinien und Best Practices für die Nutzung von Künstlicher Intelligenz entwickeln und eventuell einen KI-Beauftragten einsetzen.  Auch ohne Strafen kein Papiertiger  Obwohl Artikel 4 KI VO relativ weich formuliert ist und eine unzureichende oder unterlassene Umsetzung – anders als in manchen Beiträgen dargestellt – kein Bußgeld oder andere Strafen zur Folge hat, sollten Unternehmen das Thema nicht auf die leichte Schulter nehmen. Sollte durch eine fehlerhafte Bedienung eines KI-Systems oder eine unzureichende Risikobewertung ein Schaden entstehen, könnte das als Verstoß gegen die allgemeine Sorgfaltspflicht des Arbeitgebers ausgelegt werden, wenn der Schaden durch angemessene Maßnahmen hätte verhindert werden können, warnt Rechtsanwältin Manuela Rauch auf Haufe.de .  Insbesondere in Fällen von Fehlfunktionen oder Schäden durch KI-Systeme könnten Gerichte prüfen, ob das Unternehmen angemessene Schulungs- und Qualifizierungsmaßnahmen umgesetzt hat, heißt es bei der Wirtschaftskanzlei Noerr dazu. Aber auch arbeitsrechtlich sei die Vorschrift relevant, etwa wenn Mitarbeitern wegen (angeblich) mangelnder KI-Kompetenz gekündigt wird.   width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/7jY0D0qoLtnm17n9lGt0c5?utm_source=oembed”> 

KI-Kompetenz ist ab Februar Pflicht​ Schulungen sind nur ein Mittel, um die von der EU geforderte KI-Kompetenz der Mitarbeiter zu gewährleisten.TippaPattShutterstock.com

Nachdem die KI-Verordnung (AI Act) im Juni 2024 von der EU verabschiedet wurde, treten die darunterfallenden Bestimmungen nach und nach in Kraft. Dazu zählt nicht nur, dass ab 2. Februar 2025 der Einsatz der in “Artikel 5: Verbotene AI-Praktiken” beschriebenen KI-Anwendungen in der EU untersagt ist.  

Gleichzeitig müssen Anbieter und Betreiber von KI-Systemen gemäß Artikel 4: KI-Kompetenz ab kommenden Monat auch Maßnahmen ergreifen, die sicherstellen, dass  

„ihr Personal und andere Personen, die in ihrem Auftrag mit dem Betrieb und der Nutzung von KI-Systemen befasst sind, über ein ausreichendes Maß an KI-Kompetenz verfügen“.  

Details dazu, was der Gesetzgeber konkret unter KI-Kompetenz versteht, finden sich im Artikel 3: Begriffsbestimmungen. Demnach handelt es sich dabei um  

„Fähigkeiten, Kenntnisse und Verständnis, die es Anbietern, Anwendern und Betroffenen ermöglichen, KI-Systeme unter Berücksichtigung ihrer jeweiligen Rechte und Pflichten im Rahmen dieser Verordnung in Kenntnis der Sachlage einzusetzen und sich über die Chancen und Risiken von KI und mögliche Schäden, die sie verursachen kann, bewusst zu werden“. 

Gefordert sind damit also nicht nur technische Kenntnisse, sondern auch ein Verständnis über die sozialen, ethischen und rechtlichen Implikationen der KI-Nutzung. Um seiner Belegschaft KI-Kompetenz zu vermitteln, reicht es für ein Unternehmen entsprechend nicht nur, diese in Schulungen zu schicken. Es muss auch Richtlinien und Best Practices für die Nutzung von Künstlicher Intelligenz entwickeln und eventuell einen KI-Beauftragten einsetzen. 

Auch ohne Strafen kein Papiertiger 

Obwohl Artikel 4 KI VO relativ weich formuliert ist und eine unzureichende oder unterlassene Umsetzung – anders als in manchen Beiträgen dargestellt – kein Bußgeld oder andere Strafen zur Folge hat, sollten Unternehmen das Thema nicht auf die leichte Schulter nehmen. Sollte durch eine fehlerhafte Bedienung eines KI-Systems oder eine unzureichende Risikobewertung ein Schaden entstehen, könnte das als Verstoß gegen die allgemeine Sorgfaltspflicht des Arbeitgebers ausgelegt werden, wenn der Schaden durch angemessene Maßnahmen hätte verhindert werden können, warnt Rechtsanwältin Manuela Rauch auf Haufe.de . 

Insbesondere in Fällen von Fehlfunktionen oder Schäden durch KI-Systeme könnten Gerichte prüfen, ob das Unternehmen angemessene Schulungs- und Qualifizierungsmaßnahmen umgesetzt hat, heißt es bei der Wirtschaftskanzlei Noerr dazu. Aber auch arbeitsrechtlich sei die Vorschrift relevant, etwa wenn Mitarbeitern wegen (angeblich) mangelnder KI-Kompetenz gekündigt wird.  

width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/7jY0D0qoLtnm17n9lGt0c5?utm_source=oembed”>

KI-Kompetenz ist ab Februar Pflicht​ Weiterlesen »

NextGen Ethernet: 1,6 Tbit/s bis Ende 2025​

Allgemein

Das Ethernet als die dominierende Vernetzungstechnik hat mittlerweile mehr als 50 Jahre auf dem Buckel. Ein Teil des Erfolgs basiert sicherlich darauf, dass die Technik ständig weiterentwickelt wurde. Auch 2025 wird es etliche Fortschritte geben: 800-Gigabit-Ethernet-(800GbE-)Devices kommen auf den Markt, Erste Test mit 1,6 Terabit/s Ethernet, Linear Pluggable Optics (LPO), Ultra Ethernet als Infinband-Alternative wird flügge. 800 Gigabit Ethernet Nachdem 2024 die Version 1.0 der 800GbE-Spezifikation von der IEEE-P802.3df-Arbeitsgruppe veröffentlicht wurde, dürfte in diesem Jahr die breite Markteinführung entsprechender Geräte anstehen. Pre-Standard-Devices wurden bereits seit 2022 von einigen Herstellern vermarktet. 1, 6 Terabit-Ethernet Doch auf der Jagd nach immer höheren Geschwindigkeiten markiert 800GbE nur einen vorläufigen Höhepunkt.  Während 800GbE auf den Markt kommt, wird bereits über die nächste Generation gesprochen: Ethernet mit 1,6 Terabit/s (1,6 Tb-Ethernet). So ist Martin Hull, Vice President und General Manager für Cloud- und KI-Plattformen bei Arista Networks, überzeugt: „1,6-Tb-Ethernet wird in Bezug auf die Optik, die Formfaktoren und die Anwendungsfälle diskutiert, und wir erwarten, dass Branchenführer gegen Ende 2025 1,6-Tb-Systeme testen werden.“ Allerdings markiert 1,6-Terabit/s-Ethernet nur einen vorläufigen Höhepunkt im Ringen um mehr Speed. Laut David J. Rodgers, Ethernet Alliance Events & Conference Chair, hat die Branche bereits begonnen, den Weg zu 3,2 Tb und 400G/Lane-Ethernet zu ebnen. Diskussionen darüber und erste Arbeiten würden noch in diesem Jahr stattfinden. Linear Pluggable Optic Mit immer höheren Bandbreiten sind auch zuverlässige Verbindungslösungen gefragt. „Highspeed bedeutet allerdings auch hohe Leistung und höhere Wärmeentwicklung, was höhere Anforderungen an das Stromnetz und die Ressourcen stellt und eine Nachfrage nach neuen Optikmodulen schafft“, erklärt Rodgers. Hier kommen die Linear Pluggable Optics (LPOs) ins Spiel. Dazu hat die Ethernet Alliance führenden System- und Verbindungsanbieter zusammengebracht, um eine neue Art von steckbaren optischen Modulen zu entwickeln. Bei LPO sollen wärme- und energieintensive digitale Signalprozessoren (DSPs), die in herkömmlichen optischen Modulen verwendet werden, ersetzt werden. Zudem soll dies kostengünstigere Verbindungen für Anwendungen mit geringerer Reichweite erlauben. „In einer Zeit, in der viele Betreiber von Rechenzentren mit Herausforderungen in Bezug auf Stromversorgung und Kühlung konfrontiert sind, kann LPO auf Systemebene 25 Prozent des Stromverbrauchs im Netzwerk einsparen“, geht Arista-Manager Hull ins Detail. Ultra Ethernet Consortium (UEC) 2025 dürfte auch ein großes Jahr für UEC werden. Noch Anfang 2025 soll laut J Metz, Vorsitzender des Ultra Ethernet Consortium, die vollständige, integrierte Spezifikation 1.0 von UEC veröffentlicht werden. Ein Hauptziel des UEC ist es, Ethernet für KI- und HPC-Workloads zu ermöglichen und sich besser gegen den Konkurrenten Infiniband zu positionieren. Stolz verweist Metz darauf, dass „das UEC von zehn auf über 100 Unternehmen angewachsen ist.” Diese würden einen breiten Querschnitt der Technologiebranche repräsentieren und sich dafür einsetzen, die Herausforderungen im Bereich Netzwerke für KI und HPC auf offene und kooperative Weise anzugehen. So habe man bei den physischen, Verbindungs-, Transport- und Software-Ebenen bedeutende Entwicklungen erzielt, darunter innovative Überlastungsschemata, integrierte Sicherheit und optimierte Paketübermittlung. Mehr als 25 Einzelprojekte hätten zur Entwicklung eines fein abgestimmten Ethernet-Stacks beigetragen, der den Anforderungen der intensivsten Workloads Geschichte gerecht werde. 

NextGen Ethernet: 1,6 Tbit/s bis Ende 2025​ Das Ethernet als die dominierende Vernetzungstechnik hat mittlerweile mehr als 50 Jahre auf dem Buckel. Ein Teil des Erfolgs basiert sicherlich darauf, dass die Technik ständig weiterentwickelt wurde. Auch 2025 wird es etliche Fortschritte geben:

800-Gigabit-Ethernet-(800GbE-)Devices kommen auf den Markt,

Erste Test mit 1,6 Terabit/s Ethernet,

Linear Pluggable Optics (LPO),

Ultra Ethernet als Infinband-Alternative wird flügge.

800 Gigabit Ethernet

Nachdem 2024 die Version 1.0 der 800GbE-Spezifikation von der IEEE-P802.3df-Arbeitsgruppe veröffentlicht wurde, dürfte in diesem Jahr die breite Markteinführung entsprechender Geräte anstehen. Pre-Standard-Devices wurden bereits seit 2022 von einigen Herstellern vermarktet.

1, 6 Terabit-Ethernet

Doch auf der Jagd nach immer höheren Geschwindigkeiten markiert 800GbE nur einen vorläufigen Höhepunkt.  Während 800GbE auf den Markt kommt, wird bereits über die nächste Generation gesprochen: Ethernet mit 1,6 Terabit/s (1,6 Tb-Ethernet).

So ist Martin Hull, Vice President und General Manager für Cloud- und KI-Plattformen bei Arista Networks, überzeugt: „1,6-Tb-Ethernet wird in Bezug auf die Optik, die Formfaktoren und die Anwendungsfälle diskutiert, und wir erwarten, dass Branchenführer gegen Ende 2025 1,6-Tb-Systeme testen werden.“

Allerdings markiert 1,6-Terabit/s-Ethernet nur einen vorläufigen Höhepunkt im Ringen um mehr Speed. Laut David J. Rodgers, Ethernet Alliance Events & Conference Chair, hat die Branche bereits begonnen, den Weg zu 3,2 Tb und 400G/Lane-Ethernet zu ebnen. Diskussionen darüber und erste Arbeiten würden noch in diesem Jahr stattfinden.

Linear Pluggable Optic

Mit immer höheren Bandbreiten sind auch zuverlässige Verbindungslösungen gefragt. „Highspeed bedeutet allerdings auch hohe Leistung und höhere Wärmeentwicklung, was höhere Anforderungen an das Stromnetz und die Ressourcen stellt und eine Nachfrage nach neuen Optikmodulen schafft“, erklärt Rodgers.

Hier kommen die Linear Pluggable Optics (LPOs) ins Spiel. Dazu hat die Ethernet Alliance führenden System- und Verbindungsanbieter zusammengebracht, um eine neue Art von steckbaren optischen Modulen zu entwickeln. Bei LPO sollen wärme- und energieintensive digitale Signalprozessoren (DSPs), die in herkömmlichen optischen Modulen verwendet werden, ersetzt werden.

Zudem soll dies kostengünstigere Verbindungen für Anwendungen mit geringerer Reichweite erlauben. „In einer Zeit, in der viele Betreiber von Rechenzentren mit Herausforderungen in Bezug auf Stromversorgung und Kühlung konfrontiert sind, kann LPO auf Systemebene 25 Prozent des Stromverbrauchs im Netzwerk einsparen“, geht Arista-Manager Hull ins Detail.

Ultra Ethernet Consortium (UEC)

2025 dürfte auch ein großes Jahr für UEC werden. Noch Anfang 2025 soll laut J Metz, Vorsitzender des Ultra Ethernet Consortium, die vollständige, integrierte Spezifikation 1.0 von UEC veröffentlicht werden.

Ein Hauptziel des UEC ist es, Ethernet für KI- und HPC-Workloads zu ermöglichen und sich besser gegen den Konkurrenten Infiniband zu positionieren. Stolz verweist Metz darauf, dass „das UEC von zehn auf über 100 Unternehmen angewachsen ist.” Diese würden einen breiten Querschnitt der Technologiebranche repräsentieren und sich dafür einsetzen, die Herausforderungen im Bereich Netzwerke für KI und HPC auf offene und kooperative Weise anzugehen.

So habe man bei den physischen, Verbindungs-, Transport- und Software-Ebenen bedeutende Entwicklungen erzielt, darunter innovative Überlastungsschemata, integrierte Sicherheit und optimierte Paketübermittlung. Mehr als 25 Einzelprojekte hätten zur Entwicklung eines fein abgestimmten Ethernet-Stacks beigetragen, der den Anforderungen der intensivsten Workloads Geschichte gerecht werde.

NextGen Ethernet: 1,6 Tbit/s bis Ende 2025​ Weiterlesen »

6 Wege zur Code-Verstopfung​

Allgemein

Flaggschiff-Applikation?Tepliakov Oleksandr | shutterstock.com Ausufernde Anwendungen, die über Jahre – oder Jahrzehnte – von unzähligen Entwicklern geschrieben und erweitert wurden, sind nicht selten die Vorzeigeprodukte von Unternehmen – trotzdem sie mehr oder weniger viele Code-Blöcke enthalten, für die man sich außerhalb der eigenen Company-Grenzen schämen muss. Dass das aus diversen Perspektiven ungünstig ist, steht nicht zur Debatte. In diesem Artikel lesen Sie, wie es dazu kommen kann. 1. Der Neffe Es kommt häufiger vor, als Sie vielleicht denken: Onkel Rüdiger braucht für seine Go-Kart-Bahn eine App, um Rennen zu managen. Glücklicherweise studiert sein Neffe Thomas demnächst Informatik und bastelt ein bisschen mit Visual Basic, um so etwas Ähnliches wie eine Applikation auf die Beine zu stellen. Das bekommt auch Rüdigers Duz-Freund vom Kart-Verein mit – und entschließt sich kurzerhand, ein Business auf dieser Anwendung aufzubauen. Thomas freut sich und lässt sich nicht davon stören, dass eigentlich nie ein Gedanke an Architektur und Design der App verschwendet wurde. Ein paar Jahre später „besteht“ die Anwendung aus sieben Millionen Zeilen Code, die in Chaos koexistieren – und die ausschließlich Thomas versteht. 2. Chef-Code Ich habe einmal an einer Anwendung gearbeitet, deren ursprünglicher Code in weiten Teilen von einem der Firmengründer geschrieben wurde. Dieser wurde über viele Jahre um zusätzliche, neue Funktionen erweitert. Dabei setzte der „Chef“-Entwickler vornehmlich auf „Bagger-Code“. Eine nette Umschreibung dafür, einen Haufen Code wie Dreck mit der Baggerschaufel umzuschichten – und einfach mal abzuwarten, ob daraus etwas Lauffähiges resultiert. Das Problem: Weil es sich um einen angesehenen Manager handelte, hatte selbstredend niemand den Mut, den Verhau einfach zu verwerfen und alles noch einmal neu – und richtig – zu schreiben. 3. Speed als KPI Ich schüttle heute noch den Kopf über die Hacker-Szene in „The Social Network“, in der die Definition von „Erfolg“ darin besteht, möglichst schnell zu programmieren – und alle paar Minuten einen Shot zu nehmen. Wegen enger Deadlines auf eine „Build fast, fix later“-Kultur umzustellen, ist nicht zielführend. Vor allem wenn das „later“ nie kommt. Alles, was daraus resultiert, sind Wartungs-Albträume. 4. Manager-Deadlines Mit „Manager“ sind in diesem Fall Menschen gemeint, die beim besten Willen keinerlei Ahnung davon haben, wie gute Software aussieht und erstellt wird. Sätze wie „Entweder Du lieferst die Funktion bis zum Ende des Quartals oder Du kannst Dir einen neuen Job suchen“, sind eleganten, wartbaren Lösungen niemals zuträglich. 5. Der frühe Wurm Bekanntermaßen stehen und fallen Konstrukte mit ihrem Fundament. Es ist also nicht zu begrüßen, wenn diese Basis vornehmlich aus Sand, Knete und jeder Menge Panzerklebeband besteht. Dazu kommt es, wenn bereits in der Frühphase eines Entwicklungsprojekts grundlegend falsche Entscheidungen getroffen werden – beispielsweise mit Blick auf eine solide Architektur und entsprechende Best Practices. 6. “Dev kann jeder” Es gab eine Zeit, in der die Überzeugung herrschte, jeder könne mit etwas Knowhow zum Entwickler werden – entsprechend leistungsstarke Tools vorausgesetzt (die No-Code-„Bewegung“ führt diese Tradition in Teilen fort). Vielleicht hat sich auch Ihr Unternehmen vom RAD- (Rapid Application Development) und CASE- (Computer Aided Software Engineering) Tool-Wahn der 1990er Jahre anstecken lassen. Falls ja, sollten Sie bei einem Satz wie „Warum liefern wir nicht einfach den Prototypen aus?“ ausgiebig zusammenzucken. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

6 Wege zur Code-Verstopfung​ Flaggschiff-Applikation?Tepliakov Oleksandr | shutterstock.com

Ausufernde Anwendungen, die über Jahre – oder Jahrzehnte – von unzähligen Entwicklern geschrieben und erweitert wurden, sind nicht selten die Vorzeigeprodukte von Unternehmen – trotzdem sie mehr oder weniger viele Code-Blöcke enthalten, für die man sich außerhalb der eigenen Company-Grenzen schämen muss.

Dass das aus diversen Perspektiven ungünstig ist, steht nicht zur Debatte. In diesem Artikel lesen Sie, wie es dazu kommen kann.

1. Der Neffe

Es kommt häufiger vor, als Sie vielleicht denken: Onkel Rüdiger braucht für seine Go-Kart-Bahn eine App, um Rennen zu managen. Glücklicherweise studiert sein Neffe Thomas demnächst Informatik und bastelt ein bisschen mit Visual Basic, um so etwas Ähnliches wie eine Applikation auf die Beine zu stellen.

Das bekommt auch Rüdigers Duz-Freund vom Kart-Verein mit – und entschließt sich kurzerhand, ein Business auf dieser Anwendung aufzubauen. Thomas freut sich und lässt sich nicht davon stören, dass eigentlich nie ein Gedanke an Architektur und Design der App verschwendet wurde. Ein paar Jahre später „besteht“ die Anwendung aus sieben Millionen Zeilen Code, die in Chaos koexistieren – und die ausschließlich Thomas versteht.

2. Chef-Code

Ich habe einmal an einer Anwendung gearbeitet, deren ursprünglicher Code in weiten Teilen von einem der Firmengründer geschrieben wurde. Dieser wurde über viele Jahre um zusätzliche, neue Funktionen erweitert. Dabei setzte der „Chef“-Entwickler vornehmlich auf „Bagger-Code“. Eine nette Umschreibung dafür, einen Haufen Code wie Dreck mit der Baggerschaufel umzuschichten – und einfach mal abzuwarten, ob daraus etwas Lauffähiges resultiert.

Das Problem: Weil es sich um einen angesehenen Manager handelte, hatte selbstredend niemand den Mut, den Verhau einfach zu verwerfen und alles noch einmal neu – und richtig – zu schreiben.

3. Speed als KPI

Ich schüttle heute noch den Kopf über die Hacker-Szene in „The Social Network“, in der die Definition von „Erfolg“ darin besteht, möglichst schnell zu programmieren – und alle paar Minuten einen Shot zu nehmen.

Wegen enger Deadlines auf eine „Build fast, fix later“-Kultur umzustellen, ist nicht zielführend. Vor allem wenn das „later“ nie kommt. Alles, was daraus resultiert, sind Wartungs-Albträume.

4. Manager-Deadlines

Mit „Manager“ sind in diesem Fall Menschen gemeint, die beim besten Willen keinerlei Ahnung davon haben, wie gute Software aussieht und erstellt wird.

Sätze wie „Entweder Du lieferst die Funktion bis zum Ende des Quartals oder Du kannst Dir einen neuen Job suchen“, sind eleganten, wartbaren Lösungen niemals zuträglich.

5. Der frühe Wurm

Bekanntermaßen stehen und fallen Konstrukte mit ihrem Fundament. Es ist also nicht zu begrüßen, wenn diese Basis vornehmlich aus Sand, Knete und jeder Menge Panzerklebeband besteht.

Dazu kommt es, wenn bereits in der Frühphase eines Entwicklungsprojekts grundlegend falsche Entscheidungen getroffen werden – beispielsweise mit Blick auf eine solide Architektur und entsprechende Best Practices.

6. “Dev kann jeder”

Es gab eine Zeit, in der die Überzeugung herrschte, jeder könne mit etwas Knowhow zum Entwickler werden – entsprechend leistungsstarke Tools vorausgesetzt (die No-Code-„Bewegung“ führt diese Tradition in Teilen fort).

Vielleicht hat sich auch Ihr Unternehmen vom RAD- (Rapid Application Development) und CASE- (Computer Aided Software Engineering) Tool-Wahn der 1990er Jahre anstecken lassen. Falls ja, sollten Sie bei einem Satz wie „Warum liefern wir nicht einfach den Prototypen aus?“ ausgiebig zusammenzucken. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

6 Wege zur Code-Verstopfung​ Weiterlesen »

Wie IT und Personaler voneinander profitieren​

Allgemein

Da Führungskräfte im Personalwesen zunehmend eine gestaltend strategisch Rolle einnehmen, etwa als HR Business Partner, müssen sie Veränderungen am besten selbst anstoßen und Lösungen in Kooperation mit der IT entwickeln. CL STOCK – Shutterstock 2470023379 Es ist und bleibt ein Dauerthema auch im neuen Jahr: der Fachkräftemangel. Diese Situation wirkt sich zunehmend negativ auf die Situation vieler Arbeitnehmenden aus: Sie spüren, dass der Arbeitsdruck und die Belastung steigen und die Möglichkeiten, die eigene Arbeit zu gestalten, weniger werden. Dies gilt auch unter Führungskräften. Fast zwei Drittel von ihnen fühlt sich von den unterschiedlichen Anforderungen, den zusätzlichen Aufgaben, der Erwartung und der Verantwortung in ihrer Position erschöpft und würden Zuständigkeiten gern abgeben.   Eine Lösung ist, die Verantwortung auf mehrere Schultern zu verteilen. Das können Schultern in den eigenen Reihen sein, beispielsweise in Form geteilter Führung im Tandem oder selbstorganisierter Teams, oder Schultern eines Dienstleisters im Bereich Shared Services und Business Process Outsourcing.    Personalverantwortliche sollten Veränderung anstoßen Da Führungskräfte im Personalwesen zukünftig ohnehin eine strategische, gestaltende Rolle einnehmen sollen, etwa als HR Business Partner, stoßen sie Veränderungen am besten selbst an. Damit schaffen sie sich den Freiraum für die Arbeit mit der wichtigsten Ressource im Unternehmen – dem Personal. Außerdem können sie die Transformation des Unternehmens, die Produktentwicklung sowie Innovationen stärker vorantreiben.   Alles Aufgaben, die im Arbeitsalltag häufig liegenbleiben. „Hohe Kosten, viele offene Planstellen und ineffiziente Prozesse sind für Personalverantwortliche klare Zeichen, dass Veränderungsbedarf besteht. Die IT und der Betriebsrat sind gute Ansprechpartner, um Pläne zu entwickeln und Initiativen gemeinsam erfolgreich umzusetzen“, weiß Andreas Richter, verantwortlicher Partner bei der Management- und IT- Beratung MHP für Business Services.  Ein erster Schritt ist, die eigene HR-IT-Landschaft und Architektur neu aufzustellen. Gute cloudbasierte Lösungen rund um Personalmanagement-Systeme umfassen HR-Kernfunktionen, Payroll, Talentmanagement, Employee Experience Management und HR Analytics. Personalverantwortliche werden somit entlang des gesamten Employee Lifecycles unterstützt und entlastet – sie können sich stattdessen auf die Personalentwicklung konzentrieren.   Mitarbeiterinnen und Mitarbeiter wiederum haben über Employee Self Services zu jeder Zeit, an jedem Ort und auf jedem Endgerät die Möglichkeit, Funktionen eigenständig zu nutzen: Arbeitszeit festhalten, Weiterbildungen nachweisen, Atteste hochladen, Urlaube einreichen, Reisekosten abrechnen, Firmenwagen beantragen, Zielvereinbarungen einsehen und vieles mehr.    Wertschöpfende HR-Tätigkeiten im Fokus Verantwortung auf Schultern eines Dienstleisters zu verteilen, bietet sich vor allem bei regelbasierten Tätigkeiten an: im Recruiting, bei der Vertragserstellung, beim Onboarding, bei der Stamm- und Bewegungsdatenverwaltung, beim Zeitmanagement und bei der Entgeltabrechnung sowie bei allgemeinen Tätigkeiten wie Bescheinigungen, und nicht zuletzt beim Offboarding.   Welche Prozesse und Aufgaben das genau sein sollen, lässt sich über einen „Activity Split“ definieren. „Aufgaben, die der Dienstleister planen kann, aber weiterhin inhouse erfolgen sollten, sind alle kritischen oder vertraulichen Tätigkeiten. Dazu gehören Mitarbeiter- und besonders Gehaltsgespräche sowie die Gehaltsabrechnung von Top-Führungskräften“, so Richter.  Das Stichwort beim Outsourcing sind Business Services, die technischer, administrativer oder beratender Natur sein können und sich entweder als Shared Services, Business Process Outsourcing (BPO) oder auch Managed Services umsetzen lassen. Während Shared Services ähnliche Funktionen oder Prozesse innerhalb eines Unternehmens bündeln, standardisieren und zentral bereitstellen, werden mit BPO spezifische Dienstleistungen oder Geschäftsprozesse an einen Partner ausgelagert.   Für welche Form sich ein Unternehmen entscheidet, hängt von der Unternehmensgröße, von den Prozessen sowie vom Grad an Verantwortung und Unterstützung ab, den es sich wünscht. Dabei spielt die personelle und kapazitive Situation genauso eine Rolle wie auch die HR-IT-Strategie.  Der Partner kann als Shared Service Center fungieren, wodurch der Fokus daraufgelegt wird, mithilfe digitaler Technologien und automatisierter Prozesse Ressourcen wirtschaftlicher zu nutzen. Oder aber er kann Fachkenntnisse und Ressourcen von außen einbringen und damit kontinuierliche Verbesserungen der Prozesse und im Bereich Digitalisierung und Automatisierung schaffen, die intern nicht erreichbar wären.    srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/01/Andreas-Richter_Foto-MHP.jpg?quality=50&strip=all 1600w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Andreas-Richter_Foto-MHP.jpg?resize=300%2C188&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Andreas-Richter_Foto-MHP.jpg?resize=768%2C480&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Andreas-Richter_Foto-MHP.jpg?resize=1024%2C640&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Andreas-Richter_Foto-MHP.jpg?resize=1536%2C960&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Andreas-Richter_Foto-MHP.jpg?resize=1115%2C697&quality=50&strip=all 1115w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Andreas-Richter_Foto-MHP.jpg?resize=269%2C168&quality=50&strip=all 269w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Andreas-Richter_Foto-MHP.jpg?resize=134%2C84&quality=50&strip=all 134w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Andreas-Richter_Foto-MHP.jpg?resize=576%2C360&quality=50&strip=all 576w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Andreas-Richter_Foto-MHP.jpg?resize=400%2C250&quality=50&strip=all 400w” width=”1024″ height=”640″ sizes=”(max-width: 1024px) 100vw, 1024px”>Andreas Richter: „Hohe Kosten, viele offene Planstellen und ineffiziente Prozesse sind für Personalverantwortliche klare Zeichen, dass Veränderungsbedarf besteht. Die IT und der Betriebsrat sind gute Ansprechpartner, um Pläne zu entwickeln und Initiativen gemeinsam erfolgreich umzusetzen.“Andreas Richter – MHP Rolle von HR verändert sich durch Outsourcing Führungskräfte im Personalwesen rücken durch Outsourcing immer mehr in eine Vordenker- und Netzwerker-Rolle. Sie müssen sich frühzeitig mit neuen Arbeitswelten auseinandersetzen, die Geschäftsbedarfe in Strategien und Services wie Talent Acquisition oder People Operations übersetzen und das Vorhaben gemeinsam mit den Führungskräften in den Fachabteilungen umsetzen. Dazu gehört im Bereich Workforce Transformation auch das Re- und Upskilling von Mitarbeitenden, denn auch deren Rolle verändert sich durch das Outsourcing. Sie sind dann zum Beispiel nicht mehr für das Entwickeln einfacher Programmiersprachen zuständig, sondern für das Programmieren, Trainieren und Steuern von künstlicher Intelligenz, die diese Tätigkeit übernimmt.   Dabei sind Personalverantwortliche eng mit der internen IT und der Geschäftsführung und dem Betriebsrat im Austausch und fungieren als Change Manager. Kompetenzen, die sie für diese Rolle brauchen, sind Kommunikationsfähigkeit, strategisches Denken und die Fähigkeit, persönliche Beziehungen aufzubauen und zu erhalten.   Außerdem verantworten sie das Enterprise Service Management, das Rahmenwerk, in dem Best Practices wie Knowledge Management, Workflow Management, Change Management, Service Level Management und andere Service-Management-Prozesse als Grundlage von Business Services vereinbart sind, und steuern den Outsourcing-Partner.   „Früher haben Personalverantwortliche eher die Mitarbeitenden gesteuert, heute sind es mehr die Lieferanten. Dafür müssen sie die Prozessabläufe und Kommunikationskanäle genau kennen und eine Kultur für die Zusammenarbeit mit dem Dienstleister schaffen“, erklärt Richter.  Neuausrichtung in fünf elementaren Schritten Je nachdem, welche Hebel Unternehmen nutzen, können Business Services verschiedene Vorteile und Mehrwerte bieten. Um diese auszuschöpfen, sollten sie einer von der IT und dem Personalwesen gemeinsam entwickelten Vision folgen. Dabei hat sich ein Vorgehen in fünf Phasen bewährt: von der strategischen zur operativen Ebene. Am Anfang wird die Ausgangssituation analysiert und eine klare Strategie aufgestellt.   Anschließend wird die Machbarkeit überprüft und ein detailliertes Konzept mit allen organisatorischen, technischen und finanziellen Aspekten entwickelt. Dann folgt die praktische Ausgestaltung, mit der unter anderem die genauen Strukturen, Prozesse und Verantwortlichkeiten festzulegen sind.   Die Implementierung kann mit der Etablierung eines Shared Service Centers einhergehen; Mitarbeitende werden geschult und auf neue Prozesse und Aufgaben vorbereitet, technische Systeme und Tools getestet. Das geht vollständig remote.   Nach der erfolgreichen Implementierung können Partner mit der Überwachung der Prozesse und nach dem Motto „Shift and Lift“ mit Weiterentwicklungen im Bereich Digitalisierung und Automatisierung betraut werden. Wichtig ist hier die enge Zusammenarbeit zwischen allen Beteiligten und die Gewöhnung an unterschiedliche Kulturen und Arbeitsweisen in Workshops, wenn die Experten zum Beispiel im (deutschsprachigen) Ausland sitzen.   Mit einem 5-Phasen-Modell lassen sich Shared Services und BPO ganzheitlich und individuell umsetzen. MHP 

Wie IT und Personaler voneinander profitieren​ Da Führungskräfte im Personalwesen zunehmend eine gestaltend strategisch Rolle einnehmen, etwa als HR Business Partner, müssen sie Veränderungen am besten selbst anstoßen und Lösungen in Kooperation mit der IT entwickeln. CL STOCK – Shutterstock 2470023379

Es ist und bleibt ein Dauerthema auch im neuen Jahr: der Fachkräftemangel. Diese Situation wirkt sich zunehmend negativ auf die Situation vieler Arbeitnehmenden aus: Sie spüren, dass der Arbeitsdruck und die Belastung steigen und die Möglichkeiten, die eigene Arbeit zu gestalten, weniger werden. Dies gilt auch unter Führungskräften. Fast zwei Drittel von ihnen fühlt sich von den unterschiedlichen Anforderungen, den zusätzlichen Aufgaben, der Erwartung und der Verantwortung in ihrer Position erschöpft und würden Zuständigkeiten gern abgeben.  

Eine Lösung ist, die Verantwortung auf mehrere Schultern zu verteilen. Das können Schultern in den eigenen Reihen sein, beispielsweise in Form geteilter Führung im Tandem oder selbstorganisierter Teams, oder Schultern eines Dienstleisters im Bereich Shared Services und Business Process Outsourcing. 

 

Personalverantwortliche sollten Veränderung anstoßen

Da Führungskräfte im Personalwesen zukünftig ohnehin eine strategische, gestaltende Rolle einnehmen sollen, etwa als HR Business Partner, stoßen sie Veränderungen am besten selbst an. Damit schaffen sie sich den Freiraum für die Arbeit mit der wichtigsten Ressource im Unternehmen – dem Personal. Außerdem können sie die Transformation des Unternehmens, die Produktentwicklung sowie Innovationen stärker vorantreiben.  

Alles Aufgaben, die im Arbeitsalltag häufig liegenbleiben. „Hohe Kosten, viele offene Planstellen und ineffiziente Prozesse sind für Personalverantwortliche klare Zeichen, dass Veränderungsbedarf besteht. Die IT und der Betriebsrat sind gute Ansprechpartner, um Pläne zu entwickeln und Initiativen gemeinsam erfolgreich umzusetzen“, weiß Andreas Richter, verantwortlicher Partner bei der Management- und IT- Beratung MHP für Business Services. 

Ein erster Schritt ist, die eigene HR-IT-Landschaft und Architektur neu aufzustellen. Gute cloudbasierte Lösungen rund um Personalmanagement-Systeme umfassen HR-Kernfunktionen, Payroll, Talentmanagement, Employee Experience Management und HR Analytics. Personalverantwortliche werden somit entlang des gesamten Employee Lifecycles unterstützt und entlastet – sie können sich stattdessen auf die Personalentwicklung konzentrieren.  

Mitarbeiterinnen und Mitarbeiter wiederum haben über Employee Self Services zu jeder Zeit, an jedem Ort und auf jedem Endgerät die Möglichkeit, Funktionen eigenständig zu nutzen: Arbeitszeit festhalten, Weiterbildungen nachweisen, Atteste hochladen, Urlaube einreichen, Reisekosten abrechnen, Firmenwagen beantragen, Zielvereinbarungen einsehen und vieles mehr. 

 

Wertschöpfende HR-Tätigkeiten im Fokus

Verantwortung auf Schultern eines Dienstleisters zu verteilen, bietet sich vor allem bei regelbasierten Tätigkeiten an: im Recruiting, bei der Vertragserstellung, beim Onboarding, bei der Stamm- und Bewegungsdatenverwaltung, beim Zeitmanagement und bei der Entgeltabrechnung sowie bei allgemeinen Tätigkeiten wie Bescheinigungen, und nicht zuletzt beim Offboarding.  

Welche Prozesse und Aufgaben das genau sein sollen, lässt sich über einen „Activity Split“ definieren. „Aufgaben, die der Dienstleister planen kann, aber weiterhin inhouse erfolgen sollten, sind alle kritischen oder vertraulichen Tätigkeiten. Dazu gehören Mitarbeiter- und besonders Gehaltsgespräche sowie die Gehaltsabrechnung von Top-Führungskräften“, so Richter. 

Das Stichwort beim Outsourcing sind Business Services, die technischer, administrativer oder beratender Natur sein können und sich entweder als Shared Services, Business Process Outsourcing (BPO) oder auch Managed Services umsetzen lassen. Während Shared Services ähnliche Funktionen oder Prozesse innerhalb eines Unternehmens bündeln, standardisieren und zentral bereitstellen, werden mit BPO spezifische Dienstleistungen oder Geschäftsprozesse an einen Partner ausgelagert.  

Für welche Form sich ein Unternehmen entscheidet, hängt von der Unternehmensgröße, von den Prozessen sowie vom Grad an Verantwortung und Unterstützung ab, den es sich wünscht. Dabei spielt die personelle und kapazitive Situation genauso eine Rolle wie auch die HR-IT-Strategie. 

Der Partner kann als Shared Service Center fungieren, wodurch der Fokus daraufgelegt wird, mithilfe digitaler Technologien und automatisierter Prozesse Ressourcen wirtschaftlicher zu nutzen. Oder aber er kann Fachkenntnisse und Ressourcen von außen einbringen und damit kontinuierliche Verbesserungen der Prozesse und im Bereich Digitalisierung und Automatisierung schaffen, die intern nicht erreichbar wären. 

 

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/01/Andreas-Richter_Foto-MHP.jpg?quality=50&strip=all 1600w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Andreas-Richter_Foto-MHP.jpg?resize=300%2C188&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Andreas-Richter_Foto-MHP.jpg?resize=768%2C480&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Andreas-Richter_Foto-MHP.jpg?resize=1024%2C640&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Andreas-Richter_Foto-MHP.jpg?resize=1536%2C960&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Andreas-Richter_Foto-MHP.jpg?resize=1115%2C697&quality=50&strip=all 1115w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Andreas-Richter_Foto-MHP.jpg?resize=269%2C168&quality=50&strip=all 269w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Andreas-Richter_Foto-MHP.jpg?resize=134%2C84&quality=50&strip=all 134w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Andreas-Richter_Foto-MHP.jpg?resize=576%2C360&quality=50&strip=all 576w, https://b2b-contenthub.com/wp-content/uploads/2025/01/Andreas-Richter_Foto-MHP.jpg?resize=400%2C250&quality=50&strip=all 400w” width=”1024″ height=”640″ sizes=”(max-width: 1024px) 100vw, 1024px”>Andreas Richter: „Hohe Kosten, viele offene Planstellen und ineffiziente Prozesse sind für Personalverantwortliche klare Zeichen, dass Veränderungsbedarf besteht. Die IT und der Betriebsrat sind gute Ansprechpartner, um Pläne zu entwickeln und Initiativen gemeinsam erfolgreich umzusetzen.“Andreas Richter – MHP

Rolle von HR verändert sich durch Outsourcing

Führungskräfte im Personalwesen rücken durch Outsourcing immer mehr in eine Vordenker- und Netzwerker-Rolle. Sie müssen sich frühzeitig mit neuen Arbeitswelten auseinandersetzen, die Geschäftsbedarfe in Strategien und Services wie Talent Acquisition oder People Operations übersetzen und das Vorhaben gemeinsam mit den Führungskräften in den Fachabteilungen umsetzen. Dazu gehört im Bereich Workforce Transformation auch das Re- und Upskilling von Mitarbeitenden, denn auch deren Rolle verändert sich durch das Outsourcing. Sie sind dann zum Beispiel nicht mehr für das Entwickeln einfacher Programmiersprachen zuständig, sondern für das Programmieren, Trainieren und Steuern von künstlicher Intelligenz, die diese Tätigkeit übernimmt.  

Dabei sind Personalverantwortliche eng mit der internen IT und der Geschäftsführung und dem Betriebsrat im Austausch und fungieren als Change Manager. Kompetenzen, die sie für diese Rolle brauchen, sind Kommunikationsfähigkeit, strategisches Denken und die Fähigkeit, persönliche Beziehungen aufzubauen und zu erhalten.  

Außerdem verantworten sie das Enterprise Service Management, das Rahmenwerk, in dem Best Practices wie Knowledge Management, Workflow Management, Change Management, Service Level Management und andere Service-Management-Prozesse als Grundlage von Business Services vereinbart sind, und steuern den Outsourcing-Partner.  

„Früher haben Personalverantwortliche eher die Mitarbeitenden gesteuert, heute sind es mehr die Lieferanten. Dafür müssen sie die Prozessabläufe und Kommunikationskanäle genau kennen und eine Kultur für die Zusammenarbeit mit dem Dienstleister schaffen“, erklärt Richter. 

Neuausrichtung in fünf elementaren Schritten

Je nachdem, welche Hebel Unternehmen nutzen, können Business Services verschiedene Vorteile und Mehrwerte bieten. Um diese auszuschöpfen, sollten sie einer von der IT und dem Personalwesen gemeinsam entwickelten Vision folgen. Dabei hat sich ein Vorgehen in fünf Phasen bewährt: von der strategischen zur operativen Ebene. Am Anfang wird die Ausgangssituation analysiert und eine klare Strategie aufgestellt.  

Anschließend wird die Machbarkeit überprüft und ein detailliertes Konzept mit allen organisatorischen, technischen und finanziellen Aspekten entwickelt. Dann folgt die praktische Ausgestaltung, mit der unter anderem die genauen Strukturen, Prozesse und Verantwortlichkeiten festzulegen sind.  

Die Implementierung kann mit der Etablierung eines Shared Service Centers einhergehen; Mitarbeitende werden geschult und auf neue Prozesse und Aufgaben vorbereitet, technische Systeme und Tools getestet. Das geht vollständig remote.  

Nach der erfolgreichen Implementierung können Partner mit der Überwachung der Prozesse und nach dem Motto „Shift and Lift“ mit Weiterentwicklungen im Bereich Digitalisierung und Automatisierung betraut werden. Wichtig ist hier die enge Zusammenarbeit zwischen allen Beteiligten und die Gewöhnung an unterschiedliche Kulturen und Arbeitsweisen in Workshops, wenn die Experten zum Beispiel im (deutschsprachigen) Ausland sitzen.  

Mit einem 5-Phasen-Modell lassen sich Shared Services und BPO ganzheitlich und individuell umsetzen. MHP

Wie IT und Personaler voneinander profitieren​ Weiterlesen »

Nach oben scrollen
×