Computerhaus Quickborn

Allgemein

Der GenAI-Wahn nimmt kein gutes Ende​

Allgemein

Irgendwann platzt jede Blase.Zhane Luk | shutterstock.com Keine Ahnung wie es Ihnen geht, aber ich habe schon länger die Nase voll vom Hype rund um Generative AI (GenAI). Ich nutze die Technologie selbst seit einiger Zeit und habe für meine Zwecke ein paar gute Anwendungsfälle gefunden (in erster Linie Suchmaschinen zu ersetzen). Aber die Technologie wird ihren Verheißungen bislang einfach nicht gerecht. Nicht einmal ansatzweise. Das liegt nicht nur an meiner Perspektive: Auch IBM kommt in einer aktuellen Umfrage unter 2.000 CEOs zu dem Ergebnis, dass lediglich 25 Prozent aller KI-Initiativen in den letzten Jahren den erwarteten Return on Investment (RoI) erzielt haben. Mit 52 Prozent hat auch nur etwas mehr als die Hälfte der Befragten durch generative KI bislang Mehrwert generiert, der über Kostensenkungen hinausgeht. Doch damit nicht genug: 64 Prozent der befragten CEOs geben in der Big-Blue-Umfrage zu, Technologieinvestitionen anzuschieben, bevor überhaupt klar ist, ob die irgendeinen Mehrwert fürs Business versprechen. Würde diese Rechnung mit Blick auf GenAI im Vorfeld aufgemacht, hätte wohl kaum ein Unternehmen eine Initiative in diesem Bereich am Start. Denn die bislang von den KI-Anbietern getätigten Investitionen und erzielten Ergebnisse demonstrieren, dass die Technologie weit davon entfernt ist, profitabel zu sein. “Das verkauft sich sicher!” So hat zum Beispiel Microsoft Copilot zum Mittelpunkt seiner Preispläne für Endbenutzer gemacht. Die Nutzer nehmen das Tool allerdings nicht an: Wie das Tech-Portal Newcomer berichtet, sollen die Nutzerzahlen von Microsoft Copilot bei etwa 20 Millionen wöchentlichen Nutzern stagnieren. Von exponentiellem Wachstum a la Open AI keine Spur. Auch Microsoft-CEO Satya Nadella musste vor kurzem einräumen, dass es immer noch keine „Killer-App“ für generative KI gibt. Gut, dass ihm das aufgefallen ist, nachdem er zehn Milliarden in die Technologie gebuttert hat. Dass es keinen Weg zur GenAI-Profitabilität eröffnet, einfach sämtliche Microsoft-Anwendungen um Copilot-Funktionen zu erweitern, hätte ich auch schon vor einem Jahr verraten können – völlig kostenlos. Und die Redmonder sind nicht alleine mit diesem Problem: Den steigenden Investitionen und raschem Umsatzwachstum in einigen, wenigen Sektoren zum Trotz, haben die meisten GenAI-Anbieter mit viel hohen Betriebskosten zu kämpfen – ohne zu wissen, wie und ob sich langfristiger, finanzieller Erfolg einstellen wird. Das betrifft selbst den GenAI-Primus OpenAI: Das Unternehmen soll im Jahr 2024 rund neun Milliarden Dollar investiert haben – bei einem Umsatz von etwa vier Milliarden Dollar. Laut dem Tech-Zyniker Edward Zitron zahlt die ChatGPT-Company so – trotz steigender Abonnentenzahlen – immer noch bei jedem zahlenden Kunden massiv obendrauf und verbrennt so Milliarden. Wenn die Bilanz von OpenAI so aussieht, wird einem beim Gedanken an die kleineren Generative-AI-Anbieter Angst und Bange. Wobei Ausnahmen die Regel bestätigen: So setzt etwa das US-Unternehmen Tempus AI die Technologie in der Präzisionsmedizin ein und konnte für das erste Quartal 2025 einen Umsatzanstieg von mehr als 75 Prozent vermelden. Diese beeindruckende finanzielle Dynamik hängt in erster Linie damit zusammen, dass sich die Amerikaner auf einen spezifischen Anwendungsfall konzentrieren – und für diesen massive Verbesserungen erzielt. Unternehmen, die der Illusion erliegen, generative KI könne auf magische Art und Weise einfach alles optimieren, dürften auch in Zukunft weiter Lichtjahre davon entfernt, rentabel zu sein. Natürlich ist auch Nvidia der (KI-)Erfolg ebenfalls nicht abzusprechen. Allerdings verkauft der GPU-Gigant seine Produkte in erster Linie an GenAI-(Service-)Anbieter und nicht die Endverbraucher. Solange also Firmen wie OpenAI und Anthropic von Risikokapitalgebern weiter mit Milliarden versorgt werden, wird auch für Nvidia kein Problem entstehen. Anders dürfte es aussehen, wenn die Geldgeber erste Zweifel beschleichen, ob am Ende des GenAI-Regenbogens tatsächlich der große Business-Goldtopf wartet. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Der GenAI-Wahn nimmt kein gutes Ende​ Irgendwann platzt jede Blase.Zhane Luk | shutterstock.com

Keine Ahnung wie es Ihnen geht, aber ich habe schon länger die Nase voll vom Hype rund um Generative AI (GenAI). Ich nutze die Technologie selbst seit einiger Zeit und habe für meine Zwecke ein paar gute Anwendungsfälle gefunden (in erster Linie Suchmaschinen zu ersetzen). Aber die Technologie wird ihren Verheißungen bislang einfach nicht gerecht. Nicht einmal ansatzweise.

Das liegt nicht nur an meiner Perspektive: Auch IBM kommt in einer aktuellen Umfrage unter 2.000 CEOs zu dem Ergebnis, dass lediglich 25 Prozent aller KI-Initiativen in den letzten Jahren den erwarteten Return on Investment (RoI) erzielt haben. Mit 52 Prozent hat auch nur etwas mehr als die Hälfte der Befragten durch generative KI bislang Mehrwert generiert, der über Kostensenkungen hinausgeht. Doch damit nicht genug: 64 Prozent der befragten CEOs geben in der Big-Blue-Umfrage zu, Technologieinvestitionen anzuschieben, bevor überhaupt klar ist, ob die irgendeinen Mehrwert fürs Business versprechen.

Würde diese Rechnung mit Blick auf GenAI im Vorfeld aufgemacht, hätte wohl kaum ein Unternehmen eine Initiative in diesem Bereich am Start. Denn die bislang von den KI-Anbietern getätigten Investitionen und erzielten Ergebnisse demonstrieren, dass die Technologie weit davon entfernt ist, profitabel zu sein.

“Das verkauft sich sicher!”

So hat zum Beispiel Microsoft Copilot zum Mittelpunkt seiner Preispläne für Endbenutzer gemacht. Die Nutzer nehmen das Tool allerdings nicht an: Wie das Tech-Portal Newcomer berichtet, sollen die Nutzerzahlen von Microsoft Copilot bei etwa 20 Millionen wöchentlichen Nutzern stagnieren. Von exponentiellem Wachstum a la Open AI keine Spur. Auch Microsoft-CEO Satya Nadella musste vor kurzem einräumen, dass es immer noch keine „Killer-App“ für generative KI gibt. Gut, dass ihm das aufgefallen ist, nachdem er zehn Milliarden in die Technologie gebuttert hat. Dass es keinen Weg zur GenAI-Profitabilität eröffnet, einfach sämtliche Microsoft-Anwendungen um Copilot-Funktionen zu erweitern, hätte ich auch schon vor einem Jahr verraten können – völlig kostenlos.

Und die Redmonder sind nicht alleine mit diesem Problem: Den steigenden Investitionen und raschem Umsatzwachstum in einigen, wenigen Sektoren zum Trotz, haben die meisten GenAI-Anbieter mit viel hohen Betriebskosten zu kämpfen – ohne zu wissen, wie und ob sich langfristiger, finanzieller Erfolg einstellen wird. Das betrifft selbst den GenAI-Primus OpenAI: Das Unternehmen soll im Jahr 2024 rund neun Milliarden Dollar investiert haben – bei einem Umsatz von etwa vier Milliarden Dollar. Laut dem Tech-Zyniker Edward Zitron zahlt die ChatGPT-Company so – trotz steigender Abonnentenzahlen – immer noch bei jedem zahlenden Kunden massiv obendrauf und verbrennt so Milliarden.

Wenn die Bilanz von OpenAI so aussieht, wird einem beim Gedanken an die kleineren Generative-AI-Anbieter Angst und Bange. Wobei Ausnahmen die Regel bestätigen: So setzt etwa das US-Unternehmen Tempus AI die Technologie in der Präzisionsmedizin ein und konnte für das erste Quartal 2025 einen Umsatzanstieg von mehr als 75 Prozent vermelden. Diese beeindruckende finanzielle Dynamik hängt in erster Linie damit zusammen, dass sich die Amerikaner auf einen spezifischen Anwendungsfall konzentrieren – und für diesen massive Verbesserungen erzielt. Unternehmen, die der Illusion erliegen, generative KI könne auf magische Art und Weise einfach alles optimieren, dürften auch in Zukunft weiter Lichtjahre davon entfernt, rentabel zu sein.

Natürlich ist auch Nvidia der (KI-)Erfolg ebenfalls nicht abzusprechen. Allerdings verkauft der GPU-Gigant seine Produkte in erster Linie an GenAI-(Service-)Anbieter und nicht die Endverbraucher. Solange also Firmen wie OpenAI und Anthropic von Risikokapitalgebern weiter mit Milliarden versorgt werden, wird auch für Nvidia kein Problem entstehen. Anders dürfte es aussehen, wenn die Geldgeber erste Zweifel beschleichen, ob am Ende des GenAI-Regenbogens tatsächlich der große Business-Goldtopf wartet. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Der GenAI-Wahn nimmt kein gutes Ende​ Weiterlesen »

Digitale Souveränität: Überlebensfaktor im KI-Zeitalter​

Allgemein

Nur gemeinsam können wir die Cloud-Wertschöpfungskette in Europa stärken! OVHcloud Die jüngsten geopolitischen Entwicklungen haben deutlich gemacht, wie verletzlich technologische Abhängigkeiten machen. Der Angriffskrieg Russlands gegen die Ukraine und die protektionistische Handelspolitik der USA zeigen: Strategische Autonomie ist keine abstrakte Idee, sondern eine Voraussetzung für Handlungsfähigkeit und Stabilität. Jahrzehntelang hat sich Europa auf globale Lieferketten verlassen – vor allem in der Informations- und Kommunikationstechnologie. Jetzt ist der Moment gekommen, die digitale Selbstbestimmung zur Priorität zu machen. Ohne Not hat sich Europa in Schlüsseltechnologien von ausländischen Anbietern abhängig gemacht. Viele hier entwickelte Patente werden im Ausland zur Marktreife gebracht und kehren als fertige Produkte zurück. Trotz ihrer wirtschaftlichen Stärke bezieht die EU zentrale Technologien wie Smartphones, Halbleiter und KI fast ausschließlich aus dem Ausland. Diese Abhängigkeit ist gefährlich, denn sie hat erhebliche Auswirkungen auf unsere Daten, unsere Privatsphäre, unsere wirtschaftliche Zukunft – auf unsere strategisch überlebenswichtige Autonomie. Die Cloud bildet die Basis für KI und digitale Autonomie Mehr als 70 Prozent der europäischen Cloud-Infrastruktur befinden sich in den Händen amerikanischer und chinesischer Anbieter. Diese Abhängigkeit birgt für Unternehmen wie für Privatpersonen tiefgreifende rechtliche Risiken. Sowohl chinesische als auch US-amerikanische Anbieter sind ihren Regierungen, respektive den Geheimdiensten gegenüber zur Offenlegung auch sensibler Daten verpflichtet. Schlimmer noch: Europäer haben nicht nur die Kontrolle über ihre Daten verloren, sie laufen auch Gefahr durch die Abschaltung ihrer Cloud-Services in den wirtschaftlichen Ruin getrieben zu werden. Es ist daher alternativlos, so schnell wie möglich die Kontrolle über diese Infrastrukturen zurückzuerlangen. Dabei kommt den europäischen Cloud-Anbietern eine wichtige Rolle zu. Durch den Aufbau einer offenen und vertrauenswürdigen Cloud, die Agilität und kontinuierliche Innovation vereint, bilden sie die Basis für den Schutz unserer europäischen Daten und Aktivitäten. WERDEN SIE TEIL DER BEWEGUNG – DISKUTIEREN SIE MIT UNS DIE ZUKUNFT EUROPAS AUF DEM ECOSYSTEM SUMMIT 2025. Europäische Wertschöpfungskette für Daten und Cloud aufbauen Dazu muss die gesamte Cloud-Wertschöpfungskette in Europa gestärkt werden. Nur so ist es möglich, europäischen Unternehmen eine glaubwürdige und langfristig sichere Alternative zu bieten. Ziel muss es sein, so schnell wie möglich robuste, widerstandsfähige Cloud-Lösungen, die höchsten Sicherheits- und technischen Standards entsprechen, zu entwickeln und zu unterstützen. Darauf können souveräne KI-Services aufbauen. Wir brauchen einen «>Buy European Tech Act»In der öffentlichen Verwaltung dominieren weiterhin Cloud-Angebote aus dem Ausland. Ein erster Schritt wäre, gesetzlich vorzuschreiben, dass europäische Alternativen vor jeder Vergabe geprüft werden. Die gezielte Priorisierung europäischer Lösungen kann einen positiven Kreislauf aus Wachstum, Investitionen und Innovation anstoßen. Die Konsolidierung von Marktanteilen sorgt für eine Erhöhung der F&E-Investitionen der europäischen Anbieter, was wiederum zu verbesserten, wettbewerbsfähigeren Angeboten führt. Ein „Buy European Tech Act“ könnte helfen, für fairen Wettbewerb zu sorgen. Die Beschaffung im Public Sector ist aber nur ein Pfeiler für den Aufbau einer europäischen Datensouveränität. Spätestens durch die aktuelle Zolldiskussion ist die Geopolitik in den Führungsgremien und Vorständen europäischer Unternehmen angekommen. Jede technologische Entscheidung beeinflusst die Widerstandsfähigkeit des eigenen und des gesamten europäischen Ökosystems. Der Schutz von Daten und digitalen Diensten ist heute mehr denn je eine Frage der Unabhängigkeit und der Souveränität. Unternehmen, die sich für europäische Cloud- und KI-Lösungen entscheiden, leisten einen aktiven Beitrag zur Sicherung unserer kollektiven Autonomie. Europa hat das Potenzial, seine digitale Transformation erfolgreich zu gestalten: brillante Köpfe, Spitzentechnologien, erstklassige Forschungskapazitäten und eine große Anzahl innovativer Technologieunternehmen. Wir haben die Fähigkeiten, die digitale Welt aktiv nach europäischen Werten und Grundsätzen zu gestalten. Entscheidend ist jetzt, dass wir unsere Kräfte bündeln. Lassen Sie uns die europäischen IT-Unternehmen auf die Bühne holen und über europäische Lösungen sprechen! Einladung zum Ecosystem Summit 2025: Gemeinsam europäische IT-Helden feiern OVHcloud lädt Sie herzlich zur Veranstaltung Ecosystem Summit 2025 – European AI Heroes ein – eine Bühne für europäische Erfolgsgeschichten rund um die Themen Cloud und künstliche Intelligenz. Lassen Sie uns gemeinsam unsere europäischen Partner feiern, europäische Lösungen kennenlernen und diskutieren, wie wir Europas digitalen Weg selbstbestimmt und souverän gestalten können.   Auf dem Ecosystem Summit 2025 treffen sich die europäischen Tech-Champions, Seien auch Sie mit dabei!OVHcloud Am 26. Juni 2025 trifft sich unser gesamtes Tech-Ökosystem in Köln, und es wird viele spannende Panels, Vorträge und ein gesamtes Rahmenprogramm mit Networking geben. Seien auch Sie dabei und sprechen Sie mit uns über die Zukunft Europas: Zur Veranstaltung anmelden! 

Digitale Souveränität: Überlebensfaktor im KI-Zeitalter​ Nur gemeinsam können wir die Cloud-Wertschöpfungskette in Europa stärken!
OVHcloud

Die jüngsten geopolitischen Entwicklungen haben deutlich gemacht, wie verletzlich technologische Abhängigkeiten machen. Der Angriffskrieg Russlands gegen die Ukraine und die protektionistische Handelspolitik der USA zeigen: Strategische Autonomie ist keine abstrakte Idee, sondern eine Voraussetzung für Handlungsfähigkeit und Stabilität. Jahrzehntelang hat sich Europa auf globale Lieferketten verlassen – vor allem in der Informations- und Kommunikationstechnologie. Jetzt ist der Moment gekommen, die digitale Selbstbestimmung zur Priorität zu machen.

Ohne Not hat sich Europa in Schlüsseltechnologien von ausländischen Anbietern abhängig gemacht. Viele hier entwickelte Patente werden im Ausland zur Marktreife gebracht und kehren als fertige Produkte zurück. Trotz ihrer wirtschaftlichen Stärke bezieht die EU zentrale Technologien wie Smartphones, Halbleiter und KI fast ausschließlich aus dem Ausland. Diese Abhängigkeit ist gefährlich, denn sie hat erhebliche Auswirkungen auf unsere Daten, unsere Privatsphäre, unsere wirtschaftliche Zukunft – auf unsere strategisch überlebenswichtige Autonomie.

Die Cloud bildet die Basis für KI und digitale Autonomie

Mehr als 70 Prozent der europäischen Cloud-Infrastruktur befinden sich in den Händen amerikanischer und chinesischer Anbieter. Diese Abhängigkeit birgt für Unternehmen wie für Privatpersonen tiefgreifende rechtliche Risiken. Sowohl chinesische als auch US-amerikanische Anbieter sind ihren Regierungen, respektive den Geheimdiensten gegenüber zur Offenlegung auch sensibler Daten verpflichtet. Schlimmer noch: Europäer haben nicht nur die Kontrolle über ihre Daten verloren, sie laufen auch Gefahr durch die Abschaltung ihrer Cloud-Services in den wirtschaftlichen Ruin getrieben zu werden.

Es ist daher alternativlos, so schnell wie möglich die Kontrolle über diese Infrastrukturen zurückzuerlangen. Dabei kommt den europäischen Cloud-Anbietern eine wichtige Rolle zu. Durch den Aufbau einer offenen und vertrauenswürdigen Cloud, die Agilität und kontinuierliche Innovation vereint, bilden sie die Basis für den Schutz unserer europäischen Daten und Aktivitäten.

WERDEN SIE TEIL DER BEWEGUNG – DISKUTIEREN SIE MIT UNS DIE ZUKUNFT EUROPAS AUF DEM ECOSYSTEM SUMMIT 2025.

Europäische Wertschöpfungskette für Daten und Cloud aufbauen

Dazu muss die gesamte Cloud-Wertschöpfungskette in Europa gestärkt werden. Nur so ist es möglich, europäischen Unternehmen eine glaubwürdige und langfristig sichere Alternative zu bieten. Ziel muss es sein, so schnell wie möglich robuste, widerstandsfähige Cloud-Lösungen, die höchsten Sicherheits- und technischen Standards entsprechen, zu entwickeln und zu unterstützen. Darauf können souveräne KI-Services aufbauen.

Wir brauchen einen «>Buy European Tech Act»In der öffentlichen Verwaltung dominieren weiterhin Cloud-Angebote aus dem Ausland. Ein erster Schritt wäre, gesetzlich vorzuschreiben, dass europäische Alternativen vor jeder Vergabe geprüft werden. Die gezielte Priorisierung europäischer Lösungen kann einen positiven Kreislauf aus Wachstum, Investitionen und Innovation anstoßen. Die Konsolidierung von Marktanteilen sorgt für eine Erhöhung der F&E-Investitionen der europäischen Anbieter, was wiederum zu verbesserten, wettbewerbsfähigeren Angeboten führt. Ein „Buy European Tech Act“ könnte helfen, für fairen Wettbewerb zu sorgen.

Die Beschaffung im Public Sector ist aber nur ein Pfeiler für den Aufbau einer europäischen Datensouveränität. Spätestens durch die aktuelle Zolldiskussion ist die Geopolitik in den Führungsgremien und Vorständen europäischer Unternehmen angekommen. Jede technologische Entscheidung beeinflusst die Widerstandsfähigkeit des eigenen und des gesamten europäischen Ökosystems. Der Schutz von Daten und digitalen Diensten ist heute mehr denn je eine Frage der Unabhängigkeit und der Souveränität. Unternehmen, die sich für europäische Cloud- und KI-Lösungen entscheiden, leisten einen aktiven Beitrag zur Sicherung unserer kollektiven Autonomie.

Europa hat das Potenzial, seine digitale Transformation erfolgreich zu gestalten: brillante Köpfe, Spitzentechnologien, erstklassige Forschungskapazitäten und eine große Anzahl innovativer Technologieunternehmen. Wir haben die Fähigkeiten, die digitale Welt aktiv nach europäischen Werten und Grundsätzen zu gestalten. Entscheidend ist jetzt, dass wir unsere Kräfte bündeln.

Lassen Sie uns die europäischen IT-Unternehmen auf die Bühne holen und über europäische Lösungen sprechen!

Einladung zum Ecosystem Summit 2025: Gemeinsam europäische IT-Helden feiern

OVHcloud lädt Sie herzlich zur Veranstaltung Ecosystem Summit 2025 – European AI Heroes ein – eine Bühne für europäische Erfolgsgeschichten rund um die Themen Cloud und künstliche Intelligenz. Lassen Sie uns gemeinsam unsere europäischen Partner feiern, europäische Lösungen kennenlernen und diskutieren, wie wir Europas digitalen Weg selbstbestimmt und souverän gestalten können.

 

Auf dem Ecosystem Summit 2025 treffen sich die europäischen Tech-Champions, Seien auch Sie mit dabei!OVHcloud

Am 26. Juni 2025 trifft sich unser gesamtes Tech-Ökosystem in Köln, und es wird viele spannende Panels, Vorträge und ein gesamtes Rahmenprogramm mit Networking geben. Seien auch Sie dabei und sprechen Sie mit uns über die Zukunft Europas:

Zur Veranstaltung anmelden!

Digitale Souveränität: Überlebensfaktor im KI-Zeitalter​ Weiterlesen »

IT-Vergütung: KI-Experten auf der Überholspur​

Allgemein

Die Bezüge für KI- und ML-Spezialisten sind in den zurückliegenden Jahren deutlich gestiegen – ein Trend, der aufgrund des Fachkräftemangels auch weiterhin anhalten wird. Wanan Wanan – Shutterstock 2419122211 Eine aktuelle Sonderauswertung von Gehältern in der IT-Branche kommt zu dem Ergebnis, dass die Vergütung für KI- und ML-Experten mit drei bis fünf Jahren Berufserfahrung in vielen europäischen Ländern signifikant höher ist als die ihrer Kollegen in der Jobfamilie Research & Developement (R&D). Mercers Analyse beruht auf der Auswertung einer umfassenden Datenbasis von mehr als 900 Unternehmen aus 24 Ländern.  Die Grafik zeigt die Grundvergütungsniveaus für Experten im Bereich KI und ML im Vergleich zu gleichwertigen Positionen im Bereich Forschung und Entwicklung (R&D) in ausgewählten Ländern für die Jahre 2024 und 2025. Es fällt auf, dass in Ländern wie Frankreich, dem Vereinigten Königreich und Deutschland das Grundeinkommen im KI- und ML-Bereich deutlich über dem Durchschnitt der R&D-Positionen liegen. Diese Differenz spiegelt die Wertigkeit der spezialisierten Fähigkeiten dieser Fachkräfte wider. Sie ist auch eine direkte Reaktion auf den weiterhin bestehenden Mangel an Talenten in diesen zukunftsträchtigen Bereichen.  Die Grafik zeigt das Grundvergütungsniveau für Experten (Berufserfahrung rund drei bis fünf Jahre) im Bereich KI & ML im Vergleich zu gleichwertigen Positionen im Bereich Forschung & Entwicklung in ausgewählten Ländern in den Jahren 2024 und 2025 (Quelle: Mercer  Comptryx Q1 2024 und Q1 2025) Mercer Comptryx Zudem zeigt die Grafik, dass die Gehälter für KI- und ML-Experten in den meisten untersuchten Ländern um bis zu 20 Prozent höher über jenen für vergleichbare R&D-Positionen liegen. Und mehr noch: Die Bezüge für KI- und ML-Fachkräfte sind in den zurückliegenden Jahren deutlich gestiegen. Die Beratungspraxis legt nahe, dass dieser Trend anhält – während die Gehälter im Bereich Forschung und Entwicklung deutlich moderater gewachsen sind. Unternehmen sind also bereit, weiter in qualifizierte Kräfte zu investieren, um in einem zunehmend technologiegetriebenen Markt ihre Wettbewerbsfähigkeit zu sichern.   Diese Unterschiede in den Gehältern sind nicht nur auf spezielle Fachkenntnisse zurückzuführen, sondern auch auf die strategische Bedeutung dieser Technologien für Unternehmen. In einer Zeit, in der digitale Transformation und Innovation an der Tagesordnung sind, wiegt die Rolle von KI und ML schwerer denn je – was sich auch in den Vergütungsstrukturen widerspiegelt.  

IT-Vergütung: KI-Experten auf der Überholspur​ Die Bezüge für KI- und ML-Spezialisten sind in den zurückliegenden Jahren deutlich gestiegen – ein Trend, der aufgrund des Fachkräftemangels auch weiterhin anhalten wird. Wanan Wanan – Shutterstock 2419122211

Eine aktuelle Sonderauswertung von Gehältern in der IT-Branche kommt zu dem Ergebnis, dass die Vergütung für KI- und ML-Experten mit drei bis fünf Jahren Berufserfahrung in vielen europäischen Ländern signifikant höher ist als die ihrer Kollegen in der Jobfamilie Research & Developement (R&D). Mercers Analyse beruht auf der Auswertung einer umfassenden Datenbasis von mehr als 900 Unternehmen aus 24 Ländern. 

Die Grafik zeigt die Grundvergütungsniveaus für Experten im Bereich KI und ML im Vergleich zu gleichwertigen Positionen im Bereich Forschung und Entwicklung (R&D) in ausgewählten Ländern für die Jahre 2024 und 2025. Es fällt auf, dass in Ländern wie Frankreich, dem Vereinigten Königreich und Deutschland das Grundeinkommen im KI- und ML-Bereich deutlich über dem Durchschnitt der R&D-Positionen liegen. Diese Differenz spiegelt die Wertigkeit der spezialisierten Fähigkeiten dieser Fachkräfte wider. Sie ist auch eine direkte Reaktion auf den weiterhin bestehenden Mangel an Talenten in diesen zukunftsträchtigen Bereichen. 

Die Grafik zeigt das Grundvergütungsniveau für Experten (Berufserfahrung rund drei bis fünf Jahre) im Bereich KI & ML im Vergleich zu gleichwertigen Positionen im Bereich Forschung & Entwicklung in ausgewählten Ländern in den Jahren 2024 und 2025 (Quelle: Mercer  Comptryx Q1 2024 und Q1 2025) Mercer Comptryx

Zudem zeigt die Grafik, dass die Gehälter für KI- und ML-Experten in den meisten untersuchten Ländern um bis zu 20 Prozent höher über jenen für vergleichbare R&D-Positionen liegen. Und mehr noch: Die Bezüge für KI- und ML-Fachkräfte sind in den zurückliegenden Jahren deutlich gestiegen. Die Beratungspraxis legt nahe, dass dieser Trend anhält – während die Gehälter im Bereich Forschung und Entwicklung deutlich moderater gewachsen sind. Unternehmen sind also bereit, weiter in qualifizierte Kräfte zu investieren, um in einem zunehmend technologiegetriebenen Markt ihre Wettbewerbsfähigkeit zu sichern.  

Diese Unterschiede in den Gehältern sind nicht nur auf spezielle Fachkenntnisse zurückzuführen, sondern auch auf die strategische Bedeutung dieser Technologien für Unternehmen. In einer Zeit, in der digitale Transformation und Innovation an der Tagesordnung sind, wiegt die Rolle von KI und ML schwerer denn je – was sich auch in den Vergütungsstrukturen widerspiegelt. 

IT-Vergütung: KI-Experten auf der Überholspur​ Weiterlesen »

10 grobe DevOps-Schnitzer​

Allgemein

Folgenschwere Fehler können die Delivery erheblich beeinträchtigen. Foto: ungvar | shutterstock.com Weil immer mehr Unternehmen danach streben, ihre Entwicklungsprozesse möglichst effizient zu gestalten, erfreut sich der DevOps-Ansatz wachsender Beliebtheit. Laut einer Prognose der Analysten von Research and Markets soll der globale DevOps-Markt bis zum Jahr 2030 rund 32 Milliarden Dollar schwer sein (2023: 10,6 Milliarden Dollar) – bei einer jährlichen Wachstumsrate von 14,9 Prozent. Ohne Zweifel können ein DevOps-Ansatz und die zugehörigen Methoden dazu beitragen, Software schneller auf den Markt sowie IT- und Ops-Teams näher zusammenzubringen. Auf bestimmte, besonders gravierende Fehler, beziehungsweise “Zustände”, sollten Sie dabei allerdings tunlichst verzichten. Wenn Sie sich nicht selbst sabotieren wollen. Lesen Sie, welche. 1. Devs und Ops, die nicht kommunizieren Obwohl das DevOps-Konzept vorsieht, eine bessere Zusammenarbeit und Kommunikation zwischen Entwicklungs- und Betriebs-Teams zu realisieren, stellt die Implementierung für einige Firmen eine große Hürde dar. Lawrence Guyot, President beim IT-Dienstleister ETTE, liefert Erklärungsansätze, woran das liegt: “In der Vergangenheit haben diese Einheiten in Silos gearbeitet. Das hat in der Regel zu vielen Ineffizienzen und Missverständnissen geführt.” In seinem Unternehmen habe man deswegen einen funktionsübergreifenden Teamansatz eingeführt, der Mitglieder beider Teams in alle Phasen des Produktlebenszyklus einbeziehe – von der Planung bis hin zum Deployment. Mit dem Ergebnis zeigt sich Guyot zufrieden: “Das hat zu kohärenteren Workflows geführt und die Deployment-Zeit um 30 Prozent verkürzt.” Auch Javier Muniz, CTO der Anwaltskanzlei LLCAttorney.com, betrachtet die effektive Kommunikation zwischen Devs und Ops als wesentliche Challenge – sieht diesbezüglich aber auch die Unternehmen in der Pflicht: “Viele Unternehmen unterschätzen, wie wertvoll Soft Skills in einer DevOps-Umgebung sind. Um die Kommunikation zwischen Devs und Ops in Gang zu bekommen, ist es unerlässlich, ein transparentes und kommunikationsförderliches Umfeld zu schaffen.” 2. Security, die zweitrangig ist Eine andere DevOps-Herausforderung besteht darin, die Sicherheit der Softwarelieferkette zu gewährleisten. Auch zu diesem Aspekt hat ETTE-President Guyot sowohl eine Erklärung als auch einen möglichen Lösungsansatz beizutragen: “Die Geschwindigkeit, mit der DevOps-Teams arbeiten, kann dazu führen, dass wichtige Sicherheits-Checks unter den Tisch fallen. Bei ETTE haben wir dieses Problem gelöst, indem wir automatisierte Security-Tools direkt in unsere CI/CD-Pipeline integriert haben. Das gewährleistet in jeder Entwicklungsphase Security Assessments in Echtzeit.” Diese Integration habe den IT-Dienstleister nicht nur dabei unterstützt, Schwachstellen frühzeitig zu erkennen, sondern stelle laut Guyot auch sicher, dass die Security-Praktiken mit den beschleunigten Deployment-Zyklen Schritt hielten. Besonders wichtig sind die Bereiche Datenschutz und Sicherheit in stark regulierten Branchen. Das weiß David Pumphrey, CEO des Healthcare-orientierten IT-Dienstleisters Riveraxe, aus eigener Erfahrung. Sein Unternehmen setzt deshalb ebenfalls auf eine tiefe Security-Integration in jeder Phase des DevOps-Prozesses sowie Security-Automation- und Compliance-Monitoring-Tools. “Indem wir die Sicherheit als integralen Bestandteil des Dev- und Ops-Prozesses betrachten, haben wir das Risiko von Datenschutzverletzungen erheblich minimiert”, so der Manager. 3. Komplexität, die nicht skaliert IT-Infrastrukturen werden immer komplexer, insbesondere in großen Unternehmen: Die Kombination aus Hybrid- und Remote-Arbeit, der Ressourcenverlagerung in die Cloud und dem verstärkten Einsatz mobiler Geräte hat Folgen für DevOps-Teams, wie Guyot erklärt: “Die Komplexität moderner IT-Infrastrukturen managen zu müssen, kann für DevOps-Teams entmutigend sein.” Guyots Unternehmen ETTE investierte aus diesem Grund in die Schulung seiner DevOps-Spezialisten – und legte dabei den Fokus auf fortschrittliche Cloud-Infrastrukturen und -Services. Auch das erwies sich als Erfolg, wie Guyot ausführt: “So konnten wir unseren Betrieb skalieren, ohne Kompromisse bei Performance oder Sicherheit einzugehen. Letztendlich hat sich unsere betriebliche Effizienz um 40 Prozent erhöht.” 4. Prioritäten, die an Geschäftszielen vorbeigehen Jede Technologie-Initiative, die nicht mit den Unternehmenszielen in Einklang steht, führt zwangsläufig zu suboptimalen Ergebnissen. Diesbezüglich bildet DevOps keine Ausnahme. “DevOps und Geschäftsziele aufeinander abzustimmen, kann erhebliche Hürden aufwerfen”, konstatiert auch Remon Elsayea, President beim IT-Dienstleister TechTrone IT Services. Er fügt hinzu: “Es wirkt oft so, als ob das rasante Tempo von DevOps-Initiativen die Abstimmung mit weiter gefassten Geschäftszielen erschwert. Das kann zu falsch gesetzten Prioritäten führen.” Er selbst setze deshalb darauf, regelmäßig funktionsübergreifende Teams zusammenzutrommeln, um die DevOps-Strategien im Kontext der aktuellen Geschäftsziele zu überprüfen und ein entsprechendes Alignment sicherzustellen, so Elsayea. 5. Neue Technologie, die stört Sowohl Tech-Spezialisten als auch Business-Anwender sind oft gleichermaßen erpicht darauf, mit den neuesten technologischen Innovationen zu experimentieren. Eine neue, aufstrebende Technologie in den DevOps-Zyklus zu integrieren, bevor überhaupt klar ist, ob sie zu den bestehenden Produkten passt, ist allerdings nicht empfehlenswert. Elsayea erklärt warum – und wie es besser geht: “Jedes zusätzliche Element kann die Komplexität steigern und zusätzliche Lernkurven einführen. Wir setzen deshalb auf einen ‘Proof of Concept‘-Ansatz, bevor wir neue Tools vollständig in unseren Workflow einbinden.” Das beinhaltet dem Manager zufolge auch kleinere Experimente, um den Impact und das Effizienzlevel neuer Technologien bewerten zu können: “So stellen wir sicher, dass sie unsere Prozesse bereichern, statt sie zu stören.” 6. Alte Technologie, die stört Aber auch Unternehmen, die älteren IT-Systemen verhaftet sind, dürften in vielen Fällen Schwierigkeiten damit bekommen, eine DevOps-Strategie umzusetzen. Riveraxe-CEO Pumphrey erklärt: “Legacy-Systeme mit modernen DevOps-Methoden zu integrieren, ist eine bemerkenswerte Herausforderung. Hierbei entstehen in vielen Fällen Bottlenecks, weil es Altsystemen oft an der für eine nahtlose Pipeline nötigen Agilität mangelt.” Um dieses Problem zu lösen, entschied man sich bei Pumphreys Arbeitgeber Riveraxe für ein schrittweises Vorgehen, bei dem die Legacy-Systeme in APIs “verpackt” wurden. “So konnten wir nicht nur wichtige Funktionen erhalten, sondern auch die Abläufe straffen und die Deployment-Zeit um etwa 20 Prozent verkürzen”, freut sich der CEO. 7. Kultur, die verhindert DevOps heißt Change – und Veränderungen können sich schwierig gestalten. Der mögliche kulturelle Widerstand ist nicht zu unterschätzen – wie auch Pumphrey feststellen musste: “Eine Kultur zu verankern, die die DevOps-Philosophie vollständig miteinbezieht, war ein kontinuierlicher Prozess. Anfänglich hatten wir mit Widerstand gegen den schnellen Wandel und die damit verbundene Collaboration zu kämpfen.” Entgegengewirkt habe man mit umfassenden Schulungsprogrammen und klar strukturierten Kommunikationskanälen, um allen Teammitgliedern die Vorteile des DevOps-Ansatzes zu demonstrieren. Dabei habe man Erfolge wie Misserfolge im Sinne einer kontinuierlichen Verbesserung genutzt, so der CEO: “Dieser Ansatz hat nicht nur die Teamdynamik verbessert, sondern auch zu innovativeren Lösungen und einer widerstandsfähigeren IT-Infrastruktur geführt.” 8. Remote-Arbeit, die spaltet Seit der Pandemie ist es zum Unternehmensalltag geworden, dass Teile der Belegschaft zumindest zeitweise außerhalb des Büros arbeiten. Der Trend zu Remote- und Hybrid Work bleibt auch für die Entwicklungsabteilung nicht ohne Folgen. “Dezentrale DevOps-Teams zu managen, hat uns in Sachen Kommunikation, Kollaboration und Überblick vor spezielle Herausforderungen gestellt”, gibt Reade Taylor, Gründer des Managed Service Providers Cyber Command, ohne Umschweife zu. Seine Lösung: “Wir haben robuste Richtlinien für die Remote-Arbeit eingeführt, Tools und Plattformen eingesetzt, um die Zusammenarbeit zu fördern und eine Kultur des Vertrauens und der Autonomie gepflegt.” Dabei sorgten laut Taylor regelmäßige virtuelle Check-Ins sowie eine klare Prozessdokumentation dafür, dass die Remote-Teams vernetzt, produktiv und auf die Unternehmensziele ausgerichtet blieben. 9. Devs und Ops, die unterschiedliche Ziele verfolgen Wenn Dev- und Ops-Teams mit Blick auf die Entwicklungsziele konträre Auffassungen vertreten, kann das zu einer weiteren, gewichtigen DevOps-Hürde führen. LLCAttorney-CTO Muniz weist auf eine Ursache dieses Übels hin: “Entwicklungsteams streben nach schnellen Veränderungen, Betriebsteams nach Stabilität.” Eine Lösung für dieses Problem sieht er in der Verankerung des Shared-Responsibility-Prinzips – Devs und Ops müssten von der Projektinitiierung bis zur endgültigen Implementierung zusammenarbeiten. 10. Automatisieren, weil das “gegen alles hilft” Unternehmen aller Branchen und Größen versuchen, ihre IT- und Geschäftsprozesse zu automatisieren. Das realisiert zahlreiche Vorteile, wirft jedoch auch weitere, unerwartete DevOps-Herausforderungen auf. “Nicht alle Prozesse sind dazu geeignet, automatisiert zu werden. Der Versuch, das zu erzwingen, kann zu Ineffizienz führen”, warnt Technologieentscheider Muniz und fügt hinzu: “Automatisierung ist kein Alles-oder-Nichts-Konzept. Zeit und Ressourcen spart man nur, wenn man die richtigen Prozesse dafür identifiziert.” (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

10 grobe DevOps-Schnitzer​ Folgenschwere Fehler können die Delivery erheblich beeinträchtigen.
Foto: ungvar | shutterstock.com

Weil immer mehr Unternehmen danach streben, ihre Entwicklungsprozesse möglichst effizient zu gestalten, erfreut sich der DevOps-Ansatz wachsender Beliebtheit. Laut einer Prognose der Analysten von Research and Markets soll der globale DevOps-Markt bis zum Jahr 2030 rund 32 Milliarden Dollar schwer sein (2023: 10,6 Milliarden Dollar) – bei einer jährlichen Wachstumsrate von 14,9 Prozent.

Ohne Zweifel können ein DevOps-Ansatz und die zugehörigen Methoden dazu beitragen, Software schneller auf den Markt sowie IT- und Ops-Teams näher zusammenzubringen. Auf bestimmte, besonders gravierende Fehler, beziehungsweise “Zustände”, sollten Sie dabei allerdings tunlichst verzichten. Wenn Sie sich nicht selbst sabotieren wollen. Lesen Sie, welche.

1. Devs und Ops, die nicht kommunizieren

Obwohl das DevOps-Konzept vorsieht, eine bessere Zusammenarbeit und Kommunikation zwischen Entwicklungs- und Betriebs-Teams zu realisieren, stellt die Implementierung für einige Firmen eine große Hürde dar. Lawrence Guyot, President beim IT-Dienstleister ETTE, liefert Erklärungsansätze, woran das liegt: “In der Vergangenheit haben diese Einheiten in Silos gearbeitet. Das hat in der Regel zu vielen Ineffizienzen und Missverständnissen geführt.”

In seinem Unternehmen habe man deswegen einen funktionsübergreifenden Teamansatz eingeführt, der Mitglieder beider Teams in alle Phasen des Produktlebenszyklus einbeziehe – von der Planung bis hin zum Deployment. Mit dem Ergebnis zeigt sich Guyot zufrieden: “Das hat zu kohärenteren Workflows geführt und die Deployment-Zeit um 30 Prozent verkürzt.”

Auch Javier Muniz, CTO der Anwaltskanzlei LLCAttorney.com, betrachtet die effektive Kommunikation zwischen Devs und Ops als wesentliche Challenge – sieht diesbezüglich aber auch die Unternehmen in der Pflicht: “Viele Unternehmen unterschätzen, wie wertvoll Soft Skills in einer DevOps-Umgebung sind. Um die Kommunikation zwischen Devs und Ops in Gang zu bekommen, ist es unerlässlich, ein transparentes und kommunikationsförderliches Umfeld zu schaffen.”

2. Security, die zweitrangig ist

Eine andere DevOps-Herausforderung besteht darin, die Sicherheit der Softwarelieferkette zu gewährleisten. Auch zu diesem Aspekt hat ETTE-President Guyot sowohl eine Erklärung als auch einen möglichen Lösungsansatz beizutragen: “Die Geschwindigkeit, mit der DevOps-Teams arbeiten, kann dazu führen, dass wichtige Sicherheits-Checks unter den Tisch fallen. Bei ETTE haben wir dieses Problem gelöst, indem wir automatisierte Security-Tools direkt in unsere CI/CD-Pipeline integriert haben. Das gewährleistet in jeder Entwicklungsphase Security Assessments in Echtzeit.” Diese Integration habe den IT-Dienstleister nicht nur dabei unterstützt, Schwachstellen frühzeitig zu erkennen, sondern stelle laut Guyot auch sicher, dass die Security-Praktiken mit den beschleunigten Deployment-Zyklen Schritt hielten.

Besonders wichtig sind die Bereiche Datenschutz und Sicherheit in stark regulierten Branchen. Das weiß David Pumphrey, CEO des Healthcare-orientierten IT-Dienstleisters Riveraxe, aus eigener Erfahrung. Sein Unternehmen setzt deshalb ebenfalls auf eine tiefe Security-Integration in jeder Phase des DevOps-Prozesses sowie Security-Automation- und Compliance-Monitoring-Tools. “Indem wir die Sicherheit als integralen Bestandteil des Dev- und Ops-Prozesses betrachten, haben wir das Risiko von Datenschutzverletzungen erheblich minimiert”, so der Manager.

3. Komplexität, die nicht skaliert

IT-Infrastrukturen werden immer komplexer, insbesondere in großen Unternehmen: Die Kombination aus Hybrid- und Remote-Arbeit, der Ressourcenverlagerung in die Cloud und dem verstärkten Einsatz mobiler Geräte hat Folgen für DevOps-Teams, wie Guyot erklärt: “Die Komplexität moderner IT-Infrastrukturen managen zu müssen, kann für DevOps-Teams entmutigend sein.”

Guyots Unternehmen ETTE investierte aus diesem Grund in die Schulung seiner DevOps-Spezialisten – und legte dabei den Fokus auf fortschrittliche Cloud-Infrastrukturen und -Services. Auch das erwies sich als Erfolg, wie Guyot ausführt: “So konnten wir unseren Betrieb skalieren, ohne Kompromisse bei Performance oder Sicherheit einzugehen. Letztendlich hat sich unsere betriebliche Effizienz um 40 Prozent erhöht.”

4. Prioritäten, die an Geschäftszielen vorbeigehen

Jede Technologie-Initiative, die nicht mit den Unternehmenszielen in Einklang steht, führt zwangsläufig zu suboptimalen Ergebnissen. Diesbezüglich bildet DevOps keine Ausnahme. “DevOps und Geschäftsziele aufeinander abzustimmen, kann erhebliche Hürden aufwerfen”, konstatiert auch Remon Elsayea, President beim IT-Dienstleister TechTrone IT Services. Er fügt hinzu: “Es wirkt oft so, als ob das rasante Tempo von DevOps-Initiativen die Abstimmung mit weiter gefassten Geschäftszielen erschwert. Das kann zu falsch gesetzten Prioritäten führen.”

Er selbst setze deshalb darauf, regelmäßig funktionsübergreifende Teams zusammenzutrommeln, um die DevOps-Strategien im Kontext der aktuellen Geschäftsziele zu überprüfen und ein entsprechendes Alignment sicherzustellen, so Elsayea.

5. Neue Technologie, die stört

Sowohl Tech-Spezialisten als auch Business-Anwender sind oft gleichermaßen erpicht darauf, mit den neuesten technologischen Innovationen zu experimentieren. Eine neue, aufstrebende Technologie in den DevOps-Zyklus zu integrieren, bevor überhaupt klar ist, ob sie zu den bestehenden Produkten passt, ist allerdings nicht empfehlenswert. Elsayea erklärt warum – und wie es besser geht: “Jedes zusätzliche Element kann die Komplexität steigern und zusätzliche Lernkurven einführen. Wir setzen deshalb auf einen ‘Proof of Concept‘-Ansatz, bevor wir neue Tools vollständig in unseren Workflow einbinden.”

Das beinhaltet dem Manager zufolge auch kleinere Experimente, um den Impact und das Effizienzlevel neuer Technologien bewerten zu können: “So stellen wir sicher, dass sie unsere Prozesse bereichern, statt sie zu stören.”

6. Alte Technologie, die stört

Aber auch Unternehmen, die älteren IT-Systemen verhaftet sind, dürften in vielen Fällen Schwierigkeiten damit bekommen, eine DevOps-Strategie umzusetzen. Riveraxe-CEO Pumphrey erklärt: “Legacy-Systeme mit modernen DevOps-Methoden zu integrieren, ist eine bemerkenswerte Herausforderung. Hierbei entstehen in vielen Fällen Bottlenecks, weil es Altsystemen oft an der für eine nahtlose Pipeline nötigen Agilität mangelt.”

Um dieses Problem zu lösen, entschied man sich bei Pumphreys Arbeitgeber Riveraxe für ein schrittweises Vorgehen, bei dem die Legacy-Systeme in APIs “verpackt” wurden. “So konnten wir nicht nur wichtige Funktionen erhalten, sondern auch die Abläufe straffen und die Deployment-Zeit um etwa 20 Prozent verkürzen”, freut sich der CEO.

7. Kultur, die verhindert

DevOps heißt Change – und Veränderungen können sich schwierig gestalten. Der mögliche kulturelle Widerstand ist nicht zu unterschätzen – wie auch Pumphrey feststellen musste: “Eine Kultur zu verankern, die die DevOps-Philosophie vollständig miteinbezieht, war ein kontinuierlicher Prozess. Anfänglich hatten wir mit Widerstand gegen den schnellen Wandel und die damit verbundene Collaboration zu kämpfen.”

Entgegengewirkt habe man mit umfassenden Schulungsprogrammen und klar strukturierten Kommunikationskanälen, um allen Teammitgliedern die Vorteile des DevOps-Ansatzes zu demonstrieren. Dabei habe man Erfolge wie Misserfolge im Sinne einer kontinuierlichen Verbesserung genutzt, so der CEO: “Dieser Ansatz hat nicht nur die Teamdynamik verbessert, sondern auch zu innovativeren Lösungen und einer widerstandsfähigeren IT-Infrastruktur geführt.”

8. Remote-Arbeit, die spaltet

Seit der Pandemie ist es zum Unternehmensalltag geworden, dass Teile der Belegschaft zumindest zeitweise außerhalb des Büros arbeiten. Der Trend zu Remote- und Hybrid Work bleibt auch für die Entwicklungsabteilung nicht ohne Folgen. “Dezentrale DevOps-Teams zu managen, hat uns in Sachen Kommunikation, Kollaboration und Überblick vor spezielle Herausforderungen gestellt”, gibt Reade Taylor, Gründer des Managed Service Providers Cyber Command, ohne Umschweife zu. Seine Lösung: “Wir haben robuste Richtlinien für die Remote-Arbeit eingeführt, Tools und Plattformen eingesetzt, um die Zusammenarbeit zu fördern und eine Kultur des Vertrauens und der Autonomie gepflegt.”

Dabei sorgten laut Taylor regelmäßige virtuelle Check-Ins sowie eine klare Prozessdokumentation dafür, dass die Remote-Teams vernetzt, produktiv und auf die Unternehmensziele ausgerichtet blieben.

9. Devs und Ops, die unterschiedliche Ziele verfolgen

Wenn Dev- und Ops-Teams mit Blick auf die Entwicklungsziele konträre Auffassungen vertreten, kann das zu einer weiteren, gewichtigen DevOps-Hürde führen. LLCAttorney-CTO Muniz weist auf eine Ursache dieses Übels hin: “Entwicklungsteams streben nach schnellen Veränderungen, Betriebsteams nach Stabilität.”

Eine Lösung für dieses Problem sieht er in der Verankerung des Shared-Responsibility-Prinzips – Devs und Ops müssten von der Projektinitiierung bis zur endgültigen Implementierung zusammenarbeiten.

10. Automatisieren, weil das “gegen alles hilft”

Unternehmen aller Branchen und Größen versuchen, ihre IT- und Geschäftsprozesse zu automatisieren. Das realisiert zahlreiche Vorteile, wirft jedoch auch weitere, unerwartete DevOps-Herausforderungen auf.

“Nicht alle Prozesse sind dazu geeignet, automatisiert zu werden. Der Versuch, das zu erzwingen, kann zu Ineffizienz führen”, warnt Technologieentscheider Muniz und fügt hinzu: “Automatisierung ist kein Alles-oder-Nichts-Konzept. Zeit und Ressourcen spart man nur, wenn man die richtigen Prozesse dafür identifiziert.” (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

10 grobe DevOps-Schnitzer​ Weiterlesen »

Konfliktmanagement: So schlichten Sie Streit im Unternehmen​

Allgemein

Konflikte unter Kollegen lassen sich leicht vermeiden, wenn man bestimmte Regeln befolgt. Foto: Zenzen – shutterstock.comDas Verhalten eines Kollegen ist nicht in Ordnung. Die Zahlen liegen hinter Plan. Oder im Projekt läuft es schief und es wird dringend eine schnelle Lösung gesucht. Gerade wenn es darauf ankommt und die Zeit drängt, kochen die Emotionen gerne hoch. Jetzt ist es eine wahre Kunst, souverän durch heikle Themen zu manövrieren.In der Praxis scheuen viele Menschen den Konflikt. Doch Schweigen und Faust-in-der-Tasche-machen lösen die Situation nicht. Es gibt nur einen Weg. Und der heißt: Mund aufmachen. Viele suchen dann nach den richtigen Worten. Wer hier mit den passenden Techniken punktet, kann schon viel erreichen.Schon in der Bibel heißt es: Am Anfang war das Wort. Doch der wesentliche Schlüssel, um Konflikte gekonnt zu managen, liegt ganz woanders.Was bedeutet eigentlich Konfliktmanagement? Wenn Ihr Kollege Sie fragt, ob er den Honig von Frau Meier in einen anderen Küchenschrank stellen kann, wird das wahrscheinlich nicht zu einem Konflikt zwischen Ihnen beiden führen. Für einen Konflikt braucht es mehr. Zum einen muss es um ein Thema mit hoher Bedeutung für Sie gehen. Dann braucht es eine Meinungsverschiedenheit mit Ihrem Gegenüber. Spätestens wenn dann noch Emotionen hinzukommen, werden Sie sich freuen, wenn Sie ein Experte im Konfliktmanagement sind.Ich erlebe in meiner Beratungspraxis häufig Menschen, die sich gar nicht streiten wollen. Dem Konflikt auszuweichen bringt jedoch auch nichts. Also ist das Ziel, den Konflikt so zu managen, dass wir hart in der Sache sind und fair zu Menschen bleiben. Wenn Sie als einer der Beteiligten dies beherrschen, haben Sie gute Chancen, dass der Konflikt trotz Emotionen einigermaßen souverän gehandelt wird und zu einer für alle Beteiligten tragfähigen Lösung führt.Der Fisch stinkt vom KopfBesonders kritisch wird ein Konflikt, wenn die beteiligten Personen aus unterschiedlichen Hierarchie-Ebenen kommen. In den meisten Unternehmen, die ich erlebe, gilt immer noch der Grundsatz: “Eine Karriereleiter pinkelt man nicht hinauf”. Streitkultur wird nur einseitig gelebt – und zwar von oben nach unten. Foto: Digital Storm – shutterstock.comIn alten Zeiten, als die Führungskraft noch allwissend war, mochte das zumindest den Erfolg des Unternehmens nicht gefährden. Doch heute, wo Mitarbeiter oft mehr wissen, als ihr Vorgesetzter, kann dieser Macht-zentrierte top-down-Ansatz zu gefährlichen Situationen für ein Unternehmen führen. Gute Mitarbeiter suchen sich neue Jobs, Projekte laufen in unnötige Sackgassen, es werden vermeidbare Fehler gemacht und Ressourcen verschwendet.In meinen Seminaren diskutiere ich deswegen besonders mit den Führungskräften über die Notwendigkeit einer Streitkultur – und die Frage, wie man sie in beide Richtungen offen leben kann. Doch lässt sich leider ableiten: Je höher jemand in der Hierarchie steht, desto größer sind seine blinden Flecken in diesem Thema.Eine Frage der KulturIn mittelständischen Unternehmen begegne ich häufig dem Wunsch, dass Mitarbeiter mehr Verantwortung übernehmen und Konflikte offen ansprechen sollen. Als Lösung dafür, empfehle ich den Inhabern, dass wir an der Unternehmenskultur arbeiten. Präziser formuliert: an der Arbeitskultur des Unternehmens. Dabei geht es nicht darum, die Werte und Überzeugungen der Menschen zu verändern. Sondern es geht darum zu definieren, welche konkreten Verhaltensweisen wir sehen wollen – und dann die Rahmenbedingungen so zu verändern, dass dies auch geschieht. Sicherlich kein romantischer Ansatz, aber einer, der in der Praxis zu Ergebnissen führt.Dennoch spielen dabei natürlich Werte eine Rolle. Und um in einem Unternehmen Konflikte erfolgreich managen zu können, sind zwei Werte von entscheidender Bedeutung.RespektAlso die Frage, ob Sie die Souveränität Ihres Gegenübers anerkennen, dass dieser anders ist, denkt und handelt als Sie.VertrauenUnd damit ist nicht gemeint, wie lange Sie sich bereits kennen. Sondern die Frage, ob Sie Ihre eigenen Fehler und Unzulänglichkeiten akzeptieren und diese auch offen kommunizieren – um dann andere um Rat oder Unterstützung zu bitten.Wenn Respekt und Vertrauen im beschriebenen Sinne kein Teil der gelebten Arbeitskultur sind, können Konflikte nicht konstruktiv gemanagt werden. Meist trifft man dann auf eine Kultur der Angst, in der Menschen keine Fehler machen wollen und – aus ihrer Sicht sinnvollerweise – sich vor Verantwortung drücken. Schaffen Sie es jedoch, Respekt und Vertrauen zu leben, dann haben Sie gute Chancen, eine Kultur des Lernens zu schaffen, in der Konflikte nicht dazu dienen, Schuldige zu köpfen, sondern um aus Fehlern zu lernen.Eine offene, konstruktive Konfliktkultur kann nur von oben vorgelebt bzw. geändert werden. Doch auch wenn die Führungskräfte das nicht wollen, gibt es Methoden, um sich in der jeweiligen Konfliktsituation dennoch souverän zu verhalten.Konfliktmanagement-MethodenBevor Sie sich für eine Methode entscheiden, die Sie im Konfliktfall anwenden, sollten Sie prüfen, mit wem Sie es zu tun haben. Ist es eher ein dominanter, ergebnis-orientierter Gesprächspartner – oder jemand, der zurückhaltender ist und dem die Beziehungsebene besonders am Herzen liegt?Umgang mit dominanten GesprächspartnernSie können Ihr Gegenüber nicht ändern. Also konzentrieren Sie sich lieber auf sich selbst. In der Praxis haben sich folgende Punkte besonders bewährt:Halten Sie Blickkontakt, wenn Sie sprechen.Formulieren Sie kurz und knapp.Sprechen Sie eher monoton und senken Sie die Betonung am Satzende ab.Halten Sie Ihre Atmung im Bauch, damit Sie ruhig und bestimmt wirken.Machen Sie zwischendurch immer wieder kurze Pausen, damit Sie nicht zu schnell reden (letzteres wirkt unsicher).Wenn Sie Mitarbeiter sind und Sie ein heikles Thema mit Ihrem Vorgesetzten diskutieren müssen, funktioniert außerdem folgende Vorgehensweise sehr gut: Stellen Sie Ihrem Chef Ihre Gedanken vor und setzen Sie ihm so Ihren gedanklichen Floh ins Ohr. Fordern Sie am Ende jedoch keine Entscheidung. Sondern geben Sie ihm Raum, indem Sie sinngemäß sagen: “Sie wissen ja selbst am besten, was gut ist. Schauen Sie es sich einfach mal in Ruhe an” – eine ausgedruckte Zusammenfassung auf seinen Tisch legen und dann den Raum verlassen. Dominante Typen entscheiden gerne autark.Damit haben Sie zwar keine Gewissheit, ob Sie aus dem Konflikt als Sieger hervorgehen. Sie sorgen jedoch zumindest dafür, dass Sie Ihren Mann bzw. Ihre Frau stehen und einen unnötigen Konflikt vermeiden.GesprächsstrukturOb sich eine Konfliktsituation beruhigt oder weiter eskaliert, hängt von der Wortwahl ab. Foto: VovanIvanovich – shutterstock.comIm Konflikt ist es entscheidend, die richtigen Worte zu treffen. Doch was sind die richtigen Worte? Marshall Rosenberg hat in den 1960er Jahren die sogenannte Nonviolent Communication erfunden. Aus meiner Erfahrung bietet er uns damit ein gutes Orientierungsmuster, das ich in der Praxis gerne um zwei Schritte erweitere.1.) Beobachtung: Beschreiben Sie die Fakten. Keine Interpretationen oder Halluzinationen. Formulierungen wie “Ich habe gesehen, dass…” oder “Herr Meier hat mir erzählt, dass…” helfen dabei.2.) Auswirkungen: Wozu führt das Beobachtete? “Für mich heißt das, ich muss …” oder “Für unser Projekt bedeutet das…”. Diese Stufe ist nicht immer notwendig.3.) Gefühl: Was löst das in Ihnen aus? “Das macht mich wütend.” oder “Mir ist das unangenehm”.4.) Bedürfnis: Was ist das tieferliegende Bedürfnis, das sich durch Ihr Gefühl meldet? Wenn beispielsweise jemand regelmäßig zu spät kommt, könnte Ihre Formulierung bis hierhin so lauten: “Bei den letzten fünf Projektmeetings bist Du jedes Mal mindestens 10 Minuten zu spät erschienen. Dadurch konnten wir mit der Besprechung nicht anfangen, weil Du eine wichtige Projektrolle hast und alle mussten warten. Das ärgert mich sehr. Denn mir ist Pünktlichkeit wichtig. Sie ist für mich Ausdruck von Respekt.”5.) Gegencheck: Bevor Sie nun weiter voranpreschen, halten Sie an dieser Stelle inne und stellen Sie eine Frage, um zu prüfen, wie Ihr Gegenüber den Sachverhalt sieht. “Was sagen Sie dazu?” oder “Wie kam es denn dazu?” oder “Sehen Sie das genauso – oder was denken Sie?” helfen hier weiter.6.) Lösung: Sie wollen ja nicht nur diskutieren, sondern auch eine Lösung finden. Im letzten Schritt können Sie in verschiedene Richtungen navigieren. Eher als Appell: “Ich erwarte von Ihnen, dass Sie beim nächsten Mal pünktlich sind!”. Oder eher als Frage: “Wie können wir das lösen?” oder “Was können wir tun, um das in Zukunft zu vermeiden?”.Die Magie entsteht ohne WorteIn meinen Workshops zeige ich den Teilnehmern Videos von verschiedenen Personen – ohne Ton. Und frage, ob die Personen eine gute oder schlechte Botschaft übermitteln. Danach zeige ich die Videos mit Ton und es kommt zu heftigen Überraschungen. Denn in vielen Situationen passt die Art, wie jemand spricht gar nicht zu dem, was er sagt. Sie haben sicherlich auch schon erlebt, dass jemand Unbekanntes an einer Besprechung teilnimmt. Eindrucksvoll gekleidet, souverän aussehend – und als die Person den Mund aufmacht, geht es aus Ihrer Sicht schon mit dem falschen Dialekt los. Das heißt, der erste Eindruck entsteht durch das Optische – doch der bleibende Eindruck entsteht durch die Art, wie wir sprechen.Das Stufenmodell “Power of Influence” – das Wie überschreibt das Was. Foto: www.peterholzer.comDas Wie überschreibt das Was. Doch in der Praxis wird das selten berücksichtigt. Prüfen Sie selbst: In Prozent Ihrer Vorbereitungszeit für ein Gespräch, Meeting oder Vortrag – wieviel Zeit verbringen Sie mit dem Inhalt (Was) und wieviel mit der Inszenierung (Wie)? Die meisten meiner Kunden sagen 100% Inhalt…Was können Sie daraus zum Thema Konflikte ableiten? Machen Sie die nächsten Tage eine einfache Übung:Beobachten Sie, was die Menschen um Sie herum mit ihren Augen machen. Sie werden sehen, dass die meisten Menschen den Blickkontakt suchen. Wir sind übertrainiert im Blickkontakt. Wenn Sie es mit einem dominanten Gesprächspartner zu tun haben, hilft Ihnen das (Stichwort: Blickkontakt wie zwei Boxer vor dem Kampf halten).Doch wenn Sie es mit eher zurückhaltenderen Menschen zu tun haben und Ihre heiklen Botschaften mit Blickkontakt abfeuern, üben Sie quasi verbale und nonverbale Gewalt aus. Hier ist es hilfreicher, wenn Sie gegen Ihre Gewohnheit, den Blickkontakt brechen. Und das macht dann Sinn, wenn Sie Ihre heikle Botschaft visualisieren. Schreiben Sie auf Flipchart oder Whiteboard, zeigen Sie eine PowerPoint-Folie oder bringen Sie einen Ausdruck mit bzw. schreiben Sie auf einen Block. Sprechen Sie in dieser Zeit mit dieser Visualisierung – brechen Sie also den Blickkontakt. Sie werden bemerken, dass Ihr Gegenüber ebenfalls den Blickkontakt bricht und Ihren Augen folgt. So machen Sie die Visualisierung zum eigentlichen Überbringer der heiklen Botschaft. Damit erhöhen Sie Ihre Wirkung, die Beziehungs- von der Sachebene zu trennen.Konfliktmanagement – Eine Frage der ÜbungDoch all die Techniken nutzen Ihnen im Konfliktfall nichts, wenn Ihre Haltung die falsche ist. Ich erlebe immer wieder sehr ambitionierte Menschen, die nach der einen Technik suchen, die jedes Gespräch garantiert zum Erfolg führt. Das halte ich für Quatsch. Denn der Mensch ist ein emotionales Wesen und verhält sich eben nicht immer rational. Wer das nicht glaubt, sollte einfach mal für eine Woche mit einem pubertierenden Teenager zusammen leben.Also, was ist Ihre Haltung? Was wollen Sie im Konfliktgespräch erreichen? Was ist Ihnen unbedingt wichtig? Wo können Sie Kompromisse eingehen oder Zugeständnisse machen? Sie sollten sich dessen sehr klar sein. Und wenn Sie dann noch die Haltung haben, dass Sie mit all den Techniken bestenfalls die Chance erhöhen, dass der andere aufnahmebereit ist – und nicht garantiert das macht, was Sie gerne hätten – dann haben Sie eine gute Ausgangslage, um im Augenblick achtsam zu sein und Konflikte in Ihrem Umfeld souverän zu managen.8 Fehler in der KommunikationDiese Kommunikationsfehler sollten Sie vermeiden Foto: Sergey Nivens – shutterstock.comWas Sie in Gesprächen und Debatten tunlichst unterlassen sollten, um Fehlinformationen, Konflikte und Imageschäden zu vermeiden.Fachchinesisch benutzen Foto: Gearstd – shutterstock.comMit technischem Fachjargon um sich zu werfen, ist der größte Fehler, den IT-Verantwortliche in Gesprächen mit Nicht-IT’lern machen können. Viele Experten können nicht richtig einschätzen, wie tief das eigene Fachwissen geht und wo im Gegenzug das Fachwissen des Gegenübers endet. Hier kann es schnell zu Missverständnissen und Kommunikationsstörungen kommen.Technische Probleme beklagen Foto: Stokkete – shutterstock.comWer in der Team- oder Vorstandssitzung über technische Probleme im Rechenzentrum oder anderen Unternehmensstellen klagt, darf sich nicht wundern, wenn diese Beschwerden Irritation und Unsicherheit auslösen. Kollegen, die nicht mit den beschriebenen Interna vertraut sind, verstehen in einem solchen Fall oft nur “Der hat massive Probleme, die er nicht in den Griff bekommt.” Natürlich müssen IT-Probleme auch im großen Kreis thematisiert werden dürfen, das jedoch besser in einer sachlichen Art und Weise, die jeder verstehen und nachvollziehen kann.Wie ein Verkäufer reden Foto: Evan El-Amin – shutterstock.comManager, die bislang mit einem Business-Hintergrund tätig waren, und IT-Führungspositionen übernehmen, sprechen ihre neuen Untergebenen in einem aufgeblasenen Ton an und wirken dabei häufig wie Verkäufer, die die neueste Kollektion heiße Luft präsentieren.Keine Fragen stellen Foto: ra2studio – shutterstock.comGute CIOs stellen sinnvolle Fragen und hören auf die Antworten. So gelangen oft neue Aspekte in die Diskussion. Dazu werden die Kollegen eingebunden und die Beziehung zwischen Manager und Team gestärkt. Warum viele IT-Verantwortliche anders vorgehen? Sie haben (meist unbegründet) Angst, als unwissend und inkompetent dazustehen.Niemanden einbinden Foto: Syda Productions – shutterstock.comGut ausgebildete CIOs sind überzeugt von ihren eigenen Ideen, welche Techniken sich wie am besten implementieren lassen. Viele vergessen darüber jedoch, dass auch die gesamte IT-Abteilung und der Vorstand womöglich noch eigene Ideen haben. Wenn CIOs ihre eigenen Vorstellungen ohne Rückfrage durchdrücken, verärgern sie deshalb viele Kollegen – selbst, wenn es die beste und richtige Wahl war.Ängste schüren Foto: Tyler Olson – shutterstock.comWenn der Vorstand überzeugt werden muss, das IT-Budget aufzustocken, diese oder jene Anschaffung oder Migration vorzunehmen, neigen manche CIOs dazu, in ihrer Argumentation zu übertreiben oder zu simplifizieren. Wenn neue Server angeschafft werden sollen, hört sich das dann so an: “Wenn wir bis kommende Woche nicht zehn neue Server im Schrank stehen haben, bricht der ganze Laden zusammen!”Den Wertbeitrag nicht herausstellen Foto: Sergey Nivens – shutterstock.comViele CIOs betonen, wie wichtig die Unternehmens-IT ist. Die Vorstände verstehen aber häufig nicht, was die IT konkret zum unternehmerischen Erfolg beiträgt. Deshalb sollten IT-Verantwortliche in Präsentationen und Diskussionen immer noch einen Schritt weitergehen, als nur in den eigenen Grenzen zu argumentieren.Mit PowerPoint einschläfern Foto: Matej Kastelic – shutterstock.comZu viele Folien, zu viele Nichtigkeiten. Effiziente Präsentationen zeichnen sich dadurch aus, dass sie sich auf die wichtigsten Infos konzentrieren, die das zuhörende Publikum direkt betreffen. Im besten Fall kann gänzlich auf PowerPoint verzichtet werden – gute Präsentationen zeichnen sich dadurch aus, dass sie von selbst im Gedächtnis haften bleiben und nicht durch eine Armada von Aufzählungspunkten. 

Konfliktmanagement: So schlichten Sie Streit im Unternehmen​ Konflikte unter Kollegen lassen sich leicht vermeiden, wenn man bestimmte Regeln befolgt.
Foto: Zenzen – shutterstock.comDas Verhalten eines Kollegen ist nicht in Ordnung. Die Zahlen liegen hinter Plan. Oder im Projekt läuft es schief und es wird dringend eine schnelle Lösung gesucht. Gerade wenn es darauf ankommt und die Zeit drängt, kochen die Emotionen gerne hoch. Jetzt ist es eine wahre Kunst, souverän durch heikle Themen zu manövrieren.In der Praxis scheuen viele Menschen den Konflikt. Doch Schweigen und Faust-in-der-Tasche-machen lösen die Situation nicht. Es gibt nur einen Weg. Und der heißt: Mund aufmachen. Viele suchen dann nach den richtigen Worten. Wer hier mit den passenden Techniken punktet, kann schon viel erreichen.Schon in der Bibel heißt es: Am Anfang war das Wort. Doch der wesentliche Schlüssel, um Konflikte gekonnt zu managen, liegt ganz woanders.Was bedeutet eigentlich Konfliktmanagement? Wenn Ihr Kollege Sie fragt, ob er den Honig von Frau Meier in einen anderen Küchenschrank stellen kann, wird das wahrscheinlich nicht zu einem Konflikt zwischen Ihnen beiden führen. Für einen Konflikt braucht es mehr. Zum einen muss es um ein Thema mit hoher Bedeutung für Sie gehen. Dann braucht es eine Meinungsverschiedenheit mit Ihrem Gegenüber. Spätestens wenn dann noch Emotionen hinzukommen, werden Sie sich freuen, wenn Sie ein Experte im Konfliktmanagement sind.Ich erlebe in meiner Beratungspraxis häufig Menschen, die sich gar nicht streiten wollen. Dem Konflikt auszuweichen bringt jedoch auch nichts. Also ist das Ziel, den Konflikt so zu managen, dass wir hart in der Sache sind und fair zu Menschen bleiben. Wenn Sie als einer der Beteiligten dies beherrschen, haben Sie gute Chancen, dass der Konflikt trotz Emotionen einigermaßen souverän gehandelt wird und zu einer für alle Beteiligten tragfähigen Lösung führt.Der Fisch stinkt vom KopfBesonders kritisch wird ein Konflikt, wenn die beteiligten Personen aus unterschiedlichen Hierarchie-Ebenen kommen. In den meisten Unternehmen, die ich erlebe, gilt immer noch der Grundsatz: “Eine Karriereleiter pinkelt man nicht hinauf”. Streitkultur wird nur einseitig gelebt – und zwar von oben nach unten.
Foto: Digital Storm – shutterstock.comIn alten Zeiten, als die Führungskraft noch allwissend war, mochte das zumindest den Erfolg des Unternehmens nicht gefährden. Doch heute, wo Mitarbeiter oft mehr wissen, als ihr Vorgesetzter, kann dieser Macht-zentrierte top-down-Ansatz zu gefährlichen Situationen für ein Unternehmen führen. Gute Mitarbeiter suchen sich neue Jobs, Projekte laufen in unnötige Sackgassen, es werden vermeidbare Fehler gemacht und Ressourcen verschwendet.In meinen Seminaren diskutiere ich deswegen besonders mit den Führungskräften über die Notwendigkeit einer Streitkultur – und die Frage, wie man sie in beide Richtungen offen leben kann. Doch lässt sich leider ableiten: Je höher jemand in der Hierarchie steht, desto größer sind seine blinden Flecken in diesem Thema.Eine Frage der KulturIn mittelständischen Unternehmen begegne ich häufig dem Wunsch, dass Mitarbeiter mehr Verantwortung übernehmen und Konflikte offen ansprechen sollen. Als Lösung dafür, empfehle ich den Inhabern, dass wir an der Unternehmenskultur arbeiten. Präziser formuliert: an der Arbeitskultur des Unternehmens. Dabei geht es nicht darum, die Werte und Überzeugungen der Menschen zu verändern. Sondern es geht darum zu definieren, welche konkreten Verhaltensweisen wir sehen wollen – und dann die Rahmenbedingungen so zu verändern, dass dies auch geschieht. Sicherlich kein romantischer Ansatz, aber einer, der in der Praxis zu Ergebnissen führt.Dennoch spielen dabei natürlich Werte eine Rolle. Und um in einem Unternehmen Konflikte erfolgreich managen zu können, sind zwei Werte von entscheidender Bedeutung.RespektAlso die Frage, ob Sie die Souveränität Ihres Gegenübers anerkennen, dass dieser anders ist, denkt und handelt als Sie.VertrauenUnd damit ist nicht gemeint, wie lange Sie sich bereits kennen. Sondern die Frage, ob Sie Ihre eigenen Fehler und Unzulänglichkeiten akzeptieren und diese auch offen kommunizieren – um dann andere um Rat oder Unterstützung zu bitten.Wenn Respekt und Vertrauen im beschriebenen Sinne kein Teil der gelebten Arbeitskultur sind, können Konflikte nicht konstruktiv gemanagt werden. Meist trifft man dann auf eine Kultur der Angst, in der Menschen keine Fehler machen wollen und – aus ihrer Sicht sinnvollerweise – sich vor Verantwortung drücken. Schaffen Sie es jedoch, Respekt und Vertrauen zu leben, dann haben Sie gute Chancen, eine Kultur des Lernens zu schaffen, in der Konflikte nicht dazu dienen, Schuldige zu köpfen, sondern um aus Fehlern zu lernen.Eine offene, konstruktive Konfliktkultur kann nur von oben vorgelebt bzw. geändert werden. Doch auch wenn die Führungskräfte das nicht wollen, gibt es Methoden, um sich in der jeweiligen Konfliktsituation dennoch souverän zu verhalten.Konfliktmanagement-MethodenBevor Sie sich für eine Methode entscheiden, die Sie im Konfliktfall anwenden, sollten Sie prüfen, mit wem Sie es zu tun haben. Ist es eher ein dominanter, ergebnis-orientierter Gesprächspartner – oder jemand, der zurückhaltender ist und dem die Beziehungsebene besonders am Herzen liegt?Umgang mit dominanten GesprächspartnernSie können Ihr Gegenüber nicht ändern. Also konzentrieren Sie sich lieber auf sich selbst. In der Praxis haben sich folgende Punkte besonders bewährt:Halten Sie Blickkontakt, wenn Sie sprechen.Formulieren Sie kurz und knapp.Sprechen Sie eher monoton und senken Sie die Betonung am Satzende ab.Halten Sie Ihre Atmung im Bauch, damit Sie ruhig und bestimmt wirken.Machen Sie zwischendurch immer wieder kurze Pausen, damit Sie nicht zu schnell reden (letzteres wirkt unsicher).Wenn Sie Mitarbeiter sind und Sie ein heikles Thema mit Ihrem Vorgesetzten diskutieren müssen, funktioniert außerdem folgende Vorgehensweise sehr gut: Stellen Sie Ihrem Chef Ihre Gedanken vor und setzen Sie ihm so Ihren gedanklichen Floh ins Ohr. Fordern Sie am Ende jedoch keine Entscheidung. Sondern geben Sie ihm Raum, indem Sie sinngemäß sagen: “Sie wissen ja selbst am besten, was gut ist. Schauen Sie es sich einfach mal in Ruhe an” – eine ausgedruckte Zusammenfassung auf seinen Tisch legen und dann den Raum verlassen. Dominante Typen entscheiden gerne autark.Damit haben Sie zwar keine Gewissheit, ob Sie aus dem Konflikt als Sieger hervorgehen. Sie sorgen jedoch zumindest dafür, dass Sie Ihren Mann bzw. Ihre Frau stehen und einen unnötigen Konflikt vermeiden.GesprächsstrukturOb sich eine Konfliktsituation beruhigt oder weiter eskaliert, hängt von der Wortwahl ab.
Foto: VovanIvanovich – shutterstock.comIm Konflikt ist es entscheidend, die richtigen Worte zu treffen. Doch was sind die richtigen Worte? Marshall Rosenberg hat in den 1960er Jahren die sogenannte Nonviolent Communication erfunden. Aus meiner Erfahrung bietet er uns damit ein gutes Orientierungsmuster, das ich in der Praxis gerne um zwei Schritte erweitere.1.) Beobachtung: Beschreiben Sie die Fakten. Keine Interpretationen oder Halluzinationen. Formulierungen wie “Ich habe gesehen, dass…” oder “Herr Meier hat mir erzählt, dass…” helfen dabei.2.) Auswirkungen: Wozu führt das Beobachtete? “Für mich heißt das, ich muss …” oder “Für unser Projekt bedeutet das…”. Diese Stufe ist nicht immer notwendig.3.) Gefühl: Was löst das in Ihnen aus? “Das macht mich wütend.” oder “Mir ist das unangenehm”.4.) Bedürfnis: Was ist das tieferliegende Bedürfnis, das sich durch Ihr Gefühl meldet? Wenn beispielsweise jemand regelmäßig zu spät kommt, könnte Ihre Formulierung bis hierhin so lauten: “Bei den letzten fünf Projektmeetings bist Du jedes Mal mindestens 10 Minuten zu spät erschienen. Dadurch konnten wir mit der Besprechung nicht anfangen, weil Du eine wichtige Projektrolle hast und alle mussten warten. Das ärgert mich sehr. Denn mir ist Pünktlichkeit wichtig. Sie ist für mich Ausdruck von Respekt.”5.) Gegencheck: Bevor Sie nun weiter voranpreschen, halten Sie an dieser Stelle inne und stellen Sie eine Frage, um zu prüfen, wie Ihr Gegenüber den Sachverhalt sieht. “Was sagen Sie dazu?” oder “Wie kam es denn dazu?” oder “Sehen Sie das genauso – oder was denken Sie?” helfen hier weiter.6.) Lösung: Sie wollen ja nicht nur diskutieren, sondern auch eine Lösung finden. Im letzten Schritt können Sie in verschiedene Richtungen navigieren. Eher als Appell: “Ich erwarte von Ihnen, dass Sie beim nächsten Mal pünktlich sind!”. Oder eher als Frage: “Wie können wir das lösen?” oder “Was können wir tun, um das in Zukunft zu vermeiden?”.Die Magie entsteht ohne WorteIn meinen Workshops zeige ich den Teilnehmern Videos von verschiedenen Personen – ohne Ton. Und frage, ob die Personen eine gute oder schlechte Botschaft übermitteln. Danach zeige ich die Videos mit Ton und es kommt zu heftigen Überraschungen. Denn in vielen Situationen passt die Art, wie jemand spricht gar nicht zu dem, was er sagt. Sie haben sicherlich auch schon erlebt, dass jemand Unbekanntes an einer Besprechung teilnimmt. Eindrucksvoll gekleidet, souverän aussehend – und als die Person den Mund aufmacht, geht es aus Ihrer Sicht schon mit dem falschen Dialekt los. Das heißt, der erste Eindruck entsteht durch das Optische – doch der bleibende Eindruck entsteht durch die Art, wie wir sprechen.Das Stufenmodell “Power of Influence” – das Wie überschreibt das Was.
Foto: www.peterholzer.comDas Wie überschreibt das Was. Doch in der Praxis wird das selten berücksichtigt. Prüfen Sie selbst: In Prozent Ihrer Vorbereitungszeit für ein Gespräch, Meeting oder Vortrag – wieviel Zeit verbringen Sie mit dem Inhalt (Was) und wieviel mit der Inszenierung (Wie)? Die meisten meiner Kunden sagen 100% Inhalt…Was können Sie daraus zum Thema Konflikte ableiten? Machen Sie die nächsten Tage eine einfache Übung:Beobachten Sie, was die Menschen um Sie herum mit ihren Augen machen. Sie werden sehen, dass die meisten Menschen den Blickkontakt suchen. Wir sind übertrainiert im Blickkontakt. Wenn Sie es mit einem dominanten Gesprächspartner zu tun haben, hilft Ihnen das (Stichwort: Blickkontakt wie zwei Boxer vor dem Kampf halten).Doch wenn Sie es mit eher zurückhaltenderen Menschen zu tun haben und Ihre heiklen Botschaften mit Blickkontakt abfeuern, üben Sie quasi verbale und nonverbale Gewalt aus. Hier ist es hilfreicher, wenn Sie gegen Ihre Gewohnheit, den Blickkontakt brechen. Und das macht dann Sinn, wenn Sie Ihre heikle Botschaft visualisieren. Schreiben Sie auf Flipchart oder Whiteboard, zeigen Sie eine PowerPoint-Folie oder bringen Sie einen Ausdruck mit bzw. schreiben Sie auf einen Block. Sprechen Sie in dieser Zeit mit dieser Visualisierung – brechen Sie also den Blickkontakt. Sie werden bemerken, dass Ihr Gegenüber ebenfalls den Blickkontakt bricht und Ihren Augen folgt. So machen Sie die Visualisierung zum eigentlichen Überbringer der heiklen Botschaft. Damit erhöhen Sie Ihre Wirkung, die Beziehungs- von der Sachebene zu trennen.Konfliktmanagement – Eine Frage der ÜbungDoch all die Techniken nutzen Ihnen im Konfliktfall nichts, wenn Ihre Haltung die falsche ist. Ich erlebe immer wieder sehr ambitionierte Menschen, die nach der einen Technik suchen, die jedes Gespräch garantiert zum Erfolg führt. Das halte ich für Quatsch. Denn der Mensch ist ein emotionales Wesen und verhält sich eben nicht immer rational. Wer das nicht glaubt, sollte einfach mal für eine Woche mit einem pubertierenden Teenager zusammen leben.Also, was ist Ihre Haltung? Was wollen Sie im Konfliktgespräch erreichen? Was ist Ihnen unbedingt wichtig? Wo können Sie Kompromisse eingehen oder Zugeständnisse machen? Sie sollten sich dessen sehr klar sein. Und wenn Sie dann noch die Haltung haben, dass Sie mit all den Techniken bestenfalls die Chance erhöhen, dass der andere aufnahmebereit ist – und nicht garantiert das macht, was Sie gerne hätten – dann haben Sie eine gute Ausgangslage, um im Augenblick achtsam zu sein und Konflikte in Ihrem Umfeld souverän zu managen.8 Fehler in der KommunikationDiese Kommunikationsfehler sollten Sie vermeiden
Foto: Sergey Nivens – shutterstock.comWas Sie in Gesprächen und Debatten tunlichst unterlassen sollten, um Fehlinformationen, Konflikte und Imageschäden zu vermeiden.Fachchinesisch benutzen
Foto: Gearstd – shutterstock.comMit technischem Fachjargon um sich zu werfen, ist der größte Fehler, den IT-Verantwortliche in Gesprächen mit Nicht-IT’lern machen können. Viele Experten können nicht richtig einschätzen, wie tief das eigene Fachwissen geht und wo im Gegenzug das Fachwissen des Gegenübers endet. Hier kann es schnell zu Missverständnissen und Kommunikationsstörungen kommen.Technische Probleme beklagen
Foto: Stokkete – shutterstock.comWer in der Team- oder Vorstandssitzung über technische Probleme im Rechenzentrum oder anderen Unternehmensstellen klagt, darf sich nicht wundern, wenn diese Beschwerden Irritation und Unsicherheit auslösen. Kollegen, die nicht mit den beschriebenen Interna vertraut sind, verstehen in einem solchen Fall oft nur “Der hat massive Probleme, die er nicht in den Griff bekommt.” Natürlich müssen IT-Probleme auch im großen Kreis thematisiert werden dürfen, das jedoch besser in einer sachlichen Art und Weise, die jeder verstehen und nachvollziehen kann.Wie ein Verkäufer reden
Foto: Evan El-Amin – shutterstock.comManager, die bislang mit einem Business-Hintergrund tätig waren, und IT-Führungspositionen übernehmen, sprechen ihre neuen Untergebenen in einem aufgeblasenen Ton an und wirken dabei häufig wie Verkäufer, die die neueste Kollektion heiße Luft präsentieren.Keine Fragen stellen
Foto: ra2studio – shutterstock.comGute CIOs stellen sinnvolle Fragen und hören auf die Antworten. So gelangen oft neue Aspekte in die Diskussion. Dazu werden die Kollegen eingebunden und die Beziehung zwischen Manager und Team gestärkt. Warum viele IT-Verantwortliche anders vorgehen? Sie haben (meist unbegründet) Angst, als unwissend und inkompetent dazustehen.Niemanden einbinden
Foto: Syda Productions – shutterstock.comGut ausgebildete CIOs sind überzeugt von ihren eigenen Ideen, welche Techniken sich wie am besten implementieren lassen. Viele vergessen darüber jedoch, dass auch die gesamte IT-Abteilung und der Vorstand womöglich noch eigene Ideen haben. Wenn CIOs ihre eigenen Vorstellungen ohne Rückfrage durchdrücken, verärgern sie deshalb viele Kollegen – selbst, wenn es die beste und richtige Wahl war.Ängste schüren
Foto: Tyler Olson – shutterstock.comWenn der Vorstand überzeugt werden muss, das IT-Budget aufzustocken, diese oder jene Anschaffung oder Migration vorzunehmen, neigen manche CIOs dazu, in ihrer Argumentation zu übertreiben oder zu simplifizieren. Wenn neue Server angeschafft werden sollen, hört sich das dann so an: “Wenn wir bis kommende Woche nicht zehn neue Server im Schrank stehen haben, bricht der ganze Laden zusammen!”Den Wertbeitrag nicht herausstellen
Foto: Sergey Nivens – shutterstock.comViele CIOs betonen, wie wichtig die Unternehmens-IT ist. Die Vorstände verstehen aber häufig nicht, was die IT konkret zum unternehmerischen Erfolg beiträgt. Deshalb sollten IT-Verantwortliche in Präsentationen und Diskussionen immer noch einen Schritt weitergehen, als nur in den eigenen Grenzen zu argumentieren.Mit PowerPoint einschläfern
Foto: Matej Kastelic – shutterstock.comZu viele Folien, zu viele Nichtigkeiten. Effiziente Präsentationen zeichnen sich dadurch aus, dass sie sich auf die wichtigsten Infos konzentrieren, die das zuhörende Publikum direkt betreffen. Im besten Fall kann gänzlich auf PowerPoint verzichtet werden – gute Präsentationen zeichnen sich dadurch aus, dass sie von selbst im Gedächtnis haften bleiben und nicht durch eine Armada von Aufzählungspunkten.

Konfliktmanagement: So schlichten Sie Streit im Unternehmen​ Weiterlesen »

KI bedroht Jobs von Frauen stärker als die von Männern​

Allgemein

KI trifft Frauenberufe besonders stark. Anna_Summer – shutterstock.com Eine Studie der Internationalen Arbeitsorganisation (ILO) und des polnischen Forschungsinstituts NASK zeigt, dass Künstliche Intelligenz (KI) Arbeitsplätze von Frauen überproportional stark beeinflusst. Fast jeder zehnte Arbeitsplatz von Frauen gilt als besonders gefährdet, während es bei Männern nur 3,5 Prozent sind. Weltweit könnte ein Viertel aller Jobs von generativer KI (GenAI) beeinflusst werden, in wohlhabenden Ländern steigt dieser Anteil auf 34 Prozent. Frauen in wohlhabenderen Ländern sind zudem deutlich stärker von KI-Automatisierung bedroht, so die Studienmacher. Besonders betroffen sind Büro- und Verwaltungsberufe, in denen Frauen überdurchschnittlich vertreten sind. In den USA sind beispielsweise weit über 90 Prozent der Assistenzstellen von Frauen besetzt. Zugleich zählt diese Tätigkeit laut dem US-Arbeitsministerium zu den fünf häufigsten Berufen für Frauen in den USA. Von Frauen dominierte Tätigkeiten sind allerdings nicht automatisch von KI bedroht: Pflegeberufe stufen die Studienmacher zum Beispiel als nicht stark durch KI gefährdet ein. KI als Chance für Frauen Rembrand Koning, Professor an der Harvard Business School, betont gegenüber dem Magazin Fortune, dass Frauen ihre Zukunft am Arbeitsplatz aber auch mit KI sichern können. Dazu müssen sie KI als unterstützendes Werkzeug statt als Bedrohung betrachten, so der Experte. Frauen nutzen KI-Tools allerdings im Durchschnitt 25 Prozent weniger als Männer. Einige befürchten, dass sie für den Einsatz der Technologie als Betrüger verurteilt werden oder dass der Rückgriff auf KI-Tools dazu führt, dass männliche Kollegen ihre Intelligenz in Frage stellen. Männer zeigen sich dagegen oft selbstbewusster im Umgang mit KI. Koning sieht deshalb die Verantwortung bei den Führungskräften, den Zugang zu KI-Technologien am Arbeitsplatz zu fördern und klare Richtlinien zu schaffen. Dann könnten alle Mitarbeitenden – unabhängig vom Geschlecht – die Vorteile der Technologie nutzen. Der Mensch bleibt unverzichtbar Gerade was Tätigkeiten von Software-Ingenieuren und Programmierern sowie Einstiegspositionen in verschiedenen Branchen betrifft, hat KI das Potenzial, viele Aufgaben zu übernehmen und damit ihre Stellen zu bedrohen. Laut einem Bloomberg-Bericht könnten zudem über die Hälfte der Aufgaben von Marktforschern und zwei Drittel der Aufgaben von Vertriebsmitarbeitenden durch KI ersetzt werden. Der ILO-NASK-Bericht betont jedoch, dass KI diese Jobs nicht vollständig ersetzen wird, da weiterhin menschliches Engagement erforderlich ist. 

KI bedroht Jobs von Frauen stärker als die von Männern​ KI trifft Frauenberufe besonders stark.
Anna_Summer – shutterstock.com

Eine Studie der Internationalen Arbeitsorganisation (ILO) und des polnischen Forschungsinstituts NASK zeigt, dass Künstliche Intelligenz (KI) Arbeitsplätze von Frauen überproportional stark beeinflusst.

Fast jeder zehnte Arbeitsplatz von Frauen gilt als besonders gefährdet, während es bei Männern nur 3,5 Prozent sind. Weltweit könnte ein Viertel aller Jobs von generativer KI (GenAI) beeinflusst werden, in wohlhabenden Ländern steigt dieser Anteil auf 34 Prozent. Frauen in wohlhabenderen Ländern sind zudem deutlich stärker von KI-Automatisierung bedroht, so die Studienmacher.

Besonders betroffen sind Büro- und Verwaltungsberufe, in denen Frauen überdurchschnittlich vertreten sind. In den USA sind beispielsweise weit über 90 Prozent der Assistenzstellen von Frauen besetzt. Zugleich zählt diese Tätigkeit laut dem US-Arbeitsministerium zu den fünf häufigsten Berufen für Frauen in den USA. Von Frauen dominierte Tätigkeiten sind allerdings nicht automatisch von KI bedroht: Pflegeberufe stufen die Studienmacher zum Beispiel als nicht stark durch KI gefährdet ein.

KI als Chance für Frauen

Rembrand Koning, Professor an der Harvard Business School, betont gegenüber dem Magazin Fortune, dass Frauen ihre Zukunft am Arbeitsplatz aber auch mit KI sichern können. Dazu müssen sie KI als unterstützendes Werkzeug statt als Bedrohung betrachten, so der Experte.

Frauen nutzen KI-Tools allerdings im Durchschnitt 25 Prozent weniger als Männer. Einige befürchten, dass sie für den Einsatz der Technologie als Betrüger verurteilt werden oder dass der Rückgriff auf KI-Tools dazu führt, dass männliche Kollegen ihre Intelligenz in Frage stellen.

Männer zeigen sich dagegen oft selbstbewusster im Umgang mit KI. Koning sieht deshalb die Verantwortung bei den Führungskräften, den Zugang zu KI-Technologien am Arbeitsplatz zu fördern und klare Richtlinien zu schaffen. Dann könnten alle Mitarbeitenden – unabhängig vom Geschlecht – die Vorteile der Technologie nutzen.

Der Mensch bleibt unverzichtbar

Gerade was Tätigkeiten von Software-Ingenieuren und Programmierern sowie Einstiegspositionen in verschiedenen Branchen betrifft, hat KI das Potenzial, viele Aufgaben zu übernehmen und damit ihre Stellen zu bedrohen. Laut einem Bloomberg-Bericht könnten zudem über die Hälfte der Aufgaben von Marktforschern und zwei Drittel der Aufgaben von Vertriebsmitarbeitenden durch KI ersetzt werden. Der ILO-NASK-Bericht betont jedoch, dass KI diese Jobs nicht vollständig ersetzen wird, da weiterhin menschliches Engagement erforderlich ist.

KI bedroht Jobs von Frauen stärker als die von Männern​ Weiterlesen »

RWE digitalisiert HR-Prozesse mit App​

Allgemein

Damit Mitarbeiter auch außerhalb des Büros auf HR-Prozesse zugreifen können, digitalisiert RWE diese mittels einer App. RWE Ein Großteil der rund 14.000 in Deutschland beschäftigen RWE-Mitarbeiter sind an unterschiedlichen, zum Teil sehr abgelegenen Standorten – von Kraftwerken bis Offshore-Windparks – tätig. Damit haben sie häufig keinen regelmäßigen Zugriff auf die Büroinfrastruktur. Ein Umstand, der in der Vergangenheit zur Konsequenz hatte, dass die Beschäftigten Dokumente wie Krankmeldungen, Fortbildungsbescheinigungen oder Arbeitsnachweise papierbasiert per Post an die HR-Abteilung schicken oder gar persönlich einreichen mussten. Ein Prozess, der nicht nur für die Mitarbeiter unbequem war. Auch in der HR-Abteilung führte er zu langen Bearbeitungszeiten und einem hohen manuellen Aufwand. HR-Dokumente per Handy einreichen Um hier effizienter zu werden, wollte der Konzern die papierbasierten Prozesse durch eine mobile Lösung ablösen. Ziel dabei: Zum einen eine Entlastung der HR-Abteilung, zum anderen sollten den Mitarbeitenden die Möglichkeit gegeben werden, jederzeit und überall auf wichtige Informationen und Services zugreifen zu können. Diese Zielsetzung vor Augen, entschied sich RWE für den modularen Mobile-App-Baukasten von Insiders Technologies aus Kaiserslautern. Bei dieser Lösung können Mitarbeitende ihre HR-Dokumente direkt per Smartphone abfotografieren und darüber übermitteln. Dabei sei es egal, ob sie im Büro, zu Hause oder an abgelegenen Standorten tätig sind. Automatisierte Verarbeitung im Backend Im Backend ordnet die dahinterliegende Plattform OmnIA sowie die damit einhergehenden KI-Technologien, die sich in der Vergangenheit im Konzern bereits bewährt haben, die eingehenden Dokumente automatisch in über 160 Klassen ein. Dabei werden relevante Daten extrahiert und nahtlos in die bestehenden HR-Systeme integriert. Auf diese Weise würden Bearbeitungszeiten verkürzt, Fehlerquellen minimiert und die HR-Abteilung spürbar entlastet. Damit trage die App nicht nur zur Effizienzsteigerung bei, sondern reduziere auch den Papierverbrauch und senke die administrativen Kosten. 

RWE digitalisiert HR-Prozesse mit App​ Damit Mitarbeiter auch außerhalb des Büros auf HR-Prozesse zugreifen können, digitalisiert RWE diese mittels einer App.
RWE

Ein Großteil der rund 14.000 in Deutschland beschäftigen RWE-Mitarbeiter sind an unterschiedlichen, zum Teil sehr abgelegenen Standorten – von Kraftwerken bis Offshore-Windparks – tätig. Damit haben sie häufig keinen regelmäßigen Zugriff auf die Büroinfrastruktur.

Ein Umstand, der in der Vergangenheit zur Konsequenz hatte, dass die Beschäftigten Dokumente wie Krankmeldungen, Fortbildungsbescheinigungen oder Arbeitsnachweise papierbasiert per Post an die HR-Abteilung schicken oder gar persönlich einreichen mussten. Ein Prozess, der nicht nur für die Mitarbeiter unbequem war. Auch in der HR-Abteilung führte er zu langen Bearbeitungszeiten und einem hohen manuellen Aufwand.

HR-Dokumente per Handy einreichen

Um hier effizienter zu werden, wollte der Konzern die papierbasierten Prozesse durch eine mobile Lösung ablösen. Ziel dabei: Zum einen eine Entlastung der HR-Abteilung, zum anderen sollten den Mitarbeitenden die Möglichkeit gegeben werden, jederzeit und überall auf wichtige Informationen und Services zugreifen zu können.

Diese Zielsetzung vor Augen, entschied sich RWE für den modularen Mobile-App-Baukasten von Insiders Technologies aus Kaiserslautern. Bei dieser Lösung können Mitarbeitende ihre HR-Dokumente direkt per Smartphone abfotografieren und darüber übermitteln. Dabei sei es egal, ob sie im Büro, zu Hause oder an abgelegenen Standorten tätig sind.

Automatisierte Verarbeitung im Backend

Im Backend ordnet die dahinterliegende Plattform OmnIA sowie die damit einhergehenden KI-Technologien, die sich in der Vergangenheit im Konzern bereits bewährt haben, die eingehenden Dokumente automatisch in über 160 Klassen ein. Dabei werden relevante Daten extrahiert und nahtlos in die bestehenden HR-Systeme integriert.

Auf diese Weise würden Bearbeitungszeiten verkürzt, Fehlerquellen minimiert und die HR-Abteilung spürbar entlastet. Damit trage die App nicht nur zur Effizienzsteigerung bei, sondern reduziere auch den Papierverbrauch und senke die administrativen Kosten.

RWE digitalisiert HR-Prozesse mit App​ Weiterlesen »

Der große GenAI-Fiebertraum​

Allgemein

Unschönes Erwachen vorprogrammiert.Jakov Simovic | shutterstock.com Aktuell bekommt man allzu leicht das Gefühl, in einer dualen Realität zu leben. Auch, wenn es um Technologie geht. Auf der einen Seite steht die futuristische KI-Vision, die etwa Google auf seiner Entwicklerkonferenz I/O präsentierte. Knapp zwei Stunden schwärmten die Google-Manager auf der großen Bühne davon, wie der KI-Assistent Gemini künftig noch komplexere Antworten aus dem Internet liefern sowie Einkäufe und Buchungen tätigen soll. Die Botschaft: Die Google-KI durchdringt alles und wird dabei nur immer schneller und besser. In ähnlichem Stil verfuhr auch Microsoft auf seiner Build-Konferenz. Dort war zu hören, dass Copilot demnächst als “Enterprise-Gehirn” fungieren soll, das sogar Verträge selbständig abwickelt. Surreal anmutende Visionen zur KI-Zukunft werden aber auch von OpenAI und allen anderen Marktteilnehmern regelmäßig verbreitet. Schenkt man den GenAI-Unternehmen Glauben, leben wir in einer Ära, in der der lebensverändernde Umbruch durch KI kontinuierlich bevorsteht. Auf der anderen Seite: die Praxis. Dort werden die Verheißungen der großen Tech-Unternehmen zu einer immer größeren Belastung für diejenigen, die noch Wert darauf legen, die Dinge richtig zu machen. Künstliche Intelligenz, reale Gefahr Das eigentliche Problem ist dabei nicht, dass die Technologie vollkommen unnütz ist – im Gegenteil. Aber ohne Zweifel ist Generative AI (GenAI) in seiner aktuellen Form nicht in der Lage, das zu leisten, was Google, Microsoft und Co. ununterbrochen in Aussicht stellen – sowohl wenn es um den privaten als auch den Business-Einsatz geht.   Im Kern bleiben Gemini und andere LLM-basierte Systeme bessere Prediction-Maschinen, die Inhalte auf Grundlage von Mustern erstellen: Sie reihen Zeichen aneinander, die manchmal Sinn ergeben. Oft aber auch Fehler enthalten oder frei erfunden sind. Wenn diese Tools etwas korrekt beantworten, dann ist das in den meisten Fällen dem Zufall geschuldet. Und die Benutzer haben in vielen Fällen wenig Möglichkeiten, das sofort zu erkennen. Von Denkfähigkeit kann also mit Blick auf KI-Tools weiterhin keine Rede sein. Trotzdem verkaufen die großen Tech-Player generative KI als die ultimative Lösung für jeden nur erdenklichen Zweck. Wie gefährlich das ist, zeigt sich immer wieder ganz deutlich:   Der Anwalt von Anthropic musste sich kürzlich vor Gericht entschuldigen, nachdem der KI-Chatbot Claude ihn im Rahmen des Urheberrechtsstreits mit Universal mit halluzinierten Zitaten “unterstützt” hatte. Es ist nur einer von vielen Fällen, in denen KI-Halluzinationen vor Gericht für “Irritationen” gesorgt haben. Der KI-Anbieter Cursor musste sich mit einer Flut von Kundenbeschwerden auseinandersetzen, nachdem sein KI-basierter “Support-Agent” bei der Interaktion mit Kunden nicht existierende Policies erfunden hatte.  Forscher der Carnegie Mellon University haben KI-Agenten in einem Experiment mit einfachen Tasks beauftragt, die denen in einem Softwareunternehmen nachempfunden waren. Die Systeme versagten kläglich – bei genau den Aufgaben, für die sie angeblich konzipiert wurden. Im Bereich der Softwareentwicklung häufen sich die Halluzinationsfälle ebenfalls – zum Beispiel in Form nicht-existenter Pakete. Das führt nicht nur zu zeit- und kostenintensiven Fehlern, sondern unter Umständen auch zu neuen, haarsträubenden Sicherheitslücken.   Das Columbia Journalism Review hat acht verschiedene GenAI-Suchmaschinen getestet. Das Ergebnis: Alle Systeme halluzinierten wild und lieferten in allen möglichen Bereichen falsche oder erfundene Informationen. Die Chicago Sun Times druckte das Werbe-Special eines Drittanbieters, das Empfehlungen zu nicht existenten Büchern enthielt. Die hatte die KI-Instanz erfunden, die der dafür verantwortliche (und jetzt um einige Aufträge ärmere) Freelancer zur Unterstützung herangezogen hatte.       Und das ist nur eine kleine Selektion aus dem großen Beispiel-Pool für KI-Versagen. Bessern dürfte sich die Situation in Zukunft auch eher nicht, wie ein Artikel der New York Times nahelegt. Demnach verstärkt sich „die Tendenz, Lügen und Ungenauigkeiten zu verbreiten“, mit zunehmender Leistungsfähigkeit der KI-Systeme nur noch weiter. Und doch scheinen diese Entwicklungen nur wenige zu beunruhigen. Die GenAI-Vision, die Big Tech verzweifelt verkaufen will, ist eben deutlich attraktiver als die Realität. Ganz besonders für Manager: So kommt die Unternehmensberatung EY in einer Umfrage unter 500 (US-)Führungskräften zum Ergebnis, dass 50 Prozent der Befragten davon ausgehen, dass dieselben KI-Agenten, die oben beschriebene Fails produzieren, in den nächsten zwei Jahren autonom in ihren Unternehmen arbeiten werden – also menschliche Arbeitskräfte ersetzen und ohne Aufsicht tätig sind. Na dann, Prost Mahlzeit. Zeit für GenAI-Reset Sämtliche Tech-Unternehmen, Business-Influencer und Medien, die dem Generative-AI-Hype blindlings folgen, tun gerne so, als seien all diese Dinge kein ernstes Problem. Als “Beweis” liefern sie beeindruckende Demos und Marketing-Fantastereien. Die Realität sieht anders aus: Man kann sich auf den Output, den LLM-basierte Chatbots liefern, einfach nicht verlassen.   Besonders beunruhigend ist dabei das vermeintliche Argument, dass die Fehlerrate der KI-Helfer sich im Laufe der Zeit verbessern würde. Selbst wenn man außer Acht lässt, dass diese Behauptung bereits widerlegt ist: Ein System, das eine Fehlerrate von fünf, zehn oder 20 Prozent aufweist, ist noch ungünstiger als eines, das in 50 Prozent (oder mehr) der Fälle Fehler macht. Letzteres führt immerhin sehr wahrscheinlich dazu, dass den menschlichen Benutzern die Halluzinationen auffallen – und zu der Überzeugung führen, dass dieses System als Informationsquelle unbrauchbar ist. Ersteres hingegen ist wesentlich gefährlicher, weil es die User in falscher Sicherheit wiegt – und diese in der Konsequenz weniger Aufmerksamkeit walten lassen. Um keine Missverständnisse aufkommen zu lassen: Natürlich kann Generative AI nützlich sein – auch im Unternehmensumfeld. Voraussetzung ist aber, dass die Technologie mit Bedacht und realistischen Erwartungen eingesetzt wird. Lassen Sie sich also nicht von den hübsch ausgeschmückten Utopien der Anbieter täuschen und betrachten Sie KI-Tools als das, was sie sind: Engines, die Wörter vorhersagen und für spezifische Szenarien eine gute Arbeitsgrundlage liefern können. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Der große GenAI-Fiebertraum​ Unschönes Erwachen vorprogrammiert.Jakov Simovic | shutterstock.com

Aktuell bekommt man allzu leicht das Gefühl, in einer dualen Realität zu leben. Auch, wenn es um Technologie geht. Auf der einen Seite steht die futuristische KI-Vision, die etwa Google auf seiner Entwicklerkonferenz I/O präsentierte. Knapp zwei Stunden schwärmten die Google-Manager auf der großen Bühne davon, wie der KI-Assistent Gemini künftig noch komplexere Antworten aus dem Internet liefern sowie Einkäufe und Buchungen tätigen soll. Die Botschaft: Die Google-KI durchdringt alles und wird dabei nur immer schneller und besser.

In ähnlichem Stil verfuhr auch Microsoft auf seiner Build-Konferenz. Dort war zu hören, dass Copilot demnächst als “Enterprise-Gehirn” fungieren soll, das sogar Verträge selbständig abwickelt. Surreal anmutende Visionen zur KI-Zukunft werden aber auch von OpenAI und allen anderen Marktteilnehmern regelmäßig verbreitet. Schenkt man den GenAI-Unternehmen Glauben, leben wir in einer Ära, in der der lebensverändernde Umbruch durch KI kontinuierlich bevorsteht.

Auf der anderen Seite: die Praxis. Dort werden die Verheißungen der großen Tech-Unternehmen zu einer immer größeren Belastung für diejenigen, die noch Wert darauf legen, die Dinge richtig zu machen.

Künstliche Intelligenz, reale Gefahr

Das eigentliche Problem ist dabei nicht, dass die Technologie vollkommen unnütz ist – im Gegenteil. Aber ohne Zweifel ist Generative AI (GenAI) in seiner aktuellen Form nicht in der Lage, das zu leisten, was Google, Microsoft und Co. ununterbrochen in Aussicht stellen – sowohl wenn es um den privaten als auch den Business-Einsatz geht.  

Im Kern bleiben Gemini und andere LLM-basierte Systeme bessere Prediction-Maschinen, die Inhalte auf Grundlage von Mustern erstellen: Sie reihen Zeichen aneinander, die manchmal Sinn ergeben. Oft aber auch Fehler enthalten oder frei erfunden sind. Wenn diese Tools etwas korrekt beantworten, dann ist das in den meisten Fällen dem Zufall geschuldet. Und die Benutzer haben in vielen Fällen wenig Möglichkeiten, das sofort zu erkennen. Von Denkfähigkeit kann also mit Blick auf KI-Tools weiterhin keine Rede sein. Trotzdem verkaufen die großen Tech-Player generative KI als die ultimative Lösung für jeden nur erdenklichen Zweck.

Wie gefährlich das ist, zeigt sich immer wieder ganz deutlich:  

Der Anwalt von Anthropic musste sich kürzlich vor Gericht entschuldigen, nachdem der KI-Chatbot Claude ihn im Rahmen des Urheberrechtsstreits mit Universal mit halluzinierten Zitaten “unterstützt” hatte. Es ist nur einer von vielen Fällen, in denen KI-Halluzinationen vor Gericht für “Irritationen” gesorgt haben.

Der KI-Anbieter Cursor musste sich mit einer Flut von Kundenbeschwerden auseinandersetzen, nachdem sein KI-basierter “Support-Agent” bei der Interaktion mit Kunden nicht existierende Policies erfunden hatte. 

Forscher der Carnegie Mellon University haben KI-Agenten in einem Experiment mit einfachen Tasks beauftragt, die denen in einem Softwareunternehmen nachempfunden waren. Die Systeme versagten kläglich – bei genau den Aufgaben, für die sie angeblich konzipiert wurden.

Im Bereich der Softwareentwicklung häufen sich die Halluzinationsfälle ebenfalls – zum Beispiel in Form nicht-existenter Pakete. Das führt nicht nur zu zeit- und kostenintensiven Fehlern, sondern unter Umständen auch zu neuen, haarsträubenden Sicherheitslücken.  

Das Columbia Journalism Review hat acht verschiedene GenAI-Suchmaschinen getestet. Das Ergebnis: Alle Systeme halluzinierten wild und lieferten in allen möglichen Bereichen falsche oder erfundene Informationen.

Die Chicago Sun Times druckte das Werbe-Special eines Drittanbieters, das Empfehlungen zu nicht existenten Büchern enthielt. Die hatte die KI-Instanz erfunden, die der dafür verantwortliche (und jetzt um einige Aufträge ärmere) Freelancer zur Unterstützung herangezogen hatte.      

Und das ist nur eine kleine Selektion aus dem großen Beispiel-Pool für KI-Versagen. Bessern dürfte sich die Situation in Zukunft auch eher nicht, wie ein Artikel der New York Times nahelegt. Demnach verstärkt sich „die Tendenz, Lügen und Ungenauigkeiten zu verbreiten“, mit zunehmender Leistungsfähigkeit der KI-Systeme nur noch weiter.

Und doch scheinen diese Entwicklungen nur wenige zu beunruhigen. Die GenAI-Vision, die Big Tech verzweifelt verkaufen will, ist eben deutlich attraktiver als die Realität. Ganz besonders für Manager: So kommt die Unternehmensberatung EY in einer Umfrage unter 500 (US-)Führungskräften zum Ergebnis, dass 50 Prozent der Befragten davon ausgehen, dass dieselben KI-Agenten, die oben beschriebene Fails produzieren, in den nächsten zwei Jahren autonom in ihren Unternehmen arbeiten werden – also menschliche Arbeitskräfte ersetzen und ohne Aufsicht tätig sind. Na dann, Prost Mahlzeit.

Zeit für GenAI-Reset

Sämtliche Tech-Unternehmen, Business-Influencer und Medien, die dem Generative-AI-Hype blindlings folgen, tun gerne so, als seien all diese Dinge kein ernstes Problem. Als “Beweis” liefern sie beeindruckende Demos und Marketing-Fantastereien. Die Realität sieht anders aus: Man kann sich auf den Output, den LLM-basierte Chatbots liefern, einfach nicht verlassen.  

Besonders beunruhigend ist dabei das vermeintliche Argument, dass die Fehlerrate der KI-Helfer sich im Laufe der Zeit verbessern würde. Selbst wenn man außer Acht lässt, dass diese Behauptung bereits widerlegt ist: Ein System, das eine Fehlerrate von fünf, zehn oder 20 Prozent aufweist, ist noch ungünstiger als eines, das in 50 Prozent (oder mehr) der Fälle Fehler macht. Letzteres führt immerhin sehr wahrscheinlich dazu, dass den menschlichen Benutzern die Halluzinationen auffallen – und zu der Überzeugung führen, dass dieses System als Informationsquelle unbrauchbar ist. Ersteres hingegen ist wesentlich gefährlicher, weil es die User in falscher Sicherheit wiegt – und diese in der Konsequenz weniger Aufmerksamkeit walten lassen.

Um keine Missverständnisse aufkommen zu lassen: Natürlich kann Generative AI nützlich sein – auch im Unternehmensumfeld. Voraussetzung ist aber, dass die Technologie mit Bedacht und realistischen Erwartungen eingesetzt wird. Lassen Sie sich also nicht von den hübsch ausgeschmückten Utopien der Anbieter täuschen und betrachten Sie KI-Tools als das, was sie sind: Engines, die Wörter vorhersagen und für spezifische Szenarien eine gute Arbeitsgrundlage liefern können. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Der große GenAI-Fiebertraum​ Weiterlesen »

How not to sabotage your transformation​

Allgemein

Zum 20. Geburtstag der Cloud werfen viele Fachleute, Unternehmen und Berater einen Blick zurück und rekapitulieren: Konnte das Cloud Computing den hohen Erwartungen am Markt gerecht werden? Wer hat in den vergangenen beiden Dekaden von der Technologie profitiert, wer ist in einer Kostenfalle gelandet? Und vor allem: Welche Lehren lassen sich aus der Entwicklung ziehen. Und, welche Leitplanken gelten derzeit für den Einsatz von Cloud Computing in Unternehmen? Die Nutzung von Cloud Services in den Firmen reicht von „Cloud only“ bis hin zu Nachzüglern, die sich gerade erst mit einer Cloud Adaption befassen. Auch der Umfang der Cloud Nutzung variiert stark und reicht bis zum teuren, wenn auch seltenen Infrastructure-as-a-Service. Sicher ist jedoch, dass sich erst durch Cloud-native Entwicklungen das Potenzial der Cloud voll ausschöpfen lässt. Im Mittelpunkt eines COMPUTERWOCHE-Webcast in Zusammenarbeit mit Hashicorp und AWS stehen konkrete Erfolgsszenarien, in denen eine hohe Wertschöpfung durch neue Technologie und eine stark reduzierte Time-To-Market geschaffen wurde. Was diese Szenarien verbindet, ist ein ganzheitlicher Ansatz, der Menschen, Prozesse und Technologien umfasst, und als Basis für die umfassende Modernisierung des IT-Stacks und der Betriebsverfahren dient. Erfahren Sie im Webcast, warum der Schlüssel für den Erfolg von Cloud-Projekten nicht Migration, sondern Modernisierung ist. Steffen Wagner von HashiCorp zeigt konkrete Wege auf, wie Cloud zum Business Enabler wird. Matthias Patzak von AWS erläutert, wie andere Unternehmen ihre Wettbewerbsfähigkeit durch Cloud Modernisierung gesteigert haben und wie sich ein Scheitern der Transformation verhindern lässt. Der Fachjournalist Dr. Oliver Janzen moderiert den Webcast. Webcast: Cloud ModernisierungErfahren Sie im COMPUTERWOCHE-Webcast anhand konkreter Szenarien von echter Cloud Transformation, wie Sie ihre eigenen Cloud-Projekte zum Erfolg führen.Registrieren Sie sich jetzt 

How not to sabotage your transformation​ Zum 20. Geburtstag der Cloud werfen viele Fachleute, Unternehmen und Berater einen Blick zurück und rekapitulieren: Konnte das Cloud Computing den hohen Erwartungen am Markt gerecht werden? Wer hat in den vergangenen beiden Dekaden von der Technologie profitiert, wer ist in einer Kostenfalle gelandet? Und vor allem: Welche Lehren lassen sich aus der Entwicklung ziehen. Und, welche Leitplanken gelten derzeit für den Einsatz von Cloud Computing in Unternehmen?

Die Nutzung von Cloud Services in den Firmen reicht von „Cloud only“ bis hin zu Nachzüglern, die sich gerade erst mit einer Cloud Adaption befassen. Auch der Umfang der Cloud Nutzung variiert stark und reicht bis zum teuren, wenn auch seltenen Infrastructure-as-a-Service. Sicher ist jedoch, dass sich erst durch Cloud-native Entwicklungen das Potenzial der Cloud voll ausschöpfen lässt.

Im Mittelpunkt eines COMPUTERWOCHE-Webcast in Zusammenarbeit mit Hashicorp und AWS stehen konkrete Erfolgsszenarien, in denen eine hohe Wertschöpfung durch neue Technologie und eine stark reduzierte Time-To-Market geschaffen wurde. Was diese Szenarien verbindet, ist ein ganzheitlicher Ansatz, der Menschen, Prozesse und Technologien umfasst, und als Basis für die umfassende Modernisierung des IT-Stacks und der Betriebsverfahren dient.

Erfahren Sie im Webcast, warum der Schlüssel für den Erfolg von Cloud-Projekten nicht Migration, sondern Modernisierung ist. Steffen Wagner von HashiCorp zeigt konkrete Wege auf, wie Cloud zum Business Enabler wird. Matthias Patzak von AWS erläutert, wie andere Unternehmen ihre Wettbewerbsfähigkeit durch Cloud Modernisierung gesteigert haben und wie sich ein Scheitern der Transformation verhindern lässt. Der Fachjournalist Dr. Oliver Janzen moderiert den Webcast.

Webcast: Cloud ModernisierungErfahren Sie im COMPUTERWOCHE-Webcast anhand konkreter Szenarien von echter Cloud Transformation, wie Sie ihre eigenen Cloud-Projekte zum Erfolg führen.Registrieren Sie sich jetzt

How not to sabotage your transformation​ Weiterlesen »

Automatisierung – warum Tools allein nicht reichen​

Allgemein

Prozesse einheitlich Ende-zu-Ende denken – so lassen sich Mehrwerte durch Automatisierung heben.SuPatMaN – Shutterstock Der Wunsch zur Automatisierung ist allgegenwärtig. Kaum tauchen Aufgaben auf, die es zu erledigen gilt, sucht der Mensch nach Wegen, wie sich diese ohne sein Zutun automatisiert abarbeiten lassen.  Und so mangelt es auch in Unternehmen nicht an Ideen, wie sich Arbeit automatisieren lässt – vom Buchhaltungskollegen, der seine Excel-Tabellen bis zur Unkenntlichkeit verformelt bis zum IT-Verantwortlichen, der hunderte Zugriffsanfragen mit einem Self-Service-Portal mit Genehmigungsworkflow löst.  Spannend wird es allerdings, wenn es darum geht, das große Ganze zu betrachten – doch das passiert noch eher selten, wie Leon Strauch, Principal Practice Strategist bei Camunda, beim COMPUTERWOCHE-Roundtable zum Thema “Automatisierung” feststellt: “Viele Organisationen denken immer noch sehr lokal und versuchen lediglich, einzelne Teilstrecken zu automatisieren.” Damit ließen sich zwar auch Effizienzen heben. “Aber man trifft schnell auf eine harte Decke und baut sogar technische Schulden auf, wenn man Prozesse nicht ganzheitlich von Ende-zu-Ende denkt und entsprechend orchestriert”, ergänzt Strauch. Informationen zu den Partner-Paketen der Studie “Automatisierung 2025” Automatisierungsbegeisterte in den Fachabteilungen fördern Doch selbst die beste Strategie bleibt wirkungslos, wenn niemand sie mit Leben füllt. Wer Prozesse automatisieren will, braucht mehr als Tools – nämlich Menschen, die für das Thema brennen. “Es gibt so viele Beispiele von Automatisierungsprojekten, die vom Management angeordnet werden, dann aber im Sande verlaufen, weil es an der Basis niemanden gibt, der das Thema wirklich aufgreift”, berichtet Tobias Schicht, Partner bei Leadvise Reply, aus der Praxis. Deshalb sei es wichtig, Awareness zu schaffen und aufzuzeigen, dass Automatisierung keine Bedrohung für die Jobs der Mitarbeitenden darstelle, sondern eine Chance sei. Es brauche konkrete Personen im Unternehmen, die die Automatisierung für sich annehmen und vorantreiben. Beim geneigten IT-Verantwortlichen lässt das unter Umständen sofort die Alarmglocken schrillen: Schatten-IT! Christian Heinrichs, Sen. Director Solution Engineering Continental Europe bei UiPath, sieht das jedoch etwas entspannter: “Unternehmen sollten eher fördern, dass einzelne Mitarbeiter sich ihre eigenen Lösungen bauen”, erklärt er. Wenn Kollegen aus den Fachabteilungen unabhängig vom jeweiligen Tool sich in ihren jeweiligen Prozessstücken mit Automatisierungen beschäftigen, sei das bereits ein wertvoller Anfang. Natürlich müssten solche Ansätze langfristig auf ein strategischeres Niveau gehoben werden, ergänzt Heinrichs. “Doch der Blick für die kleinen Details ist extrem wertvoll.” IT und Business gemeinsam denken Doch damit diese Projekte im kleinen Wirkung entfalten können, braucht es Struktur, wie die Expertenrunde unisono betont: Weder Fachbereiche noch IT können die Automatisierung allein stemmen.  Denn nicht jeder in den Business-Abteilungen hat ein umfassendes Bild bestehender Prozesse und wie diese in andere Bereiche hineinragen. Und während ein enger Austausch zwischen CIO und COO wünschenswert wäre, lässt sich auch mit einfachen Maßnahmen bereits große Wirkung erzielen, wie Patrick Arnold, Regional Solution Lead Europe von Randstad Digital hervorhebt: “Ein ganz pragmatisches Vorgehen kann schon sein, wenn ein paar Process Engineers einfach für einige Tage in die Fachabteilungen gehen”, erklärt Arnold. Dies hätte den Vorteil, dass sich alle noch in ihren eigenen Teams verwurzelt fühlen, erlaube es aber sowohl Fach- als auch IT-Seite, schnell echte Potenziale zu identifizieren. Auch Fiona Schewski, Partnerin Technology Consulting bei EY, plädiert für eine engere Zusammenarbeit: “Immer mehr Unternehmen wollen Digitalanbieter werden. Das gelingt langfristig nur, wenn sie die strikte Trennung zwischen Business und IT aufheben.” Schewski rät dazu, sowohl die Fachbereiche als auch die IT mit einem grundlegenden Automatisierungsbaukasten auszustatten und über Schulungsreihen, Wissensmanagement & Co. die nötigen Fähigkeiten aufzubauen. Studie “Automatisierung”: Sie können sich noch beteiligen!Zum Thema Automatisierung führt die COMPUTERWOCHE derzeit eine Multi-Client-Studie unter IT-Verantwortlichen durch. Haben Sie Fragen zu dieser Studie oder wollen Partner bei dieser Studie werden, helfen wir Ihnen unter research-sales@foundryco.com gerne weiter. Informationen zur Studie finden Sie auch hier zum Download (PDF). KI ergänzt klassische Automatisierung, ersetzt sie aber nicht Auch, wenn nicht sogar gerade im Bereich der Automatisierung spielt natürlich das Thema künstliche Intelligenz eine wichtige Rolle im aktuellen Diskurs. Wird Automatisierung an sich obsolet, da KI-Agents bald ganze Prozesse alleine übernehmen können? Michael Eckert, Distinguished Technical Architect bei Salesforce, dämpft indes die Erwartungen, auch wenn er die Fortschritte hervorhebt, die im Bereich Automatisierung mit KI in den letzten Jahren gemacht wurden. “Dass gesamte Produktionsketten nur durch KI-Agents laufen, ist noch Zukunftsmusik”, stellt Eckert fest. Zwar können diese mittlerweile sehr viel, doch gerade bei der Übergabe zwischen den Systemen gäbe es heute noch große Herausforderungen, weil Daten zunächst harmonisiert und verfügbar gemacht werden müssen. Auch Eckert betont, wie wichtig die Einbindung der Fachbereiche für die Optimierung von KI-Agenten sei – diese erforderten viel Testing, das in der Funktionalität häufig nur durch die Business-Seite übernommen werden könne. Leadvise-Reply-Manager Schicht stimmt zu: “Künstliche Intelligenz ersetzt nicht die klassische Automatisierung – sie ergänzt sie.” Viele Systemlandschaften seien noch stark fragmentiert oder bestünden aus verschiedenen Monolithen. An diesen “Bruchstellen” brauche es nach wie vor Vehikel wie APIs oder Robotic Process Automation (RPA). Zumal für viele Unternehmen noch gar nicht scharf definiert ist, was der Einsatz von KI denn überhaupt bedeutet, wie Arne Melcher, Principal Technical Manager Automation Software bei IBM, beschreibt – Generative KI, Foundation Models und Large Language Models (LLM) markieren zwar allesamt große technologische Fortschritte. “Aber der Projekterfolg steigt immer dann spürbar, wenn Mitarbeitende verstehen, wie Daten angereichert und Modelle trainiert werden müssen”, erklärt Melcher. Dabei sei Kontrolle und die richtige Orchestrierung entscheidend. “Der Wunsch, die Kontrolle zu behalten, ist kein Misstrauen gegenüber der Technologie, sondern eine notwendige Voraussetzung, um zu entscheiden, wie wir technologisch vorangehen.” Einen neuen Aspekt, den klassische Automatisierung aufgrund ihres statischen und gewissermaßen “hardgecodeten” Charakters so nicht abbilden kann, bringt KI jedoch jetzt schon ein: “Wenn in diesen statischen Systemen und Schnittstellen Veränderungen auftreten, kann das zu signifikanten Unterbrechungen führen”, wirft Christian Heinrichs in die Runde. “Mit KI lassen sich jedoch ‘Selbstheilungsfunktionen’ umsetzen, die auf solche Veränderungen reagieren und so ein intelligentes Mitwachsen der Automatisierungen möglich machen.” Transparenz als Basis für die Orchestrierung Doch wie soll eine nachhaltige Orchestrierung überhaupt gelingen in einem Zeitalter, in dem sich Prozesse und Bedingungen ständig ändern? Dazu sollten die Verantwortlichen in den Unternehmen an ihrer Geisteshaltung arbeiten: manches muss man einfach aushalten.  “Es ist ein Trugschluss, dass man immer auf jede Veränderung sofort reagieren muss”, erklärt Schewski von EY. Denn wenn ein Prozess erstmal orchestriert ist, befänden sich Unternehmen bereits in einem konstanten Anpassungsprozess. Wichtiger sei es daher, zu verstehen, wie die einzelnen Systeme und Schnittstellen zusammenhängen, um zu erkennen, welche Bereiche tatsächlich beeinflusst werden. Zu Beginn steht daher erstmal eine Art der Inventur, betont IBM-Manager Melcher. Zu verstehen, wo man steht, sei eine wichtige Voraussetzung – dabei könne auch Process Mining einen wichtigen Beitrag leisten. Zudem rät er auch zu grafischer Modellierung – alles, was helfe, Klarheit zu gewinnen, sei erlaubt. Auch KI könne hier unterstützen, etwa indem sie historische Daten analysiert und Prozesse schneller abbildet, als dies manuell möglich ist. Mit dieser Transparenz als Basis lassen sich dann sinnvoll die Systeme zusammenbringen – doch Unternehmen sollten sich auch eines vor Augen halten: Automatisierung ist kein Sprint, sondern ein langfristiges Zusammenspiel vieler kleiner Schritte. “Der einzelne Schritt bringt allein nicht viel, aber die Kombination und Orchestrierung entfaltet das Potenzial”, erklärt Heinrichs von UIPath. Es brauche eine Strategie, Ausdauer und manchmal auch schlicht Grundlagenarbeit: Prozesse, die eins zu eins durch eine KI basierte Automatisierung ersetzt werden, erscheinen auf den ersten Blick nicht revolutionär – doch als Teil einer Agentic Orchestration Strategie können sie im Zusammenspiel enorme Wirkung entfalten. Informationen zu den Partner-Paketen der Studie “Automatisierung 2025” Teilnehmer des Roundtables “Automatisierung” width=”1024″ sizes=”(max-width: 1024px) 100vw, 1024px” loading=”lazy”>Leon Strauch, Camunda:  “Erfolgreiche Prozessorchestrierung, die Ende-zu-Ende gedacht wird, erfordert eine sehr enge Zusammenarbeit zwischen dem CIO- und dem COO-Office, insbesondere hier in Deutschland, wo meistens die Betriebsorganisation für die Prozesslandschaft zuständig ist und den Überblick hat. So lassen sich Potenziale strategisch identifizieren und auf der IT-Seite die richtigen Tools finden. Angesichts einer starken Fragmentierung der Anwendungslandschaft ist es wichtig, die Prozessschicht von den Systemen loszulösen und sie zu orchestrieren, um die Komplexität besser im Griff zu haben. Anschließend können Unternehmen den Automatisierungsgrad graduell erhöhen und die Customer Experience gezielt verbessern, bspw. durch die Integration von KI-Agenten.” Camunda Services GmbH srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Fiona-Schewski_EY_16x9.png?quality=50&strip=all 10558w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Fiona-Schewski_EY_16x9.png?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Fiona-Schewski_EY_16x9.png?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Fiona-Schewski_EY_16x9.png?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Fiona-Schewski_EY_16x9.png?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Fiona-Schewski_EY_16x9.png?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Fiona-Schewski_EY_16x9.png?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Fiona-Schewski_EY_16x9.png?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Fiona-Schewski_EY_16x9.png?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Fiona-Schewski_EY_16x9.png?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Fiona-Schewski_EY_16x9.png?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Fiona Schewski, EY: „Immer mehr Unternehmen wollen Digitalanbieter werden. Das gelingt langfristig nur, wenn sie die strikte Trennung zwischen Business und IT aufheben. Sowohl die Fachbereiche als auch die IT brauchen also sowohl die richtigen Tools als auch die Möglichkeit, eigenständig ihren Teil des Gesamtprozesses zu optimieren – am besten im Rahmen einer umfassenden Automatisierungsstrategie und begleitet durch entsprechende Schulungsreihen.“ EY GmbH & Co. KG Wirtschaftsprüfungsgesellschaft width=”1024″ sizes=”(max-width: 1024px) 100vw, 1024px” loading=”lazy”>Arne Melcher, IBM: „Wer Automatisierung ernsthaft angehen will, braucht zuerst eines: Transparenz und ein klares Verständnis der eigenen Prozesse. Doch Transparenz allein reicht nicht. Um Kontrolle zu behalten, braucht es Governance: klare Regeln, Verantwortlichkeiten und die Fähigkeit, jederzeit nachvollziehen zu können, was automatisiert wird – und warum.“ IBM Deutschland GmbH srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/05/randstad-arnold_patrick_16x9.png?quality=50&strip=all 3870w, https://b2b-contenthub.com/wp-content/uploads/2025/05/randstad-arnold_patrick_16x9.png?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/05/randstad-arnold_patrick_16x9.png?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/05/randstad-arnold_patrick_16x9.png?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/05/randstad-arnold_patrick_16x9.png?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/05/randstad-arnold_patrick_16x9.png?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/05/randstad-arnold_patrick_16x9.png?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/05/randstad-arnold_patrick_16x9.png?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/05/randstad-arnold_patrick_16x9.png?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/05/randstad-arnold_patrick_16x9.png?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/05/randstad-arnold_patrick_16x9.png?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Patrick Arnold, Randstad Digital: „Erste POCs mit KI-Technologie sehen wir inzwischen in vielen Organisationen – aber ohne Schnittstellenkonzept und solide Orchestrierung bleibt das Stückwerk. Agents sind kein Wundermittel, wenn die Grundlagen fehlen. Was wir brauchen, ist ein integrativer Ansatz, der Prozesse nicht nur automatisiert, sondern sie als digitale Produkte versteht – mit allem, was dazugehört: Verantwortung, Weiterentwicklung und Zusammenarbeit über Silos hinweg.“ ©BECKERLACOUR / Randstad Deutschland GmbH & Co. KG srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Tobias-Schicht_Partner-Leadvise-Reply_16x9.png?quality=50&strip=all 5925w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Tobias-Schicht_Partner-Leadvise-Reply_16x9.png?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Tobias-Schicht_Partner-Leadvise-Reply_16x9.png?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Tobias-Schicht_Partner-Leadvise-Reply_16x9.png?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Tobias-Schicht_Partner-Leadvise-Reply_16x9.png?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Tobias-Schicht_Partner-Leadvise-Reply_16x9.png?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Tobias-Schicht_Partner-Leadvise-Reply_16x9.png?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Tobias-Schicht_Partner-Leadvise-Reply_16x9.png?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Tobias-Schicht_Partner-Leadvise-Reply_16x9.png?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Tobias-Schicht_Partner-Leadvise-Reply_16x9.png?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Tobias-Schicht_Partner-Leadvise-Reply_16x9.png?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Tobias Schicht, Leadvise Reply: „Der Erfolg von Automatisierungsprojekten hängt stark von den handelnden Personen ab. Wenn jemand das Thema für sich entdeckt hat und dafür brennt, ist das unglaublich wertvoll. Es gibt so viele Beispiele von Automatisierungsprojekten, die vom Management angewiesen werden, die dann im Sande verlaufen, weil es an der Basis niemanden gibt, der das Thema wirklich aufgreift. Dazu ist es auch wichtig, ein Bewusstsein dafür zu schaffen, dass Automatisierung nicht nur ein Mittel zur Kostensenkung ist, sondern auch eine Möglichkeit, die Mitarbeiter von unattraktiven Tätigkeiten zu entlasten – und damit den Arbeitsalltag zu bereichern und den Fokus auf spannendere Aufgaben zu lenken.“ Leadvise Reply GmbH srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/05/michael-eckert-salesforce_16x9.png?quality=50&strip=all 4889w, https://b2b-contenthub.com/wp-content/uploads/2025/05/michael-eckert-salesforce_16x9.png?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/05/michael-eckert-salesforce_16x9.png?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/05/michael-eckert-salesforce_16x9.png?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/05/michael-eckert-salesforce_16x9.png?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/05/michael-eckert-salesforce_16x9.png?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/05/michael-eckert-salesforce_16x9.png?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/05/michael-eckert-salesforce_16x9.png?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/05/michael-eckert-salesforce_16x9.png?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/05/michael-eckert-salesforce_16x9.png?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/05/michael-eckert-salesforce_16x9.png?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Michael Eckert, Salesforce: “Künstliche Intelligenz wird auch in der Automatisierung zukünftig eine immer wichtigere Rolle spielen, die klassische Automatisierung vollständig ersetzen wird sie jedoch auf absehbare Zeit noch nicht. Doch KI-Agents können sehr viel zum Erfolg in diesem Bereich beitragen –  wenn IT und Fachabteilungen sehr eng zusammenarbeiten, um diese entlang der konkreten Businessanforderungen auszurichten.” Salesforce.com Germany GmbH srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/05/Christian_Heinrichs_16x9.png?quality=50&strip=all 597w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Christian_Heinrichs_16x9.png?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Christian_Heinrichs_16x9.png?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Christian_Heinrichs_16x9.png?resize=444%2C250&quality=50&strip=all 444w” width=”597″ height=”336″ sizes=”(max-width: 597px) 100vw, 597px”>Christian Heinrichs, UiPath: „Strategische Orchestrierung bedeutet nicht, dass Unternehmen jeden Aspekt auf dem Weg zu mehr Automatisierung kontrollieren müssen. Unternehmen sollten eher fördern, dass einzelne Mitarbeiter sich ihre eigenen Lösungen bauen. Diese kleinen, individuellen Automatisierungen sind ein wertvoller erster Schritt und bildet interne Champions in den Fachabteilungen heraus, die Automatisierung mit Blick auf die konkreten Belange des eigenen Bereichs voranbringen. Natürlich müssen solche Ansätze langfristig auf ein strategisches Niveau gehoben werden. Doch der Blick für die kleinen Details ist extrem wertvoll für den Erfolg und die Akzeptanz.“ UiPath GmbH 

Automatisierung – warum Tools allein nicht reichen​ Prozesse einheitlich Ende-zu-Ende denken – so lassen sich Mehrwerte durch Automatisierung heben.SuPatMaN – Shutterstock

Der Wunsch zur Automatisierung ist allgegenwärtig. Kaum tauchen Aufgaben auf, die es zu erledigen gilt, sucht der Mensch nach Wegen, wie sich diese ohne sein Zutun automatisiert abarbeiten lassen. 

Und so mangelt es auch in Unternehmen nicht an Ideen, wie sich Arbeit automatisieren lässt – vom Buchhaltungskollegen, der seine Excel-Tabellen bis zur Unkenntlichkeit verformelt bis zum IT-Verantwortlichen, der hunderte Zugriffsanfragen mit einem Self-Service-Portal mit Genehmigungsworkflow löst. 

Spannend wird es allerdings, wenn es darum geht, das große Ganze zu betrachten – doch das passiert noch eher selten, wie Leon Strauch, Principal Practice Strategist bei Camunda, beim COMPUTERWOCHE-Roundtable zum Thema “Automatisierung” feststellt: “Viele Organisationen denken immer noch sehr lokal und versuchen lediglich, einzelne Teilstrecken zu automatisieren.” Damit ließen sich zwar auch Effizienzen heben. “Aber man trifft schnell auf eine harte Decke und baut sogar technische Schulden auf, wenn man Prozesse nicht ganzheitlich von Ende-zu-Ende denkt und entsprechend orchestriert”, ergänzt Strauch.

Informationen zu den Partner-Paketen der Studie “Automatisierung 2025”

Automatisierungsbegeisterte in den Fachabteilungen fördern

Doch selbst die beste Strategie bleibt wirkungslos, wenn niemand sie mit Leben füllt. Wer Prozesse automatisieren will, braucht mehr als Tools – nämlich Menschen, die für das Thema brennen.

“Es gibt so viele Beispiele von Automatisierungsprojekten, die vom Management angeordnet werden, dann aber im Sande verlaufen, weil es an der Basis niemanden gibt, der das Thema wirklich aufgreift”, berichtet Tobias Schicht, Partner bei Leadvise Reply, aus der Praxis. Deshalb sei es wichtig, Awareness zu schaffen und aufzuzeigen, dass Automatisierung keine Bedrohung für die Jobs der Mitarbeitenden darstelle, sondern eine Chance sei. Es brauche konkrete Personen im Unternehmen, die die Automatisierung für sich annehmen und vorantreiben.

Beim geneigten IT-Verantwortlichen lässt das unter Umständen sofort die Alarmglocken schrillen: Schatten-IT! Christian Heinrichs, Sen. Director Solution Engineering Continental Europe bei UiPath, sieht das jedoch etwas entspannter: “Unternehmen sollten eher fördern, dass einzelne Mitarbeiter sich ihre eigenen Lösungen bauen”, erklärt er. Wenn Kollegen aus den Fachabteilungen unabhängig vom jeweiligen Tool sich in ihren jeweiligen Prozessstücken mit Automatisierungen beschäftigen, sei das bereits ein wertvoller Anfang. Natürlich müssten solche Ansätze langfristig auf ein strategischeres Niveau gehoben werden, ergänzt Heinrichs. “Doch der Blick für die kleinen Details ist extrem wertvoll.”

IT und Business gemeinsam denken

Doch damit diese Projekte im kleinen Wirkung entfalten können, braucht es Struktur, wie die Expertenrunde unisono betont: Weder Fachbereiche noch IT können die Automatisierung allein stemmen. 

Denn nicht jeder in den Business-Abteilungen hat ein umfassendes Bild bestehender Prozesse und wie diese in andere Bereiche hineinragen. Und während ein enger Austausch zwischen CIO und COO wünschenswert wäre, lässt sich auch mit einfachen Maßnahmen bereits große Wirkung erzielen, wie Patrick Arnold, Regional Solution Lead Europe von Randstad Digital hervorhebt: “Ein ganz pragmatisches Vorgehen kann schon sein, wenn ein paar Process Engineers einfach für einige Tage in die Fachabteilungen gehen”, erklärt Arnold. Dies hätte den Vorteil, dass sich alle noch in ihren eigenen Teams verwurzelt fühlen, erlaube es aber sowohl Fach- als auch IT-Seite, schnell echte Potenziale zu identifizieren.

Auch Fiona Schewski, Partnerin Technology Consulting bei EY, plädiert für eine engere Zusammenarbeit: “Immer mehr Unternehmen wollen Digitalanbieter werden. Das gelingt langfristig nur, wenn sie die strikte Trennung zwischen Business und IT aufheben.” Schewski rät dazu, sowohl die Fachbereiche als auch die IT mit einem grundlegenden Automatisierungsbaukasten auszustatten und über Schulungsreihen, Wissensmanagement & Co. die nötigen Fähigkeiten aufzubauen.

Studie “Automatisierung”: Sie können sich noch beteiligen!Zum Thema Automatisierung führt die COMPUTERWOCHE derzeit eine Multi-Client-Studie unter IT-Verantwortlichen durch. Haben Sie Fragen zu dieser Studie oder wollen Partner bei dieser Studie werden, helfen wir Ihnen unter research-sales@foundryco.com gerne weiter. Informationen zur Studie finden Sie auch hier zum Download (PDF).

KI ergänzt klassische Automatisierung, ersetzt sie aber nicht

Auch, wenn nicht sogar gerade im Bereich der Automatisierung spielt natürlich das Thema künstliche Intelligenz eine wichtige Rolle im aktuellen Diskurs. Wird Automatisierung an sich obsolet, da KI-Agents bald ganze Prozesse alleine übernehmen können?

Michael Eckert, Distinguished Technical Architect bei Salesforce, dämpft indes die Erwartungen, auch wenn er die Fortschritte hervorhebt, die im Bereich Automatisierung mit KI in den letzten Jahren gemacht wurden. “Dass gesamte Produktionsketten nur durch KI-Agents laufen, ist noch Zukunftsmusik”, stellt Eckert fest. Zwar können diese mittlerweile sehr viel, doch gerade bei der Übergabe zwischen den Systemen gäbe es heute noch große Herausforderungen, weil Daten zunächst harmonisiert und verfügbar gemacht werden müssen. Auch Eckert betont, wie wichtig die Einbindung der Fachbereiche für die Optimierung von KI-Agenten sei – diese erforderten viel Testing, das in der Funktionalität häufig nur durch die Business-Seite übernommen werden könne.

Leadvise-Reply-Manager Schicht stimmt zu: “Künstliche Intelligenz ersetzt nicht die klassische Automatisierung – sie ergänzt sie.” Viele Systemlandschaften seien noch stark fragmentiert oder bestünden aus verschiedenen Monolithen. An diesen “Bruchstellen” brauche es nach wie vor Vehikel wie APIs oder Robotic Process Automation (RPA).

Zumal für viele Unternehmen noch gar nicht scharf definiert ist, was der Einsatz von KI denn überhaupt bedeutet, wie Arne Melcher, Principal Technical Manager Automation Software bei IBM, beschreibt – Generative KI, Foundation Models und Large Language Models (LLM) markieren zwar allesamt große technologische Fortschritte. “Aber der Projekterfolg steigt immer dann spürbar, wenn Mitarbeitende verstehen, wie Daten angereichert und Modelle trainiert werden müssen”, erklärt Melcher. Dabei sei Kontrolle und die richtige Orchestrierung entscheidend. “Der Wunsch, die Kontrolle zu behalten, ist kein Misstrauen gegenüber der Technologie, sondern eine notwendige Voraussetzung, um zu entscheiden, wie wir technologisch vorangehen.”

Einen neuen Aspekt, den klassische Automatisierung aufgrund ihres statischen und gewissermaßen “hardgecodeten” Charakters so nicht abbilden kann, bringt KI jedoch jetzt schon ein: “Wenn in diesen statischen Systemen und Schnittstellen Veränderungen auftreten, kann das zu signifikanten Unterbrechungen führen”, wirft Christian Heinrichs in die Runde. “Mit KI lassen sich jedoch ‘Selbstheilungsfunktionen’ umsetzen, die auf solche Veränderungen reagieren und so ein intelligentes Mitwachsen der Automatisierungen möglich machen.”

Transparenz als Basis für die Orchestrierung

Doch wie soll eine nachhaltige Orchestrierung überhaupt gelingen in einem Zeitalter, in dem sich Prozesse und Bedingungen ständig ändern? Dazu sollten die Verantwortlichen in den Unternehmen an ihrer Geisteshaltung arbeiten: manches muss man einfach aushalten. 

“Es ist ein Trugschluss, dass man immer auf jede Veränderung sofort reagieren muss”, erklärt Schewski von EY. Denn wenn ein Prozess erstmal orchestriert ist, befänden sich Unternehmen bereits in einem konstanten Anpassungsprozess. Wichtiger sei es daher, zu verstehen, wie die einzelnen Systeme und Schnittstellen zusammenhängen, um zu erkennen, welche Bereiche tatsächlich beeinflusst werden.

Zu Beginn steht daher erstmal eine Art der Inventur, betont IBM-Manager Melcher. Zu verstehen, wo man steht, sei eine wichtige Voraussetzung – dabei könne auch Process Mining einen wichtigen Beitrag leisten. Zudem rät er auch zu grafischer Modellierung – alles, was helfe, Klarheit zu gewinnen, sei erlaubt. Auch KI könne hier unterstützen, etwa indem sie historische Daten analysiert und Prozesse schneller abbildet, als dies manuell möglich ist.

Mit dieser Transparenz als Basis lassen sich dann sinnvoll die Systeme zusammenbringen – doch Unternehmen sollten sich auch eines vor Augen halten: Automatisierung ist kein Sprint, sondern ein langfristiges Zusammenspiel vieler kleiner Schritte. “Der einzelne Schritt bringt allein nicht viel, aber die Kombination und Orchestrierung entfaltet das Potenzial”, erklärt Heinrichs von UIPath. Es brauche eine Strategie, Ausdauer und manchmal auch schlicht Grundlagenarbeit: Prozesse, die eins zu eins durch eine KI basierte Automatisierung ersetzt werden, erscheinen auf den ersten Blick nicht revolutionär – doch als Teil einer Agentic Orchestration Strategie können sie im Zusammenspiel enorme Wirkung entfalten.

Informationen zu den Partner-Paketen der Studie “Automatisierung 2025”

Teilnehmer des Roundtables “Automatisierung”

width=”1024″ sizes=”(max-width: 1024px) 100vw, 1024px” loading=”lazy”>Leon Strauch, Camunda: 
“Erfolgreiche Prozessorchestrierung, die Ende-zu-Ende gedacht wird, erfordert eine sehr enge Zusammenarbeit zwischen dem CIO- und dem COO-Office, insbesondere hier in Deutschland, wo meistens die Betriebsorganisation für die Prozesslandschaft zuständig ist und den Überblick hat. So lassen sich Potenziale strategisch identifizieren und auf der IT-Seite die richtigen Tools finden. Angesichts einer starken Fragmentierung der Anwendungslandschaft ist es wichtig, die Prozessschicht von den Systemen loszulösen und sie zu orchestrieren, um die Komplexität besser im Griff zu haben. Anschließend können Unternehmen den Automatisierungsgrad graduell erhöhen und die Customer Experience gezielt verbessern, bspw. durch die Integration von KI-Agenten.”
Camunda Services GmbH

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Fiona-Schewski_EY_16x9.png?quality=50&strip=all 10558w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Fiona-Schewski_EY_16x9.png?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Fiona-Schewski_EY_16x9.png?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Fiona-Schewski_EY_16x9.png?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Fiona-Schewski_EY_16x9.png?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Fiona-Schewski_EY_16x9.png?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Fiona-Schewski_EY_16x9.png?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Fiona-Schewski_EY_16x9.png?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Fiona-Schewski_EY_16x9.png?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Fiona-Schewski_EY_16x9.png?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Fiona-Schewski_EY_16x9.png?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Fiona Schewski, EY:
„Immer mehr Unternehmen wollen Digitalanbieter werden. Das gelingt langfristig nur, wenn sie die strikte Trennung zwischen Business und IT aufheben. Sowohl die Fachbereiche als auch die IT brauchen also sowohl die richtigen Tools als auch die Möglichkeit, eigenständig ihren Teil des Gesamtprozesses zu optimieren – am besten im Rahmen einer umfassenden Automatisierungsstrategie und begleitet durch entsprechende Schulungsreihen.“
EY GmbH & Co. KG Wirtschaftsprüfungsgesellschaft

width=”1024″ sizes=”(max-width: 1024px) 100vw, 1024px” loading=”lazy”>Arne Melcher, IBM:
„Wer Automatisierung ernsthaft angehen will, braucht zuerst eines: Transparenz und ein klares Verständnis der eigenen Prozesse. Doch Transparenz allein reicht nicht. Um Kontrolle zu behalten, braucht es Governance: klare Regeln, Verantwortlichkeiten und die Fähigkeit, jederzeit nachvollziehen zu können, was automatisiert wird – und warum.“
IBM Deutschland GmbH

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/05/randstad-arnold_patrick_16x9.png?quality=50&strip=all 3870w, https://b2b-contenthub.com/wp-content/uploads/2025/05/randstad-arnold_patrick_16x9.png?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/05/randstad-arnold_patrick_16x9.png?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/05/randstad-arnold_patrick_16x9.png?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/05/randstad-arnold_patrick_16x9.png?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/05/randstad-arnold_patrick_16x9.png?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/05/randstad-arnold_patrick_16x9.png?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/05/randstad-arnold_patrick_16x9.png?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/05/randstad-arnold_patrick_16x9.png?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/05/randstad-arnold_patrick_16x9.png?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/05/randstad-arnold_patrick_16x9.png?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Patrick Arnold, Randstad Digital:
„Erste POCs mit KI-Technologie sehen wir inzwischen in vielen Organisationen – aber ohne Schnittstellenkonzept und solide Orchestrierung bleibt das Stückwerk. Agents sind kein Wundermittel, wenn die Grundlagen fehlen. Was wir brauchen, ist ein integrativer Ansatz, der Prozesse nicht nur automatisiert, sondern sie als digitale Produkte versteht – mit allem, was dazugehört: Verantwortung, Weiterentwicklung und Zusammenarbeit über Silos hinweg.“
©BECKERLACOUR / Randstad Deutschland GmbH & Co. KG

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Tobias-Schicht_Partner-Leadvise-Reply_16x9.png?quality=50&strip=all 5925w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Tobias-Schicht_Partner-Leadvise-Reply_16x9.png?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Tobias-Schicht_Partner-Leadvise-Reply_16x9.png?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Tobias-Schicht_Partner-Leadvise-Reply_16x9.png?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Tobias-Schicht_Partner-Leadvise-Reply_16x9.png?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Tobias-Schicht_Partner-Leadvise-Reply_16x9.png?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Tobias-Schicht_Partner-Leadvise-Reply_16x9.png?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Tobias-Schicht_Partner-Leadvise-Reply_16x9.png?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Tobias-Schicht_Partner-Leadvise-Reply_16x9.png?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Tobias-Schicht_Partner-Leadvise-Reply_16x9.png?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Portrait_Tobias-Schicht_Partner-Leadvise-Reply_16x9.png?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Tobias Schicht, Leadvise Reply:
„Der Erfolg von Automatisierungsprojekten hängt stark von den handelnden Personen ab. Wenn jemand das Thema für sich entdeckt hat und dafür brennt, ist das unglaublich wertvoll. Es gibt so viele Beispiele von Automatisierungsprojekten, die vom Management angewiesen werden, die dann im Sande verlaufen, weil es an der Basis niemanden gibt, der das Thema wirklich aufgreift. Dazu ist es auch wichtig, ein Bewusstsein dafür zu schaffen, dass Automatisierung nicht nur ein Mittel zur Kostensenkung ist, sondern auch eine Möglichkeit, die Mitarbeiter von unattraktiven Tätigkeiten zu entlasten – und damit den Arbeitsalltag zu bereichern und den Fokus auf spannendere Aufgaben zu lenken.“
Leadvise Reply GmbH

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/05/michael-eckert-salesforce_16x9.png?quality=50&strip=all 4889w, https://b2b-contenthub.com/wp-content/uploads/2025/05/michael-eckert-salesforce_16x9.png?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/05/michael-eckert-salesforce_16x9.png?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/05/michael-eckert-salesforce_16x9.png?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/05/michael-eckert-salesforce_16x9.png?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/05/michael-eckert-salesforce_16x9.png?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/05/michael-eckert-salesforce_16x9.png?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/05/michael-eckert-salesforce_16x9.png?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/05/michael-eckert-salesforce_16x9.png?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/05/michael-eckert-salesforce_16x9.png?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/05/michael-eckert-salesforce_16x9.png?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Michael Eckert, Salesforce:
“Künstliche Intelligenz wird auch in der Automatisierung zukünftig eine immer wichtigere Rolle spielen, die klassische Automatisierung vollständig ersetzen wird sie jedoch auf absehbare Zeit noch nicht. Doch KI-Agents können sehr viel zum Erfolg in diesem Bereich beitragen –  wenn IT und Fachabteilungen sehr eng zusammenarbeiten, um diese entlang der konkreten Businessanforderungen auszurichten.”
Salesforce.com Germany GmbH

srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/05/Christian_Heinrichs_16x9.png?quality=50&strip=all 597w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Christian_Heinrichs_16x9.png?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Christian_Heinrichs_16x9.png?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/05/Christian_Heinrichs_16x9.png?resize=444%2C250&quality=50&strip=all 444w” width=”597″ height=”336″ sizes=”(max-width: 597px) 100vw, 597px”>Christian Heinrichs, UiPath:
„Strategische Orchestrierung bedeutet nicht, dass Unternehmen jeden Aspekt auf dem Weg zu mehr Automatisierung kontrollieren müssen. Unternehmen sollten eher fördern, dass einzelne Mitarbeiter sich ihre eigenen Lösungen bauen. Diese kleinen, individuellen Automatisierungen sind ein wertvoller erster Schritt und bildet interne Champions in den Fachabteilungen heraus, die Automatisierung mit Blick auf die konkreten Belange des eigenen Bereichs voranbringen. Natürlich müssen solche Ansätze langfristig auf ein strategisches Niveau gehoben werden. Doch der Blick für die kleinen Details ist extrem wertvoll für den Erfolg und die Akzeptanz.“
UiPath GmbH

Automatisierung – warum Tools allein nicht reichen​ Weiterlesen »

8 Wege zur JavaScript-Exzellenz​

Allgemein

Wer die Grundlagen von modernem JavaScript aus dem Effeff beherrscht, erzielt schneller bessere Ergebnisse.Gorodenkoff | shutterstock.com JavaScript ist eine unglaublich robuste, vielseitige und leistungsfähige Sprache, die oft schon standardmäßig alles bietet, was Entwickler brauchen. Der Schlüssel zum Erfolg liegt jedoch darin, das gesamte Spektrum der Programmiersprache zu kennen – und zu wissen, welche Aspekte, beziehungsweise Konzepte die eigene Applikation bereichern können.   In diesem Artikel lesen Sie, wie Sie als Developer das Maximum aus den heute in JavaScript verfügbaren Tools und Bibliotheken herausholen. 1. Variablendeklarationen verwenden Variablen sind so alt wie das Programmieren selbst – und stellen auch in modernem JavaScript noch immer ein Schlüsselkonzept dar. In diesem Zusammenhang sollten wir uns zunächst vergegenwärtigen, dass bei JavaScript const den Vorzug vor let erhält – und uns fragen, warum das so ist. Mit const wird eine Konstante deklariert, also eine Variable, die sich nicht verändert. Entsprechend nutzen wir const wann immer es möglich ist, denn seine Unveränderlichkeit (Immutability) macht es weniger komplex. Sie müssen sich bei einer Konstante keine Gedanken darüber machen, wie sie sich verhält oder sich im Programmverlauf verändern könnte. So ermöglicht const, einen Wert zu speichern und überall bedenkenlos zu verwenden. Das Konzept der Immutability ist ein tiefgreifendes, das sich ganz allgemein im Software Design widerspiegelt – insbesondere aber in der funktionalen und reaktiven Programmierung: Hier dient es dazu, die Gesamtstruktur größerer Systeme zu vereinfachen. Ein weiterer wichtiger Aspekt von const ist seine Funktionsweise im Fall von Objekten und Sammlungen. In diesen Fällen verhindert es, dass die Referenz auf die Variable geändert wird (allerdings nicht, dass deren interner Zustand verändert wird). Das offenbart Wichtiges über die interne Struktur von JavaScript: Unter der Haube sind Objekt- und Sammlungsvariablen Pointer – sie belegen also Speicherplatz. Wenn Sie sich dazu entscheiden, const zu verwenden, können Sie das nicht ändern. Natürlich gibt es auch Fälle, in denen wir eine Variable benötigen, die wirklich eine Variable ist. In diesem Fall kommt let zum Zug – obwohl JavaScript auch über das Keyword var verfügt. Den Unterschied zwischen let und var zu kennen, kann Ihnen dabei helfen, Variable Scoping zu durchdringen, was wiederum für fortgeschrittenere Konzepte (dazu gleich mehr) von Bedeutung ist. Wird let deklariert, beschränkt das die Variable auf den Block, in dem sie deklariert ist, während var sie in den übergeordneten Geltungsbereich „hochzieht“. Dadurch ist var besser sichtbar, aber auch fehleranfälliger. Es empfiehlt sich deshalb mit Blick auf Ihren Code, var durch let zu ersetzen. 2. Collections und Operators verstehen Funktionale Operatoren zählen zu den leistungsstärksten Funktionen von modernem JavaScript: Mit map, flatMap, reduce oder forEach wird es möglich, Repetitions über Collections mit einer übersichtlichen, selbsterklärenden Syntax auszuführen. Diese funktionalen Programmierkonstrukte machen Code besser, respektive direkt lesbar. Wenn Sie ein Programm schreiben, versuchen Sie in der Regel, eine bestimmte Business-Funktion umzusetzen – beispielsweise Rückmeldung von einer API zu erhalten und diese auf Grundlage von Benutzereingaben zu verarbeiten. Für diesen Task benötigen Sie einen Loop. Dieser ist aber nur ein notwendiger Teil der Logik und sollte nicht zu viel Platz im Programm einnehmen. Funktionale Operatoren lassen sich nutzen, um den Loop zu beschreiben, ohne die übergeordnete Bedeutung zu verschleiern. Ein Beispiel: const albums = [ { artist: “Keith Jarrett”, album: “The Köln Concert”, genre: “Jazz” }, { artist: “J.S. Bach”, album: “Brandenburg Concertos”, genre: “Classical” }, { artist: “The Beatles”, album: “Abbey Road”, genre: “Rock” }, { artist: “Beastie Boys”, album: “Ill Communication”, genre: “Hip Hop”}]; genreInput = “rock”; console.log( albums.filter(album => album.genre.toLowerCase() === genreInput.toLowerCase()) ) Allgemein soll der obenstehende Code bewirken, eine Liste von Musikalben nach Genre zu filtern. Die integrierte Methode filter für das Array albums gibt eine neue Sammlung zurück, auf die die übergebene Funktion angewendet wurde. Die Looping-Logik wurde auf das Wesentliche reduziert, um den Sinn des Codes besser hervorzuheben. An dieser Stelle ist jedoch anzumerken, dass traditionelle Loops nach wie vor eine wichtige Rolle spielen. Insbesondere, wenn diese sehr komplex ausfallen und mehrere Iteratoren beinhalten oder es um enorm große Loop Bodies geht. 3. Promises nutzen Asynchron zu programmieren ist von Natur aus schwierig, weil dabei per Definition mehrere Aktionen gleichzeitig ablaufen. Das hat zur Folge, sich mit der sich mit der Verflechtung von Events befassen zu müssen. Glücklicherweise verfügt JavaScript über starke Abstraktionen für diese Konzepte. Promises sind die erste Verteidigungslinie, wenn es darum geht, asynchrone Komplexitäten zu managen – und die Keywords async/await bieten eine weitere, zusätzliche Ebene, die es ermöglicht, asynchrone Operationen in einer synchron aussehenden Syntax zu schreiben. Als Softwareentwickler nutzen Sie Promises oder asynchrone Funktionen in Bibliotheken. Die allgegenwärtige fetch-Funktion, die in den Browser (und auch in serverseitige Plattformen wie Node) integriert ist, ist dafür ein gutes Beispiel: async function getStarWarsPerson(personId) { const response = await fetch(`https://swapi.dev/api/people/${personId}/`); if (response.ok) { // … } Die von uns definierte Funktion enthält async, während die verwendete Funktion (fetch) mit await modifiziert wird. Das sieht aus wie eine normale Zeile mit synchronem Code, ermöglicht jedoch, dass fetch zu einem anderen Zeitpunkt ausgeführt wird – gefolgt von was auch immer als Nächstes kommt. Diese Sequenz „befreit“ den Event Loop, der sich um andere Dinge kümmern kann, während fetch läuft.   Promises sind nicht allzu schwer zu verstehen, aber sie führen Sie tiefer in die Semantik tatsächlicher, asynchroner Operationen ein. Die Idee: Ein Promise-Objekt repräsentiert eine asynchrone Operation, seine resolve– und reject-Methoden das Ergebnis. Der Client-Code verarbeitet die Resultate schließlich mit den Callback-Methoden then() und catch(). Zu beachten ist dabei, dass JavaScript nicht wirklich „concurrent“ ist: Es verwendet asynchrone Konstrukte, um Parallelität zu unterstützen, aber es gibt nur einen Event Loop, der einen einzelnen Betriebssystem-Thread repräsentiert. 4. Shortcuts kennen Die leistungsstarken Shortcuts von JavaScript können die Developer Experience entscheidend optimieren. Die folgenden fünf Operatoren reduzieren einige der gängigsten und umständlichsten Aspekte der Programmierarbeit mit JavaScript auf einige wenige Tastenanschläge.   Spread Mit dem Spread-Operator können Sie auf einzelne Elemente eines Arrays oder Objekts verweisen: const originalArray = [1, 2, 3]; const copiedArray = […originalArray]; copiedArray.push(‘foo’); // [1,2,3,’foo’] Das funktioniert auch für Objekte: const person = { name: “Alice”, age: 30 }; const address = { city: “New York”, country: “USA” }; const fullInfo = { …person, …address }; Destruct Destructing bietet Ihnen eine prägnante Möglichkeit, die Elemente eines Arrays oder Objekts in ihre Bestandteile zu „zerlegen“: const colors = [“red”, “green”, “blue”]; const [firstColor] = colors; firstColor === “red”; const person = { name: “Alice”, age: 30, city: “London” }; const { city } = person; city === “London”; Diese elegante Syntax kommt besonders häufig zum Einsatz, um Module zu importieren: const express = require(‘express’); const { json, urlencoded } = require(‘express’); Destructing unterstützt darüber hinaus auch benannte Parameter und Standardwerte. Optional Chaining Die alte Praxis manueller Null-Checks wird mit Optional Chaining durch einen einzigen, übersichtlichen Operator ersetzt: const street = user?.profile?.address?.street; Ist einer der Roots und Branches in dieser Dot-Access-Chain null, wird das gesamte Konstrukt zu Null aufgelöst (anstatt eine Nullpointer Exception auszulösen). Logical Assignment Logische Zuweisungen gibt es in den Nullish-Varianten and, or sowie strict. Die letztgenannte Variante: let myString = null; myString ??= “Foo”; myString ??= “Bar”; myString === “Foo”; Hierbei ist zu beachten, dass sich myString nur ändert, wenn es tatsächlich null (oder undefiniert) ist. Nullish Coalescence Mit Nullish Coalescence können Sie ganz einfach zwischen einer Variablen, die möglicherweise null ist, und einem Standardwert wählen: let productName = null; let displayName = productName ?? “Unknown Product”; productName === “Unknown Product”; 5. Scopes und Closures nicht fürchten Mit Blick auf die JavaScript-Grundlagen sind Scopes und Closures bedeutende Konzepte. Der Begriff „Scope“ ist davon abgesehen in allen Programmiersprachen zentral. Er bezieht sich einfach auf den Sichtbarkeitsbereich einer Variablen. Es geht also um die Frage(n): Wo kann eine Variable genutzt werden, sobald sie deklariert wurde – und wo ist sie sichtbar? Closure bezeichnet hingegen die Art und Weise, wie der Geltungsbereich einer Variablen unter besonderen Umständen funktioniert. Wird ein neuer Funktions-Scope deklariert, werden die Variablen im umgebenden Kontext für diesen verfügbar gemacht. Im Grunde also ein simples Konzept, dessen Namensgebug darauf beruht, dass der umgebende Scope den inneren „umschließt“. Closures haben weitreichende Auswirkungen: Sie können sie verwenden, um Variablen zu definieren, die für den größeren Kontext von Bedeutung sind – und dann Funktionsblöcke definieren, die auf diese Variablen angewendet werden (wodurch Ihre Logik stark eingeschränkt oder gekapselt wird). Das Konzept in Pseudocode: outer context variable x function context do stuff with x x now reflects changes The same idea in JS: function outerFunction() { let x = 10; function innerFunction() { x = 20; } innerFunction(); console.log(x); // Outputs 20 } outerFunction(); In diesem Beispiel ist innerFunction() eine Closure: Sie greift auf die Variable über ihren übergeordneten Bereich zu (auch als lexikalischer Scope bezeichnet). Die Closure hat also Zugriff auf die Variablen des Scops, indem sie deklariert wird – nicht in dem, in dem sie gecallt wird. Wie bereits erwähnt, ist Unveränderlichkeit ein Grundsatz der funktionalen Programmierung. Für ein sauberes Design ist es also zu vermeiden, Variablen zu ändern. In unserem Beispiel verstößt die Änderung von x gegen diese Richtlinie. Der Zugriff auf diese Variable ist jedoch eine wesentliche Funktion. Diese Art und Weise, Closures einzusetzen, ist bei funktionalen Collection-Operatoren wie map und reduce noch wichtiger. Sie bieten eine saubere Syntax, um Aufgaben auszuführen und haben außerdem Zugriff auf den lexikalischen Scope, in dem sie deklariert sind. 6. Fehler behandeln Error Handling wird uns als Programmierer wohl für den Rest unserer Tage begleiten. Zum Glück ist die Fehlerbehandlung bei modernem JavaScript inzwischen dank zahlreicher Optimierungen relativ ausgereift. Es gibt zwei grundlegende Arten von Fehlern: normale, synchrone Codefehler und asynchrone Ereignisfehler. Fehlerobjekte enthalten Fehlermeldungen und Ursachenobjekte sowie Stacktraces, also Auszüge aus dem Call Stack zum Zeitpunkt des Fehlers. Der Hauptmechanismus für normale Fehler ist der gute alte try-catch-finally-Block und sein Ursprung, das Schlüsselwort throw. Im Fall von asynchronen Fehlern wird es etwas kniffliger: Zwar ist die Syntax mit catch-Callbacks und reject-Aufrufen für Promises sowie Catch-Blöcken für asynchrone Funktionen nicht allzu komplex. Diese asynchronen Aufrufe gilt es jedoch im Auge zu behalten und sicherzustellen, dass sämtliche Fehler behandelt werden. 7. Programmierstil richtig wählen Kluge JavaScript-Entwickler sind offen für verschiedene Programmierparadigmen. Schließlich unterstützt JavaScript sowohl objektorientierte als auch funktionale, imperative und reaktive Programmierung. Es gibt keinen (vernünftigen) Grund, diese Möglichkeiten nicht zu nutzen. Sie können Ihr Programm entweder um einen dieser Stile herum aufbauen oder (je nach Use Case) auch mehrere verschiedene miteinander vermengen. Das ist typisch für JavaScript: Es gibt mehr als einen Weg zum Ziel. 8. KI-Unterstützung abwägen KI-Programmierassistenten gibt es noch nicht allzu lange – und doch sind sie als Unterstützungsleistung für viele Entwickler fast nicht mehr wegzudenken. Allerdings gilt das auch für moderne IDEs. Und auch wenn man denken könnte, dass kein Dev ohne VS Code, IntelliJ oder Eclipse auskommt, sieht die Realität mancherorts anders aus. Es gibt nämlich auch Entwickler, die die Posix-Befehlszeile zusammen mit Vim oder Emacs so einsetzen, dass eine visuelle IDE mit Maus im Vergleich dazu eher klobig wirkt. Ebenso wird es weiterhin einige Profis geben, die ohne KI effektiver programmieren. Das liegt allerdings im Wesentlichen daran, dass sie die Grundlagen perfekt beherrschen und selbst in komplexen Systemen direkt erkennen, wo Optimierungspotenzial besteht. Viele andere werden KI-basierte Coding-Tools in einem ähnlichen Ausmaß nutzen wie IDEs – und damit (hoffentlich) ihr Grundlagenwissen (nicht nur wenn es um JavaScript geht) weiter ausbauen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

8 Wege zur JavaScript-Exzellenz​ Wer die Grundlagen von modernem JavaScript aus dem Effeff beherrscht, erzielt schneller bessere Ergebnisse.Gorodenkoff | shutterstock.com

JavaScript ist eine unglaublich robuste, vielseitige und leistungsfähige Sprache, die oft schon standardmäßig alles bietet, was Entwickler brauchen. Der Schlüssel zum Erfolg liegt jedoch darin, das gesamte Spektrum der Programmiersprache zu kennen – und zu wissen, welche Aspekte, beziehungsweise Konzepte die eigene Applikation bereichern können.  

In diesem Artikel lesen Sie, wie Sie als Developer das Maximum aus den heute in JavaScript verfügbaren Tools und Bibliotheken herausholen.

1. Variablendeklarationen verwenden

Variablen sind so alt wie das Programmieren selbst – und stellen auch in modernem JavaScript noch immer ein Schlüsselkonzept dar. In diesem Zusammenhang sollten wir uns zunächst vergegenwärtigen, dass bei JavaScript const den Vorzug vor let erhält – und uns fragen, warum das so ist.

Mit const wird eine Konstante deklariert, also eine Variable, die sich nicht verändert. Entsprechend nutzen wir const wann immer es möglich ist, denn seine Unveränderlichkeit (Immutability) macht es weniger komplex. Sie müssen sich bei einer Konstante keine Gedanken darüber machen, wie sie sich verhält oder sich im Programmverlauf verändern könnte. So ermöglicht const, einen Wert zu speichern und überall bedenkenlos zu verwenden. Das Konzept der Immutability ist ein tiefgreifendes, das sich ganz allgemein im Software Design widerspiegelt – insbesondere aber in der funktionalen und reaktiven Programmierung: Hier dient es dazu, die Gesamtstruktur größerer Systeme zu vereinfachen.

Ein weiterer wichtiger Aspekt von const ist seine Funktionsweise im Fall von Objekten und Sammlungen. In diesen Fällen verhindert es, dass die Referenz auf die Variable geändert wird (allerdings nicht, dass deren interner Zustand verändert wird). Das offenbart Wichtiges über die interne Struktur von JavaScript: Unter der Haube sind Objekt- und Sammlungsvariablen Pointer – sie belegen also Speicherplatz. Wenn Sie sich dazu entscheiden, const zu verwenden, können Sie das nicht ändern.

Natürlich gibt es auch Fälle, in denen wir eine Variable benötigen, die wirklich eine Variable ist. In diesem Fall kommt let zum Zug – obwohl JavaScript auch über das Keyword var verfügt. Den Unterschied zwischen let und var zu kennen, kann Ihnen dabei helfen, Variable Scoping zu durchdringen, was wiederum für fortgeschrittenere Konzepte (dazu gleich mehr) von Bedeutung ist. Wird let deklariert, beschränkt das die Variable auf den Block, in dem sie deklariert ist, während var sie in den übergeordneten Geltungsbereich „hochzieht“. Dadurch ist var besser sichtbar, aber auch fehleranfälliger. Es empfiehlt sich deshalb mit Blick auf Ihren Code, var durch let zu ersetzen.

2. Collections und Operators verstehen

Funktionale Operatoren zählen zu den leistungsstärksten Funktionen von modernem JavaScript: Mit map, flatMap, reduce oder forEach wird es möglich, Repetitions über Collections mit einer übersichtlichen, selbsterklärenden Syntax auszuführen. Diese funktionalen Programmierkonstrukte machen Code besser, respektive direkt lesbar.

Wenn Sie ein Programm schreiben, versuchen Sie in der Regel, eine bestimmte Business-Funktion umzusetzen – beispielsweise Rückmeldung von einer API zu erhalten und diese auf Grundlage von Benutzereingaben zu verarbeiten. Für diesen Task benötigen Sie einen Loop. Dieser ist aber nur ein notwendiger Teil der Logik und sollte nicht zu viel Platz im Programm einnehmen. Funktionale Operatoren lassen sich nutzen, um den Loop zu beschreiben, ohne die übergeordnete Bedeutung zu verschleiern. Ein Beispiel:

const albums = [
{ artist: “Keith Jarrett”, album: “The Köln Concert”, genre: “Jazz” },
{ artist: “J.S. Bach”, album: “Brandenburg Concertos”, genre: “Classical” },
{ artist: “The Beatles”, album: “Abbey Road”, genre: “Rock” },
{ artist: “Beastie Boys”, album: “Ill Communication”, genre: “Hip Hop”}];

genreInput = “rock”;

console.log(
albums.filter(album => album.genre.toLowerCase() === genreInput.toLowerCase())
)

Allgemein soll der obenstehende Code bewirken, eine Liste von Musikalben nach Genre zu filtern. Die integrierte Methode filter für das Array albums gibt eine neue Sammlung zurück, auf die die übergebene Funktion angewendet wurde. Die Looping-Logik wurde auf das Wesentliche reduziert, um den Sinn des Codes besser hervorzuheben. An dieser Stelle ist jedoch anzumerken, dass traditionelle Loops nach wie vor eine wichtige Rolle spielen. Insbesondere, wenn diese sehr komplex ausfallen und mehrere Iteratoren beinhalten oder es um enorm große Loop Bodies geht.

3. Promises nutzen

Asynchron zu programmieren ist von Natur aus schwierig, weil dabei per Definition mehrere Aktionen gleichzeitig ablaufen. Das hat zur Folge, sich mit der sich mit der Verflechtung von Events befassen zu müssen. Glücklicherweise verfügt JavaScript über starke Abstraktionen für diese Konzepte. Promises sind die erste Verteidigungslinie, wenn es darum geht, asynchrone Komplexitäten zu managen – und die Keywords async/await bieten eine weitere, zusätzliche Ebene, die es ermöglicht, asynchrone Operationen in einer synchron aussehenden Syntax zu schreiben.

Als Softwareentwickler nutzen Sie Promises oder asynchrone Funktionen in Bibliotheken. Die allgegenwärtige fetch-Funktion, die in den Browser (und auch in serverseitige Plattformen wie Node) integriert ist, ist dafür ein gutes Beispiel:

async function getStarWarsPerson(personId) {
const response = await fetch(`https://swapi.dev/api/people/${personId}/`);
if (response.ok) {
// …
}

Die von uns definierte Funktion enthält async, während die verwendete Funktion (fetch) mit await modifiziert wird. Das sieht aus wie eine normale Zeile mit synchronem Code, ermöglicht jedoch, dass fetch zu einem anderen Zeitpunkt ausgeführt wird – gefolgt von was auch immer als Nächstes kommt. Diese Sequenz „befreit“ den Event Loop, der sich um andere Dinge kümmern kann, während fetch läuft.  

Promises sind nicht allzu schwer zu verstehen, aber sie führen Sie tiefer in die Semantik tatsächlicher, asynchroner Operationen ein. Die Idee: Ein Promise-Objekt repräsentiert eine asynchrone Operation, seine resolve– und reject-Methoden das Ergebnis. Der Client-Code verarbeitet die Resultate schließlich mit den Callback-Methoden then() und catch(). Zu beachten ist dabei, dass JavaScript nicht wirklich „concurrent“ ist: Es verwendet asynchrone Konstrukte, um Parallelität zu unterstützen, aber es gibt nur einen Event Loop, der einen einzelnen Betriebssystem-Thread repräsentiert.

4. Shortcuts kennen

Die leistungsstarken Shortcuts von JavaScript können die Developer Experience entscheidend optimieren. Die folgenden fünf Operatoren reduzieren einige der gängigsten und umständlichsten Aspekte der Programmierarbeit mit JavaScript auf einige wenige Tastenanschläge.  

Spread

Mit dem Spread-Operator können Sie auf einzelne Elemente eines Arrays oder Objekts verweisen:

const originalArray = [1, 2, 3];
const copiedArray = […originalArray];
copiedArray.push(‘foo’); // [1,2,3,’foo’]

Das funktioniert auch für Objekte:

const person = { name: “Alice”, age: 30 };
const address = { city: “New York”, country: “USA” };
const fullInfo = { …person, …address };

Destruct

Destructing bietet Ihnen eine prägnante Möglichkeit, die Elemente eines Arrays oder Objekts in ihre Bestandteile zu „zerlegen“:

const colors = [“red”, “green”, “blue”];
const [firstColor] = colors;
firstColor === “red”;

const person = { name: “Alice”, age: 30, city: “London” };
const { city } = person;
city === “London”;

Diese elegante Syntax kommt besonders häufig zum Einsatz, um Module zu importieren:

const express = require(‘express’);
const { json, urlencoded } = require(‘express’);

Destructing unterstützt darüber hinaus auch benannte Parameter und Standardwerte.

Optional Chaining

Die alte Praxis manueller Null-Checks wird mit Optional Chaining durch einen einzigen, übersichtlichen Operator ersetzt:

const street = user?.profile?.address?.street;

Ist einer der Roots und Branches in dieser Dot-Access-Chain null, wird das gesamte Konstrukt zu Null aufgelöst (anstatt eine Nullpointer Exception auszulösen).

Logical Assignment

Logische Zuweisungen gibt es in den Nullish-Varianten and, or sowie strict. Die letztgenannte Variante:

let myString = null;
myString ??= “Foo”;
myString ??= “Bar”;
myString === “Foo”;

Hierbei ist zu beachten, dass sich myString nur ändert, wenn es tatsächlich null (oder undefiniert) ist.

Nullish Coalescence

Mit Nullish Coalescence können Sie ganz einfach zwischen einer Variablen, die möglicherweise null ist, und einem Standardwert wählen:

let productName = null;
let displayName = productName ?? “Unknown Product”;
productName === “Unknown Product”;

5. Scopes und Closures nicht fürchten

Mit Blick auf die JavaScript-Grundlagen sind Scopes und Closures bedeutende Konzepte. Der Begriff „Scope“ ist davon abgesehen in allen Programmiersprachen zentral. Er bezieht sich einfach auf den Sichtbarkeitsbereich einer Variablen. Es geht also um die Frage(n): Wo kann eine Variable genutzt werden, sobald sie deklariert wurde – und wo ist sie sichtbar?

Closure bezeichnet hingegen die Art und Weise, wie der Geltungsbereich einer Variablen unter besonderen Umständen funktioniert. Wird ein neuer Funktions-Scope deklariert, werden die Variablen im umgebenden Kontext für diesen verfügbar gemacht. Im Grunde also ein simples Konzept, dessen Namensgebug darauf beruht, dass der umgebende Scope den inneren „umschließt“.

Closures haben weitreichende Auswirkungen: Sie können sie verwenden, um Variablen zu definieren, die für den größeren Kontext von Bedeutung sind – und dann Funktionsblöcke definieren, die auf diese Variablen angewendet werden (wodurch Ihre Logik stark eingeschränkt oder gekapselt wird). Das Konzept in Pseudocode:

outer context
variable x
function context
do stuff with x
x now reflects changes

The same idea in JS:

function outerFunction() {
let x = 10;

function innerFunction() {
x = 20;
}

innerFunction();
console.log(x); // Outputs 20
}

outerFunction();

In diesem Beispiel ist innerFunction() eine Closure: Sie greift auf die Variable über ihren übergeordneten Bereich zu (auch als lexikalischer Scope bezeichnet). Die Closure hat also Zugriff auf die Variablen des Scops, indem sie deklariert wird – nicht in dem, in dem sie gecallt wird.

Wie bereits erwähnt, ist Unveränderlichkeit ein Grundsatz der funktionalen Programmierung. Für ein sauberes Design ist es also zu vermeiden, Variablen zu ändern. In unserem Beispiel verstößt die Änderung von x gegen diese Richtlinie. Der Zugriff auf diese Variable ist jedoch eine wesentliche Funktion.

Diese Art und Weise, Closures einzusetzen, ist bei funktionalen Collection-Operatoren wie map und reduce noch wichtiger. Sie bieten eine saubere Syntax, um Aufgaben auszuführen und haben außerdem Zugriff auf den lexikalischen Scope, in dem sie deklariert sind.

6. Fehler behandeln

Error Handling wird uns als Programmierer wohl für den Rest unserer Tage begleiten. Zum Glück ist die Fehlerbehandlung bei modernem JavaScript inzwischen dank zahlreicher Optimierungen relativ ausgereift. Es gibt zwei grundlegende Arten von Fehlern:

normale, synchrone Codefehler und

asynchrone Ereignisfehler.

Fehlerobjekte enthalten Fehlermeldungen und Ursachenobjekte sowie Stacktraces, also Auszüge aus dem Call Stack zum Zeitpunkt des Fehlers.

Der Hauptmechanismus für normale Fehler ist der gute alte try-catch-finally-Block und sein Ursprung, das Schlüsselwort throw. Im Fall von asynchronen Fehlern wird es etwas kniffliger: Zwar ist die Syntax mit catch-Callbacks und reject-Aufrufen für Promises sowie Catch-Blöcken für asynchrone Funktionen nicht allzu komplex. Diese asynchronen Aufrufe gilt es jedoch im Auge zu behalten und sicherzustellen, dass sämtliche Fehler behandelt werden.

7. Programmierstil richtig wählen

Kluge JavaScript-Entwickler sind offen für verschiedene Programmierparadigmen. Schließlich unterstützt JavaScript sowohl objektorientierte als auch funktionale, imperative und reaktive Programmierung.

Es gibt keinen (vernünftigen) Grund, diese Möglichkeiten nicht zu nutzen. Sie können Ihr Programm entweder um einen dieser Stile herum aufbauen oder (je nach Use Case) auch mehrere verschiedene miteinander vermengen. Das ist typisch für JavaScript: Es gibt mehr als einen Weg zum Ziel.

8. KI-Unterstützung abwägen

KI-Programmierassistenten gibt es noch nicht allzu lange – und doch sind sie als Unterstützungsleistung für viele Entwickler fast nicht mehr wegzudenken. Allerdings gilt das auch für moderne IDEs. Und auch wenn man denken könnte, dass kein Dev ohne VS Code, IntelliJ oder Eclipse auskommt, sieht die Realität mancherorts anders aus. Es gibt nämlich auch Entwickler, die die Posix-Befehlszeile zusammen mit Vim oder Emacs so einsetzen, dass eine visuelle IDE mit Maus im Vergleich dazu eher klobig wirkt.

Ebenso wird es weiterhin einige Profis geben, die ohne KI effektiver programmieren. Das liegt allerdings im Wesentlichen daran, dass sie die Grundlagen perfekt beherrschen und selbst in komplexen Systemen direkt erkennen, wo Optimierungspotenzial besteht. Viele andere werden KI-basierte Coding-Tools in einem ähnlichen Ausmaß nutzen wie IDEs – und damit (hoffentlich) ihr Grundlagenwissen (nicht nur wenn es um JavaScript geht) weiter ausbauen. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

8 Wege zur JavaScript-Exzellenz​ Weiterlesen »

10 Cloud-Debakel, 4 Backup-Lektionen​

Allgemein

Ziehen Sie die richtigen Lehren aus den Cloud-Fehltritten Anderer. Foto: Leremy | shutterstock.comBackups sind essenziell – egal, ob es dabei um On-Premises-Rechenzentren, IaaS– oder SaaS-Instanzen geht. Einige Anwender sind allerdings der Meinung, man solle den Cloud-Anbietern ruhig vertrauen – sie werden schon dafür sorgen, dass alles seine Ordnung hat. Und was kann schon passieren?Die folgenden zehn (chronologisch geordneten) Cloud-Ausfälle aus den vergangenen 15 Jahren vermitteln eine umfassende Antwort auf diese Frage. Eine ausführliche (englischsprachige) Diskussion in Podcast-Form zu sämtlichen Outage-Kapriolen gibt’s inklusive.10 kritische Cloud-DesasterCarbonite (2009): Mangelnde Redundanz und Storage Arrays aus dem Consumer-Segment bescherten dem Backup-Anbieter Carbonite (lange vor der Übernahme durch Opentext im Jahr 2019) eine nachhaltige Datenkatastrophe, bei der die Backup-Daten Tausender Kunden verlorengingen. Das Unternehmen machte dafür in erster Linie seinen Storage-Anbieter verantwortlich.Code Spaces (2014): Cyberkriminelle konnten sich Zugang zu den Systemen des Hosting-Anbieters Code Spaces verschaffen und löschten im Anschluss sämtliche Kundendaten und -backups aus der AWS-Umgebung des Unternehmens. Das führte letztlich dazu, dass Code Spaces sein Geschäft aufgeben musste.Dedoose (2014): Ein Serviceausfall sorgte dafür, dass beim Analytics-Anbieter Dedoose sowohl die primäre Research-Datenbank als auch die zugehörigen Backups, die einmal pro Monat erstellt worden waren, lahmgelegt wurden. Im Ergebnis hatten einige Kunden mit umfassenden Datenverlusten zu kämpfen.Salesforce (2019): Dank eines fehlerhaftes Skript wúrden sämtlichen Salesforce-Benutzern zeitweise volle Änderungsrechte verliehen. Die Backups des Unternehmens ermöglichten keine schnelle Wiederherstellung, was verdeutlicht, wie wichtig unabhängige Datensicherungen sind, wenn es um Software as a Service geht.Musey/Mosss (2019): Das US-Startup Musey hatte einst eine vielversprechende App für Interior Design in der Mache. Bis ein Administrator versehentlich den gesamten Google-Workspace-Account des Jungunternehmens – und damit Daten und geistiges Eigentum im Wert von rund einer Million Dollar – löschte. Weil kein unabhängiges Backup angefertigt worden war, konnten die Daten auch nicht wiederhergestellt werden. Das inzwischen in Mosss umfirmierte Startup versuchte zwar noch gerichtlich gegen Google vorzugehen – scheiterte jedoch (absehbarerweise) am Shared-Responsibility-Grundsatz und musste daraufhin die Schotten dichtmachen.KPMG (2020): Auch bei den Wirtschaftsprüfern von KPMG hieß es Mitte 2020 “upsi”. Ein Admin hatte versehentlich eine Retention-Richtlinie in Microsoft Teams geändert, wodurch die Chatdaten von mehr als 145.000 Benutzern dauerhaft verlorengingen.OVH (2021): Ein Großfeuer zerstörte Anfang 2021 ein Datacenter des Hostingdienstleisters OVH in Straßburg. Dabei erlitten viele Kunden Datenverluste, weil die zugehörigen Backups im selben Rechenzentrum lagen.StorageCraft (2022): Nur einige Monate nach der Übernahme durch Arcserve ereilte den Datensicherungsspezialisten StorageCraft im Rahmen einer Cloud-Migration ein Outage-Desaster: Ein Server, der Metadaten von Kunden-Backups beinhaltete, wurde versehentlich vorzeitig dekommissioniert, die Datensicherungen unbrauchbar. Der damalige Arcserve-CEO Brannon Lacey übernahm die volle Verantwortung für den Vorfall – letztlich konnten die Backups wiederhergestellt werden.Rackspace (2022): Die gehostete Exchange-Umgebung des IT-Dienstleisters Rackspace wurde Ende 2022 durch Ransomware kompromittiert. Möglich wurde das in erster Linie durch eine laxe Patching-“Strategie”. Die Wiederherstellung der Daten dauerte – trotz integrierter Backups – Monate und führte letztlich dazu, dass das Unternehmen sein Hosted-Exchange-Geschäft einstampfte.UniSuper (2024): Ein Konfigurationsfehler in Google Cloud löste einen Bug aus, der dazu führte, dass die gesamte Cloud-Umgebung des australischen Bildungsfonds UniSuper gelöscht wurde – und zwar regionenübergreifend. Glücklicherweise gab es (getestete) Drittanbieter-Backups, die es ermöglichten, die verlorenen Daten innerhalb einer Woche wiederherzustellen.Sie suchen weitere interessante Beiträge zu diversen Themen aus der IT-Welt? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten, direkt in Ihre Inbox.Jetzt CW-Newsletter sichern4 essenzielle Backup-LektionenSo desaströs diese Cloud Outages auch waren: Sie verdeutlichen, dass Datenschutz in der Cloud kein Selbstläufer ist. Ihre Daten sind nur sicher, wenn Sie und Ihr Cloud-Anbieter entsprechende Vorkehrungen treffen. Um Ihr Unternehmen vor Katastrophen wie den oben aufgeführten zu bewahren, sollten Sie folgende Backup-Lektionen (noch einmal) verinnerlichen:Sichern Sie Ihre Cloud-Daten und verlassen Sie sich dabei nicht nur auf die integrierten Security Services der Cloud-Anbieter. Setzen Sie dabei auf die “3-2-1-Regel”: Bewahren Sie mindestens drei Kopien Ihrer Daten auf zwei verschiedenen Ausfalldomänen auf – eine davon an einem sicheren Ort außerhalb der Cloud-Umgebung des Unternehmens.Dabei kommt es nicht nur darauf ein, eine Datensicherung zu haben, sondern auch auf die richtige Art von Backup. Es gilt, nicht nur die Primärdaten zu sichern, sondern auch die Integrität und Wiederherstellbarkeit der Datensicherung selbst zu gewährleisten.Auch SaaS-Anbieter sind nicht vor Datenverlusten gefeit. Deshalb ist es essenziell, auch diese Daten unabhängig zu sichern. Idealerweise mit Unterstützung eines Drittanbieters.Menschliches Versagen spielt bei Datenverlusten immer wieder eine tragende Rolle. Dagegen helfen nur zielführende Schulungsmaßnahmen, Data-Access-Richtlinien sowie ein nachweislich funktionaler Incident-Response-Plan.Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Network World. 

10 Cloud-Debakel, 4 Backup-Lektionen​ Ziehen Sie die richtigen Lehren aus den Cloud-Fehltritten Anderer.
Foto: Leremy | shutterstock.comBackups sind essenziell – egal, ob es dabei um On-Premises-Rechenzentren, IaaS– oder SaaS-Instanzen geht. Einige Anwender sind allerdings der Meinung, man solle den Cloud-Anbietern ruhig vertrauen – sie werden schon dafür sorgen, dass alles seine Ordnung hat. Und was kann schon passieren?Die folgenden zehn (chronologisch geordneten) Cloud-Ausfälle aus den vergangenen 15 Jahren vermitteln eine umfassende Antwort auf diese Frage. Eine ausführliche (englischsprachige) Diskussion in Podcast-Form zu sämtlichen Outage-Kapriolen gibt’s inklusive.10 kritische Cloud-DesasterCarbonite (2009): Mangelnde Redundanz und Storage Arrays aus dem Consumer-Segment bescherten dem Backup-Anbieter Carbonite (lange vor der Übernahme durch Opentext im Jahr 2019) eine nachhaltige Datenkatastrophe, bei der die Backup-Daten Tausender Kunden verlorengingen. Das Unternehmen machte dafür in erster Linie seinen Storage-Anbieter verantwortlich.Code Spaces (2014): Cyberkriminelle konnten sich Zugang zu den Systemen des Hosting-Anbieters Code Spaces verschaffen und löschten im Anschluss sämtliche Kundendaten und -backups aus der AWS-Umgebung des Unternehmens. Das führte letztlich dazu, dass Code Spaces sein Geschäft aufgeben musste.Dedoose (2014): Ein Serviceausfall sorgte dafür, dass beim Analytics-Anbieter Dedoose sowohl die primäre Research-Datenbank als auch die zugehörigen Backups, die einmal pro Monat erstellt worden waren, lahmgelegt wurden. Im Ergebnis hatten einige Kunden mit umfassenden Datenverlusten zu kämpfen.Salesforce (2019): Dank eines fehlerhaftes Skript wúrden sämtlichen Salesforce-Benutzern zeitweise volle Änderungsrechte verliehen. Die Backups des Unternehmens ermöglichten keine schnelle Wiederherstellung, was verdeutlicht, wie wichtig unabhängige Datensicherungen sind, wenn es um Software as a Service geht.Musey/Mosss (2019): Das US-Startup Musey hatte einst eine vielversprechende App für Interior Design in der Mache. Bis ein Administrator versehentlich den gesamten Google-Workspace-Account des Jungunternehmens – und damit Daten und geistiges Eigentum im Wert von rund einer Million Dollar – löschte. Weil kein unabhängiges Backup angefertigt worden war, konnten die Daten auch nicht wiederhergestellt werden. Das inzwischen in Mosss umfirmierte Startup versuchte zwar noch gerichtlich gegen Google vorzugehen – scheiterte jedoch (absehbarerweise) am Shared-Responsibility-Grundsatz und musste daraufhin die Schotten dichtmachen.KPMG (2020): Auch bei den Wirtschaftsprüfern von KPMG hieß es Mitte 2020 “upsi”. Ein Admin hatte versehentlich eine Retention-Richtlinie in Microsoft Teams geändert, wodurch die Chatdaten von mehr als 145.000 Benutzern dauerhaft verlorengingen.OVH (2021): Ein Großfeuer zerstörte Anfang 2021 ein Datacenter des Hostingdienstleisters OVH in Straßburg. Dabei erlitten viele Kunden Datenverluste, weil die zugehörigen Backups im selben Rechenzentrum lagen.StorageCraft (2022): Nur einige Monate nach der Übernahme durch Arcserve ereilte den Datensicherungsspezialisten StorageCraft im Rahmen einer Cloud-Migration ein Outage-Desaster: Ein Server, der Metadaten von Kunden-Backups beinhaltete, wurde versehentlich vorzeitig dekommissioniert, die Datensicherungen unbrauchbar. Der damalige Arcserve-CEO Brannon Lacey übernahm die volle Verantwortung für den Vorfall – letztlich konnten die Backups wiederhergestellt werden.Rackspace (2022): Die gehostete Exchange-Umgebung des IT-Dienstleisters Rackspace wurde Ende 2022 durch Ransomware kompromittiert. Möglich wurde das in erster Linie durch eine laxe Patching-“Strategie”. Die Wiederherstellung der Daten dauerte – trotz integrierter Backups – Monate und führte letztlich dazu, dass das Unternehmen sein Hosted-Exchange-Geschäft einstampfte.UniSuper (2024): Ein Konfigurationsfehler in Google Cloud löste einen Bug aus, der dazu führte, dass die gesamte Cloud-Umgebung des australischen Bildungsfonds UniSuper gelöscht wurde – und zwar regionenübergreifend. Glücklicherweise gab es (getestete) Drittanbieter-Backups, die es ermöglichten, die verlorenen Daten innerhalb einer Woche wiederherzustellen.Sie suchen weitere interessante Beiträge zu diversen Themen aus der IT-Welt? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten, direkt in Ihre Inbox.Jetzt CW-Newsletter sichern4 essenzielle Backup-LektionenSo desaströs diese Cloud Outages auch waren: Sie verdeutlichen, dass Datenschutz in der Cloud kein Selbstläufer ist. Ihre Daten sind nur sicher, wenn Sie und Ihr Cloud-Anbieter entsprechende Vorkehrungen treffen. Um Ihr Unternehmen vor Katastrophen wie den oben aufgeführten zu bewahren, sollten Sie folgende Backup-Lektionen (noch einmal) verinnerlichen:Sichern Sie Ihre Cloud-Daten und verlassen Sie sich dabei nicht nur auf die integrierten Security Services der Cloud-Anbieter. Setzen Sie dabei auf die “3-2-1-Regel”: Bewahren Sie mindestens drei Kopien Ihrer Daten auf zwei verschiedenen Ausfalldomänen auf – eine davon an einem sicheren Ort außerhalb der Cloud-Umgebung des Unternehmens.Dabei kommt es nicht nur darauf ein, eine Datensicherung zu haben, sondern auch auf die richtige Art von Backup. Es gilt, nicht nur die Primärdaten zu sichern, sondern auch die Integrität und Wiederherstellbarkeit der Datensicherung selbst zu gewährleisten.Auch SaaS-Anbieter sind nicht vor Datenverlusten gefeit. Deshalb ist es essenziell, auch diese Daten unabhängig zu sichern. Idealerweise mit Unterstützung eines Drittanbieters.Menschliches Versagen spielt bei Datenverlusten immer wieder eine tragende Rolle. Dagegen helfen nur zielführende Schulungsmaßnahmen, Data-Access-Richtlinien sowie ein nachweislich funktionaler Incident-Response-Plan.Dieser Beitrag basiert auf einem Artikel unserer US-Schwesterpublikation Network World.

10 Cloud-Debakel, 4 Backup-Lektionen​ Weiterlesen »

Vermeidbare Führungsfehler: Wie Führungskräfte sich und ihr Team blockieren​

Allgemein

Hyperaktive Chefs, die weder delegieren noch loben können und in das selbstständige Arbeiten ihrer Mitarbeiter kein Vertrauen haben, wirken nicht nur demotivierend, sondern schmälern auch den Unternehmenserfolg. Foto: Roman Samborskyi – shutterstock.com“Ich muss ständig die Probleme meiner Mitarbeiter lösen. Alles bleibt an mir hängen.” “Wir besprechen Dinge. Legen sie fest. Und am Ende kommt was komplett anderes heraus.” “Ich möchte einfach, dass meine Mitarbeiter selbständiger arbeiten und ich mich um die wesentlichen Dinge kümmern kann.” Das sind typische Aussagen von Führungskräften. Doch wie aus dieser Nummer herauskommen? Zum Beispiel mit diesen fünf Hinweisen:1. “Ich-mach-das-schnell-selbst”-Mindsetsie können es nicht leiden, wenn Aufgaben liegen bleiben. Die Folge ist, dass Sie Ihre Mitarbeiter daran gewöhnen, dass Sie vieles selbst erledigen. Oft denken sich Mitarbeiter dann: “Er macht das schon.” Ja, weil es bisher immer so war. Auf diese Weise werden Mitarbeiter zur Unselbständigkeit erzogen. Und Sie stecken zu sehr im operativen Geschäft fest und haben keine Zeit für strategische Aufgaben und die Mitarbeiterführung. Am Ende heißt es dann: “Alles bleibt an mir hängen.” Wenn wir Situation erleben, die uns stören, sollten wir unser eigenes Verhalten reflektieren, um zu erkennen, wie wir selbst zu dieser Situation beigetragen haben.2. Boomerang ManagementSie delegieren eine Aufgabe und am Ende landet sie wieder auf Ihrem Tisch. Entweder kommt sie sofort wieder oder Mitarbeiter arbeiten sie so weit ab, bis ein Problem oder Unsicherheiten sich in den Weg stellen. Dann heißt es: “Ich komme hier nicht weiter, kannst Du mir kurz helfen?” Wenn Sie spätestens nicht jetzt wirkungsvoll führen – also weder sich selbst noch Ihr Team – dann haben Sie die Aufgaben ruckzuck auf Ihrer To-do-Liste.Die Kunst besteht darin, Aufgaben so zu delegieren, dass Mitarbeiter die Verantwortung übernehmen und Sie entlasten. Die Art und Weise der Delegation ist abhängig von der Persönlichkeit der Mitarbeiter.3. Mitarbeiter werden demotiviertIn der Regel bringen Mitarbeiter eine gesunde Portion Motivation mit, doch oft wird das Feuer einfach erstickt, indem Führungskräfte zum Beispiel sofort eingreifen, wenn es zu Problemen kommt. Sie reißen die Verantwortung an sich, statt sie mit dem Mitarbeiter zu besprechen. In der Folge entsteht bei dem Mitarbeiter das Gefühl, dass Sie ihm nicht vertrauen. Sie wiederum haben eine zusätzliche Aufgabe zu erledigen, die nicht Ihre ist. Gerade High Performer können es aber nicht leiden, wenn ihnen Verantwortung genommen wird.Eine andere Form Mitarbeiter zu demotivieren ist, ständig Kritik zu äußern. Das beraubt sie auf Dauer der Motivation. Ein Beispiel: Ein Team hat sich für ein Projekt ins Zeug gelegt, Überstunden geschoben und gute Ergebnisse geliefert, doch das Einzige, was dem Chef einfällt, ist: “Ja, das ist schon ganz gut, aber da ist noch Luft nach oben.” Das klingt nach einem Vorwurf. und Wenn sowieso alles schlecht ist, warum sollen sich die Mitarbeiter dann noch ins Zeug legen? Anerkennung ist ein Grundbedürfnis, unabhängig vom Alter und der Position. Jeder möchte für das, was er kann und leistet, gesehen und wertgeschätzt werden. Wenn das fehlt, sind Mitarbeiter demotiviert, die Leistung lässt nach und im schlimmsten Fall verlieren Sie Mitarbeiter. Wenn sich Mitarbeiter hingegen wertgeschätzt fühlen, werden sie mehr tun als von ihnen erwartet.Ein weiteres Phänomen, das kontraproduktiv ist: Alle Mitarbeiter eng zu führen und ihnen klare Vorgaben zu geben. Warum? Weil unterschiedliche Persönlichkeiten unterschiedlich geführt werden müssen. Die einen lieben den Gestaltungsspielraum und die anderen brauchen Leitplanken. Die Kunst besteht darin, zu erkennen was die Mitarbeiter brauchen, um ihnen das auch zu geben. Dafür braucht man nicht unzählige Stunden mit ihnen zu verbringen. Wenn Sie wissen, woran Sie das erkennen, können Sie dies im Vorstellungsgespräch bereits feststellen.4. Limitierende GlaubenssätzeEin weitverbreiteter Glaubenssatz, den 90 Prozent aller Führungskräfte haben, ist: “Wenn ich aufsteige, wird alles anders. Ich brauch nur die Beförderung. Sobald ich auf der nächsten Stufe bin, wird alles besser. Dann kann ich mehr bewegen”. Die Wahrheit ist: Es wird schlimmer. Bedeutet: Wenn Sie Ihre Denkweise und Ihr Verhalten nicht ändern, potenzieren sich Ihre Probleme.Sie erleben dann, dass Mitarbeiter nicht machen, was von ihnen erwartet wird. Sie führen ständig unnötige Diskussionen und verschwenden Zeit und Energie. Sie sind zu sehr im operativen Geschäft eingebunden, arbeiten viel, aber kommen nicht weiter. Und am Ende haben Sie keine Zeit für die wirklich wichtigen Aufgaben. Was braucht es, um sich von unbewussten Glaubenssätzen zu lösen, die wie Handbremsen aufhalten? Antwort: Die Bereitschaft das eigene Verhalten zu hinterfragen und zu ändern. Und da wir die eigenen Blindspots nur schwer erkennen können, braucht es auch mal einen externen Sparringspartner, der uns den Spiegel vorhält. Oft machen wir nämlich Dinge, die kontraproduktiv sind und merken es selbst gar nicht.5. Kontraproduktive Kommunikation“Obwohl ich regelmäßig mit meinen Mitarbeitern rede, kommt nichts an. Wir besprechen Dinge, legen sie fest. Und am Ende kommt etwas ganz anderes heraus.” Ein Klassiker. Chef und Mitarbeiter reden komplett aneinander vorbei. Dadurch müssen weitere Gespräche geführt werden, was nur Zeit- und Energieverschwendung bedeutet. Einige Führungskräfte denken: “Die verstehen es einfach nicht”. Nun, in der Regel liegt es an der Kommunikation und der Herangehensweise der Führungskraft. Und sobald die Führungskommunikation verbessert wird, verbessern sich auch die Ergebnisse im Team.Am Ende greifen alle fünf Punkte ineinander. Mindset, Führung und Kommunikation sind nicht getrennt voneinander zu betrachten. Wenn Sie nachhaltig bessere Ergebnisse haben wollen, gilt es alle drei Kompetenzbereiche zu verbessern.Roadmap – Wie neue Führungskräfte strategisch am besten vorgehenVier Tipps zur erfolgreichen Leadership Foto: Jacek Dudzinski – shutterstock.comNeue Führungskräfte fallen häufig durch Aktionismus auf. Doch ein zu autoritärer Führungsstil oder im Übereifer erzwungene Veränderungen können sich schnell als kontraproduktiv erweisen. Florian Kreuzwirth, Regional Managing Director Executive Search des Personaldienstleisters Robert Half nennt vier Maßnahmen, die frischgebackene Manager.innen unbedingt beachten sollten. Das Bestehende anerkennen Foto: Nattakorn_Maneerat – shutterstock.comUm Widerstände zu überwinden und das Team zu motivieren, ist es wichtig, die bisherigen Leistungen sowie den Einsatz der Mitarbeiterinnen und Mitarbeiter zu würdigen. Jedes Teammitglied hat durch sein Mitwirken Anteil am Unternehmenserfolg. Anerkennung für die Leistungen schaffen Vertrauen und ermutigen dazu, Veränderungen aktiv zu unterstützen und zum Erfolg des Unternehmens beizutragen.Einarbeiten und Verstehen Foto: Matej Kastelic – shutterstock.comErfolgreiche Führungskräfte investieren Zeit, um sich in die Prozesse und Produkte/Dienstleistungen des Unternehmens einzuarbeiten und die verschiedenen Abteilungen kennenzulernen. Sie wollen das Unternehmen als Ganzes verstehen, um später in ihrer Rolle optimal agieren zu können. Hinzu kommt die Auseinandersetzung mit der vorherigen Führungskraft: Gute Vorgesetzte werfen nicht gleich alles über Bord, sondern nehmen sich die Zeit, die Arbeit des Vorgängers zu bewerten und Ideen der Mitarbeiter zu sammeln.Präsenz und Kommunikationsbereitschaft Foto: Bojan Milinkov – shutterstock.comZwei weitere wichtige Eigenschaften sind Präsenz und Offenheit. Neue Führungskräfte sollten sich persönlich vorstellen und den Kontakt auf allen Hierarchieebenen suchen, von der Empfangsdame bis zum Abteilungsleiter. Dies zeigt Respekt und Wertschätzung gegenüber allen Beschäftigten im Unternehmen. Ferner sollten für ihre Mitarbeiterinnen und Mitarbeiter erreichbar sein und sich für deren Anliegen Zeit nehmen. Letztlich ist eine transparente Kommunikation der Schlüssel, um Vertrauen aufzubauen und Widerstände gegen Veränderungen zu minimieren.Strategisches Vorgehen Foto: zaozaa19 – shutterstock.comDer Druck, sofort signifikante Veränderungen oder gar erste Erfolge zu erzielen, kann oft zu übereilten Entscheidungen und Aktionismus führen. Neue Führungskräfte sollten sich nicht von hohen Erwartungen beeinflussen lassen und stattdessen einen nachhaltigen und strategischen Ansatz verfolgen. 

Vermeidbare Führungsfehler: Wie Führungskräfte sich und ihr Team blockieren​ Hyperaktive Chefs, die weder delegieren noch loben können und in das selbstständige Arbeiten ihrer Mitarbeiter kein Vertrauen haben, wirken nicht nur demotivierend, sondern schmälern auch den Unternehmenserfolg.
Foto: Roman Samborskyi – shutterstock.com“Ich muss ständig die Probleme meiner Mitarbeiter lösen. Alles bleibt an mir hängen.” “Wir besprechen Dinge. Legen sie fest. Und am Ende kommt was komplett anderes heraus.” “Ich möchte einfach, dass meine Mitarbeiter selbständiger arbeiten und ich mich um die wesentlichen Dinge kümmern kann.” Das sind typische Aussagen von Führungskräften. Doch wie aus dieser Nummer herauskommen? Zum Beispiel mit diesen fünf Hinweisen:1. “Ich-mach-das-schnell-selbst”-Mindsetsie können es nicht leiden, wenn Aufgaben liegen bleiben. Die Folge ist, dass Sie Ihre Mitarbeiter daran gewöhnen, dass Sie vieles selbst erledigen. Oft denken sich Mitarbeiter dann: “Er macht das schon.” Ja, weil es bisher immer so war. Auf diese Weise werden Mitarbeiter zur Unselbständigkeit erzogen. Und Sie stecken zu sehr im operativen Geschäft fest und haben keine Zeit für strategische Aufgaben und die Mitarbeiterführung. Am Ende heißt es dann: “Alles bleibt an mir hängen.” Wenn wir Situation erleben, die uns stören, sollten wir unser eigenes Verhalten reflektieren, um zu erkennen, wie wir selbst zu dieser Situation beigetragen haben.2. Boomerang ManagementSie delegieren eine Aufgabe und am Ende landet sie wieder auf Ihrem Tisch. Entweder kommt sie sofort wieder oder Mitarbeiter arbeiten sie so weit ab, bis ein Problem oder Unsicherheiten sich in den Weg stellen. Dann heißt es: “Ich komme hier nicht weiter, kannst Du mir kurz helfen?” Wenn Sie spätestens nicht jetzt wirkungsvoll führen – also weder sich selbst noch Ihr Team – dann haben Sie die Aufgaben ruckzuck auf Ihrer To-do-Liste.Die Kunst besteht darin, Aufgaben so zu delegieren, dass Mitarbeiter die Verantwortung übernehmen und Sie entlasten. Die Art und Weise der Delegation ist abhängig von der Persönlichkeit der Mitarbeiter.3. Mitarbeiter werden demotiviertIn der Regel bringen Mitarbeiter eine gesunde Portion Motivation mit, doch oft wird das Feuer einfach erstickt, indem Führungskräfte zum Beispiel sofort eingreifen, wenn es zu Problemen kommt. Sie reißen die Verantwortung an sich, statt sie mit dem Mitarbeiter zu besprechen. In der Folge entsteht bei dem Mitarbeiter das Gefühl, dass Sie ihm nicht vertrauen. Sie wiederum haben eine zusätzliche Aufgabe zu erledigen, die nicht Ihre ist. Gerade High Performer können es aber nicht leiden, wenn ihnen Verantwortung genommen wird.Eine andere Form Mitarbeiter zu demotivieren ist, ständig Kritik zu äußern. Das beraubt sie auf Dauer der Motivation. Ein Beispiel: Ein Team hat sich für ein Projekt ins Zeug gelegt, Überstunden geschoben und gute Ergebnisse geliefert, doch das Einzige, was dem Chef einfällt, ist: “Ja, das ist schon ganz gut, aber da ist noch Luft nach oben.” Das klingt nach einem Vorwurf. und Wenn sowieso alles schlecht ist, warum sollen sich die Mitarbeiter dann noch ins Zeug legen? Anerkennung ist ein Grundbedürfnis, unabhängig vom Alter und der Position. Jeder möchte für das, was er kann und leistet, gesehen und wertgeschätzt werden. Wenn das fehlt, sind Mitarbeiter demotiviert, die Leistung lässt nach und im schlimmsten Fall verlieren Sie Mitarbeiter. Wenn sich Mitarbeiter hingegen wertgeschätzt fühlen, werden sie mehr tun als von ihnen erwartet.Ein weiteres Phänomen, das kontraproduktiv ist: Alle Mitarbeiter eng zu führen und ihnen klare Vorgaben zu geben. Warum? Weil unterschiedliche Persönlichkeiten unterschiedlich geführt werden müssen. Die einen lieben den Gestaltungsspielraum und die anderen brauchen Leitplanken. Die Kunst besteht darin, zu erkennen was die Mitarbeiter brauchen, um ihnen das auch zu geben. Dafür braucht man nicht unzählige Stunden mit ihnen zu verbringen. Wenn Sie wissen, woran Sie das erkennen, können Sie dies im Vorstellungsgespräch bereits feststellen.4. Limitierende GlaubenssätzeEin weitverbreiteter Glaubenssatz, den 90 Prozent aller Führungskräfte haben, ist: “Wenn ich aufsteige, wird alles anders. Ich brauch nur die Beförderung. Sobald ich auf der nächsten Stufe bin, wird alles besser. Dann kann ich mehr bewegen”. Die Wahrheit ist: Es wird schlimmer. Bedeutet: Wenn Sie Ihre Denkweise und Ihr Verhalten nicht ändern, potenzieren sich Ihre Probleme.Sie erleben dann, dass Mitarbeiter nicht machen, was von ihnen erwartet wird. Sie führen ständig unnötige Diskussionen und verschwenden Zeit und Energie. Sie sind zu sehr im operativen Geschäft eingebunden, arbeiten viel, aber kommen nicht weiter. Und am Ende haben Sie keine Zeit für die wirklich wichtigen Aufgaben. Was braucht es, um sich von unbewussten Glaubenssätzen zu lösen, die wie Handbremsen aufhalten? Antwort: Die Bereitschaft das eigene Verhalten zu hinterfragen und zu ändern. Und da wir die eigenen Blindspots nur schwer erkennen können, braucht es auch mal einen externen Sparringspartner, der uns den Spiegel vorhält. Oft machen wir nämlich Dinge, die kontraproduktiv sind und merken es selbst gar nicht.5. Kontraproduktive Kommunikation“Obwohl ich regelmäßig mit meinen Mitarbeitern rede, kommt nichts an. Wir besprechen Dinge, legen sie fest. Und am Ende kommt etwas ganz anderes heraus.” Ein Klassiker. Chef und Mitarbeiter reden komplett aneinander vorbei. Dadurch müssen weitere Gespräche geführt werden, was nur Zeit- und Energieverschwendung bedeutet. Einige Führungskräfte denken: “Die verstehen es einfach nicht”. Nun, in der Regel liegt es an der Kommunikation und der Herangehensweise der Führungskraft. Und sobald die Führungskommunikation verbessert wird, verbessern sich auch die Ergebnisse im Team.Am Ende greifen alle fünf Punkte ineinander. Mindset, Führung und Kommunikation sind nicht getrennt voneinander zu betrachten. Wenn Sie nachhaltig bessere Ergebnisse haben wollen, gilt es alle drei Kompetenzbereiche zu verbessern.Roadmap – Wie neue Führungskräfte strategisch am besten vorgehenVier Tipps zur erfolgreichen Leadership
Foto: Jacek Dudzinski – shutterstock.comNeue Führungskräfte fallen häufig durch Aktionismus auf. Doch ein zu autoritärer Führungsstil oder im Übereifer erzwungene Veränderungen können sich schnell als kontraproduktiv erweisen. Florian Kreuzwirth, Regional Managing Director Executive Search des Personaldienstleisters Robert Half nennt vier Maßnahmen, die frischgebackene Manager.innen unbedingt beachten sollten. Das Bestehende anerkennen
Foto: Nattakorn_Maneerat – shutterstock.comUm Widerstände zu überwinden und das Team zu motivieren, ist es wichtig, die bisherigen Leistungen sowie den Einsatz der Mitarbeiterinnen und Mitarbeiter zu würdigen. Jedes Teammitglied hat durch sein Mitwirken Anteil am Unternehmenserfolg. Anerkennung für die Leistungen schaffen Vertrauen und ermutigen dazu, Veränderungen aktiv zu unterstützen und zum Erfolg des Unternehmens beizutragen.Einarbeiten und Verstehen
Foto: Matej Kastelic – shutterstock.comErfolgreiche Führungskräfte investieren Zeit, um sich in die Prozesse und Produkte/Dienstleistungen des Unternehmens einzuarbeiten und die verschiedenen Abteilungen kennenzulernen. Sie wollen das Unternehmen als Ganzes verstehen, um später in ihrer Rolle optimal agieren zu können. Hinzu kommt die Auseinandersetzung mit der vorherigen Führungskraft: Gute Vorgesetzte werfen nicht gleich alles über Bord, sondern nehmen sich die Zeit, die Arbeit des Vorgängers zu bewerten und Ideen der Mitarbeiter zu sammeln.Präsenz und Kommunikationsbereitschaft
Foto: Bojan Milinkov – shutterstock.comZwei weitere wichtige Eigenschaften sind Präsenz und Offenheit. Neue Führungskräfte sollten sich persönlich vorstellen und den Kontakt auf allen Hierarchieebenen suchen, von der Empfangsdame bis zum Abteilungsleiter. Dies zeigt Respekt und Wertschätzung gegenüber allen Beschäftigten im Unternehmen. Ferner sollten für ihre Mitarbeiterinnen und Mitarbeiter erreichbar sein und sich für deren Anliegen Zeit nehmen. Letztlich ist eine transparente Kommunikation der Schlüssel, um Vertrauen aufzubauen und Widerstände gegen Veränderungen zu minimieren.Strategisches Vorgehen
Foto: zaozaa19 – shutterstock.comDer Druck, sofort signifikante Veränderungen oder gar erste Erfolge zu erzielen, kann oft zu übereilten Entscheidungen und Aktionismus führen. Neue Führungskräfte sollten sich nicht von hohen Erwartungen beeinflussen lassen und stattdessen einen nachhaltigen und strategischen Ansatz verfolgen.

Vermeidbare Führungsfehler: Wie Führungskräfte sich und ihr Team blockieren​ Weiterlesen »

Microsoft Build 2025: Vision des Open Agentic Web​

Allgemein

Microsoft-Chef Satya Nadella präsentierte auf der Build 2025 seine Vision eines Internets der KI-Agenten. Microsoft Auf der hauseigenen Konferenz Build 2025 präsentierte Microsoft-Chef Satya Nadella seine Vorstellungen des Internets der Zukunft. Dies ist eine Welt, in der Agenten in individuellen, organisatorischen, Team- und End-to-End-Geschäftskontexten agieren. Dabei treffen die KI-Agenten im offenen agentenbasierten Web (Open Agentic Web) Entscheidungen und führen Aufgaben im Namen von Anwendern oder Unternehmen aus. Nur Visionen eines abgehobenen CEOs? Nein, denn mit den Plattformen, Produkten und der Infrastruktur des Konzernes plant Nadella, diese Zukunftsidee Realität werden zu lassen. Dazu will Microsoft Entwicklern neue Modelle und Coding-Agenten an die Hand geben sowie neue Agenten der Enterprise-Klasse bereitstellen. KI-Protokoll für das Web Als Plattformen für die Entwicklung dieser Zukunft sieht der Microsoft-Boss Azure AI Foundry, GitHub und Windows. Darüber hinaus setzt der Konzern dazu auf offene Protokolle wie das Model Context Protocol (MCP) oder das neu angekündigte NLWeb – Natural Language Web. Letztes soll im agentischen Web eine ähnliche Rolle spielen wie HTML im heutigen Internet. NLWeb ermöglicht es laut Microsoft Websites, mit nur wenigen Codezeilen und einem frei wählbaren Modell eine natürliche Sprachschnittstelle bereitzustellen. Produkt-News von der Build 2025 Das Open Agentic Web im Detail. Microsoft Neben dem Support für MCP in einer Vielzahl von Produkten – darunter GitHub, Copilot Studio, Dynamics 365, Azure AI Foundry, Semantic Kernel und Windows 11 – sowie dem neuen Protokoll NLWeb, kündigte Microsoft noch eine Vielzahl an Neuerungen rund um das Thema KI an: GitHub Copilot Coding-Agent GitHub Copilot entwickelt sich, so Microsoft, von einem Assistenten im Editor zu einem agentischen KI-Partner mit einem asynchronen Coding-Agenten, der in die GitHub-Plattform integriert ist.  Windows AI Foundry & Foundry Local  Windows AI Foundry bietet eine einheitliche und zuverlässige Plattform, die den gesamten Lebenszyklus der KI-Entwicklung – vom Training bis hin zur Inferenz – unterstützt. Dank einfacher Modell-APIs für Aufgaben in den Bereichen Vision und Sprache können Entwickler die Open-Source-LLMs über Foundry Local verwalten und ausführen. Ebenso sei es möglich, eigene Modelle zu konvertieren, feinzujustieren und flexibel auf Client- und Cloud-Umgebungen bereitzustellen. Azure-AI-Foundry-Modelle und neue Tools Azure AI Foundry betrachtet Microsoft als zentrale Plattform für Entwickler zur Konzeption, Anpassung und Verwaltung von KI-Anwendungen und -Agenten. Neu im Ökosystem sind die Grok-3- und Grok-3-Mini-Modelle von xAI sowie neue Werkzeuge wie das Model Leaderboard und der Model Router, die bei der Auswahl geeigneter Modelle unterstützen.  Azure AI Foundry Agent Service  Zu den neuen Funktionen gehören unter anderem Multi-Agent-Workflows. Zudem gibt es jetzt eine Integration von SharePoint-Tools. Eine erweiterte Interoperabilität soll die Unterstützung offener Agentenprotokolle (A2A und MCP) sicherstellen. Anwender erhalten die Möglichkeit für Kundinnen und Kunden, eigene LLMs von beliebigen Cloud-Anbietern einzubringen. Ferner verspricht Microsoft eine integrierte Observability für Metriken zu Performance, Qualität, Kosten und Sicherheit.  Microsoft Entra Agent ID Durch Microsoft Entra Agent ID erhalten Agenten, die in Microsoft Copilot Studio oder Azure AI Foundry erstellt werden, automatisch eine eindeutige Identität im Entra-Verzeichnis. Auf diese Weise könnten Unternehmen ihre Agenten von Anfang an sicher verwalten und einer unkontrollierten Ausbreitung („Agent Sprawl“) entgegenwirken, die Sicherheits- oder Kontroll-Lücken zur Folge haben könnte. Multi-Agenten-Orchestrierung in Copilot Studio Die neue Multi-Agenten-Orchestrierung in Copilot Studio ermöglicht es, mehrere Agenten miteinander zu verknüpfen. So können die Agenten ihre Fähigkeiten kombinieren und gemeinsam umfangreichere sowie komplexere Aufgaben bewältigen. Microsoft Discovery Die Plattform soll es Forschern ermöglichen, den Entwicklungs- und Forschungsprozess durch agentische KI neu zu gestalten. Dies, so Microsoft, verkürze die Markteinführungszeit neuer Produkte und beschleunige sowie erweitere den gesamten wissenschaftlichen Entdeckungsprozess. 

Microsoft Build 2025: Vision des Open Agentic Web​ Microsoft-Chef Satya Nadella präsentierte auf der Build 2025 seine Vision eines Internets der KI-Agenten.
Microsoft

Auf der hauseigenen Konferenz Build 2025 präsentierte Microsoft-Chef Satya Nadella seine Vorstellungen des Internets der Zukunft. Dies ist eine Welt, in der Agenten in individuellen, organisatorischen, Team- und End-to-End-Geschäftskontexten agieren. Dabei treffen die KI-Agenten im offenen agentenbasierten Web (Open Agentic Web) Entscheidungen und führen Aufgaben im Namen von Anwendern oder Unternehmen aus.

Nur Visionen eines abgehobenen CEOs? Nein, denn mit den Plattformen, Produkten und der Infrastruktur des Konzernes plant Nadella, diese Zukunftsidee Realität werden zu lassen. Dazu will Microsoft Entwicklern neue Modelle und Coding-Agenten an die Hand geben sowie neue Agenten der Enterprise-Klasse bereitstellen.

KI-Protokoll für das Web

Als Plattformen für die Entwicklung dieser Zukunft sieht der Microsoft-Boss Azure AI Foundry, GitHub und Windows. Darüber hinaus setzt der Konzern dazu auf offene Protokolle wie das Model Context Protocol (MCP) oder das neu angekündigte NLWeb – Natural Language Web.

Letztes soll im agentischen Web eine ähnliche Rolle spielen wie HTML im heutigen Internet. NLWeb ermöglicht es laut Microsoft Websites, mit nur wenigen Codezeilen und einem frei wählbaren Modell eine natürliche Sprachschnittstelle bereitzustellen.

Produkt-News von der Build 2025

Das Open Agentic Web im Detail.
Microsoft

Neben dem Support für MCP in einer Vielzahl von Produkten – darunter GitHub, Copilot Studio, Dynamics 365, Azure AI Foundry, Semantic Kernel und Windows 11 – sowie dem neuen Protokoll NLWeb, kündigte Microsoft noch eine Vielzahl an Neuerungen rund um das Thema KI an:

GitHub Copilot Coding-Agent

GitHub Copilot entwickelt sich, so Microsoft, von einem Assistenten im Editor zu einem agentischen KI-Partner mit einem asynchronen Coding-Agenten, der in die GitHub-Plattform integriert ist. 

Windows AI Foundry & Foundry Local 

Windows AI Foundry bietet eine einheitliche und zuverlässige Plattform, die den gesamten Lebenszyklus der KI-Entwicklung – vom Training bis hin zur Inferenz – unterstützt. Dank einfacher Modell-APIs für Aufgaben in den Bereichen Vision und Sprache können Entwickler die Open-Source-LLMs über Foundry Local verwalten und ausführen. Ebenso sei es möglich, eigene Modelle zu konvertieren, feinzujustieren und flexibel auf Client- und Cloud-Umgebungen bereitzustellen.

Azure-AI-Foundry-Modelle und neue Tools

Azure AI Foundry betrachtet Microsoft als zentrale Plattform für Entwickler zur Konzeption, Anpassung und Verwaltung von KI-Anwendungen und -Agenten. Neu im Ökosystem sind die Grok-3- und Grok-3-Mini-Modelle von xAI sowie neue Werkzeuge wie das Model Leaderboard und der Model Router, die bei der Auswahl geeigneter Modelle unterstützen. 

Azure AI Foundry Agent Service 

Zu den neuen Funktionen gehören unter anderem Multi-Agent-Workflows. Zudem gibt es jetzt eine Integration von SharePoint-Tools. Eine erweiterte Interoperabilität soll die Unterstützung offener Agentenprotokolle (A2A und MCP) sicherstellen. Anwender erhalten die Möglichkeit für Kundinnen und Kunden, eigene LLMs von beliebigen Cloud-Anbietern einzubringen. Ferner verspricht Microsoft eine integrierte Observability für Metriken zu Performance, Qualität, Kosten und Sicherheit. 

Microsoft Entra Agent ID

Durch Microsoft Entra Agent ID erhalten Agenten, die in Microsoft Copilot Studio oder Azure AI Foundry erstellt werden, automatisch eine eindeutige Identität im Entra-Verzeichnis. Auf diese Weise könnten Unternehmen ihre Agenten von Anfang an sicher verwalten und einer unkontrollierten Ausbreitung („Agent Sprawl“) entgegenwirken, die Sicherheits- oder Kontroll-Lücken zur Folge haben könnte.

Multi-Agenten-Orchestrierung in Copilot Studio

Die neue Multi-Agenten-Orchestrierung in Copilot Studio ermöglicht es, mehrere Agenten miteinander zu verknüpfen. So können die Agenten ihre Fähigkeiten kombinieren und gemeinsam umfangreichere sowie komplexere Aufgaben bewältigen.

Microsoft Discovery

Die Plattform soll es Forschern ermöglichen, den Entwicklungs- und Forschungsprozess durch agentische KI neu zu gestalten. Dies, so Microsoft, verkürze die Markteinführungszeit neuer Produkte und beschleunige sowie erweitere den gesamten wissenschaftlichen Entdeckungsprozess.

Microsoft Build 2025: Vision des Open Agentic Web​ Weiterlesen »

Google I/O 2025: Die wichtigsten Neuvorstellungen​

Allgemein

Sundar Pichai, CEO von Alphabet und Google, präsentierte in seiner Keynote eine ganze Reihe von Neuigkeiten.Google Google hat auf seiner jährlichen Entwicklerkonferenz bahnbrechende KI-Innovationen präsentiert, die weit über bloße Produkt-Updates hinausgehen. Sie skizzieren vielmehr eine Zukunft, in der künstliche Intelligenz nicht mehr nur ein Werkzeug ist, sondern ein allgegenwärtiger, proaktiver Begleiter. Hier die wichtigsten Neuvorstellungen.  Project Astra: Der universelle KI-Assistent  Project Astra, seit seiner ersten Vorstellung auf der Google I/O 2024 kontinuierlich weiterentwickelt, verkörpert Googles Vision eines universellen KI-Assistenten. Die revolutionärste Neuerung: Astra kann jetzt proaktiv handeln. Statt nur auf direkte Befehle zu reagieren, beobachtet der Assistent kontinuierlich seine Umgebung und entscheidet selbstständig, wann er eingreifen sollte.  “Astra kann basierend auf Ereignissen, die es sieht, selbst entscheiden, wann es sprechen möchte”, erklärt Greg Wayne, Forschungsdirektor bei Google DeepMind. “Es beobachtet fortlaufend und kann dann kommentieren.” Diese Fähigkeit markiert einen fundamentalen Wandel in der Mensch-KI-Interaktion.  Die praktischen Anwendungsbeispiele sind vielfältig: Sitzen Schüler an ihren Hausaufgaben, könnte Astra etwa einen Fehler bemerken und darauf hinweisen. Ein anderes Szenario wäre, dass der KI-Assistent intermittierend Fastende kurz vor Ende der Fastenzeit Bescheid gibt – oder vorsichtig nachfragt, ob sie wirklich außerhalb ihres Essenszeitfensters etwas zu sich nehmen wollen.  DeepMind-CEO Demis Hassabis nennt diese Fähigkeit “reading the room” – das Gespür für die Situation. Gleichzeitig betont er, wie unglaublich schwierig es sei, einem Computer beizubringen, wann er eingreifen sollte, welchen Ton er anschlagen sollte und wann er einfach still sein sollte.  Astra kann jetzt auch auf Informationen aus dem Web und von anderen Google-Produkten zugreifen sowie Android-Geräte bedienen. In einer beeindruckenden Demo zeigte etwa Bibo Xiu, Produktmanagerin im DeepMind-Team, wie Astra selbstständig Bluetooth-Kopfhörer mit einem Smartphone koppelte.  Gemini 2.5: Das neue Flaggschiff-Modell  Gemini 2.5 steht im Zentrum von Googles KI-Strategie und hat bedeutende Upgrades erhalten. Die Familie umfasst zwei Hauptvarianten:   Gemini 2.5 Pro, das Flaggschiff-Modell für komplexe Aufgaben, und   Gemini 2.5 Flash, die effizientere und schnellere Version für alltägliche Anwendungen.  Die spannendste Neuerung ist “Deep Think” – ein experimenteller, erweiterter Denkmodus für 2.5 Pro. Diese Funktion nutzt neue Forschungstechniken, die es dem Modell ermöglichen, mehrere Hypothesen zu betrachten, bevor es antwortet. Die Ergebnisse sind beeindruckend: Deep Think erzielt hervorragende Werte bei den USAMO 2025 Mathematik-Benchmarks, führt bei LiveCodeBench für Wettbewerbs-Coding und erreicht 84 Prozent beim MMMU-Test für multimodales Reasoning.  Gemini 2.5 Flash wiederum wurde als effizientes “Arbeitspferd” optimiert und bietet jetzt laut Google bessere Leistung bei 20 bis 30 Prozent geringerer Token-Nutzung. Flash ist bereits in der Gemini App für alle Nutzer verfügbar und wird ab Juni allgemein für Produktionsumgebungen freigegeben.  Beide Modelle erhalten zudem neue Fähigkeiten: Die Live API führt audiovisuelle Eingaben und native Audio-Ausgabe ein, was natürlichere Konversationen ermöglicht. Das Modell kann seinen Tonfall, Akzent und Sprechstil anpassen – beispielsweise kann der Nutzer es anweisen, eine dramatische Stimme zu verwenden, wenn es eine Geschichte erzählt.  Als weitere Neuerung unterstützen die Text-to-Speech-Fähigkeiten jetzt erstmals mehrere Sprecher und funktionieren in über 24 Sprachen mit nahtlosem Wechsel zwischen ihnen. Zudem wurden die Sicherheitsmaßnahmen gegen indirekte Prompt-Injections erheblich verstärkt.  KI-Integration in Google-Dienste  Auch in bestehenden Diensten von Google hält KI zunehmend Einzug. So wird nun der KI-Modus in Google Search für alle US-Nutzer ausgerollt, mit neuen Funktionen, die zuerst dort debütieren, bevor sie in die reguläre Suche übernommen werden.  Besonders spannend ist “Deep Search” – eine Funktion, die komplexe Recherchen übernimmt und dabei mehrere Quellen analysiert, vergleicht und zusammenführt. “Search Live” wiederum ermöglicht Echtzeit-Informationssuche: Zeigt man etwa mit der Smartphone-Kamera auf ein Gebäude, liefert die Google-Suche sofort Informationen zu dessen Geschichte, Architekturstil und Öffnungszeiten.  Auch Gmail profitiert von KI-Upgrades. Die personalisierten Smart Replies berücksichtigen nun den persönlichen Schreibstil des Nutzers, frühere Interaktionen und sogar seinen Kalender. “Haben Sie dort einen wichtigen Termin um 15 Uhr eingetragen, könnte die Smart Reply vorschlagen, das Meeting auf 16 Uhr zu verschieben, statt es einfach anzunehmen”, erklärte ein Google-Vertreter.  “Thought Summaries” bieten Einblick in die “Denkprozesse” der KI und machen nachvollziehbar, wie sie zu bestimmten Schlussfolgerungen kommt. “Thinking Budgets” ermöglichen Entwicklern, die “Denkzeit” ihrer KI-Anwendungen zu verwalten und zu optimieren.  Kreative KI-Tools für Medienproduktion  Mit einer Reihe neuer und verbesserter Tools revolutioniert Google außerdem die Art und Weise, wie Bilder, Videos und Musik erstellt werden. Das aufregendste neue Tool ist “Flow” – eine KI-App speziell für Filmemacher, die aus einfachen Textbeschreibungen komplexe Videoszenen generieren kann.  Selbst der renommierte Regisseur Darren Aronofsky (u.a. The Whale, Black Swan) nutzt bereits KI in seinen kreativen Prozessen, wie auf der Konferenz enthüllt wurde. Dies unterstreicht, dass diese Tools nicht nur für Amateure gedacht sind, sondern auch von Profis angenommen werden.  Ebenfalls vorgestellt wurde Imagen 4. Die neueste Version von Googles Bildgenerierungssystem soll nun neue Maßstäbe in Sachen Detailgenauigkeit und Realismus setzen. Ähnliche Fortschritte soll Veo 3 bei der Videogenerierung realisieren. Im Audiobereich sorgt Lyria 2 für Aufsehen – Googles Musikgenerierungssystem kann jetzt vollständige Musikstücke erzeugen und bestehende Musik bearbeiten.  Mit SynthID hat Google zudem ein System eingeführt, um KI-generierte Inhalte zu authentifizieren und kennzeichnen. Das Tool fügt dazu unsichtbare Wasserzeichen in generierte Medien ein, die später nachgewiesen werden können – ein wichtiger Schritt für Transparenz in einer Welt, in der die Unterscheidung zwischen menschlich und maschinell erstellten Inhalten zunehmend schwieriger wird.  Google Beam und XR-Technologien  Mit der Umbenennung von Project Starline zu Google Beam und der Vorstellung neuer XR-Technologien macht Google deutlich, dass immersive Erfahrungen ein zentraler Bestandteil seiner Zukunftsvision sind.  Google Beam, der Nachfolger des 2021 vorgestellten Project Starline, markiert einen bedeutenden Fortschritt in der Telepräsenz-Technologie. Die neue Version benötigt die Lösung laut Google weniger Platz, verbraucht weniger Energie und bietet dennoch die gleiche beeindruckende Präsenz-Erfahrung.  Beam ist Googles Beitrag zum Thema Telepräsenz. Die ersten kommerziellen Produkte sollen dabei in Kooperation mit HP auf den Markt kommen.Google LLC Besonders beeindruckend ist die Integration von Echtzeit-Sprachübersetzung in Google Meet. Diese Funktion übersetzt Gespräche simultan und zeigt Untertitel in der gewünschten Sprache an, während die Stimme des Sprechers in der Zielsprache synthetisiert wird.  Android XR wiederum dokumentiert Googles ambitionierten Vorstoß in die Welt der erweiterten Realität. Die Plattform bietet Entwicklern Tools, um immersive Anwendungen zu erstellen, die nahtlos zwischen Smartphones, Tablets und XR-Brillen funktionieren.  Der Prototyp Project Aura von Xreal, der in Zusammenarbeit mit Google entwickelt wurde, zeigt auf, wie die Zukunft von AR-Brillen aussehen könnte. Die Smart Glasses sind kaum von normalen Brillen zu unterscheiden, ein entscheidender Schritt für die soziale Akzeptanz solcher Technologien.  Die Integration von Gemini auf Headsets stellt einen weiteren Meilenstein dar. Der KI-Assistent kann nicht nur Sprachbefehle verarbeiten, sondern auch visuelle Informationen aus der Umgebung des Nutzers interpretieren.  Agentic AI: Die Zukunft der Automatisierung  “Agentic AI” – also KI-Systeme, die eigenständig Aufgaben planen und ausführen können – standen gleich im Mittelpunkt zahlreicher Ankündigungen, markieren sie doch einen Paradigmenwechsel in der Mensch-Maschine-Interaktion.  Erwähnenswert ist dabei insbesondere Project Mariner. Erstmals im Dezember 2024 vorgestellt, umfasst die Lösung jetzt ein System von Agenten, die bis zu zehn verschiedene Aufgaben gleichzeitig erledigen können. Sie sind unter anderem in der Lage, Informationen nachzuschlagen, Buchungen vorzunehmen oder Einkäufe zu tätigen – und alles zur gleichen Zeit.  Der Agent Mode geht noch weiter: Hier versteht die KI die Intention des Nutzers und wählt eigenständig den effizientesten Weg zur Erreichung des gewünschten Ziels. In einer Demo zeigte Google etwa, wie ein einfacher Befehl wie “Plane einen Wochenendausflug nach Berlin” zu einer Kaskade von Aktionen führte: Der Agent recherchierte daraufhin Flüge, Hotels und Aktivitäten und präsentierte einen vollständigen Reiseplan – alles ohne weitere Nutzerinteraktion.  Besonders revolutionär ist Agentic Checkout – eine Funktion, die das Online-Shopping-Erlebnis grundlegend verändern könnte. Der Agent kann den gesamten Checkout-Prozess übernehmen, die besten Angebote finden, Formulare ausfüllen und den Kauf abschließen – alles mit minimaler Nutzerinteraktion.  Google betont, dass Sicherheit und Verantwortung zentral für ihre Arbeit sind. Die Agenten erklären ihre Aktionen, fragen bei wichtigen Entscheidungen nach und können jederzeit vom Nutzer unterbrochen werden.  Wissenschaftliche KI-Anwendungen  Die vorgestellten KI-Forschungs-Apps decken ein breites Spektrum wissenschaftlicher Disziplinen ab. Diese spezialisierten Anwendungen kombinieren Geminis Verständnis wissenschaftlicher Literatur mit domänenspezifischen Modellen und Simulationsfähigkeiten.  Besonders beeindruckend war die Demonstration einer Anwendung für Proteinfaltung, die auf den Erkenntnissen von DeepMinds KI-System AlphaFold aufbaut. Die neue Version kann nicht nur die dreidimensionale Struktur von Proteinen vorhersagen, sondern auch deren Interaktionen mit anderen Molekülen simulieren – ein entscheidender Schritt für die Medikamentenentwicklung.  Der Jules Coding Assistant wiederum stellt einen Quantensprung für die KI-gestützte Softwareentwicklung dar. Anders als herkömmliche Code-Assistenten versteht Jules nicht nur Programmiersprachen, sondern auch die Intention hinter dem Code und den breiteren Kontext des Projekts.  Canvas, Googles kollaborative KI-Umgebung, soll die wissenschaftliche Zusammenarbeit auf ein neues Niveau heben. Die Plattform ermöglicht es Forschern, komplexe Daten zu visualisieren, Modelle zu entwickeln und Ergebnisse zu interpretieren – alles in einer gemeinsamen virtuellen Umgebung.  Ironwood und Project Mariner, zwei von Googles fortschrittlichsten Forschungsprototypen, kombinieren multimodale Verständnisfähigkeiten mit agentenbasiertem Handeln und können komplexe wissenschaftliche Workflows selbstständig planen und durchführen.  Zu Risiken und Nebenwirkungen…  Bei aller Euphorie ist eine kritische Betrachtung der neuen Lösungen unerlässlich. So darf man nicht vergessen, dass KI-Systeme trotz aller Fortschritte fehleranfällig bleiben. Sie können Fakten erfinden, Zusammenhänge falsch interpretieren oder in unerwarteten Situationen versagen. Die Demos auf der I/O fanden in kontrollierten Umgebungen statt – in der chaotischen Realität dürften die Ergebnisse weniger beeindruckend sein.  Datenschutz- und Sicherheitsaspekte werfen weitere Schatten. Je mehr Kontext KI-Systeme haben, desto besser funktionieren sie – aber desto mehr sensible Daten müssen sie verarbeiten. Wenn ein KI-Agent in meinem Namen handeln kann, welche Sicherheitsgarantien gibt es gegen Missbrauch oder Manipulation?  Die gesellschaftlichen Auswirkungen sind möglicherweise am schwierigsten abzuschätzen. KI-Systeme könnten zahlreiche Berufe transformieren oder sogar überflüssig machen. Gleichzeitig könnten diese Technologien bestehende Ungleichheiten verstärken. Der Zugang zu fortschrittlicher KI erfordert schnelles Internet, moderne Geräte und oft kostenpflichtige Abonnements – Ressourcen, die global ungleich verteilt sind.  Google hat auf der I/O 2025 bewiesen, dass es an der Spitze der KI-Innovation steht. Doch der wahre Erfolg dieser Technologien wird sich nicht an Benchmarks oder Demos messen lassen, sondern daran, ob sie das Leben der Menschen tatsächlich verbessern – ob sie uns befähigen, kreativer, produktiver und erfüllter zu sein, ohne dafür unsere Autonomie, Privatsphäre oder Menschlichkeit zu opfern.  

Google I/O 2025: Die wichtigsten Neuvorstellungen​ Sundar Pichai, CEO von Alphabet und Google, präsentierte in seiner Keynote eine ganze Reihe von Neuigkeiten.Google

Google hat auf seiner jährlichen Entwicklerkonferenz bahnbrechende KI-Innovationen präsentiert, die weit über bloße Produkt-Updates hinausgehen. Sie skizzieren vielmehr eine Zukunft, in der künstliche Intelligenz nicht mehr nur ein Werkzeug ist, sondern ein allgegenwärtiger, proaktiver Begleiter. Hier die wichtigsten Neuvorstellungen. 

Project Astra: Der universelle KI-Assistent 

Project Astra, seit seiner ersten Vorstellung auf der Google I/O 2024 kontinuierlich weiterentwickelt, verkörpert Googles Vision eines universellen KI-Assistenten. Die revolutionärste Neuerung: Astra kann jetzt proaktiv handeln. Statt nur auf direkte Befehle zu reagieren, beobachtet der Assistent kontinuierlich seine Umgebung und entscheidet selbstständig, wann er eingreifen sollte. 

“Astra kann basierend auf Ereignissen, die es sieht, selbst entscheiden, wann es sprechen möchte”, erklärt Greg Wayne, Forschungsdirektor bei Google DeepMind. “Es beobachtet fortlaufend und kann dann kommentieren.” Diese Fähigkeit markiert einen fundamentalen Wandel in der Mensch-KI-Interaktion. 

Die praktischen Anwendungsbeispiele sind vielfältig: Sitzen Schüler an ihren Hausaufgaben, könnte Astra etwa einen Fehler bemerken und darauf hinweisen. Ein anderes Szenario wäre, dass der KI-Assistent intermittierend Fastende kurz vor Ende der Fastenzeit Bescheid gibt – oder vorsichtig nachfragt, ob sie wirklich außerhalb ihres Essenszeitfensters etwas zu sich nehmen wollen. 

DeepMind-CEO Demis Hassabis nennt diese Fähigkeit “reading the room” – das Gespür für die Situation. Gleichzeitig betont er, wie unglaublich schwierig es sei, einem Computer beizubringen, wann er eingreifen sollte, welchen Ton er anschlagen sollte und wann er einfach still sein sollte. 

Astra kann jetzt auch auf Informationen aus dem Web und von anderen Google-Produkten zugreifen sowie Android-Geräte bedienen. In einer beeindruckenden Demo zeigte etwa Bibo Xiu, Produktmanagerin im DeepMind-Team, wie Astra selbstständig Bluetooth-Kopfhörer mit einem Smartphone koppelte. 

Gemini 2.5: Das neue Flaggschiff-Modell 

Gemini 2.5 steht im Zentrum von Googles KI-Strategie und hat bedeutende Upgrades erhalten. Die Familie umfasst zwei Hauptvarianten:  

Gemini 2.5 Pro, das Flaggschiff-Modell für komplexe Aufgaben, und  

Gemini 2.5 Flash, die effizientere und schnellere Version für alltägliche Anwendungen. 

Die spannendste Neuerung ist “Deep Think” – ein experimenteller, erweiterter Denkmodus für 2.5 Pro. Diese Funktion nutzt neue Forschungstechniken, die es dem Modell ermöglichen, mehrere Hypothesen zu betrachten, bevor es antwortet. Die Ergebnisse sind beeindruckend: Deep Think erzielt hervorragende Werte bei den USAMO 2025 Mathematik-Benchmarks, führt bei LiveCodeBench für Wettbewerbs-Coding und erreicht 84 Prozent beim MMMU-Test für multimodales Reasoning. 

Gemini 2.5 Flash wiederum wurde als effizientes “Arbeitspferd” optimiert und bietet jetzt laut Google bessere Leistung bei 20 bis 30 Prozent geringerer Token-Nutzung. Flash ist bereits in der Gemini App für alle Nutzer verfügbar und wird ab Juni allgemein für Produktionsumgebungen freigegeben. 

Beide Modelle erhalten zudem neue Fähigkeiten: Die Live API führt audiovisuelle Eingaben und native Audio-Ausgabe ein, was natürlichere Konversationen ermöglicht. Das Modell kann seinen Tonfall, Akzent und Sprechstil anpassen – beispielsweise kann der Nutzer es anweisen, eine dramatische Stimme zu verwenden, wenn es eine Geschichte erzählt. 

Als weitere Neuerung unterstützen die Text-to-Speech-Fähigkeiten jetzt erstmals mehrere Sprecher und funktionieren in über 24 Sprachen mit nahtlosem Wechsel zwischen ihnen. Zudem wurden die Sicherheitsmaßnahmen gegen indirekte Prompt-Injections erheblich verstärkt. 

KI-Integration in Google-Dienste 

Auch in bestehenden Diensten von Google hält KI zunehmend Einzug. So wird nun der KI-Modus in Google Search für alle US-Nutzer ausgerollt, mit neuen Funktionen, die zuerst dort debütieren, bevor sie in die reguläre Suche übernommen werden. 

Besonders spannend ist “Deep Search” – eine Funktion, die komplexe Recherchen übernimmt und dabei mehrere Quellen analysiert, vergleicht und zusammenführt. “Search Live” wiederum ermöglicht Echtzeit-Informationssuche: Zeigt man etwa mit der Smartphone-Kamera auf ein Gebäude, liefert die Google-Suche sofort Informationen zu dessen Geschichte, Architekturstil und Öffnungszeiten. 

Auch Gmail profitiert von KI-Upgrades. Die personalisierten Smart Replies berücksichtigen nun den persönlichen Schreibstil des Nutzers, frühere Interaktionen und sogar seinen Kalender. “Haben Sie dort einen wichtigen Termin um 15 Uhr eingetragen, könnte die Smart Reply vorschlagen, das Meeting auf 16 Uhr zu verschieben, statt es einfach anzunehmen”, erklärte ein Google-Vertreter. 

“Thought Summaries” bieten Einblick in die “Denkprozesse” der KI und machen nachvollziehbar, wie sie zu bestimmten Schlussfolgerungen kommt. “Thinking Budgets” ermöglichen Entwicklern, die “Denkzeit” ihrer KI-Anwendungen zu verwalten und zu optimieren. 

Kreative KI-Tools für Medienproduktion 

Mit einer Reihe neuer und verbesserter Tools revolutioniert Google außerdem die Art und Weise, wie Bilder, Videos und Musik erstellt werden. Das aufregendste neue Tool ist “Flow” – eine KI-App speziell für Filmemacher, die aus einfachen Textbeschreibungen komplexe Videoszenen generieren kann. 

Selbst der renommierte Regisseur Darren Aronofsky (u.a. The Whale, Black Swan) nutzt bereits KI in seinen kreativen Prozessen, wie auf der Konferenz enthüllt wurde. Dies unterstreicht, dass diese Tools nicht nur für Amateure gedacht sind, sondern auch von Profis angenommen werden. 

Ebenfalls vorgestellt wurde Imagen 4. Die neueste Version von Googles Bildgenerierungssystem soll nun neue Maßstäbe in Sachen Detailgenauigkeit und Realismus setzen. Ähnliche Fortschritte soll Veo 3 bei der Videogenerierung realisieren. Im Audiobereich sorgt Lyria 2 für Aufsehen – Googles Musikgenerierungssystem kann jetzt vollständige Musikstücke erzeugen und bestehende Musik bearbeiten. 

Mit SynthID hat Google zudem ein System eingeführt, um KI-generierte Inhalte zu authentifizieren und kennzeichnen. Das Tool fügt dazu unsichtbare Wasserzeichen in generierte Medien ein, die später nachgewiesen werden können – ein wichtiger Schritt für Transparenz in einer Welt, in der die Unterscheidung zwischen menschlich und maschinell erstellten Inhalten zunehmend schwieriger wird. 

Google Beam und XR-Technologien 

Mit der Umbenennung von Project Starline zu Google Beam und der Vorstellung neuer XR-Technologien macht Google deutlich, dass immersive Erfahrungen ein zentraler Bestandteil seiner Zukunftsvision sind. 

Google Beam, der Nachfolger des 2021 vorgestellten Project Starline, markiert einen bedeutenden Fortschritt in der Telepräsenz-Technologie. Die neue Version benötigt die Lösung laut Google weniger Platz, verbraucht weniger Energie und bietet dennoch die gleiche beeindruckende Präsenz-Erfahrung. 

Beam ist Googles Beitrag zum Thema Telepräsenz. Die ersten kommerziellen Produkte sollen dabei in Kooperation mit HP auf den Markt kommen.Google LLC

Besonders beeindruckend ist die Integration von Echtzeit-Sprachübersetzung in Google Meet. Diese Funktion übersetzt Gespräche simultan und zeigt Untertitel in der gewünschten Sprache an, während die Stimme des Sprechers in der Zielsprache synthetisiert wird. 

Android XR wiederum dokumentiert Googles ambitionierten Vorstoß in die Welt der erweiterten Realität. Die Plattform bietet Entwicklern Tools, um immersive Anwendungen zu erstellen, die nahtlos zwischen Smartphones, Tablets und XR-Brillen funktionieren. 

Der Prototyp Project Aura von Xreal, der in Zusammenarbeit mit Google entwickelt wurde, zeigt auf, wie die Zukunft von AR-Brillen aussehen könnte. Die Smart Glasses sind kaum von normalen Brillen zu unterscheiden, ein entscheidender Schritt für die soziale Akzeptanz solcher Technologien. 

Die Integration von Gemini auf Headsets stellt einen weiteren Meilenstein dar. Der KI-Assistent kann nicht nur Sprachbefehle verarbeiten, sondern auch visuelle Informationen aus der Umgebung des Nutzers interpretieren. 

Agentic AI: Die Zukunft der Automatisierung 

“Agentic AI” – also KI-Systeme, die eigenständig Aufgaben planen und ausführen können – standen gleich im Mittelpunkt zahlreicher Ankündigungen, markieren sie doch einen Paradigmenwechsel in der Mensch-Maschine-Interaktion. 

Erwähnenswert ist dabei insbesondere Project Mariner. Erstmals im Dezember 2024 vorgestellt, umfasst die Lösung jetzt ein System von Agenten, die bis zu zehn verschiedene Aufgaben gleichzeitig erledigen können. Sie sind unter anderem in der Lage, Informationen nachzuschlagen, Buchungen vorzunehmen oder Einkäufe zu tätigen – und alles zur gleichen Zeit. 

Der Agent Mode geht noch weiter: Hier versteht die KI die Intention des Nutzers und wählt eigenständig den effizientesten Weg zur Erreichung des gewünschten Ziels. In einer Demo zeigte Google etwa, wie ein einfacher Befehl wie “Plane einen Wochenendausflug nach Berlin” zu einer Kaskade von Aktionen führte: Der Agent recherchierte daraufhin Flüge, Hotels und Aktivitäten und präsentierte einen vollständigen Reiseplan – alles ohne weitere Nutzerinteraktion. 

Besonders revolutionär ist Agentic Checkout – eine Funktion, die das Online-Shopping-Erlebnis grundlegend verändern könnte. Der Agent kann den gesamten Checkout-Prozess übernehmen, die besten Angebote finden, Formulare ausfüllen und den Kauf abschließen – alles mit minimaler Nutzerinteraktion. 

Google betont, dass Sicherheit und Verantwortung zentral für ihre Arbeit sind. Die Agenten erklären ihre Aktionen, fragen bei wichtigen Entscheidungen nach und können jederzeit vom Nutzer unterbrochen werden. 

Wissenschaftliche KI-Anwendungen 

Die vorgestellten KI-Forschungs-Apps decken ein breites Spektrum wissenschaftlicher Disziplinen ab. Diese spezialisierten Anwendungen kombinieren Geminis Verständnis wissenschaftlicher Literatur mit domänenspezifischen Modellen und Simulationsfähigkeiten. 

Besonders beeindruckend war die Demonstration einer Anwendung für Proteinfaltung, die auf den Erkenntnissen von DeepMinds KI-System AlphaFold aufbaut. Die neue Version kann nicht nur die dreidimensionale Struktur von Proteinen vorhersagen, sondern auch deren Interaktionen mit anderen Molekülen simulieren – ein entscheidender Schritt für die Medikamentenentwicklung. 

Der Jules Coding Assistant wiederum stellt einen Quantensprung für die KI-gestützte Softwareentwicklung dar. Anders als herkömmliche Code-Assistenten versteht Jules nicht nur Programmiersprachen, sondern auch die Intention hinter dem Code und den breiteren Kontext des Projekts. 

Canvas, Googles kollaborative KI-Umgebung, soll die wissenschaftliche Zusammenarbeit auf ein neues Niveau heben. Die Plattform ermöglicht es Forschern, komplexe Daten zu visualisieren, Modelle zu entwickeln und Ergebnisse zu interpretieren – alles in einer gemeinsamen virtuellen Umgebung. 

Ironwood und Project Mariner, zwei von Googles fortschrittlichsten Forschungsprototypen, kombinieren multimodale Verständnisfähigkeiten mit agentenbasiertem Handeln und können komplexe wissenschaftliche Workflows selbstständig planen und durchführen. 

Zu Risiken und Nebenwirkungen… 

Bei aller Euphorie ist eine kritische Betrachtung der neuen Lösungen unerlässlich. So darf man nicht vergessen, dass KI-Systeme trotz aller Fortschritte fehleranfällig bleiben. Sie können Fakten erfinden, Zusammenhänge falsch interpretieren oder in unerwarteten Situationen versagen. Die Demos auf der I/O fanden in kontrollierten Umgebungen statt – in der chaotischen Realität dürften die Ergebnisse weniger beeindruckend sein. 

Datenschutz- und Sicherheitsaspekte werfen weitere Schatten. Je mehr Kontext KI-Systeme haben, desto besser funktionieren sie – aber desto mehr sensible Daten müssen sie verarbeiten. Wenn ein KI-Agent in meinem Namen handeln kann, welche Sicherheitsgarantien gibt es gegen Missbrauch oder Manipulation? 

Die gesellschaftlichen Auswirkungen sind möglicherweise am schwierigsten abzuschätzen. KI-Systeme könnten zahlreiche Berufe transformieren oder sogar überflüssig machen. Gleichzeitig könnten diese Technologien bestehende Ungleichheiten verstärken. Der Zugang zu fortschrittlicher KI erfordert schnelles Internet, moderne Geräte und oft kostenpflichtige Abonnements – Ressourcen, die global ungleich verteilt sind. 

Google hat auf der I/O 2025 bewiesen, dass es an der Spitze der KI-Innovation steht. Doch der wahre Erfolg dieser Technologien wird sich nicht an Benchmarks oder Demos messen lassen, sondern daran, ob sie das Leben der Menschen tatsächlich verbessern – ob sie uns befähigen, kreativer, produktiver und erfüllter zu sein, ohne dafür unsere Autonomie, Privatsphäre oder Menschlichkeit zu opfern. 

Google I/O 2025: Die wichtigsten Neuvorstellungen​ Weiterlesen »

Große Sprachmodelle, kleine Wirkung?​

Allgemein

width=”2488″ height=”1399″ sizes=”(max-width: 2488px) 100vw, 2488px”>KI-Chatbots sind am Arbeitsplatz angekommen, aber sie haben die Arbeit noch nicht verändert.Poca Wander Stock – shutterstock.com Obwohl KI-Chatbots mittlerweile in zahlreichen Unternehmen zum Einsatz kommen, sind die damit erzielten Auswirkungen auf Produktivität, Arbeitszeit und Bezahlung unter dem Strich vernachlässigbar.   So wenig Zeit spart KI  Zu diesem Resultat kommt zumindest eine Studie des National Bureau of Economic Research (PDF). Forscher der Universität von Chicago und der Universität Kopenhagen haben darin die Akzeptanz von Chatbots, die Mitarbeiterinitiativen zur Förderung der Nutzung und die wahrgenommenen Vorteile wie Zeitersparnis und Qualitätsverbesserung untersucht. Grundlage waren Umfragen in Dänemark unter 25.000 Arbeitnehmern aus elf ausgewählten Berufen, verknüpft mit Arbeitsmarktdaten des Landes.   Wie die Untersuchung ergab, beträgt die Zeitersparnis der Mitarbeiter durch die Verwendung von KI-Tools im Schnitt nur 2,8 Prozent. Selbst dieser Effekt scheint jedoch zu verpuffen, da die Forscher keine signifikanten Auswirkungen auf Verdienst oder aufgezeichnete Stunden feststellen konnten. Lediglich drei bis sieben Prozent der geschätzten Zeitersparnis machten sich auch auf dem Lohnzettel bemerkbar.  Ein etwas anderes Bild ergibt sich allerdings, wenn der Arbeitgeber die Mitarbeitenden zur Nutzung ermutigt und sie schult, damit zu arbeiten. Geschieht dies, verdoppelt sich die Adoptionsrate nahezu auf 83 Prozent (statt 47 Prozent).   Gleichzeitig stellten die Forscher auch einen positiven Einfluss auf den wahrgenommenen Nutzen fest: Die Vorteile, von denen Nutzer im Zusammenhang mit KI-Chatbots berichten, also Zeitersparnis, Qualitätsverbesserungen, höhere Kreativität, Aufgabenerweiterung und mehr Zufriedenheit mit der Arbeit, werden allesamt zehn bis 40 Prozent höher gewichtet, wenn Arbeitgeber zur Nutzung ermutigen.   Die Forscher weisen darüber hinaus darauf hin, dass in viele Fällen auch die Arbeitsabläufe angepasst werden müssen, um das Produktivitätspotenzial von KI-Chatbots am Arbeitsplatz freizusetzen.  

Große Sprachmodelle, kleine Wirkung?​ width=”2488″ height=”1399″ sizes=”(max-width: 2488px) 100vw, 2488px”>KI-Chatbots sind am Arbeitsplatz angekommen, aber sie haben die Arbeit noch nicht verändert.Poca Wander Stock – shutterstock.com

Obwohl KI-Chatbots mittlerweile in zahlreichen Unternehmen zum Einsatz kommen, sind die damit erzielten Auswirkungen auf Produktivität, Arbeitszeit und Bezahlung unter dem Strich vernachlässigbar.  

So wenig Zeit spart KI 

Zu diesem Resultat kommt zumindest eine Studie des National Bureau of Economic Research (PDF). Forscher der Universität von Chicago und der Universität Kopenhagen haben darin die Akzeptanz von Chatbots, die Mitarbeiterinitiativen zur Förderung der Nutzung und die wahrgenommenen Vorteile wie Zeitersparnis und Qualitätsverbesserung untersucht. Grundlage waren Umfragen in Dänemark unter 25.000 Arbeitnehmern aus elf ausgewählten Berufen, verknüpft mit Arbeitsmarktdaten des Landes.  

Wie die Untersuchung ergab, beträgt die Zeitersparnis der Mitarbeiter durch die Verwendung von KI-Tools im Schnitt nur 2,8 Prozent. Selbst dieser Effekt scheint jedoch zu verpuffen, da die Forscher keine signifikanten Auswirkungen auf Verdienst oder aufgezeichnete Stunden feststellen konnten. Lediglich drei bis sieben Prozent der geschätzten Zeitersparnis machten sich auch auf dem Lohnzettel bemerkbar. 

Ein etwas anderes Bild ergibt sich allerdings, wenn der Arbeitgeber die Mitarbeitenden zur Nutzung ermutigt und sie schult, damit zu arbeiten. Geschieht dies, verdoppelt sich die Adoptionsrate nahezu auf 83 Prozent (statt 47 Prozent).  

Gleichzeitig stellten die Forscher auch einen positiven Einfluss auf den wahrgenommenen Nutzen fest: Die Vorteile, von denen Nutzer im Zusammenhang mit KI-Chatbots berichten, also Zeitersparnis, Qualitätsverbesserungen, höhere Kreativität, Aufgabenerweiterung und mehr Zufriedenheit mit der Arbeit, werden allesamt zehn bis 40 Prozent höher gewichtet, wenn Arbeitgeber zur Nutzung ermutigen.  

Die Forscher weisen darüber hinaus darauf hin, dass in viele Fällen auch die Arbeitsabläufe angepasst werden müssen, um das Produktivitätspotenzial von KI-Chatbots am Arbeitsplatz freizusetzen. 

Große Sprachmodelle, kleine Wirkung?​ Weiterlesen »

Technische Schulden als billige Ausrede​

Allgemein

Wenn technische Schulden zur Ausrede verkommen, ist ein Richtungswechsel dringend angebracht.elmar gubisch | shutterstock.com Agile-Pionier Ward Cunningham hat den Begriff Technical Debt maßgeblich geprägt und definiert (PDF). Dabei ging der Informatiker davon aus, dass technische Schulden auf einer bewussten Entscheidung basieren: Zwar ist den Devs klar, dass es einen besseren, “korrekteren” Weg zum Ziel gäbe – aber sie wählen einen anderen, der im Nachgang Kosten verursacht. Solche Entscheidungen werden für gewöhnlich getroffen, um Projekte zu beschleunigen – allerdings sollten die Entwickler die entstandene Schuld auch zu einem späteren Zeitpunkt “begleichen”. Anders ausgedrückt: Existiert kein Jira-Ticket im Backlog, um den ungünstigen Code zu bereinigen, handelt es sich auch nicht um Technical Debt. Technische Umschuldung? In der Realität haben wir die Definition von technischen Schulden so weit ausgedehnt, dass der Begriff fast bedeutungslos geworden ist. Inzwischen wird einfach jeder schlechte Haufen Code mit diesem Etikett versehen. Egal, ob er das Ergebnis einer bewussten Entscheidung war oder es einen Plan gibt, diesen zukünftig zu bereinigen (was in den meisten Fällen nicht zutrifft). So wird auch Code, der unter die Definition von “Accidental Complexity” (PDF) fällt, regelmäßig das Technical-Debt-Label aufgedrückt. Ebenso wie hastig zusammengeschusterten “Notfalllösungen”. In der Konsequenz schafft das willkommene Gelegenheiten, die eigentlichen Ursachen für schlecht umgesetzte Lösungen zu verschleiern – etwa fehlendes Knowhow, Nachlässigkeiten oder massiver Zeitdruck.    So werden vermeidbare Fehler zu “technischen Schulden”. Das klingt nicht nur besser, sondern erweckt auch den Eindruck, die Unwägbarkeiten würden später behoben – obwohl allen Beteiligten klar ist, dass es niemals dazu kommen wird. Etabliert sich ein Mindset dieser Art in Entwicklungsteams, ist der Niedergang nur eine Frage der Zeit. Schließlich ist so immer eine billige Ausrede für schlechte Entscheidungen und Praktiken verfügbar. Echte technische Schulden sollten mit einem klaren Arbeitsauftrag, beziehungsweise einem Korrekturplan inklusive Deadline verknüpft sein. Alles andere muss als das benannt werden, was es ist: minderwertiger Code. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Technische Schulden als billige Ausrede​ Wenn technische Schulden zur Ausrede verkommen, ist ein Richtungswechsel dringend angebracht.elmar gubisch | shutterstock.com

Agile-Pionier Ward Cunningham hat den Begriff Technical Debt maßgeblich geprägt und definiert (PDF). Dabei ging der Informatiker davon aus, dass technische Schulden auf einer bewussten Entscheidung basieren: Zwar ist den Devs klar, dass es einen besseren, “korrekteren” Weg zum Ziel gäbe – aber sie wählen einen anderen, der im Nachgang Kosten verursacht.

Solche Entscheidungen werden für gewöhnlich getroffen, um Projekte zu beschleunigen – allerdings sollten die Entwickler die entstandene Schuld auch zu einem späteren Zeitpunkt “begleichen”. Anders ausgedrückt: Existiert kein Jira-Ticket im Backlog, um den ungünstigen Code zu bereinigen, handelt es sich auch nicht um Technical Debt.

Technische Umschuldung?

In der Realität haben wir die Definition von technischen Schulden so weit ausgedehnt, dass der Begriff fast bedeutungslos geworden ist. Inzwischen wird einfach jeder schlechte Haufen Code mit diesem Etikett versehen. Egal, ob er das Ergebnis einer bewussten Entscheidung war oder es einen Plan gibt, diesen zukünftig zu bereinigen (was in den meisten Fällen nicht zutrifft). So wird auch Code, der unter die Definition von “Accidental Complexity” (PDF) fällt, regelmäßig das Technical-Debt-Label aufgedrückt. Ebenso wie hastig zusammengeschusterten “Notfalllösungen”. In der Konsequenz schafft das willkommene Gelegenheiten, die eigentlichen Ursachen für schlecht umgesetzte Lösungen zu verschleiern – etwa fehlendes Knowhow, Nachlässigkeiten oder massiver Zeitdruck.   

So werden vermeidbare Fehler zu “technischen Schulden”. Das klingt nicht nur besser, sondern erweckt auch den Eindruck, die Unwägbarkeiten würden später behoben – obwohl allen Beteiligten klar ist, dass es niemals dazu kommen wird. Etabliert sich ein Mindset dieser Art in Entwicklungsteams, ist der Niedergang nur eine Frage der Zeit. Schließlich ist so immer eine billige Ausrede für schlechte Entscheidungen und Praktiken verfügbar.

Echte technische Schulden sollten mit einem klaren Arbeitsauftrag, beziehungsweise einem Korrekturplan inklusive Deadline verknüpft sein. Alles andere muss als das benannt werden, was es ist: minderwertiger Code. (fm)

Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Technische Schulden als billige Ausrede​ Weiterlesen »

Tech-Mitarbeiter binden: Wie Arbeitgeber Fachkarrieren projektieren​

Allgemein

Die Implementierung eines stringenten Karrierekonzepts zur beruflichen Weiterentwicklung von Fachkräften kann für Unternehmen ein wichtiger Schlüssel zur Mitarbeiterbindung sein. Foto: VectorMine – shutterstock.comIn Sachen aktive Mitarbeiterbindung ist hierzulande noch viel Luft nach oben. Selbst in Gesprächen mit Entscheidern oberer Ebenen kommt gezielte Förderung gar nicht so häufig vor, wie man angesichts der Fachkräftelage meinen könnte. Mitarbeiterbindung hat viele Gesichter, so etwa konstruktive Führung und ein passendes Gesamtpakt. Was gut gemachte Expertenlaufbahnen angeht, so sind sie in Deutschland noch immer selten. Dabei liegen sie nahe: Die große Mehrheit aller Mitarbeiter bleibt ein Berufsleben lang Fachkraft. Experten sorgen für Wertschöpfung in Projekten und in agilen Settings, Fachkarrieren bieten ihnen strukturierte Entwicklung. Fachkarrieren sind kein Idealismus, sondern würdigen die ökonomische Bedeutung von Expertise. Es wäre geradezu unrentabel, Mitarbeiter mit Expertise für gefragte Jobrollen nicht zu binden. Außerdem ermöglichen Fachkarrieren interne Flexibilität. Experten, die sich verändern, verankern beim Wechsel wertvolles Know-how in anderen Bereichen – unbezahlbar. Das Unternehmen profitiert: Expertise spielt eine wesentliche Rolle bei der Vergabe von Aufträgen. Fachkarrieren untermauern weiterhin unternehmensweite Standards und sorgen für eine Weitergabe von Wissen. Last but not least: Gibt es Fachkarrieren, so muss der beste Experte nicht Führungskraft werden.Fehlstart in die Fachkarriere?Häufig starten Organisationen die Fachkarriere enthusiastisch, doch dann kommt das Projekt ins Stocken. Das passiert, wenn es kein klares Konzept gibt. Die Folge: Interne Stakeholder der Organisation sehen wenig Sinn oder Struktur in der Fachkarriere. Das Thema ist fortan belastet, ein Reset mühsam.Gut gemeint ist auch der “Wir-alle-zusammen”-Ansatz: Arbeitsgruppen erstellen umfangreiche Excel-Tabellen für die Fachkarriere, in denen fachliche Kompetenzen und Trends, Skills und soziale sowie persönliche Kompetenzen durcheinandergehen. Oft kommen dann Anrufe mit der Fragestellung, wie dieses Material in ein System zu bringen sei? Leider muss man dann sagen: Kaum, denn der Fokus muss auf den Beginn gerichtet sein. Eine Sammlung ohne Konzept bleibt ein Datenknäuel. In einer weiteren Variante befördert man einige Fachkräfte zu “Seniors”, nach dem Motto: “Sie sind unser bester Experte, ab jetzt steht Senior auf Ihrer Visitenkarte!” Sicher eine Würdigung, doch früher oder später fragen diejenigen Fachkräfte, die keine “Seniors” werden, danach was ihnen denn noch fehlt. Transparenz schafft Fairness und für Transparenz brauchen Sie klar definierte Anforderungen an Fachkarrierestufen. Mitarbeiterbindung: Systematik für FachkarrierenIT-Berufsgruppen und die Digitalwirtschaft sind geradezu prädestiniert für Fachkarrieren, denn dort findet man viele Fachenthusiasten und tiefe, wertige Expertisen. Auch Tech-Vertrieb eignet sich für Fachkarrieren: So können Einsteiger zum Beispiel Know-how in Sachen Produkte sowie Erfahrungen sammeln. Außerdem bekommen sie einen Eindruck davon, wie Kundenabschlüsse generiert werden. Fachkarrieren laufen in der Softwareentwicklung, in der Netzwerktechnik, in beratenden IT-Berufsgruppen, agilen Rollen und im Projektmanagement, um einige Beispiele zu nennen. Ein praxistaugliches Konzept ist Ihr Kompass zur erfolgreichen Einführung von Fachkarrieren. Klären Sie zum Start folgende Fragen:Welches Ziel verbinden Sie mit Fachkarrieren? Möchten Sie gute Experten binden, Ihren Kunden klar erkennbare Expertise bieten oder Fachkarrieren als Recruiting-Vorteil nutzen?Empfiehlt es sich, ein Pilotprojekt in einem Bereich zu starten? Welche Bereiche werden Sie perspektivisch in die Fachkarriere einbinden?Wie gestalten Sie Anforderungsprofile der Fachkarrierestufen? Wie bieten Sie Beschäftigen Orientierung dazu, was besser zu ihnen passt: eine Führungs- oder Expertenlaufbahn?Skizze einer Fachkarriere im Projektmanagement Foto: Regina BergdoltWas oft unterschätzt wird: Professionelle Fachkarrieren brauchen HR-Handwerk, Wissen zu Fachkarrieren und solides Projektmanagement. Fachkarrieren sind ein Querschnittsprojekt, das andere Themen berührt. Wer irgendwo anfängt, dem fehlt der rote Faden, und am Ende passen die Teilstücke nicht mehr zusammen. Wichtig ist es, die Stufen von Fachkarrieren präzise zu definieren; dazu gehören Fähigkeiten im Kompetenzmanagement. Es braucht keine langen Listen von fachlichen wie sozialen, methodischen und persönlichen Kompetenzen, bis keiner mehr durchblickt. Gutes HR-Management bedeutet, die entscheidenden Kompetenzen klar zu beschreiben. Das lohnt sich, denn so verbinden Sie Mitarbeiterentwicklung mit der Unternehmensentwicklung und bauen zukunftsweisende Kompetenzen auf. Zentrale Aufgabe ist es, Führungskräfte methodisch beim Fokussieren auf Kompetenzen zu unterstützen. Weiter entscheiden Sie über die grundsätzliche Ausrichtung Ihrer Fachkarriere. Es gibt verschiedene Modelle, die unterschiedlich aufgebaut sind und unterschiedlich viele Experten in die Fachkarriere einbeziehen. Welches Modell für ein Unternehmen das richtige ist, bestimmen dessen Ziele sowie internen Strukturen.Mitarbeiter binden: Fachkarrieren kommen anIch rate Kunden zum Einstieg über ein Pilotprojekt, das sich zunächst auf einen Bereich konzentriert. So entsteht ein interner Prototyp der Fachkarriere. Auf diese Weise können organisatorische Erfahrungen gesammelt und eine Marschroute für den Rollout festgelegt werden. Das ist wirksamer als umfassende Konzept-Papiertiger.Vorgehensmodell zur Einführung einer Fachkarriere im Unternehmen. Foto: Regina BergdoltJetzt oder nie: Packen Sie die Fachkarriere an. Sie machen so Expertisen sichtbar und fördern Fachcommunitys über Organisationsbereiche hinweg. Fachkarrieren bieten eine Alternative und verhindern persönliches Scheitern in Führungsrollen. Da erstaunlich wenige IT-Organisationen gute Fachkarrieren bieten, sind sie (noch) ein Alleinstellungsmerkmal. Oder, illustriert mit einer Geschichte aus der Praxis: In einem Unternehmen hatten wir gerade die Fachkarriere eingeführt. Ein Bewerber erläuterte uns, warum er wechseln wolle: Er erhalte einfach kein Feedback zu Entwicklungsmöglichkeiten bei seinem derzeitigen Arbeitgeber. Später sagte er uns, dass die Fachkarriere ein entscheidender Faktor für den Jobwechsel gewesen sei. (pg)Fachkarrieren als Erfolgsprojekt zur MitarbeiterbindungPraxistipps: Wie Sie Karrierekonzepte für Fachkräfte umsetzen Foto: Sergey Nivens – shutterstock.comFachkräfte sind für den Unternehmenserfolg unverzichtbar. Für Arbeitgeber ist es deshalb besonders sinnvoll, diesen Spezialisten von vorneherein Karrierechancen aufzuzeigen, ohne ihr Potenzial zwangsläufig in Führungspositionen zu vergeuden. HR- und Organisationsexpertin Regina Bergdolt gibt Tipps, wie der Projekte für Fachkarrieren erfolgreich geplant und umgesetzt werden. Projektplan festlegen Foto: Robert Kneschke – shutterstock.comDefinieren Sie klar verständliche Ziele und einen Projektplan mit Meilensteinen. Gerade Vorstände brauchen Systematik, um Fachkarrieren zu unterstützen und Ressourcen freizumachen.Stakeholder definieren Foto: Robert Kneschke – shutterstock.comKlären Sie in einer Stakeholderanalyse: Wer treibt die Fachkarriere mit Ihnen, ein Machtpromotor, Führungskräfte, Mitarbeiter, Bewerber?Projektleitung auswählen Foto: Matej Kastelic – shutterstock.comWählen Sie eine Projektleitung mit HR-Erfahrung und Standing. Nicht alle HR-Abteilungen sind schon erfahren im Projektmanagement; das können Sie ändern. Expertise sicherstellen Foto: Jacek Dudzinski – shutterstock.comHolen Sie sich die Expertise ins Projekt, die Sie benötigen, anstatt an kritischen Punkten hängen zu bleiben.Fachkarriere aktiv bewerben Foto: Andrey_Popov – shutterstock.comNutzen Sie die Fachkarriere schon im Projektstadium aktiv als Angebot des Unternehmens: auf der Karriereseite und im Gespräch mit Bewerbern. 

Tech-Mitarbeiter binden: Wie Arbeitgeber Fachkarrieren projektieren​ Die Implementierung eines stringenten Karrierekonzepts zur beruflichen Weiterentwicklung von Fachkräften kann für Unternehmen ein wichtiger Schlüssel zur Mitarbeiterbindung sein.
Foto: VectorMine – shutterstock.comIn Sachen aktive Mitarbeiterbindung ist hierzulande noch viel Luft nach oben. Selbst in Gesprächen mit Entscheidern oberer Ebenen kommt gezielte Förderung gar nicht so häufig vor, wie man angesichts der Fachkräftelage meinen könnte. Mitarbeiterbindung hat viele Gesichter, so etwa konstruktive Führung und ein passendes Gesamtpakt. Was gut gemachte Expertenlaufbahnen angeht, so sind sie in Deutschland noch immer selten. Dabei liegen sie nahe: Die große Mehrheit aller Mitarbeiter bleibt ein Berufsleben lang Fachkraft. Experten sorgen für Wertschöpfung in Projekten und in agilen Settings, Fachkarrieren bieten ihnen strukturierte Entwicklung. Fachkarrieren sind kein Idealismus, sondern würdigen die ökonomische Bedeutung von Expertise. Es wäre geradezu unrentabel, Mitarbeiter mit Expertise für gefragte Jobrollen nicht zu binden. Außerdem ermöglichen Fachkarrieren interne Flexibilität. Experten, die sich verändern, verankern beim Wechsel wertvolles Know-how in anderen Bereichen – unbezahlbar. Das Unternehmen profitiert: Expertise spielt eine wesentliche Rolle bei der Vergabe von Aufträgen. Fachkarrieren untermauern weiterhin unternehmensweite Standards und sorgen für eine Weitergabe von Wissen. Last but not least: Gibt es Fachkarrieren, so muss der beste Experte nicht Führungskraft werden.Fehlstart in die Fachkarriere?Häufig starten Organisationen die Fachkarriere enthusiastisch, doch dann kommt das Projekt ins Stocken. Das passiert, wenn es kein klares Konzept gibt. Die Folge: Interne Stakeholder der Organisation sehen wenig Sinn oder Struktur in der Fachkarriere. Das Thema ist fortan belastet, ein Reset mühsam.Gut gemeint ist auch der “Wir-alle-zusammen”-Ansatz: Arbeitsgruppen erstellen umfangreiche Excel-Tabellen für die Fachkarriere, in denen fachliche Kompetenzen und Trends, Skills und soziale sowie persönliche Kompetenzen durcheinandergehen. Oft kommen dann Anrufe mit der Fragestellung, wie dieses Material in ein System zu bringen sei? Leider muss man dann sagen: Kaum, denn der Fokus muss auf den Beginn gerichtet sein. Eine Sammlung ohne Konzept bleibt ein Datenknäuel. In einer weiteren Variante befördert man einige Fachkräfte zu “Seniors”, nach dem Motto: “Sie sind unser bester Experte, ab jetzt steht Senior auf Ihrer Visitenkarte!” Sicher eine Würdigung, doch früher oder später fragen diejenigen Fachkräfte, die keine “Seniors” werden, danach was ihnen denn noch fehlt. Transparenz schafft Fairness und für Transparenz brauchen Sie klar definierte Anforderungen an Fachkarrierestufen. Mitarbeiterbindung: Systematik für FachkarrierenIT-Berufsgruppen und die Digitalwirtschaft sind geradezu prädestiniert für Fachkarrieren, denn dort findet man viele Fachenthusiasten und tiefe, wertige Expertisen. Auch Tech-Vertrieb eignet sich für Fachkarrieren: So können Einsteiger zum Beispiel Know-how in Sachen Produkte sowie Erfahrungen sammeln. Außerdem bekommen sie einen Eindruck davon, wie Kundenabschlüsse generiert werden. Fachkarrieren laufen in der Softwareentwicklung, in der Netzwerktechnik, in beratenden IT-Berufsgruppen, agilen Rollen und im Projektmanagement, um einige Beispiele zu nennen. Ein praxistaugliches Konzept ist Ihr Kompass zur erfolgreichen Einführung von Fachkarrieren. Klären Sie zum Start folgende Fragen:Welches Ziel verbinden Sie mit Fachkarrieren? Möchten Sie gute Experten binden, Ihren Kunden klar erkennbare Expertise bieten oder Fachkarrieren als Recruiting-Vorteil nutzen?Empfiehlt es sich, ein Pilotprojekt in einem Bereich zu starten? Welche Bereiche werden Sie perspektivisch in die Fachkarriere einbinden?Wie gestalten Sie Anforderungsprofile der Fachkarrierestufen? Wie bieten Sie Beschäftigen Orientierung dazu, was besser zu ihnen passt: eine Führungs- oder Expertenlaufbahn?Skizze einer Fachkarriere im Projektmanagement
Foto: Regina BergdoltWas oft unterschätzt wird: Professionelle Fachkarrieren brauchen HR-Handwerk, Wissen zu Fachkarrieren und solides Projektmanagement. Fachkarrieren sind ein Querschnittsprojekt, das andere Themen berührt. Wer irgendwo anfängt, dem fehlt der rote Faden, und am Ende passen die Teilstücke nicht mehr zusammen. Wichtig ist es, die Stufen von Fachkarrieren präzise zu definieren; dazu gehören Fähigkeiten im Kompetenzmanagement. Es braucht keine langen Listen von fachlichen wie sozialen, methodischen und persönlichen Kompetenzen, bis keiner mehr durchblickt. Gutes HR-Management bedeutet, die entscheidenden Kompetenzen klar zu beschreiben. Das lohnt sich, denn so verbinden Sie Mitarbeiterentwicklung mit der Unternehmensentwicklung und bauen zukunftsweisende Kompetenzen auf. Zentrale Aufgabe ist es, Führungskräfte methodisch beim Fokussieren auf Kompetenzen zu unterstützen. Weiter entscheiden Sie über die grundsätzliche Ausrichtung Ihrer Fachkarriere. Es gibt verschiedene Modelle, die unterschiedlich aufgebaut sind und unterschiedlich viele Experten in die Fachkarriere einbeziehen. Welches Modell für ein Unternehmen das richtige ist, bestimmen dessen Ziele sowie internen Strukturen.Mitarbeiter binden: Fachkarrieren kommen anIch rate Kunden zum Einstieg über ein Pilotprojekt, das sich zunächst auf einen Bereich konzentriert. So entsteht ein interner Prototyp der Fachkarriere. Auf diese Weise können organisatorische Erfahrungen gesammelt und eine Marschroute für den Rollout festgelegt werden. Das ist wirksamer als umfassende Konzept-Papiertiger.Vorgehensmodell zur Einführung einer Fachkarriere im Unternehmen.
Foto: Regina BergdoltJetzt oder nie: Packen Sie die Fachkarriere an. Sie machen so Expertisen sichtbar und fördern Fachcommunitys über Organisationsbereiche hinweg. Fachkarrieren bieten eine Alternative und verhindern persönliches Scheitern in Führungsrollen. Da erstaunlich wenige IT-Organisationen gute Fachkarrieren bieten, sind sie (noch) ein Alleinstellungsmerkmal. Oder, illustriert mit einer Geschichte aus der Praxis: In einem Unternehmen hatten wir gerade die Fachkarriere eingeführt. Ein Bewerber erläuterte uns, warum er wechseln wolle: Er erhalte einfach kein Feedback zu Entwicklungsmöglichkeiten bei seinem derzeitigen Arbeitgeber. Später sagte er uns, dass die Fachkarriere ein entscheidender Faktor für den Jobwechsel gewesen sei. (pg)Fachkarrieren als Erfolgsprojekt zur MitarbeiterbindungPraxistipps: Wie Sie Karrierekonzepte für Fachkräfte umsetzen
Foto: Sergey Nivens – shutterstock.comFachkräfte sind für den Unternehmenserfolg unverzichtbar. Für Arbeitgeber ist es deshalb besonders sinnvoll, diesen Spezialisten von vorneherein Karrierechancen aufzuzeigen, ohne ihr Potenzial zwangsläufig in Führungspositionen zu vergeuden. HR- und Organisationsexpertin Regina Bergdolt gibt Tipps, wie der Projekte für Fachkarrieren erfolgreich geplant und umgesetzt werden. Projektplan festlegen
Foto: Robert Kneschke – shutterstock.comDefinieren Sie klar verständliche Ziele und einen Projektplan mit Meilensteinen. Gerade Vorstände brauchen Systematik, um Fachkarrieren zu unterstützen und Ressourcen freizumachen.Stakeholder definieren
Foto: Robert Kneschke – shutterstock.comKlären Sie in einer Stakeholderanalyse: Wer treibt die Fachkarriere mit Ihnen, ein Machtpromotor, Führungskräfte, Mitarbeiter, Bewerber?Projektleitung auswählen
Foto: Matej Kastelic – shutterstock.comWählen Sie eine Projektleitung mit HR-Erfahrung und Standing. Nicht alle HR-Abteilungen sind schon erfahren im Projektmanagement; das können Sie ändern. Expertise sicherstellen
Foto: Jacek Dudzinski – shutterstock.comHolen Sie sich die Expertise ins Projekt, die Sie benötigen, anstatt an kritischen Punkten hängen zu bleiben.Fachkarriere aktiv bewerben
Foto: Andrey_Popov – shutterstock.comNutzen Sie die Fachkarriere schon im Projektstadium aktiv als Angebot des Unternehmens: auf der Karriereseite und im Gespräch mit Bewerbern.

Tech-Mitarbeiter binden: Wie Arbeitgeber Fachkarrieren projektieren​ Weiterlesen »

Matrixorganisation: Unternehmen effizient strukturieren​

Allgemein

Richtig strukturiert, kommuniziert und ausgesteuert kann die Matrixorganisation mehr Flexibilität und einen verbesserten Einsatz der Mitarbeiter ermöglichen. Foto: carlos castilla – shutterstock.com“Ich weiß nicht, wo mir der Kopf steht. Ich kann die Vielzahl der Aufgaben kaum stemmen” – so klingt es häufig, wenn man Mitarbeitern in Unternehmen mit einer Matrixorganisation zuhört. Und das bringt bereits den Haken dieser etablierten Organisationsform auf den Punkt. Schließlich bedienen Mitarbeiter in diesem System Aufgaben aus zwei Richtungen und sind – insbesondere, wenn sie ihre Kompetenz bereits unter Beweis gestellt haben – häufig vielfach gefragt. Dies kann zu Stress und Überlast mit allen Folgeerscheinungen führen. Dabei weist die Matrixorganisation zahlreiche unstrittige Vorteile bei der Strukturierung von Unternehmen auf – gerade wenn sich ein Unternehmen effizient aufstellen will. Zu den Entwürfen einer klassischen, hierarchischen Aufbauorganisation und der derzeit vielfach publizierten agilen Organisation bietet die Matrix eine attraktive Alternative. Ihre mehrdimensionale Struktur ermöglicht organisatorische Flexibilität in Hinblick auf Themen, Teams und Mitarbeiter und ist dabei sehr wirksam – wenn sie denn passgenau auf das jeweilige Unternehmen zugeschnitten und in der Kultur verankert ist. So braucht eine nachhaltig wirkungsvolle Matrixorganisation – wie jede andere Organisationsform auch – einen klaren, für alle nachvollziehbaren und gelebten Rahmen, der in Zeiten von Remote Work in besonderem Maße relevant ist. Matrixorganisation – DefinitionDie Matrixorganisation beschreibt eine mehrdimensionale Organisationsstruktur, in der eine funktionale, vertikale Aufbaustruktur um eine horizontale Ebene ergänzt wird. So wird über die vertikale Dimension der fachlichen Struktur (beispielsweise nach Funktionen wie Marketing, Produktmanagement oder Technologie) eine zweite Dimension (zum Beispiel nach Projekten, Geschäftsfeldern, Kunden) gelegt. Mittlerweile wird vielfach auch von einer dritten Dimension gesprochen, mit der die Querschnitts-Managementfunktionen wie beispielsweise HR, Einkauf oder Controlling gemeint sind.Die Matrixorganisation als Modell. Foto: Sabine DietrichDa alle Dimensionen unabhängig voneinander dabei in einer “ausgeglichenen” Matrix theoretisch gleichberechtigt sind, entsteht ein crossfunktionales System, das Flexibilität und Effizienzgewinn zur Folge hat, im Unternehmensalltag häufig jedoch für die involvierten Mitarbeiter eher einen Würgegriff bedeutet. Denn letztlich stehen alle Mitarbeiter zum Beispiel in zwei Weisungsbeziehungen: gegenüber dem Fachbereichsleiter als disziplinarischer Führungskraft und dem jeweiligen Projekt- oder Geschäftsfeldleiter. So entsteht ein klassisches “Zwei-Boss-System”, das im Organigramm über die Knotenpunkte verdeutlicht wird. Und das sich auch zum “Mehr-Boss-System” entwickeln kann, wenn nämlich Mitarbeiter in mehreren Projekten arbeiten, was im Unternehmensalltag an der Tagesordnung ist.Die Anfänge der MatrixorganisationDie Matrixorganisation hat ihren Ursprung in den von zunehmender Internationalisierung und technologischem Wandel geprägten 50er bis 70er Jahren des 20. Jahrhunderts. Diese Entwicklung erforderte mehr Verflechtung und Professionalität, also Themen, die uns auch heute treiben. Die erste Matrixorganisation wird dem Luft- und Raumfahrtunternehmen TRW Inc. und seinem Mitbegründer Simon Ramo zugeschrieben, der so produktspezifisches und funktionales Know-how ohne irgendeine Dominanz zusammenbringen wollte. Die übersichtliche Darstellung über Organigramme klärte direkt die Bezüge und Weisungsbefugnisse. In der Folge breitete sich diese Organisationsform immer weiter aus, mit Schwerpunkt im industriellen Bereich – zum Beispiel in Sparten bei DuPont oder General Motors.Eine Renaissance erlebte die Matrix in der zweiten Hälfte der 80er Jahre des vergangenen Jahrhunderts mit dem Trend zu flacheren Hierarchien und dem zunehmenden Projektgeschäft. In der Folge hat sie sich bis heute in vielen Branchen und Unternehmen mit hohem Entwicklungsdruck und/oder Projektgeschäft etabliert, also zum Beispiel bei IT- und Software-Unternehmen, in der Bau- und Automobilindustrie sowie dem Dienstleistungssektor. Und zwar unabhängig von der Unternehmensgröße, wobei in KMUs oder Startups häufig eine informelle Matrix zu finden ist.Dabei haben sich im Lauf der Zeit unterschiedliche Formen der Matrix gebildet: die starke, schwache und die ausgeglichene Matrix. Diese Varianten unterscheiden sich über den Grad der Autonomie der Führungsentscheidungen auf der horizontalen Ebene der Matrix. Während also in der starken Matrix Projektleiter über eine hohe Entscheidungskompetenz verfügen, ist diese in der schwachen Matrix auch schwach ausgeprägt.Matrixorganisation – Vor- und NachteileDie Vorteile einer Matrixorganisation sind naheliegend: Mitarbeiter können zielgerichteter und flexibler eingesetzt werden, so dass Silos aufgebrochen werden. Das wiederum verhindert Einseitigkeit auf Seiten der Mitarbeiter, unterstützt interdisziplinäres Denken und Handeln von Führungskräften und Mitarbeitern und eröffnet die Möglichkeit zur Weiterentwicklung. Im Unternehmen können zudem Auslastungsschwankungen optimal abgefedert werden. So weit, so gut.Wo nun allerdings die Matrix im Organigramm Knotenpunkte ausweist, arbeiten in Unternehmen Menschen. Menschen mit unterschiedlichen Persönlichkeiten, Ambitionen und Belastungsgrenzen. Und diese Menschen erhalten nicht nur von unterschiedlichen Seiten ihre Aufgaben, sie berichten in der Matrix an zwei Chefs: ihren Linienvorgesetzten und ihren Projektleiter. Arbeiten sie in mehreren Projekten mit, erhöht sich die Anzahl der Vorgesetzten entsprechend, was die Gemengelage nicht vereinfacht. Oder was denken Sie, wer in diesem Konstrukt den Ton angibt, wenn der eine Boss die Jahresziele vorgibt, die Gehaltserhöhung vertritt oder auch den Urlaubsschein freigibt? Menschen werden sich in diesem Kontext immer am Stärkeren orientieren und das ist für sie persönlich auch die richtige Entscheidung. Ob das im Sinn der Aufgabe ist, tritt dabei häufig in den Hintergrund. Konsequenzen können verlängerte Entscheidungsprozesse, Verwirrung, Konflikte oder auch Konkurrenzkämpfe zwischen den verschiedenen Entscheidern oder den Experten aus unterschiedlichen Bereichen sein. Und wem wird bei Abschluss eines Projektes, einer Aufgabe der Erfolg oder auch Misserfolg zugeschrieben? Eine nicht lapidare Frage im Zwei-Boss-System.Zudem werden die mit der funktionalen Struktur verbundenen hierarchischen Strukturen in der divisionalen Arbeit aufgelöst. Eine Führungskraft, zum Beispiel ein Abteilungsleiter, kann im Projekt demzufolge zum Mitarbeiter werden. Sein Vorgesetzter im Projekt ist der Projektleiter, der in der Hierarchie jedoch auf Mitarbeiterebene angesiedelt ist. Eine Herausforderung für alle Beteiligten.Ein weiterer kritischer Aspekt dieses Systems ist die Mehrbelastung der Mitarbeiter, sind sie doch zumeist prozentual für zum Beispiel Projektaufgaben eingeteilt. Häufig ohne Berücksichtigung dieser Aufwände bei der klassischen Linientätigkeit. Die Arbeit aus der 2. Dimension, den Projekten oder auch Sparten, wird als Add-on bewertet. Diese Fehleinschätzung kann sich bitter rächen. Denn die daraus häufig resultierende Überlastung kann bis hin zu Demotivation, Burnout und innerer Kündigung führen. Folgen, die gerade in der aktuellen Zeit der zunehmenden Anforderungen und deren Abarbeitung im Homeoffice ohne den inoffiziellen Austausch mit den Kollegen, massiv zunehmen.Die Matrixorganisation im Unternehmensalltag. Foto: Sabine DietrichDie Erfolgsfaktoren der MatrixDie Matrix kann das Erfolgsmodell einer Unternehmensorganisation sein und bewährt sich mit ihrer Verbindung von hierarchischer und divisionaler Struktur im Vergleich zu anderen neueren Entwicklungen – gerade in den Unternehmen, die von ihrer Historie, den Rahmendaten oder ihrer Unternehmenskultur her den eher tradierten Rollen verbunden sind.Um ihre volle Leistungsfähigkeit zu entwickeln, benötigt die Matrixorganisation allerdings einen Rahmen, der im Unternehmen aktiv gelebt und in der Kultur verankert sein muss. Dabei sind drei Aspekte besonders relevant:1. Klare Rollen & VerantwortlichkeitenZur Vermeidung von Kompetenzkonflikten, Machtkämpfen oder auch Verunsicherung auf Seiten von Führungskräften, Projektleitern und Mitarbeitern sind in jeder Matrix die Rollen, deren Aufgaben, Verantwortungen und Kompetenzen zu klären. Die Grundlage schaffen Unternehmen, indem sie jede Rolle mit einem entsprechenden Profil hinterlegen, das die Aufgaben, Kompetenzen und Verantwortungen sowie die Eskalationsprozesse beschreibt – unter Berücksichtigung der Schnittstellen zu den anderen Rollen. Die Praxis zeigt immer wieder, dass diese Profile, wenn sie denn existieren, nicht allen bekannt sind oder auch unterschiedlich interpretiert werden. Insofern empfiehlt sich, in jedem neuen Projekt – auch wenn die Beteiligten noch so häufig bereits zusammengearbeitet haben – diese Punkte offen, klar und verbindlich zu thematisieren und auch fixieren.Als weitere Themen in diesen Gesprächen empfiehlt sich die Klärung der wechselseitigen Erwartungen und die Wege, beziehungsweise Stufen einer Eskalation. Dieser Klärungsprozess sollte vor Start der Arbeit in einem Projekt in alle Richtungen erfolgen: Also Projektleiter mit seinem Team und seinen beiden Bossen Auftraggeber und Führungskraft, darüber hinaus mit den verschiedenen Führungskräften der Projektmitarbeiter.Um dies für alle verbindlich festzuhalten und auch im stressigen Tagesgeschäft kontinuierlich transparent zu machen, hat sich die schriftliche Vereinbarung von Spielregeln bewährt – die dann häufig auch Aspekte des nächsten Punktes umfassen.2. Offene KommunikationFür diesen Klärungsprozess wie auch für die weitere Zusammenarbeit (nicht nur) in dieser Struktur ist eine offene, vertrauensvolle Kommunikation unabdingbar. Eine Hidden Agenda, und sei sie noch so menschlich, ist nicht hilfreich. Die Themen und Erwartungen gehören auf den Tisch und sind im Zweifel auszuhandeln. Dabei gilt: Jedes Thema, jede Erwartung ist möglich im Gespräch. Letztlich machen Ton und Form die Musik, die Inhalte folgen. Die Führungskräfte haben in diesem Zwei-Boss-System eine Vorbildfunktion, indem sie diese Offenheit vorleben und gerade kritische Themen ansprechen. Projektleiter sollten sich allerdings auch als Führungskraft verstehen und informieren, kommunizieren und fragen, fragen, fragen … : ihren Auftraggeber, das Projektteam, die Führungskräfte ihrer Teammitglieder.Dieses Verständnis von Kommunikation und vor allem dessen Umsetzung setzt eine entsprechende Haltung der Beteiligten voraus. Sie schafft auf allen Seiten die Grundlage für diesen Erfolgsfaktor, der im weiteren Projektverlauf seine Relevanz beweist. Denn jegliche Information zum Beispiel zu Umpriorisierungen, Terminverschiebungen, aber auch zu Überlastungen der Mitarbeiter muss offen an die entsprechenden Beteiligten weitergegeben und verhandelt bzw. diskutiert werden (können).3. Transparentes RessourcenmanagementWieviel Aufgaben von zwei oder auch mehr Seiten verträgt eine Struktur? Was kann bei wem noch eingeplant werden? Antworten auf diese Fragen sind für Führungskräfte in der Matrix mit der Einsteuerung von Aufgaben von mindestens einer zweiten Seite häufig schwierig. Die Folge ist die aufgezeigte Überlastung, der Frust der Mitarbeiter.Um dem entgegenzusteuern, ist ein Ressourcenmanagement unverzichtbar. In einem einfachen System werden den verfügbaren Mitarbeitertagen zum Beispiel eines Monats die zu leistenden Aufgaben mit den jeweiligen Aufwänden gegenübergestellt. Diese systematische Vorgehensweise schafft Transparenz und häufig überraschende Ergebnisse. Denn allein die Berücksichtigung von Abwesenheiten oder auch Grundlast bei der Ermittlung der Verfügbarkeiten verschiebt häufig das Bild erheblich: Wenn einerseits – zugegebenermaßen meistens – die Überlast so messbar wird, zeigt die Praxis auch Bereiche, in denen die bisher häufig beklagte Überlast nicht darstellbar war.Führungskräfte verfügen so über ein mächtiges Steuerungselement zur Einplanung von Aufgaben gerade in der Matrixorganisation – und damit zur Vermeidung der vielbesprochenen Überforderung von Mitarbeitern. Die Verantwortlichen für das Projektportfolio haben zudem Transparenz über die verfügbaren Projektressourcen und können diese den Prioritäten entsprechend verteilen. Dabei ist nicht zwingend ein komplexes Tool erforderlich, für einen Überblick reichen häufig Bordmittel aus. Wichtig ist, dass diese passgenau in Hinblick auf die zu erreichende Zielsetzung zugeschnitten sind und somit Aufwand und Nutzen in einem vertretbaren Verhältnis stehen.Organisationsform für die VUCA-WeltDie Matrixorganisation ist als Organisationsform etabliert und verspricht Flexibilität und optimierten Einsatz der Mitarbeiter. Qualitäten, die in der aktuellen VUCA-Welt mehr denn je vonnöten sind. Um eine Organisation als Matrix erfolgreich aufzustellen und die verschiedenen Störfaktoren auszuschließen, hat sich Folgendes bewährt: eine verbindliche Klärung der Rollen aller Beteiligten, eine offene Kommunikation in allen Richtungen und ein transparentes Ressourcenmanagement als Steuerungsinstrument für die Führungskräfte.Diese Faktoren erhalten in Zeiten von Remote Work und dem damit verbundenen reduzierten sozialen Austausch eine ganz neue, erheblich gesteigerte Relevanz. Wenn sie aber in der Unternehmenskultur verankert sind und von allen bewusst gelebt werden, wird aus der vielfach kritisierten Matrixorganisation ein Erfolgsmodell. (mb) 

Matrixorganisation: Unternehmen effizient strukturieren​ Richtig strukturiert, kommuniziert und ausgesteuert kann die Matrixorganisation mehr Flexibilität und einen verbesserten Einsatz der Mitarbeiter ermöglichen.
Foto: carlos castilla – shutterstock.com“Ich weiß nicht, wo mir der Kopf steht. Ich kann die Vielzahl der Aufgaben kaum stemmen” – so klingt es häufig, wenn man Mitarbeitern in Unternehmen mit einer Matrixorganisation zuhört. Und das bringt bereits den Haken dieser etablierten Organisationsform auf den Punkt. Schließlich bedienen Mitarbeiter in diesem System Aufgaben aus zwei Richtungen und sind – insbesondere, wenn sie ihre Kompetenz bereits unter Beweis gestellt haben – häufig vielfach gefragt. Dies kann zu Stress und Überlast mit allen Folgeerscheinungen führen. Dabei weist die Matrixorganisation zahlreiche unstrittige Vorteile bei der Strukturierung von Unternehmen auf – gerade wenn sich ein Unternehmen effizient aufstellen will. Zu den Entwürfen einer klassischen, hierarchischen Aufbauorganisation und der derzeit vielfach publizierten agilen Organisation bietet die Matrix eine attraktive Alternative. Ihre mehrdimensionale Struktur ermöglicht organisatorische Flexibilität in Hinblick auf Themen, Teams und Mitarbeiter und ist dabei sehr wirksam – wenn sie denn passgenau auf das jeweilige Unternehmen zugeschnitten und in der Kultur verankert ist. So braucht eine nachhaltig wirkungsvolle Matrixorganisation – wie jede andere Organisationsform auch – einen klaren, für alle nachvollziehbaren und gelebten Rahmen, der in Zeiten von Remote Work in besonderem Maße relevant ist. Matrixorganisation – DefinitionDie Matrixorganisation beschreibt eine mehrdimensionale Organisationsstruktur, in der eine funktionale, vertikale Aufbaustruktur um eine horizontale Ebene ergänzt wird. So wird über die vertikale Dimension der fachlichen Struktur (beispielsweise nach Funktionen wie Marketing, Produktmanagement oder Technologie) eine zweite Dimension (zum Beispiel nach Projekten, Geschäftsfeldern, Kunden) gelegt. Mittlerweile wird vielfach auch von einer dritten Dimension gesprochen, mit der die Querschnitts-Managementfunktionen wie beispielsweise HR, Einkauf oder Controlling gemeint sind.Die Matrixorganisation als Modell.
Foto: Sabine DietrichDa alle Dimensionen unabhängig voneinander dabei in einer “ausgeglichenen” Matrix theoretisch gleichberechtigt sind, entsteht ein crossfunktionales System, das Flexibilität und Effizienzgewinn zur Folge hat, im Unternehmensalltag häufig jedoch für die involvierten Mitarbeiter eher einen Würgegriff bedeutet. Denn letztlich stehen alle Mitarbeiter zum Beispiel in zwei Weisungsbeziehungen: gegenüber dem Fachbereichsleiter als disziplinarischer Führungskraft und dem jeweiligen Projekt- oder Geschäftsfeldleiter. So entsteht ein klassisches “Zwei-Boss-System”, das im Organigramm über die Knotenpunkte verdeutlicht wird. Und das sich auch zum “Mehr-Boss-System” entwickeln kann, wenn nämlich Mitarbeiter in mehreren Projekten arbeiten, was im Unternehmensalltag an der Tagesordnung ist.Die Anfänge der MatrixorganisationDie Matrixorganisation hat ihren Ursprung in den von zunehmender Internationalisierung und technologischem Wandel geprägten 50er bis 70er Jahren des 20. Jahrhunderts. Diese Entwicklung erforderte mehr Verflechtung und Professionalität, also Themen, die uns auch heute treiben. Die erste Matrixorganisation wird dem Luft- und Raumfahrtunternehmen TRW Inc. und seinem Mitbegründer Simon Ramo zugeschrieben, der so produktspezifisches und funktionales Know-how ohne irgendeine Dominanz zusammenbringen wollte. Die übersichtliche Darstellung über Organigramme klärte direkt die Bezüge und Weisungsbefugnisse. In der Folge breitete sich diese Organisationsform immer weiter aus, mit Schwerpunkt im industriellen Bereich – zum Beispiel in Sparten bei DuPont oder General Motors.Eine Renaissance erlebte die Matrix in der zweiten Hälfte der 80er Jahre des vergangenen Jahrhunderts mit dem Trend zu flacheren Hierarchien und dem zunehmenden Projektgeschäft. In der Folge hat sie sich bis heute in vielen Branchen und Unternehmen mit hohem Entwicklungsdruck und/oder Projektgeschäft etabliert, also zum Beispiel bei IT- und Software-Unternehmen, in der Bau- und Automobilindustrie sowie dem Dienstleistungssektor. Und zwar unabhängig von der Unternehmensgröße, wobei in KMUs oder Startups häufig eine informelle Matrix zu finden ist.Dabei haben sich im Lauf der Zeit unterschiedliche Formen der Matrix gebildet: die starke, schwache und die ausgeglichene Matrix. Diese Varianten unterscheiden sich über den Grad der Autonomie der Führungsentscheidungen auf der horizontalen Ebene der Matrix. Während also in der starken Matrix Projektleiter über eine hohe Entscheidungskompetenz verfügen, ist diese in der schwachen Matrix auch schwach ausgeprägt.Matrixorganisation – Vor- und NachteileDie Vorteile einer Matrixorganisation sind naheliegend: Mitarbeiter können zielgerichteter und flexibler eingesetzt werden, so dass Silos aufgebrochen werden. Das wiederum verhindert Einseitigkeit auf Seiten der Mitarbeiter, unterstützt interdisziplinäres Denken und Handeln von Führungskräften und Mitarbeitern und eröffnet die Möglichkeit zur Weiterentwicklung. Im Unternehmen können zudem Auslastungsschwankungen optimal abgefedert werden. So weit, so gut.Wo nun allerdings die Matrix im Organigramm Knotenpunkte ausweist, arbeiten in Unternehmen Menschen. Menschen mit unterschiedlichen Persönlichkeiten, Ambitionen und Belastungsgrenzen. Und diese Menschen erhalten nicht nur von unterschiedlichen Seiten ihre Aufgaben, sie berichten in der Matrix an zwei Chefs: ihren Linienvorgesetzten und ihren Projektleiter. Arbeiten sie in mehreren Projekten mit, erhöht sich die Anzahl der Vorgesetzten entsprechend, was die Gemengelage nicht vereinfacht. Oder was denken Sie, wer in diesem Konstrukt den Ton angibt, wenn der eine Boss die Jahresziele vorgibt, die Gehaltserhöhung vertritt oder auch den Urlaubsschein freigibt? Menschen werden sich in diesem Kontext immer am Stärkeren orientieren und das ist für sie persönlich auch die richtige Entscheidung. Ob das im Sinn der Aufgabe ist, tritt dabei häufig in den Hintergrund. Konsequenzen können verlängerte Entscheidungsprozesse, Verwirrung, Konflikte oder auch Konkurrenzkämpfe zwischen den verschiedenen Entscheidern oder den Experten aus unterschiedlichen Bereichen sein. Und wem wird bei Abschluss eines Projektes, einer Aufgabe der Erfolg oder auch Misserfolg zugeschrieben? Eine nicht lapidare Frage im Zwei-Boss-System.Zudem werden die mit der funktionalen Struktur verbundenen hierarchischen Strukturen in der divisionalen Arbeit aufgelöst. Eine Führungskraft, zum Beispiel ein Abteilungsleiter, kann im Projekt demzufolge zum Mitarbeiter werden. Sein Vorgesetzter im Projekt ist der Projektleiter, der in der Hierarchie jedoch auf Mitarbeiterebene angesiedelt ist. Eine Herausforderung für alle Beteiligten.Ein weiterer kritischer Aspekt dieses Systems ist die Mehrbelastung der Mitarbeiter, sind sie doch zumeist prozentual für zum Beispiel Projektaufgaben eingeteilt. Häufig ohne Berücksichtigung dieser Aufwände bei der klassischen Linientätigkeit. Die Arbeit aus der 2. Dimension, den Projekten oder auch Sparten, wird als Add-on bewertet. Diese Fehleinschätzung kann sich bitter rächen. Denn die daraus häufig resultierende Überlastung kann bis hin zu Demotivation, Burnout und innerer Kündigung führen. Folgen, die gerade in der aktuellen Zeit der zunehmenden Anforderungen und deren Abarbeitung im Homeoffice ohne den inoffiziellen Austausch mit den Kollegen, massiv zunehmen.Die Matrixorganisation im Unternehmensalltag.
Foto: Sabine DietrichDie Erfolgsfaktoren der MatrixDie Matrix kann das Erfolgsmodell einer Unternehmensorganisation sein und bewährt sich mit ihrer Verbindung von hierarchischer und divisionaler Struktur im Vergleich zu anderen neueren Entwicklungen – gerade in den Unternehmen, die von ihrer Historie, den Rahmendaten oder ihrer Unternehmenskultur her den eher tradierten Rollen verbunden sind.Um ihre volle Leistungsfähigkeit zu entwickeln, benötigt die Matrixorganisation allerdings einen Rahmen, der im Unternehmen aktiv gelebt und in der Kultur verankert sein muss. Dabei sind drei Aspekte besonders relevant:1. Klare Rollen & VerantwortlichkeitenZur Vermeidung von Kompetenzkonflikten, Machtkämpfen oder auch Verunsicherung auf Seiten von Führungskräften, Projektleitern und Mitarbeitern sind in jeder Matrix die Rollen, deren Aufgaben, Verantwortungen und Kompetenzen zu klären. Die Grundlage schaffen Unternehmen, indem sie jede Rolle mit einem entsprechenden Profil hinterlegen, das die Aufgaben, Kompetenzen und Verantwortungen sowie die Eskalationsprozesse beschreibt – unter Berücksichtigung der Schnittstellen zu den anderen Rollen. Die Praxis zeigt immer wieder, dass diese Profile, wenn sie denn existieren, nicht allen bekannt sind oder auch unterschiedlich interpretiert werden. Insofern empfiehlt sich, in jedem neuen Projekt – auch wenn die Beteiligten noch so häufig bereits zusammengearbeitet haben – diese Punkte offen, klar und verbindlich zu thematisieren und auch fixieren.Als weitere Themen in diesen Gesprächen empfiehlt sich die Klärung der wechselseitigen Erwartungen und die Wege, beziehungsweise Stufen einer Eskalation. Dieser Klärungsprozess sollte vor Start der Arbeit in einem Projekt in alle Richtungen erfolgen: Also Projektleiter mit seinem Team und seinen beiden Bossen Auftraggeber und Führungskraft, darüber hinaus mit den verschiedenen Führungskräften der Projektmitarbeiter.Um dies für alle verbindlich festzuhalten und auch im stressigen Tagesgeschäft kontinuierlich transparent zu machen, hat sich die schriftliche Vereinbarung von Spielregeln bewährt – die dann häufig auch Aspekte des nächsten Punktes umfassen.2. Offene KommunikationFür diesen Klärungsprozess wie auch für die weitere Zusammenarbeit (nicht nur) in dieser Struktur ist eine offene, vertrauensvolle Kommunikation unabdingbar. Eine Hidden Agenda, und sei sie noch so menschlich, ist nicht hilfreich. Die Themen und Erwartungen gehören auf den Tisch und sind im Zweifel auszuhandeln. Dabei gilt: Jedes Thema, jede Erwartung ist möglich im Gespräch. Letztlich machen Ton und Form die Musik, die Inhalte folgen. Die Führungskräfte haben in diesem Zwei-Boss-System eine Vorbildfunktion, indem sie diese Offenheit vorleben und gerade kritische Themen ansprechen. Projektleiter sollten sich allerdings auch als Führungskraft verstehen und informieren, kommunizieren und fragen, fragen, fragen … : ihren Auftraggeber, das Projektteam, die Führungskräfte ihrer Teammitglieder.Dieses Verständnis von Kommunikation und vor allem dessen Umsetzung setzt eine entsprechende Haltung der Beteiligten voraus. Sie schafft auf allen Seiten die Grundlage für diesen Erfolgsfaktor, der im weiteren Projektverlauf seine Relevanz beweist. Denn jegliche Information zum Beispiel zu Umpriorisierungen, Terminverschiebungen, aber auch zu Überlastungen der Mitarbeiter muss offen an die entsprechenden Beteiligten weitergegeben und verhandelt bzw. diskutiert werden (können).3. Transparentes RessourcenmanagementWieviel Aufgaben von zwei oder auch mehr Seiten verträgt eine Struktur? Was kann bei wem noch eingeplant werden? Antworten auf diese Fragen sind für Führungskräfte in der Matrix mit der Einsteuerung von Aufgaben von mindestens einer zweiten Seite häufig schwierig. Die Folge ist die aufgezeigte Überlastung, der Frust der Mitarbeiter.Um dem entgegenzusteuern, ist ein Ressourcenmanagement unverzichtbar. In einem einfachen System werden den verfügbaren Mitarbeitertagen zum Beispiel eines Monats die zu leistenden Aufgaben mit den jeweiligen Aufwänden gegenübergestellt. Diese systematische Vorgehensweise schafft Transparenz und häufig überraschende Ergebnisse. Denn allein die Berücksichtigung von Abwesenheiten oder auch Grundlast bei der Ermittlung der Verfügbarkeiten verschiebt häufig das Bild erheblich: Wenn einerseits – zugegebenermaßen meistens – die Überlast so messbar wird, zeigt die Praxis auch Bereiche, in denen die bisher häufig beklagte Überlast nicht darstellbar war.Führungskräfte verfügen so über ein mächtiges Steuerungselement zur Einplanung von Aufgaben gerade in der Matrixorganisation – und damit zur Vermeidung der vielbesprochenen Überforderung von Mitarbeitern. Die Verantwortlichen für das Projektportfolio haben zudem Transparenz über die verfügbaren Projektressourcen und können diese den Prioritäten entsprechend verteilen. Dabei ist nicht zwingend ein komplexes Tool erforderlich, für einen Überblick reichen häufig Bordmittel aus. Wichtig ist, dass diese passgenau in Hinblick auf die zu erreichende Zielsetzung zugeschnitten sind und somit Aufwand und Nutzen in einem vertretbaren Verhältnis stehen.Organisationsform für die VUCA-WeltDie Matrixorganisation ist als Organisationsform etabliert und verspricht Flexibilität und optimierten Einsatz der Mitarbeiter. Qualitäten, die in der aktuellen VUCA-Welt mehr denn je vonnöten sind. Um eine Organisation als Matrix erfolgreich aufzustellen und die verschiedenen Störfaktoren auszuschließen, hat sich Folgendes bewährt: eine verbindliche Klärung der Rollen aller Beteiligten, eine offene Kommunikation in allen Richtungen und ein transparentes Ressourcenmanagement als Steuerungsinstrument für die Führungskräfte.Diese Faktoren erhalten in Zeiten von Remote Work und dem damit verbundenen reduzierten sozialen Austausch eine ganz neue, erheblich gesteigerte Relevanz. Wenn sie aber in der Unternehmenskultur verankert sind und von allen bewusst gelebt werden, wird aus der vielfach kritisierten Matrixorganisation ein Erfolgsmodell. (mb)

Matrixorganisation: Unternehmen effizient strukturieren​ Weiterlesen »

Microsoft-Entlassungen treffen Entwickler am härtesten​

Allgemein

Immer mehr Code wird von KI geschrieben, wodurch Tech-Konzerne zunehmend Menschen aussortieren.Emagnetic / Shutterstock Da Künstliche Intelligenz (KI) immer mehr Aufgaben übernimmt, werden Berufe wie Programmierer zunehmend obsolet. So verkündete Microsoft-CEO Satya Nadella bereits im April, dass bis zu 30 Prozent des firmeneigenen Codes von KI geschrieben werde. Vergangene Woche gab Microsoft dann bekannt, dass das Unternehmen in seinem Heimatbundestaat Washington 2.000 Mitarbeitende entlässt. Laut Bloomberg waren Programmierer am stärksten von der Kündigungswelle betroffen. Kündigungen treffen Softwareentwickler am härtesten Wie das Nachrichtenportal basierend auf Beschäftigungsdaten des Bundesstaates herausfand, arbeiteten mehr als 40 Prozent der entlassenen IT-Spezialisten in der Softwareentwicklung. Dagegen waren laut Bloomberg relativ wenige Vertriebs- oder Marketingpositionen von den Kündigungen betroffen. Die jetzigen Personalmaßnahmen sind Teil der jüngsten Entlassungen bei Microsoft, von denen etwa insgesamt 6.000 Personen betroffen sind. Der Grund für diese Entscheidung scheint das allgemeine Umdenken in der Tech-Industrie zu sein. In guter Gesellschaft Mit der Idee Mitarbeitende durch KI zu ersetzen, ist der Tech-Riese nicht allein: Bereits im Februar 2025 kündigten Branchengrößen wie IBM und Sophos an, Stellen abzubauen und durch KI zu ersetzen. 

Microsoft-Entlassungen treffen Entwickler am härtesten​ Immer mehr Code wird von KI geschrieben, wodurch Tech-Konzerne zunehmend Menschen aussortieren.Emagnetic / Shutterstock

Da Künstliche Intelligenz (KI) immer mehr Aufgaben übernimmt, werden Berufe wie Programmierer zunehmend obsolet. So verkündete Microsoft-CEO Satya Nadella bereits im April, dass bis zu 30 Prozent des firmeneigenen Codes von KI geschrieben werde.

Vergangene Woche gab Microsoft dann bekannt, dass das Unternehmen in seinem Heimatbundestaat Washington 2.000 Mitarbeitende entlässt. Laut Bloomberg waren Programmierer am stärksten von der Kündigungswelle betroffen.

Kündigungen treffen Softwareentwickler am härtesten

Wie das Nachrichtenportal basierend auf Beschäftigungsdaten des Bundesstaates herausfand, arbeiteten mehr als 40 Prozent der entlassenen IT-Spezialisten in der Softwareentwicklung. Dagegen waren laut Bloomberg relativ wenige Vertriebs- oder Marketingpositionen von den Kündigungen betroffen.

Die jetzigen Personalmaßnahmen sind Teil der jüngsten Entlassungen bei Microsoft, von denen etwa insgesamt 6.000 Personen betroffen sind. Der Grund für diese Entscheidung scheint das allgemeine Umdenken in der Tech-Industrie zu sein.

In guter Gesellschaft

Mit der Idee Mitarbeitende durch KI zu ersetzen, ist der Tech-Riese nicht allein: Bereits im Februar 2025 kündigten Branchengrößen wie IBM und Sophos an, Stellen abzubauen und durch KI zu ersetzen.

Microsoft-Entlassungen treffen Entwickler am härtesten​ Weiterlesen »

Nach oben scrollen
×