Computerhaus Quickborn

Keiner hat Bock auf KI?​

Dass Technologie zum Selbstzweck kein guter Ansatz ist, sollte sich eigentlich längst herumgesprochen haben.C. Fish Images | shutterstock.com In meiner Rolle als Unternehmensberaterin bin ich immer wieder mit besorgniserregenden “Trends” konfrontiert: Führungskräfte, die von Hype Cycles fasziniert sind, aber nicht verstehen, warum KI für ihr Unternehmen wichtig ist – beziehungsweise welchen Impact die Technologie haben könnte. Ausrichtung auf Unternehmensstrategie und -ziele? Fehlanzeige. Und am schlimmsten: KI-Initiativen, die völlig an den Menschen vorbeigehen, die sie umsetzen und die Technologie anwenden sollen. Ich selbst habe während meiner Tätigkeit für ein Großunternehmen hautnah miterlebt, wie unzusammenhängende Kommunikation über KI zur Desillusionierung der Mitarbeiter geführt hat. Die Unternehmensleitung investierte zwar Millionen in Automatisierungstechnologien – allerdings ohne die Initiative auf die Arbeitsgestaltung abzustimmen und mit Umschulungs- oder Anreizmaßnahmen auszustatten. Das eigentliche Problem ist dabei nicht die “Angst vor dem Unbekannten“, sondern die nicht aufgelösten Reibungspunkte zwischen Menschen, Prozessen und Systemen. Das manifestiert sich in: einer erhöhten Bereitschaft von Führungskräften, trotz unklarer Ziele Millionen in Technologie-Upgrades zu investieren, und parallel einer deutlich geringeren Bereitschaft, alte Verhaltensweisen zu verändern oder Weiterbildungen anzubieten. Diese selektive Investitionsbereitschaft in Technologie sendet eine klare und ziemlich demotivierende Botschaft an die Mitarbeiter. Manager und Führungskräfte, denen daran gelegen ist, dass KI “liefert”, sollten anerkennen, dass das nicht ohne ihre Belegschaft geht – beziehungsweise nicht ohne (das) TRUST (-Prinzip): Transparency: Sind Daten offen zugänglich, klar definiert und leicht zu hinterfragen? Relationships: Arbeiten funktionsübergreifende Teams zusammen oder konkurrieren sie um die Kontrolle? Understanding: Verfügen die Mitarbeiter über die erforderlichen Kenntnisse und den nötigen Support, um Daten sicher nutzen zu können? Safety: Können Mitarbeiter ohne Angst Fragen stellen, Risiken aufzeigen oder sagen, dass sie etwas nicht wissen? Tone from the top: Gibt es Schulungen, gezieltes Change Management und Anreize, um die Veränderung anzunehmen? Woher der KI-Widerstand rührt Ich konnte branchenübergreifend beobachten, dass der Widerstand gegen KI nichts mit den Algorithmen zu tun hat. Es geht vielmehr um Macht, Schutz und Identität. Ein Kunde führte beispielsweise ein Sprachmodell ein, um sein Compliance-Team dabei zu unterstützen, die Zahl manueller Überprüfungen zu reduzieren. Die Technologie funktionierte zwar, die Mitarbeiter lehnten sie jedoch vehement ab. Der Grund: Niemand hatte ihnen wirklich erklärt, wie sich ihre Arbeit konkret verändern würde. Stattdessen war nur klar, dass sie sich verändern würde. Wenn Mitarbeiter glauben, dass ihre Rolle bedroht ist, horten sie Wissen, widersetzen sich Prozessveränderungen und lehnen diese ab. Werden diese Bedenken nicht ausgeräumt, gehen Chancen verloren, sich zu engagieren, zusammenzuarbeiten und gemeinsam von den Vorteilen der KI zu profitieren. Ohne psychologische (Job-)Sicherheit verkommt die KI-Einführung in der Folge zum Machtkampf, Initiativen scheitern – und Unternehmen verlieren Zeit, Geld, Produktivität und Talente. Es ist deshalb nur zu empfehlen, Anreizstrukturen zu schaffen, die positives Verhalten belohnen, das Reibungspunkte reduzieren kann – etwa: Wissensaustausch, Datenaustausch, funktionsübergreifende Abstimmung, transparente Kommunikation bezüglich Unsicherheiten und schnelles Testing. Das ist eine kulturelle Umstellung, keine technische. Am Anfang steht nicht die Software In der Praxis werden von der KI-Einführung viele bestehende Strukturen, einschließlich Organisationsstrukturen und Prozesse betroffen sein. Im Gegensatz zu KI-nativen Startups können Großunternehmen an dieser Stelle jedoch keinen Lean-First-Ansatz verfolgen, da das für intelligente Investitionen erforderliche, strategische Wissen in der Belegschaft verankert ist und nicht nur in der Führungsetage. „Design für KI“ bedeutet deshalb, das Gegenteil von dem zu tun, was die meisten Roadmaps vorschlagen: Starten Sie mit dem Organigramm und den Geschäftszielen, nicht mit dem KI-Modell. Wie Wired-Journalist Ethan Wollic in seinem Artikel “AI will evolve into an organizational strategy for all” argumentiert, werden große Unternehmen durch Mitarbeiter und Führungskräfte aus verschiedenen Abteilungen, einen Mehrwert aus der KI-Transformation ziehen, die sinnvolle Möglichkeiten zur Leistungssteigerung durch KI identifizieren. Das unterstreicht die essenzielle Rolle, die die Belegschaft einnimmt, wenn es darum geht, neue Chancen zu identifizieren, die Umsetzung zu gestalten und Akzeptanz sicherzustellen. Im Gegensatz zu Start-ups, die von Grund auf schlank aufgebaut sind, müssen größere Unternehmen zunächst die bereits in der Belegschaft vorhandene, operative Intelligenz freisetzen und integrieren. Das fällt jedoch bei vielen KI-Strategien völlig unter den Tisch. Im Rahmen eines kürzlich durchgeführten Projekts für einen multinationalen Kunden haben wir eine sogenannte “KI-Reibungsprüfung” durchgeführt. Dabei haben wir die Stellen identifiziert, an denen KI-Initiativen nicht skaliert werden konnten. Die Ergebnisse waren zwar nicht überraschend, aber dennoch aufschlussreich. Denn die größten Hindernisse waren nicht technischer Natur, sondern strukturell und kulturell bedingt. Das ließ sich ablesen an: politischer Konkurrenz zwischen Abteilungen, unklaren Entscheidungsbefugnissen, mangelndem Konsens über den Wert und fehlenden Anreizen für die Zusammenarbeit. Dabei handelte es sich nicht um vereinzelte Schwachstellen, sondern um systemweite Konstruktionsfehler. Die daraus resultierenden Gespräche halfen dem Führungsteam zu verstehen, was sie in ihrer Roadmap übersehen hatten: KI verändert die Machtverhältnisse, Arbeitsabläufe und die DNA einer Organisation. Wenn Strukturen und Anreize nicht mit der Technologie Schritt halten, bricht die Implementierung unter dem Gewicht ungelöster Spannungen zusammen. Strategien, in denen widersprüchliche Entscheidungsprozesse, falsch ausgerichtete Prioritäten und funktionale Silos ignoriert werden, lassen die grundlegenden Voraussetzungen für Erfolg vermissen. Dennoch behandeln viele KI-Roadmaps die Organisationsstruktur nach wie vor als unveränderlich, die Entscheidungsfindung als isoliert und Wertkonflikte als die Probleme anderer. Dabei bedeutet eine Neugestaltung für KI, zuerst bei den Menschen anzusetzen und alte Strukturen abzubauen, in denen Zusammenarbeit optional statt unverzichtbar ist. Einer der größten Fehler ist in meinen Augen dabei, KI-Roadmaps um die Technologie herum zu entwerfen und dann zu versuchen, sie nachträglich ins Unternehmen zu integrieren. Kultur im Fokus Die unangenehme Wahrheit ist, dass die Unternehmenskultur in vielen Fällen das wesentliche Hindernis für die Einführung von KI darstellt. Datenverantwortliche müssen aufhören, KI als technische Herausforderung zu betrachten, und anfangen, wie “Kulturarchitekten” zu führen. Soll heißen: Kommunizieren Sie die Vision frühzeitig, beziehen Sie die Mitarbeiter ein, bilden Sie sie weiter – und belohnen Sie sie. Zum Beispiel mit Hilfe des SMILE-Konzepts: Starten Sie KI-Roadmaps mit einem Audit der Unternehmenskultur. Machen Sie Verhaltensmetriken zum Teil der KI-KPIs. Incentivieren Sie positive Verhaltensweisen über Silos hinweg. Lenken Sie mit Change Management, um die Abstimmung voranzutreiben, die Einführung zu beschleunigen und eine nachhaltige Wirkung sicherzustellen. Emphasieren Sie KI als Mittel zur Skill-Erweiterung, nicht als Quelle von Störungen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Keiner hat Bock auf KI?​ Dass Technologie zum Selbstzweck kein guter Ansatz ist, sollte sich eigentlich längst herumgesprochen haben.C. Fish Images | shutterstock.com In meiner Rolle als Unternehmensberaterin bin ich immer wieder mit besorgniserregenden “Trends” konfrontiert: Führungskräfte, die von Hype Cycles fasziniert sind, aber nicht verstehen, warum KI für ihr Unternehmen wichtig ist – beziehungsweise welchen Impact die Technologie haben könnte. Ausrichtung auf Unternehmensstrategie und -ziele? Fehlanzeige. Und am schlimmsten: KI-Initiativen, die völlig an den Menschen vorbeigehen, die sie umsetzen und die Technologie anwenden sollen. Ich selbst habe während meiner Tätigkeit für ein Großunternehmen hautnah miterlebt, wie unzusammenhängende Kommunikation über KI zur Desillusionierung der Mitarbeiter geführt hat. Die Unternehmensleitung investierte zwar Millionen in Automatisierungstechnologien – allerdings ohne die Initiative auf die Arbeitsgestaltung abzustimmen und mit Umschulungs- oder Anreizmaßnahmen auszustatten. Das eigentliche Problem ist dabei nicht die “Angst vor dem Unbekannten“, sondern die nicht aufgelösten Reibungspunkte zwischen Menschen, Prozessen und Systemen. Das manifestiert sich in: einer erhöhten Bereitschaft von Führungskräften, trotz unklarer Ziele Millionen in Technologie-Upgrades zu investieren, und parallel einer deutlich geringeren Bereitschaft, alte Verhaltensweisen zu verändern oder Weiterbildungen anzubieten. Diese selektive Investitionsbereitschaft in Technologie sendet eine klare und ziemlich demotivierende Botschaft an die Mitarbeiter. Manager und Führungskräfte, denen daran gelegen ist, dass KI “liefert”, sollten anerkennen, dass das nicht ohne ihre Belegschaft geht – beziehungsweise nicht ohne (das) TRUST (-Prinzip): Transparency: Sind Daten offen zugänglich, klar definiert und leicht zu hinterfragen? Relationships: Arbeiten funktionsübergreifende Teams zusammen oder konkurrieren sie um die Kontrolle? Understanding: Verfügen die Mitarbeiter über die erforderlichen Kenntnisse und den nötigen Support, um Daten sicher nutzen zu können? Safety: Können Mitarbeiter ohne Angst Fragen stellen, Risiken aufzeigen oder sagen, dass sie etwas nicht wissen? Tone from the top: Gibt es Schulungen, gezieltes Change Management und Anreize, um die Veränderung anzunehmen? Woher der KI-Widerstand rührt Ich konnte branchenübergreifend beobachten, dass der Widerstand gegen KI nichts mit den Algorithmen zu tun hat. Es geht vielmehr um Macht, Schutz und Identität. Ein Kunde führte beispielsweise ein Sprachmodell ein, um sein Compliance-Team dabei zu unterstützen, die Zahl manueller Überprüfungen zu reduzieren. Die Technologie funktionierte zwar, die Mitarbeiter lehnten sie jedoch vehement ab. Der Grund: Niemand hatte ihnen wirklich erklärt, wie sich ihre Arbeit konkret verändern würde. Stattdessen war nur klar, dass sie sich verändern würde. Wenn Mitarbeiter glauben, dass ihre Rolle bedroht ist, horten sie Wissen, widersetzen sich Prozessveränderungen und lehnen diese ab. Werden diese Bedenken nicht ausgeräumt, gehen Chancen verloren, sich zu engagieren, zusammenzuarbeiten und gemeinsam von den Vorteilen der KI zu profitieren. Ohne psychologische (Job-)Sicherheit verkommt die KI-Einführung in der Folge zum Machtkampf, Initiativen scheitern – und Unternehmen verlieren Zeit, Geld, Produktivität und Talente. Es ist deshalb nur zu empfehlen, Anreizstrukturen zu schaffen, die positives Verhalten belohnen, das Reibungspunkte reduzieren kann – etwa: Wissensaustausch, Datenaustausch, funktionsübergreifende Abstimmung, transparente Kommunikation bezüglich Unsicherheiten und schnelles Testing. Das ist eine kulturelle Umstellung, keine technische. Am Anfang steht nicht die Software In der Praxis werden von der KI-Einführung viele bestehende Strukturen, einschließlich Organisationsstrukturen und Prozesse betroffen sein. Im Gegensatz zu KI-nativen Startups können Großunternehmen an dieser Stelle jedoch keinen Lean-First-Ansatz verfolgen, da das für intelligente Investitionen erforderliche, strategische Wissen in der Belegschaft verankert ist und nicht nur in der Führungsetage. „Design für KI“ bedeutet deshalb, das Gegenteil von dem zu tun, was die meisten Roadmaps vorschlagen: Starten Sie mit dem Organigramm und den Geschäftszielen, nicht mit dem KI-Modell. Wie Wired-Journalist Ethan Wollic in seinem Artikel “AI will evolve into an organizational strategy for all” argumentiert, werden große Unternehmen durch Mitarbeiter und Führungskräfte aus verschiedenen Abteilungen, einen Mehrwert aus der KI-Transformation ziehen, die sinnvolle Möglichkeiten zur Leistungssteigerung durch KI identifizieren. Das unterstreicht die essenzielle Rolle, die die Belegschaft einnimmt, wenn es darum geht, neue Chancen zu identifizieren, die Umsetzung zu gestalten und Akzeptanz sicherzustellen. Im Gegensatz zu Start-ups, die von Grund auf schlank aufgebaut sind, müssen größere Unternehmen zunächst die bereits in der Belegschaft vorhandene, operative Intelligenz freisetzen und integrieren. Das fällt jedoch bei vielen KI-Strategien völlig unter den Tisch. Im Rahmen eines kürzlich durchgeführten Projekts für einen multinationalen Kunden haben wir eine sogenannte “KI-Reibungsprüfung” durchgeführt. Dabei haben wir die Stellen identifiziert, an denen KI-Initiativen nicht skaliert werden konnten. Die Ergebnisse waren zwar nicht überraschend, aber dennoch aufschlussreich. Denn die größten Hindernisse waren nicht technischer Natur, sondern strukturell und kulturell bedingt. Das ließ sich ablesen an: politischer Konkurrenz zwischen Abteilungen, unklaren Entscheidungsbefugnissen, mangelndem Konsens über den Wert und fehlenden Anreizen für die Zusammenarbeit. Dabei handelte es sich nicht um vereinzelte Schwachstellen, sondern um systemweite Konstruktionsfehler. Die daraus resultierenden Gespräche halfen dem Führungsteam zu verstehen, was sie in ihrer Roadmap übersehen hatten: KI verändert die Machtverhältnisse, Arbeitsabläufe und die DNA einer Organisation. Wenn Strukturen und Anreize nicht mit der Technologie Schritt halten, bricht die Implementierung unter dem Gewicht ungelöster Spannungen zusammen. Strategien, in denen widersprüchliche Entscheidungsprozesse, falsch ausgerichtete Prioritäten und funktionale Silos ignoriert werden, lassen die grundlegenden Voraussetzungen für Erfolg vermissen. Dennoch behandeln viele KI-Roadmaps die Organisationsstruktur nach wie vor als unveränderlich, die Entscheidungsfindung als isoliert und Wertkonflikte als die Probleme anderer. Dabei bedeutet eine Neugestaltung für KI, zuerst bei den Menschen anzusetzen und alte Strukturen abzubauen, in denen Zusammenarbeit optional statt unverzichtbar ist. Einer der größten Fehler ist in meinen Augen dabei, KI-Roadmaps um die Technologie herum zu entwerfen und dann zu versuchen, sie nachträglich ins Unternehmen zu integrieren. Kultur im Fokus Die unangenehme Wahrheit ist, dass die Unternehmenskultur in vielen Fällen das wesentliche Hindernis für die Einführung von KI darstellt. Datenverantwortliche müssen aufhören, KI als technische Herausforderung zu betrachten, und anfangen, wie “Kulturarchitekten” zu führen. Soll heißen: Kommunizieren Sie die Vision frühzeitig, beziehen Sie die Mitarbeiter ein, bilden Sie sie weiter – und belohnen Sie sie. Zum Beispiel mit Hilfe des SMILE-Konzepts: Starten Sie KI-Roadmaps mit einem Audit der Unternehmenskultur. Machen Sie Verhaltensmetriken zum Teil der KI-KPIs. Incentivieren Sie positive Verhaltensweisen über Silos hinweg. Lenken Sie mit Change Management, um die Abstimmung voranzutreiben, die Einführung zu beschleunigen und eine nachhaltige Wirkung sicherzustellen. Emphasieren Sie KI als Mittel zur Skill-Erweiterung, nicht als Quelle von Störungen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!

Dass Technologie zum Selbstzweck kein guter Ansatz ist, sollte sich eigentlich längst herumgesprochen haben.C. Fish Images | shutterstock.com In meiner Rolle als Unternehmensberaterin bin ich immer wieder mit besorgniserregenden “Trends” konfrontiert: Führungskräfte, die von Hype Cycles fasziniert sind, aber nicht verstehen, warum KI für ihr Unternehmen wichtig ist – beziehungsweise welchen Impact die Technologie haben könnte. Ausrichtung auf Unternehmensstrategie und -ziele? Fehlanzeige. Und am schlimmsten: KI-Initiativen, die völlig an den Menschen vorbeigehen, die sie umsetzen und die Technologie anwenden sollen. Ich selbst habe während meiner Tätigkeit für ein Großunternehmen hautnah miterlebt, wie unzusammenhängende Kommunikation über KI zur Desillusionierung der Mitarbeiter geführt hat. Die Unternehmensleitung investierte zwar Millionen in Automatisierungstechnologien – allerdings ohne die Initiative auf die Arbeitsgestaltung abzustimmen und mit Umschulungs- oder Anreizmaßnahmen auszustatten. Das eigentliche Problem ist dabei nicht die “Angst vor dem Unbekannten“, sondern die nicht aufgelösten Reibungspunkte zwischen Menschen, Prozessen und Systemen. Das manifestiert sich in: einer erhöhten Bereitschaft von Führungskräften, trotz unklarer Ziele Millionen in Technologie-Upgrades zu investieren, und parallel einer deutlich geringeren Bereitschaft, alte Verhaltensweisen zu verändern oder Weiterbildungen anzubieten. Diese selektive Investitionsbereitschaft in Technologie sendet eine klare und ziemlich demotivierende Botschaft an die Mitarbeiter. Manager und Führungskräfte, denen daran gelegen ist, dass KI “liefert”, sollten anerkennen, dass das nicht ohne ihre Belegschaft geht – beziehungsweise nicht ohne (das) TRUST (-Prinzip): Transparency: Sind Daten offen zugänglich, klar definiert und leicht zu hinterfragen? Relationships: Arbeiten funktionsübergreifende Teams zusammen oder konkurrieren sie um die Kontrolle? Understanding: Verfügen die Mitarbeiter über die erforderlichen Kenntnisse und den nötigen Support, um Daten sicher nutzen zu können? Safety: Können Mitarbeiter ohne Angst Fragen stellen, Risiken aufzeigen oder sagen, dass sie etwas nicht wissen? Tone from the top: Gibt es Schulungen, gezieltes Change Management und Anreize, um die Veränderung anzunehmen? Woher der KI-Widerstand rührt Ich konnte branchenübergreifend beobachten, dass der Widerstand gegen KI nichts mit den Algorithmen zu tun hat. Es geht vielmehr um Macht, Schutz und Identität. Ein Kunde führte beispielsweise ein Sprachmodell ein, um sein Compliance-Team dabei zu unterstützen, die Zahl manueller Überprüfungen zu reduzieren. Die Technologie funktionierte zwar, die Mitarbeiter lehnten sie jedoch vehement ab. Der Grund: Niemand hatte ihnen wirklich erklärt, wie sich ihre Arbeit konkret verändern würde. Stattdessen war nur klar, dass sie sich verändern würde. Wenn Mitarbeiter glauben, dass ihre Rolle bedroht ist, horten sie Wissen, widersetzen sich Prozessveränderungen und lehnen diese ab. Werden diese Bedenken nicht ausgeräumt, gehen Chancen verloren, sich zu engagieren, zusammenzuarbeiten und gemeinsam von den Vorteilen der KI zu profitieren. Ohne psychologische (Job-)Sicherheit verkommt die KI-Einführung in der Folge zum Machtkampf, Initiativen scheitern – und Unternehmen verlieren Zeit, Geld, Produktivität und Talente. Es ist deshalb nur zu empfehlen, Anreizstrukturen zu schaffen, die positives Verhalten belohnen, das Reibungspunkte reduzieren kann – etwa: Wissensaustausch, Datenaustausch, funktionsübergreifende Abstimmung, transparente Kommunikation bezüglich Unsicherheiten und schnelles Testing. Das ist eine kulturelle Umstellung, keine technische. Am Anfang steht nicht die Software In der Praxis werden von der KI-Einführung viele bestehende Strukturen, einschließlich Organisationsstrukturen und Prozesse betroffen sein. Im Gegensatz zu KI-nativen Startups können Großunternehmen an dieser Stelle jedoch keinen Lean-First-Ansatz verfolgen, da das für intelligente Investitionen erforderliche, strategische Wissen in der Belegschaft verankert ist und nicht nur in der Führungsetage. „Design für KI“ bedeutet deshalb, das Gegenteil von dem zu tun, was die meisten Roadmaps vorschlagen: Starten Sie mit dem Organigramm und den Geschäftszielen, nicht mit dem KI-Modell. Wie Wired-Journalist Ethan Wollic in seinem Artikel “AI will evolve into an organizational strategy for all” argumentiert, werden große Unternehmen durch Mitarbeiter und Führungskräfte aus verschiedenen Abteilungen, einen Mehrwert aus der KI-Transformation ziehen, die sinnvolle Möglichkeiten zur Leistungssteigerung durch KI identifizieren. Das unterstreicht die essenzielle Rolle, die die Belegschaft einnimmt, wenn es darum geht, neue Chancen zu identifizieren, die Umsetzung zu gestalten und Akzeptanz sicherzustellen. Im Gegensatz zu Start-ups, die von Grund auf schlank aufgebaut sind, müssen größere Unternehmen zunächst die bereits in der Belegschaft vorhandene, operative Intelligenz freisetzen und integrieren. Das fällt jedoch bei vielen KI-Strategien völlig unter den Tisch. Im Rahmen eines kürzlich durchgeführten Projekts für einen multinationalen Kunden haben wir eine sogenannte “KI-Reibungsprüfung” durchgeführt. Dabei haben wir die Stellen identifiziert, an denen KI-Initiativen nicht skaliert werden konnten. Die Ergebnisse waren zwar nicht überraschend, aber dennoch aufschlussreich. Denn die größten Hindernisse waren nicht technischer Natur, sondern strukturell und kulturell bedingt. Das ließ sich ablesen an: politischer Konkurrenz zwischen Abteilungen, unklaren Entscheidungsbefugnissen, mangelndem Konsens über den Wert und fehlenden Anreizen für die Zusammenarbeit. Dabei handelte es sich nicht um vereinzelte Schwachstellen, sondern um systemweite Konstruktionsfehler. Die daraus resultierenden Gespräche halfen dem Führungsteam zu verstehen, was sie in ihrer Roadmap übersehen hatten: KI verändert die Machtverhältnisse, Arbeitsabläufe und die DNA einer Organisation. Wenn Strukturen und Anreize nicht mit der Technologie Schritt halten, bricht die Implementierung unter dem Gewicht ungelöster Spannungen zusammen. Strategien, in denen widersprüchliche Entscheidungsprozesse, falsch ausgerichtete Prioritäten und funktionale Silos ignoriert werden, lassen die grundlegenden Voraussetzungen für Erfolg vermissen. Dennoch behandeln viele KI-Roadmaps die Organisationsstruktur nach wie vor als unveränderlich, die Entscheidungsfindung als isoliert und Wertkonflikte als die Probleme anderer. Dabei bedeutet eine Neugestaltung für KI, zuerst bei den Menschen anzusetzen und alte Strukturen abzubauen, in denen Zusammenarbeit optional statt unverzichtbar ist. Einer der größten Fehler ist in meinen Augen dabei, KI-Roadmaps um die Technologie herum zu entwerfen und dann zu versuchen, sie nachträglich ins Unternehmen zu integrieren. Kultur im Fokus Die unangenehme Wahrheit ist, dass die Unternehmenskultur in vielen Fällen das wesentliche Hindernis für die Einführung von KI darstellt. Datenverantwortliche müssen aufhören, KI als technische Herausforderung zu betrachten, und anfangen, wie “Kulturarchitekten” zu führen. Soll heißen: Kommunizieren Sie die Vision frühzeitig, beziehen Sie die Mitarbeiter ein, bilden Sie sie weiter – und belohnen Sie sie. Zum Beispiel mit Hilfe des SMILE-Konzepts: Starten Sie KI-Roadmaps mit einem Audit der Unternehmenskultur. Machen Sie Verhaltensmetriken zum Teil der KI-KPIs. Incentivieren Sie positive Verhaltensweisen über Silos hinweg. Lenken Sie mit Change Management, um die Abstimmung voranzutreiben, die Einführung zu beschleunigen und eine nachhaltige Wirkung sicherzustellen. Emphasieren Sie KI als Mittel zur Skill-Erweiterung, nicht als Quelle von Störungen. (fm) Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox! 

Nach oben scrollen
×