Computerhaus Quickborn

Jeder dritte Mitarbeiter sabotiert Ihre GenAI-Strategie​

Gerade jüngere Mitarbeitende sehen GenAI eher skeptisch fizkes / Shutterstock Fast ein Drittel – 31 Prozent – der Mitarbeiter in Unternehmen geben an, „die generative KI-Strategie ihres Unternehmens zu sabotieren“, so eine Umfrage des KI-Anbieters Writer. Bei Millennials und Mitarbeitern der Generation Z sind es sogar 41 Prozent. Untergrabung der übergeordneten KI-Strategie In der Umfrage gab zudem einer von zehn Beschäftigten zu, die Leistungskennzahlen zu manipulieren, um den Anschein zu erwecken, dass KI schlechter abschneidet; absichtlich minderwertige Ergebnisse zu erzeugen; die Nutzung generativer KI-Tools oder deren Outputs zu verweigern;   Schulungen zum Thema generative KI nicht wahrzunehmen. Bei anderen KI-spezifischen Handlungen lässt sich darüber streiten, ob sie pauschal als Sabotageakte eingeordnet werden können. In vielen Fällen gehe es dabei vielmehr um Versuche, die Produktivität zu steigern oder die Arbeit zu erleichtern. Eine präzisere Bezeichnung wäre möglicherweise „Untergrabung der übergeordneten KI-Strategie“, Das greift, wenn Mitarbeiter Unternehmensdaten in nicht genehmigte GenAI-Tools eingeben (27 Prozent), nicht freigegebene KI-Tools nutzen (20 Prozent) und Sicherheitslücken im Zusammenhang mit KI nicht melden (16 Prozent). „Wenn jemand seinen Arbeitgeber bewusst über die Resultate generativer KI bei einem bestimmten Prozess in die Irre führt oder sensible Unternehmensdaten in ein externes Tool einspeist, dann ist das ganz klar Sabotage“, betont Brian Jackson, Forschungsleiter bei der Info-Tech Research Group. „Verzichtet jedoch jemand aus berechtigter Sorge um die Qualität auf den Einsatz von GenAI oder nutzt externe Tools, ohne vertrauliche Informationen weiterzugeben, ist das nicht als böswillig zu werten.“ Dennoch stimmt Jackson zu, dass es Fälle bewusster Sabotage gibt – und zwar oft aus einem naheliegenden Grund: Vorstände und Top-Manager priesen öffentlich den Einsatz von KI als Mittel zur Reduzierung der Belegschaft. „Wer wird denn motiviert sein, KI einzuführen, wenn er weiß, dass damit seine eigene Stelle wegfallen soll?“, fragt der Analyst. KI könne zunehmend Bereiche der Wissensarbeit automatisieren, die bislang menschliche Kreativität und Intelligenz erforderten. Bekämen Mitarbeiter das Gefühl, dass KI genau dort eingesetzt wird, wo sie gerne arbeiten oder wo ein menschlicher Beitrag besonders wichtig ist, komme es zu Widerstand. Der Analyst rät Unternehmen, auf Feedback der Mitarbeitenden zu hören, wenn es darum geht, wo KI tatsächlich Mehrwert schaffen kann – statt einen Top-down-Ansatz zu verfolgen. Das könne Mitarbeitende entfremden, weil sie das Gefühl haben, eine Technologie anzulernen, die sie selbst überflüssig macht. Jackson kritisiert außerdem, dass einige CEOs zur Unsicherheit rund um KI und Jobverluste beitragen, indem sie öffentlich behaupten, KI sei der Grund für Stellenstreichungen – auch wenn das gar nicht der Fall ist. „Führungskräfte versuchen manchmal, Entlassungen zu beschönigen, etwa, indem sie sagen: ‚Wir machen das nicht, weil das Unternehmen in Schwierigkeiten steckt. Nein, wir entlassen Leute, weil KI uns so effizient macht, dass wir nicht mehr so viele Menschen brauchen“, führt der Analyst der Info-Tech Research Group aus. „Anstatt zuzugeben, dass sie übermäßig viele Mitarbeiter eingestellt haben, sagen sie lieber: ‚Wir setzen KI ein, weil wir fortschrittlich und technikaffin sind.” Auch ein Datenanalyst, der die KI-Integration bei einer 80Milliarden Dollar schweren Einzelhandelskette betreut – und anonym bleiben möchte, berichtet von direkten „Widerstandserfahrungen“. Zwar sei „offene Sabotage selten“, doch er habe subtilere Formen des Widerstands beobachtet – etwa, dass Teams KI-Funktionen nicht ausschöpfen, wieder auf manuelle Prozesse zurückgreifen oder KI-generierte Empfehlungen ohne nachvollziehbaren Grund ignorieren. In manchen Fällen sei dies auf Ängste zurückzuführen: Mitarbeitende sorgten sich, dass mehr Automatisierung ihre Rolle schwächen oder ihre Fachkenntnisse entwerten könnte. „Doch was wie Widerstand aussieht, ist in Wahrheit ein Ruf nach Einbindung in den Veränderungsprozess“, so der Data Scientist: „Die Menschen wollen verstehen, wie KI ihre Arbeit unterstützt – nicht nur hören, dass sie ihnen aufgezwungen wird.“ „Sabotage wird zur Realität, wenn man Ängste ignoriert“, fügt Patrice Williams Lindo, CEO von Career Nomad, an. „Wenn die Unternehmensführung die Bedenken der Mitarbeitenden abtut, keine klaren Weiterbildungsperspektiven aufzeigt und KI-Einführungen von oben herab durchsetzt, kann es passieren, dass Mitarbeitende die Einführung bewusst verzögern oder absichtlich minderwertige Eingaben machen, um sich selbst zu schützen.“ Sabotage zu bekämpfen ist schwierig Der Umgang mit KI-Widerstand erfordert bessere Schulung und Kommunikation. Doch selbst diese Maßnahmen allein reichen nicht aus. Vor allem dann nicht, wenn Führungskräfte offen sagen, dass bei erfolgreicher KI-Strategie mit Entlassungen zu rechnen ist. Da sich KI-Sabotage wahrscheinlich nie vollständig vermeiden lässt, sind Unternehmen potenziell erheblichen Risiken und Haftungen ausgesetzt. Cameron Powell, Technologieanwalt bei der Kanzlei Gregor Wynne Arney, warnt: “Hat ein Unternehmen es versäumt, solche Vorgänge zu unterbinden oder sie sogar unbewusst begünstigt und dabei Gesetze verletzt wurden, kann es haftbar gemacht werden“, so Powell. Zudem könnten Mitarbeitende Informationen erzeugen, die das Unternehmen rechtlich binden, etwa durch unbeabsichtigte Vertragsabschlüsse oder verleumderische Aussagen über Dritte. Oder sie könnten Urheberrechte oder Marken Dritter verletzen, Betriebsgeheimnisse preisgeben – entweder des eigenen Unternehmens oder eines Partners. All das könne juristische Folgen für das Unternehmen haben. Der Anwalt weist außerdem auf das Risiko für die Mitarbeiter selbst hin: „Das Haftungsrisiko ist ein zentraler Aspekt, den Unternehmen ihren Mitarbeitenden in Schulungen deutlich machen sollten. Sabotage schadet nicht nur dem Unternehmen – sie kann auch dazu führen, dass Mitarbeitende zivil- oder strafrechtlich belangt werden, bis hin zu Geldstrafen oder Gefängnis.“ In einem historischen Kontext betrachtet, seien die Sabotageversuche gegen KI nichts Neues, führt indes Lars Nyman, Fractional CMO, an. „Das ist Luddismus in neuer Form. 1811 haben die Ludditen Webstühle zerstört, um ihre Arbeitsplätze zu retten. Heute äußert sich das in Sabotage auf Slack oder heimlichen Jailbreaks von Prompts. Die menschliche Natur hat sich nicht verändert – nur die Werkzeuge sind andere. Wenn Sie Ihren Mitarbeitern vermitteln, sie seien das wichtigste Kapital und sie anschließend durch ein LLM ersetzen, sollten Sie sich nicht wundern, wenn die Belegschaft den Stecker zieht oder das Modell mit Müll-Daten füttert“, konstatiert Nyman. (mb) 

Jeder dritte Mitarbeiter sabotiert Ihre GenAI-Strategie​ Gerade jüngere Mitarbeitende sehen GenAI eher skeptisch fizkes / Shutterstock Fast ein Drittel – 31 Prozent – der Mitarbeiter in Unternehmen geben an, „die generative KI-Strategie ihres Unternehmens zu sabotieren“, so eine Umfrage des KI-Anbieters Writer. Bei Millennials und Mitarbeitern der Generation Z sind es sogar 41 Prozent. Untergrabung der übergeordneten KI-Strategie In der Umfrage gab zudem einer von zehn Beschäftigten zu, die Leistungskennzahlen zu manipulieren, um den Anschein zu erwecken, dass KI schlechter abschneidet; absichtlich minderwertige Ergebnisse zu erzeugen; die Nutzung generativer KI-Tools oder deren Outputs zu verweigern;   Schulungen zum Thema generative KI nicht wahrzunehmen. Bei anderen KI-spezifischen Handlungen lässt sich darüber streiten, ob sie pauschal als Sabotageakte eingeordnet werden können. In vielen Fällen gehe es dabei vielmehr um Versuche, die Produktivität zu steigern oder die Arbeit zu erleichtern. Eine präzisere Bezeichnung wäre möglicherweise „Untergrabung der übergeordneten KI-Strategie“, Das greift, wenn Mitarbeiter Unternehmensdaten in nicht genehmigte GenAI-Tools eingeben (27 Prozent), nicht freigegebene KI-Tools nutzen (20 Prozent) und Sicherheitslücken im Zusammenhang mit KI nicht melden (16 Prozent). „Wenn jemand seinen Arbeitgeber bewusst über die Resultate generativer KI bei einem bestimmten Prozess in die Irre führt oder sensible Unternehmensdaten in ein externes Tool einspeist, dann ist das ganz klar Sabotage“, betont Brian Jackson, Forschungsleiter bei der Info-Tech Research Group. „Verzichtet jedoch jemand aus berechtigter Sorge um die Qualität auf den Einsatz von GenAI oder nutzt externe Tools, ohne vertrauliche Informationen weiterzugeben, ist das nicht als böswillig zu werten.“ Dennoch stimmt Jackson zu, dass es Fälle bewusster Sabotage gibt – und zwar oft aus einem naheliegenden Grund: Vorstände und Top-Manager priesen öffentlich den Einsatz von KI als Mittel zur Reduzierung der Belegschaft. „Wer wird denn motiviert sein, KI einzuführen, wenn er weiß, dass damit seine eigene Stelle wegfallen soll?“, fragt der Analyst. KI könne zunehmend Bereiche der Wissensarbeit automatisieren, die bislang menschliche Kreativität und Intelligenz erforderten. Bekämen Mitarbeiter das Gefühl, dass KI genau dort eingesetzt wird, wo sie gerne arbeiten oder wo ein menschlicher Beitrag besonders wichtig ist, komme es zu Widerstand. Der Analyst rät Unternehmen, auf Feedback der Mitarbeitenden zu hören, wenn es darum geht, wo KI tatsächlich Mehrwert schaffen kann – statt einen Top-down-Ansatz zu verfolgen. Das könne Mitarbeitende entfremden, weil sie das Gefühl haben, eine Technologie anzulernen, die sie selbst überflüssig macht. Jackson kritisiert außerdem, dass einige CEOs zur Unsicherheit rund um KI und Jobverluste beitragen, indem sie öffentlich behaupten, KI sei der Grund für Stellenstreichungen – auch wenn das gar nicht der Fall ist. „Führungskräfte versuchen manchmal, Entlassungen zu beschönigen, etwa, indem sie sagen: ‚Wir machen das nicht, weil das Unternehmen in Schwierigkeiten steckt. Nein, wir entlassen Leute, weil KI uns so effizient macht, dass wir nicht mehr so viele Menschen brauchen“, führt der Analyst der Info-Tech Research Group aus. „Anstatt zuzugeben, dass sie übermäßig viele Mitarbeiter eingestellt haben, sagen sie lieber: ‚Wir setzen KI ein, weil wir fortschrittlich und technikaffin sind.” Auch ein Datenanalyst, der die KI-Integration bei einer 80Milliarden Dollar schweren Einzelhandelskette betreut – und anonym bleiben möchte, berichtet von direkten „Widerstandserfahrungen“. Zwar sei „offene Sabotage selten“, doch er habe subtilere Formen des Widerstands beobachtet – etwa, dass Teams KI-Funktionen nicht ausschöpfen, wieder auf manuelle Prozesse zurückgreifen oder KI-generierte Empfehlungen ohne nachvollziehbaren Grund ignorieren. In manchen Fällen sei dies auf Ängste zurückzuführen: Mitarbeitende sorgten sich, dass mehr Automatisierung ihre Rolle schwächen oder ihre Fachkenntnisse entwerten könnte. „Doch was wie Widerstand aussieht, ist in Wahrheit ein Ruf nach Einbindung in den Veränderungsprozess“, so der Data Scientist: „Die Menschen wollen verstehen, wie KI ihre Arbeit unterstützt – nicht nur hören, dass sie ihnen aufgezwungen wird.“ „Sabotage wird zur Realität, wenn man Ängste ignoriert“, fügt Patrice Williams Lindo, CEO von Career Nomad, an. „Wenn die Unternehmensführung die Bedenken der Mitarbeitenden abtut, keine klaren Weiterbildungsperspektiven aufzeigt und KI-Einführungen von oben herab durchsetzt, kann es passieren, dass Mitarbeitende die Einführung bewusst verzögern oder absichtlich minderwertige Eingaben machen, um sich selbst zu schützen.“ Sabotage zu bekämpfen ist schwierig Der Umgang mit KI-Widerstand erfordert bessere Schulung und Kommunikation. Doch selbst diese Maßnahmen allein reichen nicht aus. Vor allem dann nicht, wenn Führungskräfte offen sagen, dass bei erfolgreicher KI-Strategie mit Entlassungen zu rechnen ist. Da sich KI-Sabotage wahrscheinlich nie vollständig vermeiden lässt, sind Unternehmen potenziell erheblichen Risiken und Haftungen ausgesetzt. Cameron Powell, Technologieanwalt bei der Kanzlei Gregor Wynne Arney, warnt: “Hat ein Unternehmen es versäumt, solche Vorgänge zu unterbinden oder sie sogar unbewusst begünstigt und dabei Gesetze verletzt wurden, kann es haftbar gemacht werden“, so Powell. Zudem könnten Mitarbeitende Informationen erzeugen, die das Unternehmen rechtlich binden, etwa durch unbeabsichtigte Vertragsabschlüsse oder verleumderische Aussagen über Dritte. Oder sie könnten Urheberrechte oder Marken Dritter verletzen, Betriebsgeheimnisse preisgeben – entweder des eigenen Unternehmens oder eines Partners. All das könne juristische Folgen für das Unternehmen haben. Der Anwalt weist außerdem auf das Risiko für die Mitarbeiter selbst hin: „Das Haftungsrisiko ist ein zentraler Aspekt, den Unternehmen ihren Mitarbeitenden in Schulungen deutlich machen sollten. Sabotage schadet nicht nur dem Unternehmen – sie kann auch dazu führen, dass Mitarbeitende zivil- oder strafrechtlich belangt werden, bis hin zu Geldstrafen oder Gefängnis.“ In einem historischen Kontext betrachtet, seien die Sabotageversuche gegen KI nichts Neues, führt indes Lars Nyman, Fractional CMO, an. „Das ist Luddismus in neuer Form. 1811 haben die Ludditen Webstühle zerstört, um ihre Arbeitsplätze zu retten. Heute äußert sich das in Sabotage auf Slack oder heimlichen Jailbreaks von Prompts. Die menschliche Natur hat sich nicht verändert – nur die Werkzeuge sind andere. Wenn Sie Ihren Mitarbeitern vermitteln, sie seien das wichtigste Kapital und sie anschließend durch ein LLM ersetzen, sollten Sie sich nicht wundern, wenn die Belegschaft den Stecker zieht oder das Modell mit Müll-Daten füttert“, konstatiert Nyman. (mb)

Gerade jüngere Mitarbeitende sehen GenAI eher skeptisch fizkes / Shutterstock Fast ein Drittel – 31 Prozent – der Mitarbeiter in Unternehmen geben an, „die generative KI-Strategie ihres Unternehmens zu sabotieren“, so eine Umfrage des KI-Anbieters Writer. Bei Millennials und Mitarbeitern der Generation Z sind es sogar 41 Prozent. Untergrabung der übergeordneten KI-Strategie In der Umfrage gab zudem einer von zehn Beschäftigten zu, die Leistungskennzahlen zu manipulieren, um den Anschein zu erwecken, dass KI schlechter abschneidet; absichtlich minderwertige Ergebnisse zu erzeugen; die Nutzung generativer KI-Tools oder deren Outputs zu verweigern;   Schulungen zum Thema generative KI nicht wahrzunehmen. Bei anderen KI-spezifischen Handlungen lässt sich darüber streiten, ob sie pauschal als Sabotageakte eingeordnet werden können. In vielen Fällen gehe es dabei vielmehr um Versuche, die Produktivität zu steigern oder die Arbeit zu erleichtern. Eine präzisere Bezeichnung wäre möglicherweise „Untergrabung der übergeordneten KI-Strategie“, Das greift, wenn Mitarbeiter Unternehmensdaten in nicht genehmigte GenAI-Tools eingeben (27 Prozent), nicht freigegebene KI-Tools nutzen (20 Prozent) und Sicherheitslücken im Zusammenhang mit KI nicht melden (16 Prozent). „Wenn jemand seinen Arbeitgeber bewusst über die Resultate generativer KI bei einem bestimmten Prozess in die Irre führt oder sensible Unternehmensdaten in ein externes Tool einspeist, dann ist das ganz klar Sabotage“, betont Brian Jackson, Forschungsleiter bei der Info-Tech Research Group. „Verzichtet jedoch jemand aus berechtigter Sorge um die Qualität auf den Einsatz von GenAI oder nutzt externe Tools, ohne vertrauliche Informationen weiterzugeben, ist das nicht als böswillig zu werten.“ Dennoch stimmt Jackson zu, dass es Fälle bewusster Sabotage gibt – und zwar oft aus einem naheliegenden Grund: Vorstände und Top-Manager priesen öffentlich den Einsatz von KI als Mittel zur Reduzierung der Belegschaft. „Wer wird denn motiviert sein, KI einzuführen, wenn er weiß, dass damit seine eigene Stelle wegfallen soll?“, fragt der Analyst. KI könne zunehmend Bereiche der Wissensarbeit automatisieren, die bislang menschliche Kreativität und Intelligenz erforderten. Bekämen Mitarbeiter das Gefühl, dass KI genau dort eingesetzt wird, wo sie gerne arbeiten oder wo ein menschlicher Beitrag besonders wichtig ist, komme es zu Widerstand. Der Analyst rät Unternehmen, auf Feedback der Mitarbeitenden zu hören, wenn es darum geht, wo KI tatsächlich Mehrwert schaffen kann – statt einen Top-down-Ansatz zu verfolgen. Das könne Mitarbeitende entfremden, weil sie das Gefühl haben, eine Technologie anzulernen, die sie selbst überflüssig macht. Jackson kritisiert außerdem, dass einige CEOs zur Unsicherheit rund um KI und Jobverluste beitragen, indem sie öffentlich behaupten, KI sei der Grund für Stellenstreichungen – auch wenn das gar nicht der Fall ist. „Führungskräfte versuchen manchmal, Entlassungen zu beschönigen, etwa, indem sie sagen: ‚Wir machen das nicht, weil das Unternehmen in Schwierigkeiten steckt. Nein, wir entlassen Leute, weil KI uns so effizient macht, dass wir nicht mehr so viele Menschen brauchen“, führt der Analyst der Info-Tech Research Group aus. „Anstatt zuzugeben, dass sie übermäßig viele Mitarbeiter eingestellt haben, sagen sie lieber: ‚Wir setzen KI ein, weil wir fortschrittlich und technikaffin sind.” Auch ein Datenanalyst, der die KI-Integration bei einer 80Milliarden Dollar schweren Einzelhandelskette betreut – und anonym bleiben möchte, berichtet von direkten „Widerstandserfahrungen“. Zwar sei „offene Sabotage selten“, doch er habe subtilere Formen des Widerstands beobachtet – etwa, dass Teams KI-Funktionen nicht ausschöpfen, wieder auf manuelle Prozesse zurückgreifen oder KI-generierte Empfehlungen ohne nachvollziehbaren Grund ignorieren. In manchen Fällen sei dies auf Ängste zurückzuführen: Mitarbeitende sorgten sich, dass mehr Automatisierung ihre Rolle schwächen oder ihre Fachkenntnisse entwerten könnte. „Doch was wie Widerstand aussieht, ist in Wahrheit ein Ruf nach Einbindung in den Veränderungsprozess“, so der Data Scientist: „Die Menschen wollen verstehen, wie KI ihre Arbeit unterstützt – nicht nur hören, dass sie ihnen aufgezwungen wird.“ „Sabotage wird zur Realität, wenn man Ängste ignoriert“, fügt Patrice Williams Lindo, CEO von Career Nomad, an. „Wenn die Unternehmensführung die Bedenken der Mitarbeitenden abtut, keine klaren Weiterbildungsperspektiven aufzeigt und KI-Einführungen von oben herab durchsetzt, kann es passieren, dass Mitarbeitende die Einführung bewusst verzögern oder absichtlich minderwertige Eingaben machen, um sich selbst zu schützen.“ Sabotage zu bekämpfen ist schwierig Der Umgang mit KI-Widerstand erfordert bessere Schulung und Kommunikation. Doch selbst diese Maßnahmen allein reichen nicht aus. Vor allem dann nicht, wenn Führungskräfte offen sagen, dass bei erfolgreicher KI-Strategie mit Entlassungen zu rechnen ist. Da sich KI-Sabotage wahrscheinlich nie vollständig vermeiden lässt, sind Unternehmen potenziell erheblichen Risiken und Haftungen ausgesetzt. Cameron Powell, Technologieanwalt bei der Kanzlei Gregor Wynne Arney, warnt: “Hat ein Unternehmen es versäumt, solche Vorgänge zu unterbinden oder sie sogar unbewusst begünstigt und dabei Gesetze verletzt wurden, kann es haftbar gemacht werden“, so Powell. Zudem könnten Mitarbeitende Informationen erzeugen, die das Unternehmen rechtlich binden, etwa durch unbeabsichtigte Vertragsabschlüsse oder verleumderische Aussagen über Dritte. Oder sie könnten Urheberrechte oder Marken Dritter verletzen, Betriebsgeheimnisse preisgeben – entweder des eigenen Unternehmens oder eines Partners. All das könne juristische Folgen für das Unternehmen haben. Der Anwalt weist außerdem auf das Risiko für die Mitarbeiter selbst hin: „Das Haftungsrisiko ist ein zentraler Aspekt, den Unternehmen ihren Mitarbeitenden in Schulungen deutlich machen sollten. Sabotage schadet nicht nur dem Unternehmen – sie kann auch dazu führen, dass Mitarbeitende zivil- oder strafrechtlich belangt werden, bis hin zu Geldstrafen oder Gefängnis.“ In einem historischen Kontext betrachtet, seien die Sabotageversuche gegen KI nichts Neues, führt indes Lars Nyman, Fractional CMO, an. „Das ist Luddismus in neuer Form. 1811 haben die Ludditen Webstühle zerstört, um ihre Arbeitsplätze zu retten. Heute äußert sich das in Sabotage auf Slack oder heimlichen Jailbreaks von Prompts. Die menschliche Natur hat sich nicht verändert – nur die Werkzeuge sind andere. Wenn Sie Ihren Mitarbeitern vermitteln, sie seien das wichtigste Kapital und sie anschließend durch ein LLM ersetzen, sollten Sie sich nicht wundern, wenn die Belegschaft den Stecker zieht oder das Modell mit Müll-Daten füttert“, konstatiert Nyman. (mb) 

Nach oben scrollen
×