srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?quality=50&strip=all 5760w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=444%2C250&quality=50&strip=all 444w” width=”1024″ height=”576″ sizes=”(max-width: 1024px) 100vw, 1024px”>Wie die Studie belegt, wird die Nutzung von KI-Tools noch immer kritisch beäugt. Nestor Rizhniak – Shutterstock.com Schon seit Jahrhunderten beschäftigen sich Menschen mit der Frage, ob sich der Einsatz von technischen Hilfsmitteln nachteilig auf die geistigen Fähigkeiten auswirkt. Nach Schreibwerkzeugen in der Antike sowie Taschenrechnern und PCs in der jüngeren Vergangenheit schüren nun auch KI-Tools am Arbeitsplatz diesen Verdacht – und das nicht ohne Folgen. Die sozialen Kosten der KI-Nutzung In einer aktuellen Studie hat die Duke University festgestellt, dass Mitarbeiter, die KI-Tools wie ChatGPT, Claude und Gemini bei der Arbeit verwenden, von Kollegen und Managern negativ in Hinblick auf ihre Kompetenz und Motivation beurteilt werden. Außerdem gibt es Hinweise darauf, dass diese sozialen Bewertungen die Beurteilung von Bewerbern auf offene Stellen beeinflussen. „Unsere Ergebnisse offenbaren ein Dilemma für Menschen, die den Einsatz von KI-Tools in Erwägung ziehen: Obwohl KI die Produktivität steigern kann, ist ihr Einsatz mit sozialen Kosten verbunden“, schreiben die Forscher von der Duke’s Fuqua School of Business im Fachblatt PNAS. Grundlage der Erkenntnisse waren vier Experimente mit insgesamt über 4.400 Teilnehmern. Im ersten Versuch untersuchte das Forscherteam, ob Mitarbeiter eher zögern würden, die Verwendung eines KI-Tools bei der Arbeit offenzulegen als die eines anderen (Nicht-KI-)Tools. Gleichzeitig wurden sie nach ihrer Einschätzung gefragt, wie sie extern für die Verwendung des jeweiligen Tools wahrgenommen werden. Das Ergebnis: Die (fiktiven) KI-Tool-Nutzer gingen davon aus, als fauler, ersetzbarer, weniger kompetent und weniger fleißig wahrgenommen zu werden als die Teilnehmer ohne KI-Tools. In einem zweiten Experiment wurde dann anhand von Beschreibungen überprüft, inwieweit sich die Außenwahrnehmung von KI- und Nicht-KI-Nutzern tatsächlich unterscheidet. Hier zeigte sich, dass die Teilnehmer diejenigen, die KI-Hilfe erhielten, durchweg als fauler, weniger kompetent, weniger fleißig, weniger unabhängig und weniger selbstbewusst bewerteten als diejenigen, die ähnliche Hilfe von Nicht-KI-Quellen oder überhaupt keine Hilfe erhielten. Im dritten Experiment stellten die Forscher eine Einstellungssituation nach. Dabei wurde festgestellt, dass Manager, die selbst seltener KI nutzen, den Kandidaten bevorzugten, der überhaupt keine KI nutzt. Manager, die häufiger KI nutzen, zogen hingegen den Kandidaten vor, der täglich KI nutzt – eventuell, weil sie sich der damit verbundenen möglichen Produktivitätsgewinne bewusst sind. Immerhin: Wie das abschließende Experiment ergab, sind die negativen Bewertungen der KI-Nutzer nicht in Stein gemeißelt, sondern situationsabhängig. Wenn KI nämlich als nützlich für die Aufgabe beschrieben wird, werden Kandidaten, die KI einsetzen, als für die Aufgabe besser geeignet wahrgenommen. Wenn KI für die Aufgabe jedoch nicht nützlich ist, werden Kandidaten, die KI verwenden, im Vergleich zu denen, die keine KI verwenden, bei der Aufgabenanpassung benachteiligt. KI-Diskriminierung nicht in Stein gemeißelt Die Forscher weisen allerdings darauf hin, dass die Verwendung von KI-Tools in ihrer Studie bewusst sehr allgemein gehalten wurde. Entsprechend könne sich die Wahrnehmung von Menschen, die KI nutzen, beispielsweise ändern, wenn das Werkzeug bestehende Arbeitsprozesse ergänze oder ganze Aufgaben automatisiere. Ebenso könnten Menschen weniger geneigt sein, diejenigen, die KI verwenden, negativ zu bewerten, wenn das KI-System in eine vertrautere Technologie eingebettet ist, etwa einem Textverarbeitungsprogramm. Außerdem schließen die Autoren nicht aus, dass sich die Wahrnehmung mit der Zeit ändert, wenn KI-Tools alltäglicher werden und sich die organisatorischen Normen für ihre Nutzung weiterentwickeln.
KI schadet Ihrer Karriere
srcset="https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?quality=50&strip=all 5760w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=444%2C250&quality=50&strip=all 444w" width="1024" height="576" sizes="(max-width: 1024px) 100vw, 1024px">Wie die Studie belegt, wird die Nutzung von KI-Tools noch immer kritisch beäugt. Nestor Rizhniak – Shutterstock.com Schon seit Jahrhunderten beschäftigen sich Menschen mit der Frage, ob sich der Einsatz von technischen Hilfsmitteln nachteilig auf die geistigen Fähigkeiten auswirkt. Nach Schreibwerkzeugen in der Antike sowie Taschenrechnern und PCs in der jüngeren Vergangenheit schüren nun auch KI-Tools am Arbeitsplatz diesen Verdacht – und das nicht ohne Folgen. Die sozialen Kosten der KI-Nutzung In einer aktuellen Studie hat die Duke University festgestellt, dass Mitarbeiter, die KI-Tools wie ChatGPT, Claude und Gemini bei der Arbeit verwenden, von Kollegen und Managern negativ in Hinblick auf ihre Kompetenz und Motivation beurteilt werden. Außerdem gibt es Hinweise darauf, dass diese sozialen Bewertungen die Beurteilung von Bewerbern auf offene Stellen beeinflussen. „Unsere Ergebnisse offenbaren ein Dilemma für Menschen, die den Einsatz von KI-Tools in Erwägung ziehen: Obwohl KI die Produktivität steigern kann, ist ihr Einsatz mit sozialen Kosten verbunden“, schreiben die Forscher von der Duke’s Fuqua School of Business im Fachblatt PNAS. Grundlage der Erkenntnisse waren vier Experimente mit insgesamt über 4.400 Teilnehmern. Im ersten Versuch untersuchte das Forscherteam, ob Mitarbeiter eher zögern würden, die Verwendung eines KI-Tools bei der Arbeit offenzulegen als die eines anderen (Nicht-KI-)Tools. Gleichzeitig wurden sie nach ihrer Einschätzung gefragt, wie sie extern für die Verwendung des jeweiligen Tools wahrgenommen werden. Das Ergebnis: Die (fiktiven) KI-Tool-Nutzer gingen davon aus, als fauler, ersetzbarer, weniger kompetent und weniger fleißig wahrgenommen zu werden als die Teilnehmer ohne KI-Tools. In einem zweiten Experiment wurde dann anhand von Beschreibungen überprüft, inwieweit sich die Außenwahrnehmung von KI- und Nicht-KI-Nutzern tatsächlich unterscheidet. Hier zeigte sich, dass die Teilnehmer diejenigen, die KI-Hilfe erhielten, durchweg als fauler, weniger kompetent, weniger fleißig, weniger unabhängig und weniger selbstbewusst bewerteten als diejenigen, die ähnliche Hilfe von Nicht-KI-Quellen oder überhaupt keine Hilfe erhielten. Im dritten Experiment stellten die Forscher eine Einstellungssituation nach. Dabei wurde festgestellt, dass Manager, die selbst seltener KI nutzen, den Kandidaten bevorzugten, der überhaupt keine KI nutzt. Manager, die häufiger KI nutzen, zogen hingegen den Kandidaten vor, der täglich KI nutzt – eventuell, weil sie sich der damit verbundenen möglichen Produktivitätsgewinne bewusst sind. Immerhin: Wie das abschließende Experiment ergab, sind die negativen Bewertungen der KI-Nutzer nicht in Stein gemeißelt, sondern situationsabhängig. Wenn KI nämlich als nützlich für die Aufgabe beschrieben wird, werden Kandidaten, die KI einsetzen, als für die Aufgabe besser geeignet wahrgenommen. Wenn KI für die Aufgabe jedoch nicht nützlich ist, werden Kandidaten, die KI verwenden, im Vergleich zu denen, die keine KI verwenden, bei der Aufgabenanpassung benachteiligt. KI-Diskriminierung nicht in Stein gemeißelt Die Forscher weisen allerdings darauf hin, dass die Verwendung von KI-Tools in ihrer Studie bewusst sehr allgemein gehalten wurde. Entsprechend könne sich die Wahrnehmung von Menschen, die KI nutzen, beispielsweise ändern, wenn das Werkzeug bestehende Arbeitsprozesse ergänze oder ganze Aufgaben automatisiere. Ebenso könnten Menschen weniger geneigt sein, diejenigen, die KI verwenden, negativ zu bewerten, wenn das KI-System in eine vertrautere Technologie eingebettet ist, etwa einem Textverarbeitungsprogramm. Außerdem schließen die Autoren nicht aus, dass sich die Wahrnehmung mit der Zeit ändert, wenn KI-Tools alltäglicher werden und sich die organisatorischen Normen für ihre Nutzung weiterentwickeln.
KI schadet Ihrer Karriere srcset="https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?quality=50&strip=all 5760w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=300%2C168&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=768%2C432&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=1024%2C576&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=1536%2C864&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=2048%2C1152&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=1240%2C697&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=150%2C84&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=854%2C480&quality=50&strip=all 854w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=640%2C360&quality=50&strip=all 640w, https://b2b-contenthub.com/wp-content/uploads/2025/05/shutterstock_573107023_16.jpg?resize=444%2C250&quality=50&strip=all 444w" width="1024" height="576" sizes="(max-width: 1024px) 100vw, 1024px">Wie die Studie belegt, wird die Nutzung von KI-Tools noch immer kritisch beäugt. Nestor Rizhniak – Shutterstock.com Schon seit Jahrhunderten beschäftigen sich Menschen mit der Frage, ob sich der Einsatz von technischen Hilfsmitteln nachteilig auf die geistigen Fähigkeiten auswirkt. Nach Schreibwerkzeugen in der Antike sowie Taschenrechnern und PCs in der jüngeren Vergangenheit schüren nun auch KI-Tools am Arbeitsplatz diesen Verdacht – und das nicht ohne Folgen. Die sozialen Kosten der KI-Nutzung In einer aktuellen Studie hat die Duke University festgestellt, dass Mitarbeiter, die KI-Tools wie ChatGPT, Claude und Gemini bei der Arbeit verwenden, von Kollegen und Managern negativ in Hinblick auf ihre Kompetenz und Motivation beurteilt werden. Außerdem gibt es Hinweise darauf, dass diese sozialen Bewertungen die Beurteilung von Bewerbern auf offene Stellen beeinflussen. „Unsere Ergebnisse offenbaren ein Dilemma für Menschen, die den Einsatz von KI-Tools in Erwägung ziehen: Obwohl KI die Produktivität steigern kann, ist ihr Einsatz mit sozialen Kosten verbunden“, schreiben die Forscher von der Duke’s Fuqua School of Business im Fachblatt PNAS. Grundlage der Erkenntnisse waren vier Experimente mit insgesamt über 4.400 Teilnehmern. Im ersten Versuch untersuchte das Forscherteam, ob Mitarbeiter eher zögern würden, die Verwendung eines KI-Tools bei der Arbeit offenzulegen als die eines anderen (Nicht-KI-)Tools. Gleichzeitig wurden sie nach ihrer Einschätzung gefragt, wie sie extern für die Verwendung des jeweiligen Tools wahrgenommen werden. Das Ergebnis: Die (fiktiven) KI-Tool-Nutzer gingen davon aus, als fauler, ersetzbarer, weniger kompetent und weniger fleißig wahrgenommen zu werden als die Teilnehmer ohne KI-Tools. In einem zweiten Experiment wurde dann anhand von Beschreibungen überprüft, inwieweit sich die Außenwahrnehmung von KI- und Nicht-KI-Nutzern tatsächlich unterscheidet. Hier zeigte sich, dass die Teilnehmer diejenigen, die KI-Hilfe erhielten, durchweg als fauler, weniger kompetent, weniger fleißig, weniger unabhängig und weniger selbstbewusst bewerteten als diejenigen, die ähnliche Hilfe von Nicht-KI-Quellen oder überhaupt keine Hilfe erhielten. Im dritten Experiment stellten die Forscher eine Einstellungssituation nach. Dabei wurde festgestellt, dass Manager, die selbst seltener KI nutzen, den Kandidaten bevorzugten, der überhaupt keine KI nutzt. Manager, die häufiger KI nutzen, zogen hingegen den Kandidaten vor, der täglich KI nutzt – eventuell, weil sie sich der damit verbundenen möglichen Produktivitätsgewinne bewusst sind. Immerhin: Wie das abschließende Experiment ergab, sind die negativen Bewertungen der KI-Nutzer nicht in Stein gemeißelt, sondern situationsabhängig. Wenn KI nämlich als nützlich für die Aufgabe beschrieben wird, werden Kandidaten, die KI einsetzen, als für die Aufgabe besser geeignet wahrgenommen. Wenn KI für die Aufgabe jedoch nicht nützlich ist, werden Kandidaten, die KI verwenden, im Vergleich zu denen, die keine KI verwenden, bei der Aufgabenanpassung benachteiligt. KI-Diskriminierung nicht in Stein gemeißelt Die Forscher weisen allerdings darauf hin, dass die Verwendung von KI-Tools in ihrer Studie bewusst sehr allgemein gehalten wurde. Entsprechend könne sich die Wahrnehmung von Menschen, die KI nutzen, beispielsweise ändern, wenn das Werkzeug bestehende Arbeitsprozesse ergänze oder ganze Aufgaben automatisiere. Ebenso könnten Menschen weniger geneigt sein, diejenigen, die KI verwenden, negativ zu bewerten, wenn das KI-System in eine vertrautere Technologie eingebettet ist, etwa einem Textverarbeitungsprogramm. Außerdem schließen die Autoren nicht aus, dass sich die Wahrnehmung mit der Zeit ändert, wenn KI-Tools alltäglicher werden und sich die organisatorischen Normen für ihre Nutzung weiterentwickeln.