Wer GenAI nutzt, ohne auf offizielle Firmenkanäle zurückzugreifen, und die Schatten-KI mit sensiblen Daten füttert, macht sich und seinen Betrieb für Cyberangriffe angreifbar. shutterstock – SObeR 9426 Schatten-IT ist eine Gefahr für Unternehmen und ein altbekanntes Phänomen, welches insbesondere durch seinen Wildwuchs für Probleme sorgt. Seit Künstliche Intelligenz (KI), insbesondere Generative KI (GenAI) immer beliebter wird, zeichnet sich hier ein ähnliches Szenario ab. Wie ein aktueller Bericht zeigt, wird die Technik in fast neun von zehn Fällen unter dem Radar der Unternehmens-IT genutzt. Diese Praxis birgt kritische Sicherheitsrisiken, so die Experten der Sicherheitsfirma LayerX. In ihrem Enterprise GenAI Data Security Report 2025, der hier gegen Nutzerdaten heruntergeladen werden kann, fanden die Autoren heraus, dass Unternehmen entweder bereits GenAI-Lösungen einsetzen, Strategien zur Integration dieser Tools in ihre Geschäftspläne evaluieren oder beides der Fall ist. GenAI als Datenleck Zu diesem Ergebnis kommen die Analysten aufgrund der ausgewerteten, realen Telemetriedaten von LayerXs Unternehmenskunden. Als Erweiterung im Browser hat das LayerX-Tool Einblick in die Nutzung von Schatten-SaaS. Das bedeutet, dass die Experten sehen können, wie Mitarbeiter Tools nutzen, die nicht von der IT-Abteilung des Unternehmens genehmigt wurden oder die nicht über unternehmenseigene Konten laufen. GenAI-Nutzung weniger verbreitet als erwartet Während der Hype um GenAI den Anschein erweckt, dass ganze Belegschaften ihre Büroabläufe auf GenAI umgestellt haben, stellt die Studie fest, dass dem nicht so ist. Nur ungefähr 15 Prozent der Nutzer greifen täglich auf GenAI-Tools zu, die Hälfte aller Beschäftigten nutzt diese Technologie immerhin jede zweite Woche. 39 Prozent der regelmäßigen Nutzer von GenAI-Tools, und damit die größte Gruppe, sind Softwareentwickler, wie die Studie herausfand. Das bedeutet, dass das größte Potenzial für Datenlecks durch GenAI unter anderem bei Quell- und proprietärem Code liegt. Gefahr für sensible Informationen durch Schatten-KI Fast drei Viertel der Mitarbeitenden greifen laut Studie auf eigene Kosten auf GenAI-Tools wie ChatGPT für Arbeitszwecke zurück. Wenn die Angestellten über Unternehmenskonten auf KI-Technik zugreifen, dann nur zu etwa 12 Prozent mit Single-Sign-Own (SSO). Infolgedessen sind fast 90 Prozent der GenAI-Nutzung für das Unternehmen unsichtbar. Dies macht die IT blind für „Schatten-KI“-Anwendungen und die nicht genehmigte Weitergabe von Unternehmensinformationen über KI-Tools. LayerX fand zudem heraus, dass Benutzer, die Daten an GenAI-Tools übermitteln, im Durchschnitt fast viermal pro Tag Unternehmensdaten einfügen. Dazu können Geschäftsinformationen, Kundendaten, Finanzpläne, Quellcode usw. gehören. Browser-Erweiterungen als Sicherheitslücke Ein weiteres Risiko sind KI-fähige Browser-Erweiterungen. Etwa 20 Prozent der Nutzenden haben solche Erweiterungen installiert, die oft hohe oder kritische Berechtigungen haben. Diese Erweiterungen könnten Daten an KI-Tools weiterleiten, ohne dass das Unternehmen dies bemerkt, so die Studie. Bewusstsein für KI-Risiken stärken Basierend auf den Studienergebnissen gibt LayerX Security konkrete Empfehlungen für Sicherheitsmanager, um den Risiken durch unkontrollierte GenAI-Nutzung zu begegnen: Zunächst sollten Unternehmen ein umfassendes Audit aller GenAI-Aktivitäten durchführen. Dies bedeutet, dass die Nutzung von KI-Tools auf Endgeräteebene überwacht wird, um Transparenz über den tatsächlichen Einsatz im Unternehmen zu schaffen. Ein weiterer wichtiger Schritt ist die proaktive Schulung der Mitarbeitenden. Nutzerinnen und Nutzer müssten über die potenziellen Sicherheitsrisiken der KI-Nutzung aufgeklärt werden. Auf diese Weise ließen sich unbewusste Datenlecks vermeiden und ein verantwortungsvoller Umgang mit KI-Tools fördern. Risikobasierte Sicherheitsstrategien statt pauschaler Verbote Statt generelle Verbote auszusprechen, empfiehlt LayerX zudem risikobasierte Einschränkungen. Unternehmen sollten adaptive Sicherheitsmaßnahmen implementieren, die den sicheren Einsatz von KI-Technologien ermöglichen, ohne dabei Innovationspotenzial zu blockieren. Ein oft übersehener, aber kritischer Bereich ist den Experten zufolge die Kontrolle von KI-fähigen Browser-Erweiterungen. Unternehmen sollten deren Nutzung genau überwachen und gegebenenfalls einschränken, um unerwünschte Datenabflüsse zu verhindern. Durch diese Maßnahmen könnten Sicherheitsmanager die Risiken durch Schatten-KI minimieren. Zusätzlich sollten sie laut der Studie so eine sichere Integration von GenAI in Unternehmensprozesse gewährleisten können.
Die unsichtbare Gefahr durch GenAI
Wer GenAI nutzt, ohne auf offizielle Firmenkanäle zurückzugreifen, und die Schatten-KI mit sensiblen Daten füttert, macht sich und seinen Betrieb für Cyberangriffe angreifbar. shutterstock – SObeR 9426 Schatten-IT ist eine Gefahr für Unternehmen und ein altbekanntes Phänomen, welches insbesondere durch seinen Wildwuchs für Probleme sorgt. Seit Künstliche Intelligenz (KI), insbesondere Generative KI (GenAI) immer beliebter wird, zeichnet sich hier ein ähnliches Szenario ab. Wie ein aktueller Bericht zeigt, wird die Technik in fast neun von zehn Fällen unter dem Radar der Unternehmens-IT genutzt. Diese Praxis birgt kritische Sicherheitsrisiken, so die Experten der Sicherheitsfirma LayerX. In ihrem Enterprise GenAI Data Security Report 2025, der hier gegen Nutzerdaten heruntergeladen werden kann, fanden die Autoren heraus, dass Unternehmen entweder bereits GenAI-Lösungen einsetzen, Strategien zur Integration dieser Tools in ihre Geschäftspläne evaluieren oder beides der Fall ist. GenAI als Datenleck Zu diesem Ergebnis kommen die Analysten aufgrund der ausgewerteten, realen Telemetriedaten von LayerXs Unternehmenskunden. Als Erweiterung im Browser hat das LayerX-Tool Einblick in die Nutzung von Schatten-SaaS. Das bedeutet, dass die Experten sehen können, wie Mitarbeiter Tools nutzen, die nicht von der IT-Abteilung des Unternehmens genehmigt wurden oder die nicht über unternehmenseigene Konten laufen. GenAI-Nutzung weniger verbreitet als erwartet Während der Hype um GenAI den Anschein erweckt, dass ganze Belegschaften ihre Büroabläufe auf GenAI umgestellt haben, stellt die Studie fest, dass dem nicht so ist. Nur ungefähr 15 Prozent der Nutzer greifen täglich auf GenAI-Tools zu, die Hälfte aller Beschäftigten nutzt diese Technologie immerhin jede zweite Woche. 39 Prozent der regelmäßigen Nutzer von GenAI-Tools, und damit die größte Gruppe, sind Softwareentwickler, wie die Studie herausfand. Das bedeutet, dass das größte Potenzial für Datenlecks durch GenAI unter anderem bei Quell- und proprietärem Code liegt. Gefahr für sensible Informationen durch Schatten-KI Fast drei Viertel der Mitarbeitenden greifen laut Studie auf eigene Kosten auf GenAI-Tools wie ChatGPT für Arbeitszwecke zurück. Wenn die Angestellten über Unternehmenskonten auf KI-Technik zugreifen, dann nur zu etwa 12 Prozent mit Single-Sign-Own (SSO). Infolgedessen sind fast 90 Prozent der GenAI-Nutzung für das Unternehmen unsichtbar. Dies macht die IT blind für „Schatten-KI“-Anwendungen und die nicht genehmigte Weitergabe von Unternehmensinformationen über KI-Tools. LayerX fand zudem heraus, dass Benutzer, die Daten an GenAI-Tools übermitteln, im Durchschnitt fast viermal pro Tag Unternehmensdaten einfügen. Dazu können Geschäftsinformationen, Kundendaten, Finanzpläne, Quellcode usw. gehören. Browser-Erweiterungen als Sicherheitslücke Ein weiteres Risiko sind KI-fähige Browser-Erweiterungen. Etwa 20 Prozent der Nutzenden haben solche Erweiterungen installiert, die oft hohe oder kritische Berechtigungen haben. Diese Erweiterungen könnten Daten an KI-Tools weiterleiten, ohne dass das Unternehmen dies bemerkt, so die Studie. Bewusstsein für KI-Risiken stärken Basierend auf den Studienergebnissen gibt LayerX Security konkrete Empfehlungen für Sicherheitsmanager, um den Risiken durch unkontrollierte GenAI-Nutzung zu begegnen: Zunächst sollten Unternehmen ein umfassendes Audit aller GenAI-Aktivitäten durchführen. Dies bedeutet, dass die Nutzung von KI-Tools auf Endgeräteebene überwacht wird, um Transparenz über den tatsächlichen Einsatz im Unternehmen zu schaffen. Ein weiterer wichtiger Schritt ist die proaktive Schulung der Mitarbeitenden. Nutzerinnen und Nutzer müssten über die potenziellen Sicherheitsrisiken der KI-Nutzung aufgeklärt werden. Auf diese Weise ließen sich unbewusste Datenlecks vermeiden und ein verantwortungsvoller Umgang mit KI-Tools fördern. Risikobasierte Sicherheitsstrategien statt pauschaler Verbote Statt generelle Verbote auszusprechen, empfiehlt LayerX zudem risikobasierte Einschränkungen. Unternehmen sollten adaptive Sicherheitsmaßnahmen implementieren, die den sicheren Einsatz von KI-Technologien ermöglichen, ohne dabei Innovationspotenzial zu blockieren. Ein oft übersehener, aber kritischer Bereich ist den Experten zufolge die Kontrolle von KI-fähigen Browser-Erweiterungen. Unternehmen sollten deren Nutzung genau überwachen und gegebenenfalls einschränken, um unerwünschte Datenabflüsse zu verhindern. Durch diese Maßnahmen könnten Sicherheitsmanager die Risiken durch Schatten-KI minimieren. Zusätzlich sollten sie laut der Studie so eine sichere Integration von GenAI in Unternehmensprozesse gewährleisten können.
Die unsichtbare Gefahr durch GenAI Wer GenAI nutzt, ohne auf offizielle Firmenkanäle zurückzugreifen, und die Schatten-KI mit sensiblen Daten füttert, macht sich und seinen Betrieb für Cyberangriffe angreifbar. shutterstock – SObeR 9426 Schatten-IT ist eine Gefahr für Unternehmen und ein altbekanntes Phänomen, welches insbesondere durch seinen Wildwuchs für Probleme sorgt. Seit Künstliche Intelligenz (KI), insbesondere Generative KI (GenAI) immer beliebter wird, zeichnet sich hier ein ähnliches Szenario ab. Wie ein aktueller Bericht zeigt, wird die Technik in fast neun von zehn Fällen unter dem Radar der Unternehmens-IT genutzt. Diese Praxis birgt kritische Sicherheitsrisiken, so die Experten der Sicherheitsfirma LayerX. In ihrem Enterprise GenAI Data Security Report 2025, der hier gegen Nutzerdaten heruntergeladen werden kann, fanden die Autoren heraus, dass Unternehmen entweder bereits GenAI-Lösungen einsetzen, Strategien zur Integration dieser Tools in ihre Geschäftspläne evaluieren oder beides der Fall ist. GenAI als Datenleck Zu diesem Ergebnis kommen die Analysten aufgrund der ausgewerteten, realen Telemetriedaten von LayerXs Unternehmenskunden. Als Erweiterung im Browser hat das LayerX-Tool Einblick in die Nutzung von Schatten-SaaS. Das bedeutet, dass die Experten sehen können, wie Mitarbeiter Tools nutzen, die nicht von der IT-Abteilung des Unternehmens genehmigt wurden oder die nicht über unternehmenseigene Konten laufen. GenAI-Nutzung weniger verbreitet als erwartet Während der Hype um GenAI den Anschein erweckt, dass ganze Belegschaften ihre Büroabläufe auf GenAI umgestellt haben, stellt die Studie fest, dass dem nicht so ist. Nur ungefähr 15 Prozent der Nutzer greifen täglich auf GenAI-Tools zu, die Hälfte aller Beschäftigten nutzt diese Technologie immerhin jede zweite Woche. 39 Prozent der regelmäßigen Nutzer von GenAI-Tools, und damit die größte Gruppe, sind Softwareentwickler, wie die Studie herausfand. Das bedeutet, dass das größte Potenzial für Datenlecks durch GenAI unter anderem bei Quell- und proprietärem Code liegt. Gefahr für sensible Informationen durch Schatten-KI Fast drei Viertel der Mitarbeitenden greifen laut Studie auf eigene Kosten auf GenAI-Tools wie ChatGPT für Arbeitszwecke zurück. Wenn die Angestellten über Unternehmenskonten auf KI-Technik zugreifen, dann nur zu etwa 12 Prozent mit Single-Sign-Own (SSO). Infolgedessen sind fast 90 Prozent der GenAI-Nutzung für das Unternehmen unsichtbar. Dies macht die IT blind für „Schatten-KI“-Anwendungen und die nicht genehmigte Weitergabe von Unternehmensinformationen über KI-Tools. LayerX fand zudem heraus, dass Benutzer, die Daten an GenAI-Tools übermitteln, im Durchschnitt fast viermal pro Tag Unternehmensdaten einfügen. Dazu können Geschäftsinformationen, Kundendaten, Finanzpläne, Quellcode usw. gehören. Browser-Erweiterungen als Sicherheitslücke Ein weiteres Risiko sind KI-fähige Browser-Erweiterungen. Etwa 20 Prozent der Nutzenden haben solche Erweiterungen installiert, die oft hohe oder kritische Berechtigungen haben. Diese Erweiterungen könnten Daten an KI-Tools weiterleiten, ohne dass das Unternehmen dies bemerkt, so die Studie. Bewusstsein für KI-Risiken stärken Basierend auf den Studienergebnissen gibt LayerX Security konkrete Empfehlungen für Sicherheitsmanager, um den Risiken durch unkontrollierte GenAI-Nutzung zu begegnen: Zunächst sollten Unternehmen ein umfassendes Audit aller GenAI-Aktivitäten durchführen. Dies bedeutet, dass die Nutzung von KI-Tools auf Endgeräteebene überwacht wird, um Transparenz über den tatsächlichen Einsatz im Unternehmen zu schaffen. Ein weiterer wichtiger Schritt ist die proaktive Schulung der Mitarbeitenden. Nutzerinnen und Nutzer müssten über die potenziellen Sicherheitsrisiken der KI-Nutzung aufgeklärt werden. Auf diese Weise ließen sich unbewusste Datenlecks vermeiden und ein verantwortungsvoller Umgang mit KI-Tools fördern. Risikobasierte Sicherheitsstrategien statt pauschaler Verbote Statt generelle Verbote auszusprechen, empfiehlt LayerX zudem risikobasierte Einschränkungen. Unternehmen sollten adaptive Sicherheitsmaßnahmen implementieren, die den sicheren Einsatz von KI-Technologien ermöglichen, ohne dabei Innovationspotenzial zu blockieren. Ein oft übersehener, aber kritischer Bereich ist den Experten zufolge die Kontrolle von KI-fähigen Browser-Erweiterungen. Unternehmen sollten deren Nutzung genau überwachen und gegebenenfalls einschränken, um unerwünschte Datenabflüsse zu verhindern. Durch diese Maßnahmen könnten Sicherheitsmanager die Risiken durch Schatten-KI minimieren. Zusätzlich sollten sie laut der Studie so eine sichere Integration von GenAI in Unternehmensprozesse gewährleisten können.