srcset=”https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?quality=50&strip=all 7008w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=300%2C200&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=768%2C512&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=1024%2C683&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=1536%2C1024&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=2048%2C1365&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=1240%2C826&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=150%2C100&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=1046%2C697&quality=50&strip=all 1046w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=252%2C168&quality=50&strip=all 252w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=126%2C84&quality=50&strip=all 126w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=720%2C480&quality=50&strip=all 720w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=540%2C360&quality=50&strip=all 540w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=375%2C250&quality=50&strip=all 375w” width=”1024″ height=”683″ sizes=”(max-width: 1024px) 100vw, 1024px”>Unternehmen müssen bei der KI-Nutzung die verschiedenen Vorteile gegen inhärente rechtliche Gefahren abwägen.Sansoen Saengsakaorat – shutterstock.com Die Verlockung, mit wenigen Klicks Präsentationen oder Texte generieren zu lassen, ist groß – doch birgt dies erhebliche rechtliche und sicherheitsrelevante Risiken. Wenn Mitarbeitende vertrauliche oder personenbezogene Daten in externe KI-Systeme eingeben, drohen Datenschutzverstöße, der Verlust von Geschäftsgeheimnissen und IT-Sicherheitsprobleme. Unternehmen müssen daher technologische Innovationen stets mit ihren rechtlichen und organisatorischen Pflichten in Einklang bringen. Dass Führungskräfte rechtliche Risiken aus dem KI-Einsatz scheuen, zeigt sich in einer aktuellen Untersuchung der COMPUTERWOCHE. So wurden Studienteilnehmer, deren Unternehmen sich dem Bekunden nach „nicht ausreichend“ um KI kümmern, zu den Gründen befragt. Auf den Plätzen zwei, drei und fünf landeten dabei die Punkte „IT-Sicherheitsrisiken“, „Rechtliche Risiken“ beziehungsweise „Anforderungen an den Datenschutz“. Vor allem Führungskräfte aus den Fachbereichen verwiesen auf die Bremsklötze, während das Top-Management den Aspekt des Datenschutzes deutlich gelassener als die allgemeinen rechtlichen Risiken bewertete – dabei gibt es gerade hier eine Vielzahl zu lösender Aufgaben für den KI-Einsatz. Datenschutzrechtliche Herausforderungen Sobald personenbezogene Daten verarbeitet werden, greift die Datenschutz-Grundverordnung (DSGVO). Dies stellt Unternehmen vor mehrere Herausforderungen: So dürfen Daten nur für zuvor eindeutig festgelegte Zwecke verarbeitet werden (Zweckbindung). Das kann problematisch werden, wenn KI-Anbieter diese Daten weiterverwenden, um ihre Systeme zu verbessern. Transparenzpflichten verlangen zudem, dass Betroffene nachvollziehen können, was mit ihren Daten geschieht. Bei Blackbox-Systemen wie Large Language Models (LLMs) ist das jedoch oft kaum möglich. Umgekehrt stehen Unternehmen vor der Herausforderung, die Rechte der Personen, deren Daten in einem KI-System verarbeitet werden, gemäß Art. 15 ff. DSGVO wahren zu müssen. Die Umsetzung von Auskunfts- oder Löschpflichten ist bei KI-Systemen von Drittanbietern jedoch häufig schwierig, da es entweder an den notwendigen Informationen oder an der technischen Umsetzbarkeit fehlen kann. Hinzu kommt das Problem des Drittstaatentransfers: Viele KI-Anbieter sitzen in den USA. Ohne zusätzliche Garantien, wie die Zertifizierung unter dem Data-Privacy-Framework oder den Abschluss von EU-Standardvertragsklauseln, ist ein Datentransfer dorthin unzulässig. Schließlich erfordert der Einsatz von KI-Lösungen eine Abschätzung der Folgen für den Datenschutz nach Art. 35 DSGVO. Speziell bei Cloud-Tools wie ChatGPT oder Microsoft Copilot entsteht so ein großer Dokumentationsaufwand. Vor diesem Hintergrund wirkt die Reaktion der Unternehmen verständlich, wenn in der aktuellen KI-Studie der COMPUTERWOCHE 51 Prozent der Befragten der Aussage zustimmen, dass ihr Unternehmen beim KI-Einsatz auf lokale Lösungen setzt, „um Datenschutzthemen im Cloud-Kontext komplett zu vermeiden“. Hinzu kommt auch die wichtige Frage der Datensicherheit. 51 Prozent der Befragten stimmen der Aussage zu, dass ihr Unternehmen beim KI-Einsatz auf lokale Lösungen setzt, „um Datenschutzthemen im Cloud-Kontext komplett zu vermeiden“. Research Services: Daniela Petrini Gefahr für Geschäftsgeheimnisse Auch jenseits des Datenschutzes bestehen erhebliche Risiken – insbesondere im Bereich des Schutzes von Geschäftsgeheimnissen. Nach dem Geschäftsgeheimnisgesetz (GeschGehG) verlieren vertrauliche Informationen ihren rechtlichen Schutz, wenn sie nicht durch angemessene Geheimhaltungsmaßnahmen gesichert werden (§ 2 Nr. 1 GeschGehG). Wer also interne Daten ohne technische oder organisatorische Sicherung in ein öffentlich zugängliches KI-System eingibt, riskiert den Verlust des zivilrechtlichen Schutzes dieser Informationen – etwa Unterlassungs-, Schadensersatz- oder Herausgabeansprüche nach dem GeschGehG. NIS2-Richtlinie und IT-Sicherheit Mit der Umsetzung der NIS2-Richtlinie in nationales Recht werden die Anforderungen an die Cybersicherheit für viele Unternehmen, die in kritischen Sektoren wie Energie, Gesundheit oder digitale Infrastruktur tätig sind, deutlich steigen. Der Einsatz Cloud-basierter KI-Tools birgt das Risiko von Sicherheitslücken wie Prompt Injections oder Data Leakage sowie für Lieferkettenrisiken. Die NIS2-Regelungen verlangen unter anderem ein umfassendes Risikomanagement, technische und organisatorische Schutzmaßnahmen, Meldepflichten bei Sicherheitsvorfällen und die Absicherung der Lieferkette. Der Einsatz von KI muss daher systematisch in das Sicherheitskonzept eines Unternehmens eingebettet werden. Compliance-Pflichten der Unternehmensleitung Die Unternehmensleitung trägt eine besondere Verantwortung: Gemäß § 91 Abs. 2 AktG beziehungsweise § 43 GmbHG muss sie Risiken erkennen und geeignete Präventionsmaßnahmen ergreifen. Dazu zählen auch Sorgfaltspflichten bei Auswahl und Einführung von KI-Systemen sowie Überwachungs-, Organisations- und Dokumentationspflichten gegenüber Mitarbeitenden und zur Systemnutzung. Untätigkeit kann zu persönlicher Haftung führen, im Extremfall drohen Bußgelder wegen Aufsichtspflichtverletzung (§ 130 OWiG). Ein unkontrollierter KI-Einsatz kann somit schnell zur Haftungsfalle werden. KI für Mitarbeiter sperren Auch hierauf geht die Studie zur KI in Unternehmen näher ein. Demnach ist KI in gut jedem vierten Unternehmen für jeden Mitarbeitenden vollkommen frei nutzbar. Lediglich gut 15 Prozent der Studienteilnehmer beschränken die tatsächliche KI-Nutzung auf ausgewiesene KI-Projekte. Dazwischen liegen verschiedene Stufen der Sperrung des KI-Zugangs beziehungsweise der Arbeit mit vorgeschriebenen KI-Tools. Bei den Gründen für Limitierungen rangieren die IT-Sicherheit, rechtliche Risiken sowie Anforderungen an die Datensicherheit beziehungsweise an den Datenschutz auf den vorderen Rängen. Bei den Studienteilnehmern aus dem Top-Management liegen die rechtlichen Risiken klar auf dem ersten Platz. Lediglich gut 15 Prozent der Studienteilnehmer beschränken die tatsächliche KI-Nutzung auf ausgewiesene KI-Projekte. Research Services: Daniela Petrini Handlungsempfehlungen für Unternehmen Für einen sicheren und rechtskonformen Umgang mit KI empfiehlt sich ein strukturiertes Vorgehen: 1. Eine klare Governance für Auswahl, Nutzung und Kontrolle von KI-Systemen etablieren. 2. Datenschutz und IT-Sicherheit frühzeitig integrieren, indem die entsprechenden Fachabteilungen eingebunden werden. 3. Mitarbeitende regelmäßig zu Datenschutz-, Geheimnisschutz- und Sicherheitsrisiken schulen. 4. Geeignete technische Lösungen auswählen – etwa lokal betriebene oder datenschutzkonforme Modelle mit begrenztem Datenabfluss. So lässt sich der Innovationsvorteil der KI nutzen, ohne unnötige Sicherheits- oder Rechtsrisiken einzugehen. Keine KI ist auch keine Lösung Klar ist: KI kann einen echten Wettbewerbsvorteil bieten – vorausgesetzt, sie wird verantwortungsvoll eingesetzt. Unternehmen müssen den Spagat zwischen Effizienzgewinn und Kontrolle meistern: Eindeutige Regeln, technisch-organisatorische Schutzmaßnahmen sowie Sensibilisierung auf allen Ebenen sind dazu unerlässlich. Wer KI-Governance ernst nimmt, schafft Rechtssicherheit, stärkt das Vertrauen seiner Stakeholder und bleibt langfristig erfolgreich. Und passend dazu stimmen laut COMPUTERWOCHE-Studie 54,5 Prozent der Befragten der Aussage zu: „Das größte unternehmerische Risiko durch KI entsteht dadurch, dass man sich nicht rechtzeitig und adäquat mit den (Einsatz-)Möglichkeiten von KI auseinandersetzt.“ Die neue Studie “KI in Unternehmen 2025” von CIO Research Services Research Services: Daniela Petrini Studiensteckbrief Herausgeber: CIO, CSO und COMPUTERWOCHE Studienpartner: HP Deutschland GmbH Grundgesamtheit: Oberste (IT-)Verantwortliche in Unternehmen ab 100 Beschäftigten in der DACH-Region aus C-Level (CEO, CFO, COO etc.), IT-C-Level (CIO, CTO, CDO etc.), IT-Bereich (leitend) und Fachbereichen Teilnehmergenerierung: Persönliche E-Mail-Einladung über die Entscheiderdatenbank von CIO, CSO und COMPUTERWOCHE sowie – zur Erfüllung von Quotenvorgaben – über externe Online-Access-Panels Gesamtstichprobe: 316 abgeschlossene und qualifizierte Interviews Untersuchungszeitraum: 13. März bis 6. April 2025 Methode: Online-Umfrage (CAWI) Fragebogenentwicklung & Durchführung: Custom Research Team von CIO, CSO und Computerwoche in Abstimmung mit den Studienpartnern
Verantwortungsbewusster KI-Einsatz – ein schmaler Grat
srcset="https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?quality=50&strip=all 7008w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=300%2C200&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=768%2C512&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=1024%2C683&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=1536%2C1024&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=2048%2C1365&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=1240%2C826&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=150%2C100&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=1046%2C697&quality=50&strip=all 1046w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=252%2C168&quality=50&strip=all 252w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=126%2C84&quality=50&strip=all 126w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=720%2C480&quality=50&strip=all 720w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=540%2C360&quality=50&strip=all 540w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=375%2C250&quality=50&strip=all 375w" width="1024" height="683" sizes="(max-width: 1024px) 100vw, 1024px">Unternehmen müssen bei der KI-Nutzung die verschiedenen Vorteile gegen inhärente rechtliche Gefahren abwägen.Sansoen Saengsakaorat – shutterstock.com Die Verlockung, mit wenigen Klicks Präsentationen oder Texte generieren zu lassen, ist groß – doch birgt dies erhebliche rechtliche und sicherheitsrelevante Risiken. Wenn Mitarbeitende vertrauliche oder personenbezogene Daten in externe KI-Systeme eingeben, drohen Datenschutzverstöße, der Verlust von Geschäftsgeheimnissen und IT-Sicherheitsprobleme. Unternehmen müssen daher technologische Innovationen stets mit ihren rechtlichen und organisatorischen Pflichten in Einklang bringen. Dass Führungskräfte rechtliche Risiken aus dem KI-Einsatz scheuen, zeigt sich in einer aktuellen Untersuchung der COMPUTERWOCHE. So wurden Studienteilnehmer, deren Unternehmen sich dem Bekunden nach „nicht ausreichend“ um KI kümmern, zu den Gründen befragt. Auf den Plätzen zwei, drei und fünf landeten dabei die Punkte „IT-Sicherheitsrisiken“, „Rechtliche Risiken“ beziehungsweise „Anforderungen an den Datenschutz“. Vor allem Führungskräfte aus den Fachbereichen verwiesen auf die Bremsklötze, während das Top-Management den Aspekt des Datenschutzes deutlich gelassener als die allgemeinen rechtlichen Risiken bewertete – dabei gibt es gerade hier eine Vielzahl zu lösender Aufgaben für den KI-Einsatz. Datenschutzrechtliche Herausforderungen Sobald personenbezogene Daten verarbeitet werden, greift die Datenschutz-Grundverordnung (DSGVO). Dies stellt Unternehmen vor mehrere Herausforderungen: So dürfen Daten nur für zuvor eindeutig festgelegte Zwecke verarbeitet werden (Zweckbindung). Das kann problematisch werden, wenn KI-Anbieter diese Daten weiterverwenden, um ihre Systeme zu verbessern. Transparenzpflichten verlangen zudem, dass Betroffene nachvollziehen können, was mit ihren Daten geschieht. Bei Blackbox-Systemen wie Large Language Models (LLMs) ist das jedoch oft kaum möglich. Umgekehrt stehen Unternehmen vor der Herausforderung, die Rechte der Personen, deren Daten in einem KI-System verarbeitet werden, gemäß Art. 15 ff. DSGVO wahren zu müssen. Die Umsetzung von Auskunfts- oder Löschpflichten ist bei KI-Systemen von Drittanbietern jedoch häufig schwierig, da es entweder an den notwendigen Informationen oder an der technischen Umsetzbarkeit fehlen kann. Hinzu kommt das Problem des Drittstaatentransfers: Viele KI-Anbieter sitzen in den USA. Ohne zusätzliche Garantien, wie die Zertifizierung unter dem Data-Privacy-Framework oder den Abschluss von EU-Standardvertragsklauseln, ist ein Datentransfer dorthin unzulässig. Schließlich erfordert der Einsatz von KI-Lösungen eine Abschätzung der Folgen für den Datenschutz nach Art. 35 DSGVO. Speziell bei Cloud-Tools wie ChatGPT oder Microsoft Copilot entsteht so ein großer Dokumentationsaufwand. Vor diesem Hintergrund wirkt die Reaktion der Unternehmen verständlich, wenn in der aktuellen KI-Studie der COMPUTERWOCHE 51 Prozent der Befragten der Aussage zustimmen, dass ihr Unternehmen beim KI-Einsatz auf lokale Lösungen setzt, „um Datenschutzthemen im Cloud-Kontext komplett zu vermeiden“. Hinzu kommt auch die wichtige Frage der Datensicherheit. 51 Prozent der Befragten stimmen der Aussage zu, dass ihr Unternehmen beim KI-Einsatz auf lokale Lösungen setzt, „um Datenschutzthemen im Cloud-Kontext komplett zu vermeiden“. Research Services: Daniela Petrini Gefahr für Geschäftsgeheimnisse Auch jenseits des Datenschutzes bestehen erhebliche Risiken – insbesondere im Bereich des Schutzes von Geschäftsgeheimnissen. Nach dem Geschäftsgeheimnisgesetz (GeschGehG) verlieren vertrauliche Informationen ihren rechtlichen Schutz, wenn sie nicht durch angemessene Geheimhaltungsmaßnahmen gesichert werden (§ 2 Nr. 1 GeschGehG). Wer also interne Daten ohne technische oder organisatorische Sicherung in ein öffentlich zugängliches KI-System eingibt, riskiert den Verlust des zivilrechtlichen Schutzes dieser Informationen – etwa Unterlassungs-, Schadensersatz- oder Herausgabeansprüche nach dem GeschGehG. NIS2-Richtlinie und IT-Sicherheit Mit der Umsetzung der NIS2-Richtlinie in nationales Recht werden die Anforderungen an die Cybersicherheit für viele Unternehmen, die in kritischen Sektoren wie Energie, Gesundheit oder digitale Infrastruktur tätig sind, deutlich steigen. Der Einsatz Cloud-basierter KI-Tools birgt das Risiko von Sicherheitslücken wie Prompt Injections oder Data Leakage sowie für Lieferkettenrisiken. Die NIS2-Regelungen verlangen unter anderem ein umfassendes Risikomanagement, technische und organisatorische Schutzmaßnahmen, Meldepflichten bei Sicherheitsvorfällen und die Absicherung der Lieferkette. Der Einsatz von KI muss daher systematisch in das Sicherheitskonzept eines Unternehmens eingebettet werden. Compliance-Pflichten der Unternehmensleitung Die Unternehmensleitung trägt eine besondere Verantwortung: Gemäß § 91 Abs. 2 AktG beziehungsweise § 43 GmbHG muss sie Risiken erkennen und geeignete Präventionsmaßnahmen ergreifen. Dazu zählen auch Sorgfaltspflichten bei Auswahl und Einführung von KI-Systemen sowie Überwachungs-, Organisations- und Dokumentationspflichten gegenüber Mitarbeitenden und zur Systemnutzung. Untätigkeit kann zu persönlicher Haftung führen, im Extremfall drohen Bußgelder wegen Aufsichtspflichtverletzung (§ 130 OWiG). Ein unkontrollierter KI-Einsatz kann somit schnell zur Haftungsfalle werden. KI für Mitarbeiter sperren Auch hierauf geht die Studie zur KI in Unternehmen näher ein. Demnach ist KI in gut jedem vierten Unternehmen für jeden Mitarbeitenden vollkommen frei nutzbar. Lediglich gut 15 Prozent der Studienteilnehmer beschränken die tatsächliche KI-Nutzung auf ausgewiesene KI-Projekte. Dazwischen liegen verschiedene Stufen der Sperrung des KI-Zugangs beziehungsweise der Arbeit mit vorgeschriebenen KI-Tools. Bei den Gründen für Limitierungen rangieren die IT-Sicherheit, rechtliche Risiken sowie Anforderungen an die Datensicherheit beziehungsweise an den Datenschutz auf den vorderen Rängen. Bei den Studienteilnehmern aus dem Top-Management liegen die rechtlichen Risiken klar auf dem ersten Platz. Lediglich gut 15 Prozent der Studienteilnehmer beschränken die tatsächliche KI-Nutzung auf ausgewiesene KI-Projekte. Research Services: Daniela Petrini Handlungsempfehlungen für Unternehmen Für einen sicheren und rechtskonformen Umgang mit KI empfiehlt sich ein strukturiertes Vorgehen: 1. Eine klare Governance für Auswahl, Nutzung und Kontrolle von KI-Systemen etablieren. 2. Datenschutz und IT-Sicherheit frühzeitig integrieren, indem die entsprechenden Fachabteilungen eingebunden werden. 3. Mitarbeitende regelmäßig zu Datenschutz-, Geheimnisschutz- und Sicherheitsrisiken schulen. 4. Geeignete technische Lösungen auswählen – etwa lokal betriebene oder datenschutzkonforme Modelle mit begrenztem Datenabfluss. So lässt sich der Innovationsvorteil der KI nutzen, ohne unnötige Sicherheits- oder Rechtsrisiken einzugehen. Keine KI ist auch keine Lösung Klar ist: KI kann einen echten Wettbewerbsvorteil bieten – vorausgesetzt, sie wird verantwortungsvoll eingesetzt. Unternehmen müssen den Spagat zwischen Effizienzgewinn und Kontrolle meistern: Eindeutige Regeln, technisch-organisatorische Schutzmaßnahmen sowie Sensibilisierung auf allen Ebenen sind dazu unerlässlich. Wer KI-Governance ernst nimmt, schafft Rechtssicherheit, stärkt das Vertrauen seiner Stakeholder und bleibt langfristig erfolgreich. Und passend dazu stimmen laut COMPUTERWOCHE-Studie 54,5 Prozent der Befragten der Aussage zu: „Das größte unternehmerische Risiko durch KI entsteht dadurch, dass man sich nicht rechtzeitig und adäquat mit den (Einsatz-)Möglichkeiten von KI auseinandersetzt.“ Die neue Studie “KI in Unternehmen 2025” von CIO Research Services Research Services: Daniela Petrini Studiensteckbrief Herausgeber: CIO, CSO und COMPUTERWOCHE Studienpartner: HP Deutschland GmbH Grundgesamtheit: Oberste (IT-)Verantwortliche in Unternehmen ab 100 Beschäftigten in der DACH-Region aus C-Level (CEO, CFO, COO etc.), IT-C-Level (CIO, CTO, CDO etc.), IT-Bereich (leitend) und Fachbereichen Teilnehmergenerierung: Persönliche E-Mail-Einladung über die Entscheiderdatenbank von CIO, CSO und COMPUTERWOCHE sowie – zur Erfüllung von Quotenvorgaben – über externe Online-Access-Panels Gesamtstichprobe: 316 abgeschlossene und qualifizierte Interviews Untersuchungszeitraum: 13. März bis 6. April 2025 Methode: Online-Umfrage (CAWI) Fragebogenentwicklung & Durchführung: Custom Research Team von CIO, CSO und Computerwoche in Abstimmung mit den Studienpartnern
Verantwortungsbewusster KI-Einsatz – ein schmaler Grat srcset="https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?quality=50&strip=all 7008w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=300%2C200&quality=50&strip=all 300w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=768%2C512&quality=50&strip=all 768w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=1024%2C683&quality=50&strip=all 1024w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=1536%2C1024&quality=50&strip=all 1536w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=2048%2C1365&quality=50&strip=all 2048w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=1240%2C826&quality=50&strip=all 1240w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=150%2C100&quality=50&strip=all 150w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=1046%2C697&quality=50&strip=all 1046w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=252%2C168&quality=50&strip=all 252w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=126%2C84&quality=50&strip=all 126w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=720%2C480&quality=50&strip=all 720w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=540%2C360&quality=50&strip=all 540w, https://b2b-contenthub.com/wp-content/uploads/2025/07/shutterstock_2345949869.jpg?resize=375%2C250&quality=50&strip=all 375w" width="1024" height="683" sizes="(max-width: 1024px) 100vw, 1024px">Unternehmen müssen bei der KI-Nutzung die verschiedenen Vorteile gegen inhärente rechtliche Gefahren abwägen.Sansoen Saengsakaorat – shutterstock.com Die Verlockung, mit wenigen Klicks Präsentationen oder Texte generieren zu lassen, ist groß – doch birgt dies erhebliche rechtliche und sicherheitsrelevante Risiken. Wenn Mitarbeitende vertrauliche oder personenbezogene Daten in externe KI-Systeme eingeben, drohen Datenschutzverstöße, der Verlust von Geschäftsgeheimnissen und IT-Sicherheitsprobleme. Unternehmen müssen daher technologische Innovationen stets mit ihren rechtlichen und organisatorischen Pflichten in Einklang bringen. Dass Führungskräfte rechtliche Risiken aus dem KI-Einsatz scheuen, zeigt sich in einer aktuellen Untersuchung der COMPUTERWOCHE. So wurden Studienteilnehmer, deren Unternehmen sich dem Bekunden nach „nicht ausreichend“ um KI kümmern, zu den Gründen befragt. Auf den Plätzen zwei, drei und fünf landeten dabei die Punkte „IT-Sicherheitsrisiken“, „Rechtliche Risiken“ beziehungsweise „Anforderungen an den Datenschutz“. Vor allem Führungskräfte aus den Fachbereichen verwiesen auf die Bremsklötze, während das Top-Management den Aspekt des Datenschutzes deutlich gelassener als die allgemeinen rechtlichen Risiken bewertete – dabei gibt es gerade hier eine Vielzahl zu lösender Aufgaben für den KI-Einsatz. Datenschutzrechtliche Herausforderungen Sobald personenbezogene Daten verarbeitet werden, greift die Datenschutz-Grundverordnung (DSGVO). Dies stellt Unternehmen vor mehrere Herausforderungen: So dürfen Daten nur für zuvor eindeutig festgelegte Zwecke verarbeitet werden (Zweckbindung). Das kann problematisch werden, wenn KI-Anbieter diese Daten weiterverwenden, um ihre Systeme zu verbessern. Transparenzpflichten verlangen zudem, dass Betroffene nachvollziehen können, was mit ihren Daten geschieht. Bei Blackbox-Systemen wie Large Language Models (LLMs) ist das jedoch oft kaum möglich. Umgekehrt stehen Unternehmen vor der Herausforderung, die Rechte der Personen, deren Daten in einem KI-System verarbeitet werden, gemäß Art. 15 ff. DSGVO wahren zu müssen. Die Umsetzung von Auskunfts- oder Löschpflichten ist bei KI-Systemen von Drittanbietern jedoch häufig schwierig, da es entweder an den notwendigen Informationen oder an der technischen Umsetzbarkeit fehlen kann. Hinzu kommt das Problem des Drittstaatentransfers: Viele KI-Anbieter sitzen in den USA. Ohne zusätzliche Garantien, wie die Zertifizierung unter dem Data-Privacy-Framework oder den Abschluss von EU-Standardvertragsklauseln, ist ein Datentransfer dorthin unzulässig. Schließlich erfordert der Einsatz von KI-Lösungen eine Abschätzung der Folgen für den Datenschutz nach Art. 35 DSGVO. Speziell bei Cloud-Tools wie ChatGPT oder Microsoft Copilot entsteht so ein großer Dokumentationsaufwand. Vor diesem Hintergrund wirkt die Reaktion der Unternehmen verständlich, wenn in der aktuellen KI-Studie der COMPUTERWOCHE 51 Prozent der Befragten der Aussage zustimmen, dass ihr Unternehmen beim KI-Einsatz auf lokale Lösungen setzt, „um Datenschutzthemen im Cloud-Kontext komplett zu vermeiden“. Hinzu kommt auch die wichtige Frage der Datensicherheit. 51 Prozent der Befragten stimmen der Aussage zu, dass ihr Unternehmen beim KI-Einsatz auf lokale Lösungen setzt, „um Datenschutzthemen im Cloud-Kontext komplett zu vermeiden“. Research Services: Daniela Petrini Gefahr für Geschäftsgeheimnisse Auch jenseits des Datenschutzes bestehen erhebliche Risiken – insbesondere im Bereich des Schutzes von Geschäftsgeheimnissen. Nach dem Geschäftsgeheimnisgesetz (GeschGehG) verlieren vertrauliche Informationen ihren rechtlichen Schutz, wenn sie nicht durch angemessene Geheimhaltungsmaßnahmen gesichert werden (§ 2 Nr. 1 GeschGehG). Wer also interne Daten ohne technische oder organisatorische Sicherung in ein öffentlich zugängliches KI-System eingibt, riskiert den Verlust des zivilrechtlichen Schutzes dieser Informationen – etwa Unterlassungs-, Schadensersatz- oder Herausgabeansprüche nach dem GeschGehG. NIS2-Richtlinie und IT-Sicherheit Mit der Umsetzung der NIS2-Richtlinie in nationales Recht werden die Anforderungen an die Cybersicherheit für viele Unternehmen, die in kritischen Sektoren wie Energie, Gesundheit oder digitale Infrastruktur tätig sind, deutlich steigen. Der Einsatz Cloud-basierter KI-Tools birgt das Risiko von Sicherheitslücken wie Prompt Injections oder Data Leakage sowie für Lieferkettenrisiken. Die NIS2-Regelungen verlangen unter anderem ein umfassendes Risikomanagement, technische und organisatorische Schutzmaßnahmen, Meldepflichten bei Sicherheitsvorfällen und die Absicherung der Lieferkette. Der Einsatz von KI muss daher systematisch in das Sicherheitskonzept eines Unternehmens eingebettet werden. Compliance-Pflichten der Unternehmensleitung Die Unternehmensleitung trägt eine besondere Verantwortung: Gemäß § 91 Abs. 2 AktG beziehungsweise § 43 GmbHG muss sie Risiken erkennen und geeignete Präventionsmaßnahmen ergreifen. Dazu zählen auch Sorgfaltspflichten bei Auswahl und Einführung von KI-Systemen sowie Überwachungs-, Organisations- und Dokumentationspflichten gegenüber Mitarbeitenden und zur Systemnutzung. Untätigkeit kann zu persönlicher Haftung führen, im Extremfall drohen Bußgelder wegen Aufsichtspflichtverletzung (§ 130 OWiG). Ein unkontrollierter KI-Einsatz kann somit schnell zur Haftungsfalle werden. KI für Mitarbeiter sperren Auch hierauf geht die Studie zur KI in Unternehmen näher ein. Demnach ist KI in gut jedem vierten Unternehmen für jeden Mitarbeitenden vollkommen frei nutzbar. Lediglich gut 15 Prozent der Studienteilnehmer beschränken die tatsächliche KI-Nutzung auf ausgewiesene KI-Projekte. Dazwischen liegen verschiedene Stufen der Sperrung des KI-Zugangs beziehungsweise der Arbeit mit vorgeschriebenen KI-Tools. Bei den Gründen für Limitierungen rangieren die IT-Sicherheit, rechtliche Risiken sowie Anforderungen an die Datensicherheit beziehungsweise an den Datenschutz auf den vorderen Rängen. Bei den Studienteilnehmern aus dem Top-Management liegen die rechtlichen Risiken klar auf dem ersten Platz. Lediglich gut 15 Prozent der Studienteilnehmer beschränken die tatsächliche KI-Nutzung auf ausgewiesene KI-Projekte. Research Services: Daniela Petrini Handlungsempfehlungen für Unternehmen Für einen sicheren und rechtskonformen Umgang mit KI empfiehlt sich ein strukturiertes Vorgehen: 1. Eine klare Governance für Auswahl, Nutzung und Kontrolle von KI-Systemen etablieren. 2. Datenschutz und IT-Sicherheit frühzeitig integrieren, indem die entsprechenden Fachabteilungen eingebunden werden. 3. Mitarbeitende regelmäßig zu Datenschutz-, Geheimnisschutz- und Sicherheitsrisiken schulen. 4. Geeignete technische Lösungen auswählen – etwa lokal betriebene oder datenschutzkonforme Modelle mit begrenztem Datenabfluss. So lässt sich der Innovationsvorteil der KI nutzen, ohne unnötige Sicherheits- oder Rechtsrisiken einzugehen. Keine KI ist auch keine Lösung Klar ist: KI kann einen echten Wettbewerbsvorteil bieten – vorausgesetzt, sie wird verantwortungsvoll eingesetzt. Unternehmen müssen den Spagat zwischen Effizienzgewinn und Kontrolle meistern: Eindeutige Regeln, technisch-organisatorische Schutzmaßnahmen sowie Sensibilisierung auf allen Ebenen sind dazu unerlässlich. Wer KI-Governance ernst nimmt, schafft Rechtssicherheit, stärkt das Vertrauen seiner Stakeholder und bleibt langfristig erfolgreich. Und passend dazu stimmen laut COMPUTERWOCHE-Studie 54,5 Prozent der Befragten der Aussage zu: „Das größte unternehmerische Risiko durch KI entsteht dadurch, dass man sich nicht rechtzeitig und adäquat mit den (Einsatz-)Möglichkeiten von KI auseinandersetzt.“ Die neue Studie “KI in Unternehmen 2025” von CIO Research Services Research Services: Daniela Petrini Studiensteckbrief Herausgeber: CIO, CSO und COMPUTERWOCHE Studienpartner: HP Deutschland GmbH Grundgesamtheit: Oberste (IT-)Verantwortliche in Unternehmen ab 100 Beschäftigten in der DACH-Region aus C-Level (CEO, CFO, COO etc.), IT-C-Level (CIO, CTO, CDO etc.), IT-Bereich (leitend) und Fachbereichen Teilnehmergenerierung: Persönliche E-Mail-Einladung über die Entscheiderdatenbank von CIO, CSO und COMPUTERWOCHE sowie – zur Erfüllung von Quotenvorgaben – über externe Online-Access-Panels Gesamtstichprobe: 316 abgeschlossene und qualifizierte Interviews Untersuchungszeitraum: 13. März bis 6. April 2025 Methode: Online-Umfrage (CAWI) Fragebogenentwicklung & Durchführung: Custom Research Team von CIO, CSO und Computerwoche in Abstimmung mit den Studienpartnern