Am neuen GPAI Code of Practice der EU, der Verhaltensregeln zur KI-Nutzung definiert, gibt es viel Kritik. Sidney van den Boogaard – Shutterstock.com Mit dem General Purpose AI Code of Practice (kurz: GPAI Code of Practice) hat die EU einen ersten Verhaltenskodex zur Regulierung allgemeiner KI veröffentlicht. Er soll die Einhaltung des EU-AI-Act vereinfachen. Die Richtlinien treten am 2. August 2025 in Kraft. In der Praxis durchsetzen will ihn die EU ab 2026. Allerdings sind die Leitlinien nicht unumstritten. Sowohl von Lobbyverbänden, CEOs und CIOs sowie NGOs hagelt es Kritik. Der Code of Practice Konkret besteht der Code of Practice aus drei Kapitel, den Chapters Transparency, Copyright sowie Safety and Security. Transparency Das Kapitel Transparenz bietet ein benutzerfreundliches Musterformular für die Dokumentation Es soll es den Anbietern ermöglichen, auf einfache Weise die Informationen zu dokumentieren, die erforderlich sind, um der im AI Act verankerten Verpflichtung der Modellanbieter zur Gewährleistung ausreichender Transparenz nachzukommen (Artikel 53 des AI Act). Copyright Das Chapter zum Urheberrecht bietet Anbietern praktische Lösungen, um der im KI-Gesetz verankerten Verpflichtung nachzukommen, eine Strategie zur Einhaltung des EU-Urheberrechts zu entwickeln (Artikel 53 des AI Act) Safety and Security Der Abschnitt Sicherheit skizziert konkrete, dem Stand der Technik entsprechende Praktiken für den Umgang mit systemischen Risiken, also Risiken, die von den fortschrittlichsten KI-Modellen ausgehen. Anbieter können sich auf dieses Kapitel stützen, um die Verpflichtungen des AI Acts für Anbieter von KI-Modellen für allgemeine Zwecke mit systemischen Risiken zu erfüllen (Artikel 55 des AI Act). Er gilt nur für Anbieter von GPAI-Modellen mit systemischem Risiko. Kritik des Bitkom Noch relativ diplomatisch äußert sich der Digitalverband Bitkom in seiner Kritik am GPAI Code of Practice. Der Verband sieht in ihm die Chance, Rechtssicherheit für die Entwicklung von KI in Europa zu schaffen. Zudem sei er gegenüber ersten Entwürfen vereinfacht worden und orientiere sich stärker am Gesetzestext, so dass er in den Unternehmen besser anzuwenden sei. Susanne Dehmel, Mitglied der Bitkom-Geschäftsleitung, begrüßt zwar die Richtlinien, sieht aber einige kritische Punkte. Bitkom „Der Code of Practice darf keine Bremse für den KI-Standort Europa werden“, warnt jedoch Susanne Dehmel, Mitglied der Bitkom-Geschäftsleitung. Damit der AI Act wirklich praxistauglich umgesetzt werden könne, so Dehmel, „müssen aber sehr umfassende, aber vage formulierte Prüfpflichten nachgebessert und der bürokratische Aufwand deutlich reduziert werden“. Kritisch sieht der Bitkom dabei die verschärfte Verpflichtung zur offenen Risikosuche bei sehr leistungsstarken KI-Modellen, der sogenannten „open-ended risk identification“. Das sagt die EU-Industrie Deutliche Worte finden auch über 45 Spitzenmanager in einem offenen Brief an die EU. Sie warnen, dass sich die EU bei der Regulierung von Künstlicher Intelligenz in Komplexität verliere – und damit ihre eigene Wettbewerbsfähigkeit riskiere. So seien die Vorschriften in Teilen unklar, an anderen Stellen würden sie sich widersprechen. width=”100%” height=”152″ frameborder=”0″ allowfullscreen allow=”autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture” loading=”lazy” src=”https://open.spotify.com/embed/episode/7jY0D0qoLtnm17n9lGt0c5?si=ed12a2e08499402b&utm_source=oembed”> Die Manager fordern, die Umsetzung des EU-AI-Act um zwei Jahre zu verschieben. Initiiert wurde das Schreiben von der Lobbygruppe EU AI Champions Initiative, die rund 110 EU-Unternehmen vertritt. Zu den Unterzeichnern gehören etwa Mercedes-Benz, die Lufthansa, Philips, Celonis, Airbus, Axa oder die französische BNP Paribas, um nur einige Namen zu nennen. SAP und Siemens fordern neuen AI Act Nicht mit von der Partie waren Siemens-Chef Roland Busch und SAP-Vorstandschef Christian Klein, denen die Kritik nicht weit genug ging. In einem Interview mit der FAZ fordern sie eine grundlegende Überarbeitung des EU-AI-Acts, also ein neues Rahmenwerk, das Innovationen fördert, statt zu verhindern. So ist für Busch der AI Act in seiner vorliegenden Form, „toxisch für die Entwicklung digitaler Geschäftsmodelle“. Kaum ein gutes Haar findet auch The Future Society, die sich als NGO als Vertreter der Zivilgesellschaft versteht, an den neuen Leitlinien. Ein Dorn im Auge ist ihr besonders, dass es US-Tech-Anbietern in einer geschlossenen Runde gelungen sei, wesentliche Punkte abzuschwächen und zu verwässern. Für Siemens-Chef Roland Busch ist der AI Act in seiner vorliegenden Form toxisch für digitale Geschäftsmodelle. Siemens AG Meinung der NGO The Future Society Nick Moës, Executive Director der The Future Society, kritisiert: „Dieser geschwächte Kodex geht zulasten europäischer Bürger und Unternehmen und verpasst Chancen zur Stärkung von Sicherheit und Verantwortlichkeit weltweit. Er untergräbt zudem alle anderen Stakeholder, deren Engagement und Bemühungen für das Gemeinwohl im Schatten des Einflusses US-amerikanischer Big Tech blieben.“ Vier Kritikpunkte Die NGO sieht vor allem folgende vier Punkte kritisch: Das AI-Büro erhält wichtige Informationen erst nach Markteinführung. Anbieter teilen den Model Report mit Risikobewertung erst nach Deployment – nach dem Muster „erst veröffentlichen, dann hinterfragen“. Dadurch gelangen potenziell gefährliche Modelle unkontrolliert zu europäischen Nutzenden. Bei Verstößen muss das AI-Büro den Rückruf veranlassen – was unbegründete Innovationskritik befeuern kann. Kein wirksamer Whistleblower-Schutz mehr. Informationen aus dem Innern sind in kapital- und marktgetriebenen Industrien entscheidend. In einer Welt, in der KI-Unternehmen viel über Nutzende wüssten, diese aber wenig über sie, dürften auf interne Hinweise nicht verzichtet werden. Das AI-Büro muss ein sicherer Zufluchtsort sein und dieselben Schutzstandards bieten, wie sie die EU-Whistleblower-Richtlinie vorsieht. Keine verpflichtenden Pläne für Notfallszenarien. In anderen Hochrisikobereichen sind solche Protokolle Standard. Auch bei GPAI können sich Schäden extrem schnell ausbreiten. Daher müssen Anbieter dazu verpflichtet werden, Notfallmaßnahmen und Schadensbegrenzungsstrategien frühzeitig planen. Anbieter haben weitreichende Entscheidungsbefugnis beim Risikomanagement. Durch Lobbying wurden ergebnisbasierte Regeln eingeführt. Anbieter dürfen nun selbst Risiken identifizieren, Schwellen definieren und kontinuierliche Evaluation durchführen – und beweisen, dass sie dieses Vertrauen verdienen.
Massive Kritik an EU-Leitlinien zur KI-Nutzung
Am neuen GPAI Code of Practice der EU, der Verhaltensregeln zur KI-Nutzung definiert, gibt es viel Kritik. Sidney van den Boogaard – Shutterstock.com Mit dem General Purpose AI Code of Practice (kurz: GPAI Code of Practice) hat die EU einen ersten Verhaltenskodex zur Regulierung allgemeiner KI veröffentlicht. Er soll die Einhaltung des EU-AI-Act vereinfachen. Die Richtlinien treten am 2. August 2025 in Kraft. In der Praxis durchsetzen will ihn die EU ab 2026. Allerdings sind die Leitlinien nicht unumstritten. Sowohl von Lobbyverbänden, CEOs und CIOs sowie NGOs hagelt es Kritik. Der Code of Practice Konkret besteht der Code of Practice aus drei Kapitel, den Chapters Transparency, Copyright sowie Safety and Security. Transparency Das Kapitel Transparenz bietet ein benutzerfreundliches Musterformular für die Dokumentation Es soll es den Anbietern ermöglichen, auf einfache Weise die Informationen zu dokumentieren, die erforderlich sind, um der im AI Act verankerten Verpflichtung der Modellanbieter zur Gewährleistung ausreichender Transparenz nachzukommen (Artikel 53 des AI Act). Copyright Das Chapter zum Urheberrecht bietet Anbietern praktische Lösungen, um der im KI-Gesetz verankerten Verpflichtung nachzukommen, eine Strategie zur Einhaltung des EU-Urheberrechts zu entwickeln (Artikel 53 des AI Act) Safety and Security Der Abschnitt Sicherheit skizziert konkrete, dem Stand der Technik entsprechende Praktiken für den Umgang mit systemischen Risiken, also Risiken, die von den fortschrittlichsten KI-Modellen ausgehen. Anbieter können sich auf dieses Kapitel stützen, um die Verpflichtungen des AI Acts für Anbieter von KI-Modellen für allgemeine Zwecke mit systemischen Risiken zu erfüllen (Artikel 55 des AI Act). Er gilt nur für Anbieter von GPAI-Modellen mit systemischem Risiko. Kritik des Bitkom Noch relativ diplomatisch äußert sich der Digitalverband Bitkom in seiner Kritik am GPAI Code of Practice. Der Verband sieht in ihm die Chance, Rechtssicherheit für die Entwicklung von KI in Europa zu schaffen. Zudem sei er gegenüber ersten Entwürfen vereinfacht worden und orientiere sich stärker am Gesetzestext, so dass er in den Unternehmen besser anzuwenden sei. Susanne Dehmel, Mitglied der Bitkom-Geschäftsleitung, begrüßt zwar die Richtlinien, sieht aber einige kritische Punkte. Bitkom „Der Code of Practice darf keine Bremse für den KI-Standort Europa werden“, warnt jedoch Susanne Dehmel, Mitglied der Bitkom-Geschäftsleitung. Damit der AI Act wirklich praxistauglich umgesetzt werden könne, so Dehmel, „müssen aber sehr umfassende, aber vage formulierte Prüfpflichten nachgebessert und der bürokratische Aufwand deutlich reduziert werden“. Kritisch sieht der Bitkom dabei die verschärfte Verpflichtung zur offenen Risikosuche bei sehr leistungsstarken KI-Modellen, der sogenannten „open-ended risk identification“. Das sagt die EU-Industrie Deutliche Worte finden auch über 45 Spitzenmanager in einem offenen Brief an die EU. Sie warnen, dass sich die EU bei der Regulierung von Künstlicher Intelligenz in Komplexität verliere – und damit ihre eigene Wettbewerbsfähigkeit riskiere. So seien die Vorschriften in Teilen unklar, an anderen Stellen würden sie sich widersprechen. width="100%" height="152" frameborder="0" allowfullscreen allow="autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture" loading="lazy" src="https://open.spotify.com/embed/episode/7jY0D0qoLtnm17n9lGt0c5?si=ed12a2e08499402b&utm_source=oembed"> Die Manager fordern, die Umsetzung des EU-AI-Act um zwei Jahre zu verschieben. Initiiert wurde das Schreiben von der Lobbygruppe EU AI Champions Initiative, die rund 110 EU-Unternehmen vertritt. Zu den Unterzeichnern gehören etwa Mercedes-Benz, die Lufthansa, Philips, Celonis, Airbus, Axa oder die französische BNP Paribas, um nur einige Namen zu nennen. SAP und Siemens fordern neuen AI Act Nicht mit von der Partie waren Siemens-Chef Roland Busch und SAP-Vorstandschef Christian Klein, denen die Kritik nicht weit genug ging. In einem Interview mit der FAZ fordern sie eine grundlegende Überarbeitung des EU-AI-Acts, also ein neues Rahmenwerk, das Innovationen fördert, statt zu verhindern. So ist für Busch der AI Act in seiner vorliegenden Form, „toxisch für die Entwicklung digitaler Geschäftsmodelle“. Kaum ein gutes Haar findet auch The Future Society, die sich als NGO als Vertreter der Zivilgesellschaft versteht, an den neuen Leitlinien. Ein Dorn im Auge ist ihr besonders, dass es US-Tech-Anbietern in einer geschlossenen Runde gelungen sei, wesentliche Punkte abzuschwächen und zu verwässern. Für Siemens-Chef Roland Busch ist der AI Act in seiner vorliegenden Form toxisch für digitale Geschäftsmodelle. Siemens AG Meinung der NGO The Future Society Nick Moës, Executive Director der The Future Society, kritisiert: „Dieser geschwächte Kodex geht zulasten europäischer Bürger und Unternehmen und verpasst Chancen zur Stärkung von Sicherheit und Verantwortlichkeit weltweit. Er untergräbt zudem alle anderen Stakeholder, deren Engagement und Bemühungen für das Gemeinwohl im Schatten des Einflusses US-amerikanischer Big Tech blieben.“ Vier Kritikpunkte Die NGO sieht vor allem folgende vier Punkte kritisch: Das AI-Büro erhält wichtige Informationen erst nach Markteinführung. Anbieter teilen den Model Report mit Risikobewertung erst nach Deployment – nach dem Muster „erst veröffentlichen, dann hinterfragen“. Dadurch gelangen potenziell gefährliche Modelle unkontrolliert zu europäischen Nutzenden. Bei Verstößen muss das AI-Büro den Rückruf veranlassen – was unbegründete Innovationskritik befeuern kann. Kein wirksamer Whistleblower-Schutz mehr. Informationen aus dem Innern sind in kapital- und marktgetriebenen Industrien entscheidend. In einer Welt, in der KI-Unternehmen viel über Nutzende wüssten, diese aber wenig über sie, dürften auf interne Hinweise nicht verzichtet werden. Das AI-Büro muss ein sicherer Zufluchtsort sein und dieselben Schutzstandards bieten, wie sie die EU-Whistleblower-Richtlinie vorsieht. Keine verpflichtenden Pläne für Notfallszenarien. In anderen Hochrisikobereichen sind solche Protokolle Standard. Auch bei GPAI können sich Schäden extrem schnell ausbreiten. Daher müssen Anbieter dazu verpflichtet werden, Notfallmaßnahmen und Schadensbegrenzungsstrategien frühzeitig planen. Anbieter haben weitreichende Entscheidungsbefugnis beim Risikomanagement. Durch Lobbying wurden ergebnisbasierte Regeln eingeführt. Anbieter dürfen nun selbst Risiken identifizieren, Schwellen definieren und kontinuierliche Evaluation durchführen – und beweisen, dass sie dieses Vertrauen verdienen.
Massive Kritik an EU-Leitlinien zur KI-Nutzung Am neuen GPAI Code of Practice der EU, der Verhaltensregeln zur KI-Nutzung definiert, gibt es viel Kritik. Sidney van den Boogaard – Shutterstock.com Mit dem General Purpose AI Code of Practice (kurz: GPAI Code of Practice) hat die EU einen ersten Verhaltenskodex zur Regulierung allgemeiner KI veröffentlicht. Er soll die Einhaltung des EU-AI-Act vereinfachen. Die Richtlinien treten am 2. August 2025 in Kraft. In der Praxis durchsetzen will ihn die EU ab 2026. Allerdings sind die Leitlinien nicht unumstritten. Sowohl von Lobbyverbänden, CEOs und CIOs sowie NGOs hagelt es Kritik. Der Code of Practice Konkret besteht der Code of Practice aus drei Kapitel, den Chapters Transparency, Copyright sowie Safety and Security. Transparency Das Kapitel Transparenz bietet ein benutzerfreundliches Musterformular für die Dokumentation Es soll es den Anbietern ermöglichen, auf einfache Weise die Informationen zu dokumentieren, die erforderlich sind, um der im AI Act verankerten Verpflichtung der Modellanbieter zur Gewährleistung ausreichender Transparenz nachzukommen (Artikel 53 des AI Act). Copyright Das Chapter zum Urheberrecht bietet Anbietern praktische Lösungen, um der im KI-Gesetz verankerten Verpflichtung nachzukommen, eine Strategie zur Einhaltung des EU-Urheberrechts zu entwickeln (Artikel 53 des AI Act) Safety and Security Der Abschnitt Sicherheit skizziert konkrete, dem Stand der Technik entsprechende Praktiken für den Umgang mit systemischen Risiken, also Risiken, die von den fortschrittlichsten KI-Modellen ausgehen. Anbieter können sich auf dieses Kapitel stützen, um die Verpflichtungen des AI Acts für Anbieter von KI-Modellen für allgemeine Zwecke mit systemischen Risiken zu erfüllen (Artikel 55 des AI Act). Er gilt nur für Anbieter von GPAI-Modellen mit systemischem Risiko. Kritik des Bitkom Noch relativ diplomatisch äußert sich der Digitalverband Bitkom in seiner Kritik am GPAI Code of Practice. Der Verband sieht in ihm die Chance, Rechtssicherheit für die Entwicklung von KI in Europa zu schaffen. Zudem sei er gegenüber ersten Entwürfen vereinfacht worden und orientiere sich stärker am Gesetzestext, so dass er in den Unternehmen besser anzuwenden sei. Susanne Dehmel, Mitglied der Bitkom-Geschäftsleitung, begrüßt zwar die Richtlinien, sieht aber einige kritische Punkte. Bitkom „Der Code of Practice darf keine Bremse für den KI-Standort Europa werden“, warnt jedoch Susanne Dehmel, Mitglied der Bitkom-Geschäftsleitung. Damit der AI Act wirklich praxistauglich umgesetzt werden könne, so Dehmel, „müssen aber sehr umfassende, aber vage formulierte Prüfpflichten nachgebessert und der bürokratische Aufwand deutlich reduziert werden“. Kritisch sieht der Bitkom dabei die verschärfte Verpflichtung zur offenen Risikosuche bei sehr leistungsstarken KI-Modellen, der sogenannten „open-ended risk identification“. Das sagt die EU-Industrie Deutliche Worte finden auch über 45 Spitzenmanager in einem offenen Brief an die EU. Sie warnen, dass sich die EU bei der Regulierung von Künstlicher Intelligenz in Komplexität verliere – und damit ihre eigene Wettbewerbsfähigkeit riskiere. So seien die Vorschriften in Teilen unklar, an anderen Stellen würden sie sich widersprechen. width="100%" height="152" frameborder="0" allowfullscreen allow="autoplay; clipboard-write; encrypted-media; fullscreen; picture-in-picture" loading="lazy" src="https://open.spotify.com/embed/episode/7jY0D0qoLtnm17n9lGt0c5?si=ed12a2e08499402b&utm_source=oembed"> Die Manager fordern, die Umsetzung des EU-AI-Act um zwei Jahre zu verschieben. Initiiert wurde das Schreiben von der Lobbygruppe EU AI Champions Initiative, die rund 110 EU-Unternehmen vertritt. Zu den Unterzeichnern gehören etwa Mercedes-Benz, die Lufthansa, Philips, Celonis, Airbus, Axa oder die französische BNP Paribas, um nur einige Namen zu nennen. SAP und Siemens fordern neuen AI Act Nicht mit von der Partie waren Siemens-Chef Roland Busch und SAP-Vorstandschef Christian Klein, denen die Kritik nicht weit genug ging. In einem Interview mit der FAZ fordern sie eine grundlegende Überarbeitung des EU-AI-Acts, also ein neues Rahmenwerk, das Innovationen fördert, statt zu verhindern. So ist für Busch der AI Act in seiner vorliegenden Form, „toxisch für die Entwicklung digitaler Geschäftsmodelle“. Kaum ein gutes Haar findet auch The Future Society, die sich als NGO als Vertreter der Zivilgesellschaft versteht, an den neuen Leitlinien. Ein Dorn im Auge ist ihr besonders, dass es US-Tech-Anbietern in einer geschlossenen Runde gelungen sei, wesentliche Punkte abzuschwächen und zu verwässern. Für Siemens-Chef Roland Busch ist der AI Act in seiner vorliegenden Form toxisch für digitale Geschäftsmodelle. Siemens AG Meinung der NGO The Future Society Nick Moës, Executive Director der The Future Society, kritisiert: „Dieser geschwächte Kodex geht zulasten europäischer Bürger und Unternehmen und verpasst Chancen zur Stärkung von Sicherheit und Verantwortlichkeit weltweit. Er untergräbt zudem alle anderen Stakeholder, deren Engagement und Bemühungen für das Gemeinwohl im Schatten des Einflusses US-amerikanischer Big Tech blieben.“ Vier Kritikpunkte Die NGO sieht vor allem folgende vier Punkte kritisch: Das AI-Büro erhält wichtige Informationen erst nach Markteinführung. Anbieter teilen den Model Report mit Risikobewertung erst nach Deployment – nach dem Muster „erst veröffentlichen, dann hinterfragen“. Dadurch gelangen potenziell gefährliche Modelle unkontrolliert zu europäischen Nutzenden. Bei Verstößen muss das AI-Büro den Rückruf veranlassen – was unbegründete Innovationskritik befeuern kann. Kein wirksamer Whistleblower-Schutz mehr. Informationen aus dem Innern sind in kapital- und marktgetriebenen Industrien entscheidend. In einer Welt, in der KI-Unternehmen viel über Nutzende wüssten, diese aber wenig über sie, dürften auf interne Hinweise nicht verzichtet werden. Das AI-Büro muss ein sicherer Zufluchtsort sein und dieselben Schutzstandards bieten, wie sie die EU-Whistleblower-Richtlinie vorsieht. Keine verpflichtenden Pläne für Notfallszenarien. In anderen Hochrisikobereichen sind solche Protokolle Standard. Auch bei GPAI können sich Schäden extrem schnell ausbreiten. Daher müssen Anbieter dazu verpflichtet werden, Notfallmaßnahmen und Schadensbegrenzungsstrategien frühzeitig planen. Anbieter haben weitreichende Entscheidungsbefugnis beim Risikomanagement. Durch Lobbying wurden ergebnisbasierte Regeln eingeführt. Anbieter dürfen nun selbst Risiken identifizieren, Schwellen definieren und kontinuierliche Evaluation durchführen – und beweisen, dass sie dieses Vertrauen verdienen.