Am 2. Februar treten die ersten KI-Verbote des EU-AI-Acts in Kraft. RaffMaster/Shutterstock.com In Sachen EU-AI-Act wird es langsam ernst. Auch wenn für die 2024 verabschiedete Verordnung teilweise lange Übergangsfristen bis August 2026 gelten, sollten KI-Anwender und -Betreiber für 2025 zwei Termine in ihrem Kalender markieren: Ab 2. Februar 2025 sind bestimmte KI-Anwendungen in der EU verboten. Ab 2. August 2025 treten die Bestimmungen für die Anbieter und Betreiber von General Purpose AI (GPAI) in Kraft. KI-Verbote ab Februar Zum Stichtag 2. Februar 2025 verbietet der AI-Act die Verwendung bestimmter KI-Anwendungen in der EU. Vereinfacht ausgedrückt sind davon unter anderem Apps betroffen, die Menschen aufgrund ihres Verhaltens oder ihrer Eigenschaften bewerten und einordnen – wie etwa beim Social Scoring. Ebenso ist dann eine automatisierte biometrische Identifizierung von Menschen im öffentlichen Raum nicht mehr statthaft. Diese Systeme sind verboten Konkret definiert der AI-Act im „Artikel 5: Verbotene AI-Praktiken“ folgende Anwendungen als verboten: KI-Systeme, die unterschwellige oder absichtlich manipulative und täuschende Techniken einsetzen, um das Verhalten einer Person zu beeinflussen, so dass sie Entscheidungen trifft, die sie sonst nicht getroffen hätte. KI-Anwendungen, die eine Schwachstelle einer Person aufgrund ihres Alters, einer Behinderung oder einer besonderen sozialen oder wirtschaftlichen Situation ausnutzen, um deren Verhalten negativ zu beeinflussen. AI, die Menschen aufgrund ihres Sozialverhaltens oder bekannter, abgeleiteter oder vorhergesagter persönlicher oder persönlichkeitsbezogener Merkmale beurteilt und damit zu einer Benachteiligung oder ungünstigen Behandlung führt. KI-Systeme, die das Risiko vorhersagen, dass jemand eine Straftat begeht und ihr Urteil dabei ausschließlich auf der Grundlage der Erstellung eines Profils einer natürlichen Person oder der Bewertung ihrer Persönlichkeitsmerkmale und Eigenschaften stützen. KI-Apps, die Datenbanken für die Gesichtserkennung durch das ungezielte Auslesen von Gesichtsbildern aus dem Internet oder aus Videoüberwachungsaufnahmen erstellen oder erweitern. KI-Systeme zur Ableitung von Emotionen einer natürlichen Person in den Bereichen Arbeitsplatz und Bildungseinrichtungen (Ausnahme: medizinische oder sicherheitstechnische Gründe). Verwendung biometrischer Kategorisierungssysteme, die einzelne natürliche Personen auf der Grundlage ihrer biometrischen Daten kategorisieren, um Rückschlüsse auf ihre Ethnie, ihre politischen Meinungen, ihre Gewerkschaftszugehörigkeit, ihre religiösen oder philosophischen Überzeugungen, ihr Sexualleben oder ihre sexuelle Ausrichtung zu ziehen. KI-gestützte biometrische Echtzeit-Fernidentifizierungssysteme in öffentlichen Räumen. Bei den letzten beiden Verboten ist jedoch zu beachten, dass der EU-AI-Act Ausnahmen zum Zwecke der Strafverfolgung zulässt. Für diesen Einsatz ist also eine penible Einzelfallprüfung ratsam. Regeln für GPAI Während die Regeln für verbotene KI-Systeme also relativ klar definiert sind, sieht es in Bezug auf einen anderen Punkt noch recht mau aus: Ab 2. August 2025 sollen auch verbindliche Regeln und Vorschriften für General Purpose AI (GPAI) gelten. Im Gegensatz zu klassischen KI-Systemen versteht der EU-AI-Act unter GPAI KI-Anwendungen die LLMs verwenden – also etwa GPT-4o, Llama etc. Deshalb dürften die diesbezüglich ab August geltenden Vorschriften vor allem große Player wie Microsoft, Google, Meta, OpenAI etc. betreffen. Noch gibt es nur Drafts Die Sache hat allerdings einen Haken. Bislang gibt es diese Vorschriften nicht. Derzeit existiert lediglich ein „Second Draft“ vom 19. Dezember 2024 zum „General-Purpose AI Code of Practice“. Im Februar soll dann noch ein dritter Entwurf folgen, bevor dann die EU im Mai die endgültigen Richtlinien vorlegen will. Die betroffenen Unternehmen hätten dann gerade noch zwei Monate Zeit, die Vorschriften umzusetzen. Angesichts dieses Zeitrahmens kann man nur sagen „sportlich“. Zumal hinter den Kulissen die großen Player sowie Bürgerrechtsorganisationen noch um die richtige Ausgewogenheit der Vorschriften ringen. Während die Wirtschaft ein zu enges Korsett befürchtet und damit ihr Business bedroht sieht, kämpfen die anderen laut Tagesspiegel für mehr Transparenz und eine größere Risikofolgenabschätzung der GPAI-Verwendung. Was Entscheider in Sachen EU-AI-Act sonst noch beachten sollten, hören Sie in unserem TechTalk-Podcast.
EU-AI-Act: Erste KI-Verbote ab Februar
Am 2. Februar treten die ersten KI-Verbote des EU-AI-Acts in Kraft. RaffMaster/Shutterstock.com In Sachen EU-AI-Act wird es langsam ernst. Auch wenn für die 2024 verabschiedete Verordnung teilweise lange Übergangsfristen bis August 2026 gelten, sollten KI-Anwender und -Betreiber für 2025 zwei Termine in ihrem Kalender markieren: Ab 2. Februar 2025 sind bestimmte KI-Anwendungen in der EU verboten. Ab 2. August 2025 treten die Bestimmungen für die Anbieter und Betreiber von General Purpose AI (GPAI) in Kraft. KI-Verbote ab Februar Zum Stichtag 2. Februar 2025 verbietet der AI-Act die Verwendung bestimmter KI-Anwendungen in der EU. Vereinfacht ausgedrückt sind davon unter anderem Apps betroffen, die Menschen aufgrund ihres Verhaltens oder ihrer Eigenschaften bewerten und einordnen – wie etwa beim Social Scoring. Ebenso ist dann eine automatisierte biometrische Identifizierung von Menschen im öffentlichen Raum nicht mehr statthaft. Diese Systeme sind verboten Konkret definiert der AI-Act im „Artikel 5: Verbotene AI-Praktiken“ folgende Anwendungen als verboten: KI-Systeme, die unterschwellige oder absichtlich manipulative und täuschende Techniken einsetzen, um das Verhalten einer Person zu beeinflussen, so dass sie Entscheidungen trifft, die sie sonst nicht getroffen hätte. KI-Anwendungen, die eine Schwachstelle einer Person aufgrund ihres Alters, einer Behinderung oder einer besonderen sozialen oder wirtschaftlichen Situation ausnutzen, um deren Verhalten negativ zu beeinflussen. AI, die Menschen aufgrund ihres Sozialverhaltens oder bekannter, abgeleiteter oder vorhergesagter persönlicher oder persönlichkeitsbezogener Merkmale beurteilt und damit zu einer Benachteiligung oder ungünstigen Behandlung führt. KI-Systeme, die das Risiko vorhersagen, dass jemand eine Straftat begeht und ihr Urteil dabei ausschließlich auf der Grundlage der Erstellung eines Profils einer natürlichen Person oder der Bewertung ihrer Persönlichkeitsmerkmale und Eigenschaften stützen. KI-Apps, die Datenbanken für die Gesichtserkennung durch das ungezielte Auslesen von Gesichtsbildern aus dem Internet oder aus Videoüberwachungsaufnahmen erstellen oder erweitern. KI-Systeme zur Ableitung von Emotionen einer natürlichen Person in den Bereichen Arbeitsplatz und Bildungseinrichtungen (Ausnahme: medizinische oder sicherheitstechnische Gründe). Verwendung biometrischer Kategorisierungssysteme, die einzelne natürliche Personen auf der Grundlage ihrer biometrischen Daten kategorisieren, um Rückschlüsse auf ihre Ethnie, ihre politischen Meinungen, ihre Gewerkschaftszugehörigkeit, ihre religiösen oder philosophischen Überzeugungen, ihr Sexualleben oder ihre sexuelle Ausrichtung zu ziehen. KI-gestützte biometrische Echtzeit-Fernidentifizierungssysteme in öffentlichen Räumen. Bei den letzten beiden Verboten ist jedoch zu beachten, dass der EU-AI-Act Ausnahmen zum Zwecke der Strafverfolgung zulässt. Für diesen Einsatz ist also eine penible Einzelfallprüfung ratsam. Regeln für GPAI Während die Regeln für verbotene KI-Systeme also relativ klar definiert sind, sieht es in Bezug auf einen anderen Punkt noch recht mau aus: Ab 2. August 2025 sollen auch verbindliche Regeln und Vorschriften für General Purpose AI (GPAI) gelten. Im Gegensatz zu klassischen KI-Systemen versteht der EU-AI-Act unter GPAI KI-Anwendungen die LLMs verwenden – also etwa GPT-4o, Llama etc. Deshalb dürften die diesbezüglich ab August geltenden Vorschriften vor allem große Player wie Microsoft, Google, Meta, OpenAI etc. betreffen. Noch gibt es nur Drafts Die Sache hat allerdings einen Haken. Bislang gibt es diese Vorschriften nicht. Derzeit existiert lediglich ein „Second Draft“ vom 19. Dezember 2024 zum „General-Purpose AI Code of Practice“. Im Februar soll dann noch ein dritter Entwurf folgen, bevor dann die EU im Mai die endgültigen Richtlinien vorlegen will. Die betroffenen Unternehmen hätten dann gerade noch zwei Monate Zeit, die Vorschriften umzusetzen. Angesichts dieses Zeitrahmens kann man nur sagen „sportlich“. Zumal hinter den Kulissen die großen Player sowie Bürgerrechtsorganisationen noch um die richtige Ausgewogenheit der Vorschriften ringen. Während die Wirtschaft ein zu enges Korsett befürchtet und damit ihr Business bedroht sieht, kämpfen die anderen laut Tagesspiegel für mehr Transparenz und eine größere Risikofolgenabschätzung der GPAI-Verwendung. Was Entscheider in Sachen EU-AI-Act sonst noch beachten sollten, hören Sie in unserem TechTalk-Podcast.
EU-AI-Act: Erste KI-Verbote ab Februar Am 2. Februar treten die ersten KI-Verbote des EU-AI-Acts in Kraft. RaffMaster/Shutterstock.com In Sachen EU-AI-Act wird es langsam ernst. Auch wenn für die 2024 verabschiedete Verordnung teilweise lange Übergangsfristen bis August 2026 gelten, sollten KI-Anwender und -Betreiber für 2025 zwei Termine in ihrem Kalender markieren: Ab 2. Februar 2025 sind bestimmte KI-Anwendungen in der EU verboten. Ab 2. August 2025 treten die Bestimmungen für die Anbieter und Betreiber von General Purpose AI (GPAI) in Kraft. KI-Verbote ab Februar Zum Stichtag 2. Februar 2025 verbietet der AI-Act die Verwendung bestimmter KI-Anwendungen in der EU. Vereinfacht ausgedrückt sind davon unter anderem Apps betroffen, die Menschen aufgrund ihres Verhaltens oder ihrer Eigenschaften bewerten und einordnen – wie etwa beim Social Scoring. Ebenso ist dann eine automatisierte biometrische Identifizierung von Menschen im öffentlichen Raum nicht mehr statthaft. Diese Systeme sind verboten Konkret definiert der AI-Act im „Artikel 5: Verbotene AI-Praktiken“ folgende Anwendungen als verboten: KI-Systeme, die unterschwellige oder absichtlich manipulative und täuschende Techniken einsetzen, um das Verhalten einer Person zu beeinflussen, so dass sie Entscheidungen trifft, die sie sonst nicht getroffen hätte. KI-Anwendungen, die eine Schwachstelle einer Person aufgrund ihres Alters, einer Behinderung oder einer besonderen sozialen oder wirtschaftlichen Situation ausnutzen, um deren Verhalten negativ zu beeinflussen. AI, die Menschen aufgrund ihres Sozialverhaltens oder bekannter, abgeleiteter oder vorhergesagter persönlicher oder persönlichkeitsbezogener Merkmale beurteilt und damit zu einer Benachteiligung oder ungünstigen Behandlung führt. KI-Systeme, die das Risiko vorhersagen, dass jemand eine Straftat begeht und ihr Urteil dabei ausschließlich auf der Grundlage der Erstellung eines Profils einer natürlichen Person oder der Bewertung ihrer Persönlichkeitsmerkmale und Eigenschaften stützen. KI-Apps, die Datenbanken für die Gesichtserkennung durch das ungezielte Auslesen von Gesichtsbildern aus dem Internet oder aus Videoüberwachungsaufnahmen erstellen oder erweitern. KI-Systeme zur Ableitung von Emotionen einer natürlichen Person in den Bereichen Arbeitsplatz und Bildungseinrichtungen (Ausnahme: medizinische oder sicherheitstechnische Gründe). Verwendung biometrischer Kategorisierungssysteme, die einzelne natürliche Personen auf der Grundlage ihrer biometrischen Daten kategorisieren, um Rückschlüsse auf ihre Ethnie, ihre politischen Meinungen, ihre Gewerkschaftszugehörigkeit, ihre religiösen oder philosophischen Überzeugungen, ihr Sexualleben oder ihre sexuelle Ausrichtung zu ziehen. KI-gestützte biometrische Echtzeit-Fernidentifizierungssysteme in öffentlichen Räumen. Bei den letzten beiden Verboten ist jedoch zu beachten, dass der EU-AI-Act Ausnahmen zum Zwecke der Strafverfolgung zulässt. Für diesen Einsatz ist also eine penible Einzelfallprüfung ratsam. Regeln für GPAI Während die Regeln für verbotene KI-Systeme also relativ klar definiert sind, sieht es in Bezug auf einen anderen Punkt noch recht mau aus: Ab 2. August 2025 sollen auch verbindliche Regeln und Vorschriften für General Purpose AI (GPAI) gelten. Im Gegensatz zu klassischen KI-Systemen versteht der EU-AI-Act unter GPAI KI-Anwendungen die LLMs verwenden – also etwa GPT-4o, Llama etc. Deshalb dürften die diesbezüglich ab August geltenden Vorschriften vor allem große Player wie Microsoft, Google, Meta, OpenAI etc. betreffen. Noch gibt es nur Drafts Die Sache hat allerdings einen Haken. Bislang gibt es diese Vorschriften nicht. Derzeit existiert lediglich ein „Second Draft“ vom 19. Dezember 2024 zum „General-Purpose AI Code of Practice“. Im Februar soll dann noch ein dritter Entwurf folgen, bevor dann die EU im Mai die endgültigen Richtlinien vorlegen will. Die betroffenen Unternehmen hätten dann gerade noch zwei Monate Zeit, die Vorschriften umzusetzen. Angesichts dieses Zeitrahmens kann man nur sagen „sportlich“. Zumal hinter den Kulissen die großen Player sowie Bürgerrechtsorganisationen noch um die richtige Ausgewogenheit der Vorschriften ringen. Während die Wirtschaft ein zu enges Korsett befürchtet und damit ihr Business bedroht sieht, kämpfen die anderen laut Tagesspiegel für mehr Transparenz und eine größere Risikofolgenabschätzung der GPAI-Verwendung. Was Entscheider in Sachen EU-AI-Act sonst noch beachten sollten, hören Sie in unserem TechTalk-Podcast.