Bedenken über Grundrechtsverletzungen aufgrund „nationaler Sicherheit“: AI Act könnte Anonymität gefährden. shutterstock.com – Ivan Marc Ab Februar 2025 treten die ersten Regelungen des AI Acts in Kraft, um die Gefahren der Künstlichen Intelligenz (KI) zu begrenzen. Das Gesetz enthält jedoch zahlreiche Ausnahmen, insbesondere durch Schlupflöcher, die von Frankreich ausgehandelt wurden. Wie weitreichend sich dies auf Europas Grundrechte auswirken könnte, wurde von Investigate Europe, einem Journalistenteam aus elf europäischen Staaten, recherchiert. Private Unternehmen und Drittstaaten schauen zu Eine dieser Ausnahmen bezieht sich auf die Nutzung von Gesichtserkennungssystemen im öffentlichen Raum. Generell ist sie verboten, sollte jedoch die „nationale Sicherheit“ bedroht sein, ist es Behörden gestattet, KI-Überwachung einzusetzen. Kritiker befürchten, dass dies auch bei legitimen Veranstaltungen wie Klimaprotesten oder politischen Demonstrationen der Fall sein könnte. Frankreich hat bereits demonstriert, wann es gewillt ist, diese Technologie zu nutzen: Bei den Olympischen Spielen 2024, kam KI-gestützte Videoüberwachung bereits zum Einsatz. Amnesty International warnt deshalb vor einer „ernsthaften Bedrohung für bürgerliche Freiheiten“, da solche Maßnahmen künftig zur Regel werden könnten. Nutznießer solcher Praktiken könnten private Unternehmen und Drittstaaten sein. Sie wären in der Lage, EU-Bürger zu überwachen, sofern sie den Sicherheitsbehörden die verwendete KI-Technologie bereitstellen. Mehrere Staaten unterstützen Frankreichs Forderung Gefordert wurde der KI-Einsatz in einer Sitzung des Ausschusses der Ständigen Vertreter (COREPER) im Jahr 2022. Ursprünglich sollte Echtzeit-Gesichtserkennung im öffentlichen Raum nur dem Militär erlaubt sein. In einer späteren Sitzung unterstützten mehrere Staaten Forderung Frankreichs, darunter Italien, Schweden, Finnland, Tschechien, Litauen, Rumänien, Ungarn und Bulgarien. In einer COREPER-Sitzung 2023 forderten dann Dänemark, die Niederlande, Portugal und die Slowakei ein verhältnismäßiges Verbot, das nur bei Diskriminierungsgefahr gelten solle. Zugleich sprachen sich diese Staaten gegen ein umfassendes Verbot für die Strafverfolgung aus. Umstrittene biometrische Kategorisierungssysteme in der EU Tritt der AI Act am 2. Februar 2025 in Kraft bleiben einige Bereiche zum Teil von der Überwachungswut unangetastet. Dazu zählt etwa Emotionserkennung am Arbeitsplatz, in Schulen und Geschäften. Arbeitgeber dürfen damit keine Emotionen ihrer Mitarbeiter analysieren. Sicherheitsbehörden und Grenzschützer sind jedoch dank des Einflusses Frankreichs und anderer Länder auch hier von diesem Verbot ausgenommen. Biometrische Kategorisierungssysteme, die ethnische Zugehörigkeit oder sexuelle Orientierung bestimmen, sind umstritten. Das neue EU-Gesetz verbietet ihren Einsatz, erlaubt jedoch Ausnahmen für Strafverfolgungsbehörden, insbesondere auf Frankreichs Drängen, um Personen zu identifizieren, die gewalttätigen Extremismus oder ein terroristisches Risiko darstellen. Gesichtserkennungssoftware darf in Echtzeit bei Ermittlungen zu bestimmten Straftaten eingesetzt werden. In diesem Kontext fordern mehrere Staaten, einschließlich Frankreich, diese Liste noch zu erweitern. Griechenland plädierte dafür, Gefängnisse und Grenzgebiete von Verboten auszunehmen, um dort Echtzeitüberwachung zu ermöglichen. Grundrechtsverstöße und EU-Recht Ein Jurist der Fraktion der Europäischen Volkspartei (EVP) kritisiert den AI Act als Verstoß gegen Grundrechte und EU-Recht. Die Rechtswissenschaftlerin Plixavra Vogiatzoglou der Universität Amsterdam betont, dass die nationalen Sicherheitsausnahmen Urteilen des Europäischen Gerichtshofs widersprechen. Organisationen wie European Digital Rights warnen zudem, dass solche Systeme die Anonymität im öffentlichen Raum gefährden und der AI Act Grundrechte in Europa einschränken könnte. In den letzten Verhandlungen des AI Acts am 6. Dezember 2023 drängte zudem die spanische Ratspräsidentschaft auf eine schnelle Verabschiedung vor den Europawahlen 2024. Ziel war es, das Erstarken rechtsradikaler Parteien zu verhindern. Schließlich wurde beschlossen, dass jede KI-gestützte Überwachungstechnologie von einer unabhängigen nationalen Behörde zugelassen werden muss. Selbstzertifizierung möglich Hochrisikotechnologien wie Echtzeitüberwachung einzusetzen, erfordert normalerweise einen Gerichtsbeschluss, die Registrierung in einer europäischen Datenbank und eine Folgenabschätzung. In den Verhandlungen wurde jedoch eine Lockerung eingeführt: Anbieter können selbst entscheiden, ob ihr Produkt als Hochrisikotechnologie gilt. Dafür müssen sie eine Selbstzertifizierung ausfüllen. Ein internes Arbeitspapier des juristischen Dienstes des Europäischen Parlaments kritisiert diese Lockerung, da sie den KI-Anbietern zu viel Spielraum lässt und das Ziel des AI Acts, das Risiko von Hochrisiko-KI-Systemen zu regulieren, gefährdet. Zugleich warnten Verhandlungspartner wie die französische Regierung, dass Unternehmen, wenn ihnen der breite Einsatz von KI-Technologien untersagt wird, in Regionen ohne digitale Grundrechte abwandern könnten.
Heimliche Schlupflöcher im AI Act
Bedenken über Grundrechtsverletzungen aufgrund „nationaler Sicherheit“: AI Act könnte Anonymität gefährden. shutterstock.com – Ivan Marc Ab Februar 2025 treten die ersten Regelungen des AI Acts in Kraft, um die Gefahren der Künstlichen Intelligenz (KI) zu begrenzen. Das Gesetz enthält jedoch zahlreiche Ausnahmen, insbesondere durch Schlupflöcher, die von Frankreich ausgehandelt wurden. Wie weitreichend sich dies auf Europas Grundrechte auswirken könnte, wurde von Investigate Europe, einem Journalistenteam aus elf europäischen Staaten, recherchiert. Private Unternehmen und Drittstaaten schauen zu Eine dieser Ausnahmen bezieht sich auf die Nutzung von Gesichtserkennungssystemen im öffentlichen Raum. Generell ist sie verboten, sollte jedoch die „nationale Sicherheit“ bedroht sein, ist es Behörden gestattet, KI-Überwachung einzusetzen. Kritiker befürchten, dass dies auch bei legitimen Veranstaltungen wie Klimaprotesten oder politischen Demonstrationen der Fall sein könnte. Frankreich hat bereits demonstriert, wann es gewillt ist, diese Technologie zu nutzen: Bei den Olympischen Spielen 2024, kam KI-gestützte Videoüberwachung bereits zum Einsatz. Amnesty International warnt deshalb vor einer „ernsthaften Bedrohung für bürgerliche Freiheiten“, da solche Maßnahmen künftig zur Regel werden könnten. Nutznießer solcher Praktiken könnten private Unternehmen und Drittstaaten sein. Sie wären in der Lage, EU-Bürger zu überwachen, sofern sie den Sicherheitsbehörden die verwendete KI-Technologie bereitstellen. Mehrere Staaten unterstützen Frankreichs Forderung Gefordert wurde der KI-Einsatz in einer Sitzung des Ausschusses der Ständigen Vertreter (COREPER) im Jahr 2022. Ursprünglich sollte Echtzeit-Gesichtserkennung im öffentlichen Raum nur dem Militär erlaubt sein. In einer späteren Sitzung unterstützten mehrere Staaten Forderung Frankreichs, darunter Italien, Schweden, Finnland, Tschechien, Litauen, Rumänien, Ungarn und Bulgarien. In einer COREPER-Sitzung 2023 forderten dann Dänemark, die Niederlande, Portugal und die Slowakei ein verhältnismäßiges Verbot, das nur bei Diskriminierungsgefahr gelten solle. Zugleich sprachen sich diese Staaten gegen ein umfassendes Verbot für die Strafverfolgung aus. Umstrittene biometrische Kategorisierungssysteme in der EU Tritt der AI Act am 2. Februar 2025 in Kraft bleiben einige Bereiche zum Teil von der Überwachungswut unangetastet. Dazu zählt etwa Emotionserkennung am Arbeitsplatz, in Schulen und Geschäften. Arbeitgeber dürfen damit keine Emotionen ihrer Mitarbeiter analysieren. Sicherheitsbehörden und Grenzschützer sind jedoch dank des Einflusses Frankreichs und anderer Länder auch hier von diesem Verbot ausgenommen. Biometrische Kategorisierungssysteme, die ethnische Zugehörigkeit oder sexuelle Orientierung bestimmen, sind umstritten. Das neue EU-Gesetz verbietet ihren Einsatz, erlaubt jedoch Ausnahmen für Strafverfolgungsbehörden, insbesondere auf Frankreichs Drängen, um Personen zu identifizieren, die gewalttätigen Extremismus oder ein terroristisches Risiko darstellen. Gesichtserkennungssoftware darf in Echtzeit bei Ermittlungen zu bestimmten Straftaten eingesetzt werden. In diesem Kontext fordern mehrere Staaten, einschließlich Frankreich, diese Liste noch zu erweitern. Griechenland plädierte dafür, Gefängnisse und Grenzgebiete von Verboten auszunehmen, um dort Echtzeitüberwachung zu ermöglichen. Grundrechtsverstöße und EU-Recht Ein Jurist der Fraktion der Europäischen Volkspartei (EVP) kritisiert den AI Act als Verstoß gegen Grundrechte und EU-Recht. Die Rechtswissenschaftlerin Plixavra Vogiatzoglou der Universität Amsterdam betont, dass die nationalen Sicherheitsausnahmen Urteilen des Europäischen Gerichtshofs widersprechen. Organisationen wie European Digital Rights warnen zudem, dass solche Systeme die Anonymität im öffentlichen Raum gefährden und der AI Act Grundrechte in Europa einschränken könnte. In den letzten Verhandlungen des AI Acts am 6. Dezember 2023 drängte zudem die spanische Ratspräsidentschaft auf eine schnelle Verabschiedung vor den Europawahlen 2024. Ziel war es, das Erstarken rechtsradikaler Parteien zu verhindern. Schließlich wurde beschlossen, dass jede KI-gestützte Überwachungstechnologie von einer unabhängigen nationalen Behörde zugelassen werden muss. Selbstzertifizierung möglich Hochrisikotechnologien wie Echtzeitüberwachung einzusetzen, erfordert normalerweise einen Gerichtsbeschluss, die Registrierung in einer europäischen Datenbank und eine Folgenabschätzung. In den Verhandlungen wurde jedoch eine Lockerung eingeführt: Anbieter können selbst entscheiden, ob ihr Produkt als Hochrisikotechnologie gilt. Dafür müssen sie eine Selbstzertifizierung ausfüllen. Ein internes Arbeitspapier des juristischen Dienstes des Europäischen Parlaments kritisiert diese Lockerung, da sie den KI-Anbietern zu viel Spielraum lässt und das Ziel des AI Acts, das Risiko von Hochrisiko-KI-Systemen zu regulieren, gefährdet. Zugleich warnten Verhandlungspartner wie die französische Regierung, dass Unternehmen, wenn ihnen der breite Einsatz von KI-Technologien untersagt wird, in Regionen ohne digitale Grundrechte abwandern könnten.
Heimliche Schlupflöcher im AI Act Bedenken über Grundrechtsverletzungen aufgrund „nationaler Sicherheit“: AI Act könnte Anonymität gefährden. shutterstock.com – Ivan Marc Ab Februar 2025 treten die ersten Regelungen des AI Acts in Kraft, um die Gefahren der Künstlichen Intelligenz (KI) zu begrenzen. Das Gesetz enthält jedoch zahlreiche Ausnahmen, insbesondere durch Schlupflöcher, die von Frankreich ausgehandelt wurden. Wie weitreichend sich dies auf Europas Grundrechte auswirken könnte, wurde von Investigate Europe, einem Journalistenteam aus elf europäischen Staaten, recherchiert. Private Unternehmen und Drittstaaten schauen zu Eine dieser Ausnahmen bezieht sich auf die Nutzung von Gesichtserkennungssystemen im öffentlichen Raum. Generell ist sie verboten, sollte jedoch die „nationale Sicherheit“ bedroht sein, ist es Behörden gestattet, KI-Überwachung einzusetzen. Kritiker befürchten, dass dies auch bei legitimen Veranstaltungen wie Klimaprotesten oder politischen Demonstrationen der Fall sein könnte. Frankreich hat bereits demonstriert, wann es gewillt ist, diese Technologie zu nutzen: Bei den Olympischen Spielen 2024, kam KI-gestützte Videoüberwachung bereits zum Einsatz. Amnesty International warnt deshalb vor einer „ernsthaften Bedrohung für bürgerliche Freiheiten“, da solche Maßnahmen künftig zur Regel werden könnten. Nutznießer solcher Praktiken könnten private Unternehmen und Drittstaaten sein. Sie wären in der Lage, EU-Bürger zu überwachen, sofern sie den Sicherheitsbehörden die verwendete KI-Technologie bereitstellen. Mehrere Staaten unterstützen Frankreichs Forderung Gefordert wurde der KI-Einsatz in einer Sitzung des Ausschusses der Ständigen Vertreter (COREPER) im Jahr 2022. Ursprünglich sollte Echtzeit-Gesichtserkennung im öffentlichen Raum nur dem Militär erlaubt sein. In einer späteren Sitzung unterstützten mehrere Staaten Forderung Frankreichs, darunter Italien, Schweden, Finnland, Tschechien, Litauen, Rumänien, Ungarn und Bulgarien. In einer COREPER-Sitzung 2023 forderten dann Dänemark, die Niederlande, Portugal und die Slowakei ein verhältnismäßiges Verbot, das nur bei Diskriminierungsgefahr gelten solle. Zugleich sprachen sich diese Staaten gegen ein umfassendes Verbot für die Strafverfolgung aus. Umstrittene biometrische Kategorisierungssysteme in der EU Tritt der AI Act am 2. Februar 2025 in Kraft bleiben einige Bereiche zum Teil von der Überwachungswut unangetastet. Dazu zählt etwa Emotionserkennung am Arbeitsplatz, in Schulen und Geschäften. Arbeitgeber dürfen damit keine Emotionen ihrer Mitarbeiter analysieren. Sicherheitsbehörden und Grenzschützer sind jedoch dank des Einflusses Frankreichs und anderer Länder auch hier von diesem Verbot ausgenommen. Biometrische Kategorisierungssysteme, die ethnische Zugehörigkeit oder sexuelle Orientierung bestimmen, sind umstritten. Das neue EU-Gesetz verbietet ihren Einsatz, erlaubt jedoch Ausnahmen für Strafverfolgungsbehörden, insbesondere auf Frankreichs Drängen, um Personen zu identifizieren, die gewalttätigen Extremismus oder ein terroristisches Risiko darstellen. Gesichtserkennungssoftware darf in Echtzeit bei Ermittlungen zu bestimmten Straftaten eingesetzt werden. In diesem Kontext fordern mehrere Staaten, einschließlich Frankreich, diese Liste noch zu erweitern. Griechenland plädierte dafür, Gefängnisse und Grenzgebiete von Verboten auszunehmen, um dort Echtzeitüberwachung zu ermöglichen. Grundrechtsverstöße und EU-Recht Ein Jurist der Fraktion der Europäischen Volkspartei (EVP) kritisiert den AI Act als Verstoß gegen Grundrechte und EU-Recht. Die Rechtswissenschaftlerin Plixavra Vogiatzoglou der Universität Amsterdam betont, dass die nationalen Sicherheitsausnahmen Urteilen des Europäischen Gerichtshofs widersprechen. Organisationen wie European Digital Rights warnen zudem, dass solche Systeme die Anonymität im öffentlichen Raum gefährden und der AI Act Grundrechte in Europa einschränken könnte. In den letzten Verhandlungen des AI Acts am 6. Dezember 2023 drängte zudem die spanische Ratspräsidentschaft auf eine schnelle Verabschiedung vor den Europawahlen 2024. Ziel war es, das Erstarken rechtsradikaler Parteien zu verhindern. Schließlich wurde beschlossen, dass jede KI-gestützte Überwachungstechnologie von einer unabhängigen nationalen Behörde zugelassen werden muss. Selbstzertifizierung möglich Hochrisikotechnologien wie Echtzeitüberwachung einzusetzen, erfordert normalerweise einen Gerichtsbeschluss, die Registrierung in einer europäischen Datenbank und eine Folgenabschätzung. In den Verhandlungen wurde jedoch eine Lockerung eingeführt: Anbieter können selbst entscheiden, ob ihr Produkt als Hochrisikotechnologie gilt. Dafür müssen sie eine Selbstzertifizierung ausfüllen. Ein internes Arbeitspapier des juristischen Dienstes des Europäischen Parlaments kritisiert diese Lockerung, da sie den KI-Anbietern zu viel Spielraum lässt und das Ziel des AI Acts, das Risiko von Hochrisiko-KI-Systemen zu regulieren, gefährdet. Zugleich warnten Verhandlungspartner wie die französische Regierung, dass Unternehmen, wenn ihnen der breite Einsatz von KI-Technologien untersagt wird, in Regionen ohne digitale Grundrechte abwandern könnten.