Die Abgeordneten des Europäischen Parlaments haben mit dem Rat eine politische Einigung über einen Gesetzentwurf erzielt, der sicherstellen soll, dass KI in Europa sicher ist, die Grundrechte und die Demokratie respektiert, während Unternehmen gedeihen und expandieren können.
Die Verhandlungsführer von Parlament und Rat haben eine vorläufige Einigung über das Gesetz über künstliche Intelligenz erzielt. Mit dieser Verordnung soll sichergestellt werden, dass die Grundrechte, die Demokratie, die Rechtsstaatlichkeit und die ökologische Nachhaltigkeit vor KI mit hohem Risiko geschützt werden, und gleichzeitig die Innovation fördern und Europa zu einer Führungsrolle in diesem Bereich machen. Die Vorschriften legen Verpflichtungen für KI fest, die auf ihren potenziellen Risiken und dem Ausmaß ihrer Auswirkungen basieren.
Verbotene Anwendungen
In Anerkennung der potenziellen Bedrohung der Bürgerrechte und der Demokratie, die von bestimmten Anwendungen der KI ausgeht, haben sich die gesetzgebenden Organe darauf geeinigt, Folgendes zu verbieten:
- biometrische Kategorisierungssysteme, die sensible Merkmale verwenden (z. B. politische, religiöse, philosophische Überzeugungen, sexuelle Orientierung, Rasse);
- ungezieltes Scraping von Gesichtsbildern aus dem Internet oder CCTV-Aufnahmen zur Erstellung von Gesichtserkennungsdatenbanken;
- Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen;
- Social Scoring auf der Grundlage von Sozialverhalten oder persönlichen Merkmalen;
- KI-Systeme, die menschliches Verhalten manipulieren, um ihren freien Willen zu umgehen;
- KI wird verwendet, um die Verletzlichkeit von Menschen (aufgrund ihres Alters, ihrer Behinderung, ihrer sozialen oder wirtschaftlichen Situation) auszunutzen.
Ausnahmen von der Durchsetzung
Die Verhandlungsführer einigten sich auf eine Reihe von Schutzmaßnahmen und enge Ausnahmen für die Verwendung biometrischer Identifizierungssysteme (RBI) in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken, vorbehaltlich einer vorherigen richterlichen Genehmigung und für streng definierte Listen von Straftaten. „Post-Remote“-RBI würde ausschließlich bei der gezielten Suche nach einer Person eingesetzt, die wegen einer schweren Straftat verurteilt oder verdächtigt wird.
Die „Echtzeit“-RBI würde strenge Bedingungen erfüllen und ihre Verwendung wäre zeitlich und örtlich begrenzt, und zwar zu folgenden Zwecken:
- gezielte Durchsuchung von Opfern (Entführung, Menschenhandel, sexuelle Ausbeutung),
- Verhütung einer konkreten und gegenwärtigen terroristischen Bedrohung oder
- die Lokalisierung oder Identifizierung einer Person, die im Verdacht steht, eine der in der Verordnung genannten spezifischen Straftaten begangen zu haben (z. B. Terrorismus, Menschenhandel, sexuelle Ausbeutung, Mord, Entführung, Vergewaltigung, bewaffneter Raubüberfall, Beteiligung an einer kriminellen Vereinigung, Umweltkriminalität).
Pflichten für Hochrisikosysteme
Für KI-Systeme, die als Hochrisikosysteme eingestuft sind (aufgrund ihres erheblichen potenziellen Schadens für Gesundheit, Sicherheit, Grundrechte, Umwelt, Demokratie und Rechtsstaatlichkeit), wurden klare Verpflichtungen vereinbart. Den Abgeordneten ist es gelungen, neben anderen Anforderungen eine verbindliche Folgenabschätzung der Grundrechte aufzunehmen, die auch für den Versicherungs- und Bankensektor gilt. KI-Systeme, die zur Beeinflussung des Wahlergebnisses und des Wählerverhaltens eingesetzt werden, werden ebenfalls als hochriskant eingestuft. Die Bürgerinnen und Bürger werden das Recht haben, Beschwerden über KI-Systeme einzureichen und Erklärungen zu Entscheidungen zu erhalten, die auf Hochrisiko-KI-Systemen beruhen und sich auf ihre Rechte auswirken.
Leitplanken für allgemeine Systeme der künstlichen Intelligenz
Um dem breiten Aufgabenspektrum von KI-Systemen und der raschen Erweiterung ihrer Fähigkeiten Rechnung zu tragen, wurde vereinbart, dass Allzweck-KI-Systeme [general-purpose AI (GPAI)] und die GPAI-Modelle, auf denen sie basieren, die ursprünglich vom Parlament vorgeschlagenen Transparenzanforderungen einhalten müssen. Dazu gehören die Erstellung technischer Dokumentationen, die Einhaltung des EU-Urheberrechts und die Verbreitung detaillierter Zusammenfassungen über die für die Schulung verwendeten Inhalte.
Für hochrangige GPAI-Modelle mit systemischen Risiken gelang es den Verhandlungsführern des Parlaments, strengere Auflagen durchzusetzen. Wenn diese Modelle bestimmte Kriterien erfüllen, müssen sie Modellbewertungen durchführen, systemische Risiken bewerten und mindern, kontradiktorische Tests durchführen, der Kommission über schwerwiegende Sicherheitsvorfälle Bericht erstatten, die Cybersicherheit gewährleisten und über ihre Energieeffizienz Bericht erstatten. Die Abgeordneten bestanden auch darauf, dass GPAI mit Systemrisiko bis zur Veröffentlichung harmonisierter EU-Normen auf Verhaltenskodizes zurückgreifen können, um die Verordnung einzuhalten.
Maßnahmen zur Förderung von Innovation und KMU
Die Abgeordneten wollten sicherstellen, dass Unternehmen, insbesondere KMU, KI-Lösungen entwickeln können, ohne dass Branchenriesen, die die Wertschöpfungskette kontrollieren, übermäßigen Druck ausüben. Zu diesem Zweck fördert die Vereinbarung sogenannte regulatorische Sandkästen und Real-World-Tests, die von den nationalen Behörden eingerichtet werden, um innovative KI zu entwickeln und zu trainieren, bevor sie auf den Markt gebracht werden.
Sanktionen
Die Nichteinhaltung der Regeln kann je nach Verstoß und Größe des Unternehmens zu Geldbußen zwischen 35 Millionen Euro oder 7 % des weltweiten Umsatzes und 7,5 Millionen oder 1,5 % des Umsatzes führen.
Nächste Schritte
Der vereinbarte Text muss nun sowohl vom Parlament als auch vom Rat förmlich angenommen werden, um EU-Recht zu werden. Die Ausschüsse für Binnenmarkt und bürgerliche Freiheiten des Parlaments werden in einer der nächsten Sitzungen über das Abkommen abstimmen.