Der TÜV-Verband begrüßt die Zustimmung des Europaparlaments zur KI-Verordnung („AI Act“), mit der in der EU ein Rechtsrahmen für sichere und vertrauenswürdige KI entsteht. Die EU schafft so als erster großer Wirtschaftsraum weltweit die rechtlichen Voraussetzungen für eine sichere Entwicklung Künstlicher Intelligenz. Jetzt gelte es, die Voraussetzungen für die Prüfung der KI-Systeme zu schaffen, so der Dachverband der TÜV-Prüforganisationen.
„Mit dem Fortschritt des Gesetzgebungsverfahrens rücken Umsetzungsfragen des AI Acts in den Fokus“, sagt Dr. Joachim Bühler, Geschäftsführer des TÜV-Verbands. Die Anforderungen des AI Acts müssten nun mit einheitlichen europäischen Normen konkretisiert werden, um Rechtssicherheit für Anbieter und Anwender von KI, Prüforganisationen und Behörden zu schaffen. Ein kritischer Punkt bleibe die exakte Klassifizierung von Hochrisiko-KI-Systemen. Der TÜV-Verband empfiehlt, dass die EU-Kommission in Kürze Umsetzungsleitfäden mit konkreten Beispielen veröffentlicht.
Aus Sicht des TÜV-Verbands müssen die Akteure im KI-Ökosystem schon jetzt damit beginnen, die Voraussetzungen für die Prüfung der KI-Systeme zu schaffen. „Zwar wird der AI Act erst in etwa zwei Jahren zur Anwendung kommen, aber alle wesentlichen Eckpunkte sind schon jetzt bekannt“, betont Bühler. Viele Anforderungen könnten die Anbieter in ihre bestehenden Qualitäts- und Risikomanagementsysteme integrieren. Eine wichtige Vorgabe sei die Verpflichtung der Mitgliedstaaten, sogenannte Reallabore („Regulatory Sandboxes“) einzurichten, in denen Anbieter KI-Innovationen entwicklungsbegleitend testen können. Für solche KI-Qualitätszentren, die auch KMU und Start-ups zugutekommen sollen, setzt sich der TÜV-Verband seit mehreren Jahren ein.
Die TÜV-Prüforganisationen bauen derzeit entsprechende Prüfkapazitäten auf, um die KI-Anbieter bei der Umsetzung des AI Acts begleiten zu können. Seit seiner Gründung im Jahr 2021 befasst sich das TÜV AI.Lab mit den regulatorischen Anforderungen an KI-Systeme und treibt die Entwicklung von Prüfkriterien voran. Das TÜV AI.Lab engagiert sich unter anderem als Partner in der Nationalen Initiative für Künstliche Intelligenz und Datenökonomie (MISSION KI) des Bundesministeriums für Digitales und Verkehr und der Deutschen Akademie der Technikwissenschaften (acatech).
Ein zentrales Element der Verordnung ist der risikobasierte Ansatz. Nur KI-Systeme, die als hochriskant eingestuft werden, müssen verpflichtende Sicherheitsanforderungen erfüllen. Dazu zählen zum Beispiel KI-Systeme in Medizinprodukten oder in kritischen Infrastrukturen. Aus Sicht des TÜV-Verbands ist es wichtig, dass bestimmte hochriskante KI-Systeme von einer unabhängigen Prüfstelle geprüft werden müssen. So kann sichergestellt werden, dass alle Anforderungen an Transparenz, Datenqualität oder Cybersicherheit eingehalten werden. Weniger risikobehaftete KI-Systeme fallen dagegen nicht in den Anwendungsbereich der Regulierung. Darüber hinaus muss auch so genannte Allzweck-KI, zum Beispiel generative KI-Modelle wie ChatGPT, bestimmte Mindestanforderungen erfüllen.
Die EU-Institutionen hatten sich im Dezember 2023 auf den AI Act geeinigt. Nach der Zustimmung der Mitgliedsstaaten und des Parlaments wird der Text im Amtsblatt der EU veröffentlicht und tritt damit offiziell in Kraft. Nach der Übergangsfrist von zwei Jahren sind die meisten Anforderungen ab Mitte 2026 verpflichtend anzuwenden.