KI-Zertifizierung und -Absicherung aus der Sicht von Unternehmen

8 Nov

Der Einsatz von KI im privaten und beruflichen Umfeld nimmt kontinuierlich zu. Auf europäischer Ebene werden daher Regulierungen durch KI-Zertifizierung und -Absicherung diskutiert. Die Fraunhofer-Institute IAO und IPA haben diese analysiert und Anforderungen sowie Bedürfnisse der Unternehmen in einem Whitepaper zusammengefasst.

Künstliche Intelligenz (KI) bietet große Chancen. Allerdings sind auch Risiken und Unsicherheiten mit ihrem Einsatz von KI verbunden, wie algorithmische Fehler, Haftungsrisiken, Diskriminierung und Datenschutzverletzungen. Wenn KI-basierte Systeme nicht nach einheitlichen Sicherheitsstandards entwickelt, betrieben und geprüft werden, können sie die Sicherheit von Produkten und Dienstleistungen beeinträchtigen. Um diesen Herausforderungen entgegenzuwirken, hat die EU einen Gesetzesentwurf für den EU AI Act vorgestellt, der eine Regulierung zum Ziel hat.

Das Fraunhofer-Institut für Arbeitswirtschaft und Organisation IAO und das Fraunhofer-Institut für Produktionstechnik und Automatisierung IPA haben die Sichtweise von Unternehmen untersucht. So hat das Forschungsteam den aktuellen Stand der gesetzlichen Regulierungen zur KI-Absicherung aufgenommen. Basierend auf den Ergebnissen aus Interviews mit Fachleuten hat das Team außerdem Anforderungen seitens Unternehmen, Forschungs- und Bildungseinrichtungen an die Umsetzung von Absicherungs- und Zertifizierungsprozessen von KI-Systemen formuliert.

Nach dem aktuellen Gesetzesentwurf für den EU AI Act ist vorgesehen, dass KI-Anwendungen in verschiedene Risikostufen eingeteilt werden und je nachdem unterschiedlichen Auflagen unterworfen werden. Betreiber von Hochrisiko-KI-Anwendungen werden verpflichtet, ihre Konformität mit diesen Anforderungen in einem Self-Assessment zu überprüfen und können anschließend das CE-Siegel als Zertifikat verwenden. Verpflichtende Prüfungen durch Dritte sollen nur in besonderen Gebieten, wie z. B. der Medizintechnik, erforderlich sein.

Obwohl diese Anforderungen sehr klar vermitteln, wie ein mit dem EU AI Act konformer KI-Einsatz aussehen soll, ist derzeit noch unklar, wie das erreicht werden kann. Aktuell fehlen konkrete Maßnahmen zur Überprüfung der Auflagen. „Unternehmen haben z. B. Schwierigkeiten, einzuschätzen, unter welchen Umständen ihre KI-Anwendung transparent genug ist oder welche Fehlerrate tolerierbar ist“, erklärt Janika Kutz, Teamleiterin am Forschungs- und Innovationszentrum Kognitive Dienstleistungssysteme KODIS des Fraunhofer IAO. Gleichermaßen bestehe die Sorge, dass die Aufwände für eine Zertifizierung insbesondere die Ressourcen von Start-ups und kleineren und mittelständischen Unternehmen übersteigen. Es wird befürchtet, dass juristisches Fachwissen erforderlich ist, um Auflagen vollständig korrekt umzusetzen, und die Einhaltung Entwicklungszeiten und -kosten steigen lässt, sodass europäische Unternehmen nicht mit internationaler Konkurrenz mithalten können.

Ein wichtiges Ergebnis ist, dass die Zertifizierung für Unternehmen aller Größen umsetzbar sein muss. Jeden Anwendungsfall absichern und zertifizieren zu lassen ist aufwendig und ressourcenintensiv, daher stellen Unternehmen klare Anforderungen an Regelungen zur KI-Absicherung. Faktoren wie Transparenz und Machbarkeit von Zertifizierungsprozessen, klare Rollen von Behörden und Institutionen sowie die Bewahrung der Innovationsfähigkeit werden als besonders wichtig hervorgehoben. „Die befragten Unternehmen sind sich einig, dass bei der KI-Zertifizierung immer der Mehrwert für die Endnutzer im Vordergrund stehen sollte“, fasst Prof. Dr. Marco Huber, Leiter der Abteilung Cyber Cognitive Intelligence am Fraunhofer IPA, die Ergebnisse zusammen.

Die meisten Unternehmen, so die Studie, scheinen nicht ausreichend auf die Regulierungen durch den EU AI Act vorbereitet zu sein. So könnten Unternehmen von Informationsvermittlung, Wissenstransfer sowie Netzwerkbildung profitieren und seeien außerdem an individuellen Beratungsangeboten sowie praktischen Methoden und Werkzeugen zur Unterstützung bei der Absicherung und Zertifizierung von KI-basierten Systemen interessiert. Durch den fortlaufenden Austausch zwischen Regulierungsbehörden, Industrie, Forschungseinrichtungen und der breiten Öffentlichkeit kann ein umfassendes Verständnis der Chancen und Herausforderungen der KI-Nutzung entwickelt werden. Dies werde letztendlich zur Entwicklung von KI-Systemen führen, die effektiver, sicherer und praxisorientierter sind.

Das Whitepaper KI-Zertifizierung und Absicherung im Kontext des EU AI Act steht kostenlos zur Verfügung.