Ein neuer Bericht untersucht Risiken und Maßnahmen zur Verbesserung des Datenschutzes bei KI-Systemen wie Large Language Models (LLMs). Der Bericht, der im April 2025 veröffentlicht wurde, bietet Risikomanagement-Strategien und praxisnahe Beispiele zur Wahrung der Datenschutzkonformität. Entwickelt wurde der Bericht im Auftrag der kroatischen Datenschutzbehörde durch die EDPB und richtet sich vor allem an Datenschutzbehörden und Unternehmen.
Der aktuelle Bericht „AI Privacy Risks & Mitigations Large Language Models (LLMs)“ liefert eine umfassende Methodik zum Risikomanagement im Umgang mit LLM-Systemen. Der von der EDPB (Europäischer Datenschutzausschuss) im Rahmen des Support Pool of Experts-Programms initiierte Bericht wurde vom externen Experten Isabel Barbera im April 2025 fertiggestellt. Die Anfrage kam von der kroatischen Datenschutzbehörde (DPA), um die europäischen Datenschutzbehörden bei der Regulierung und dem Einsatz dieser Technologie zu unterstützen.
Inhalte des Berichts
Der Bericht beinhaltet Ansätze zur Identifikation, Bewertung und Minderung von Datenschutzrisiken bei der Nutzung von LLM-Systemen. Er beschreibt eine umfassende Methodik zum Risikomanagement, die es ermöglicht, systematisch Datenschutz- und Privatsphäre-Risiken zu identifizieren, zu analysieren und zu mitigieren, sowie Anwendungsbeispiele, wie diese Methodik in realen Szenarien verwendet werden kann. Dazu gehören:
- Ein virtueller Chatbot zur Kundenbetreuung.
- Ein Bildungssystem, das den Lernfortschritt von Schülern überwacht und unterstützt.
- Ein KI-Assistent für Reise- und Terminmanagement.
Zielgruppe und Nutzen
Das Hauptziel ist es, Datenschutzbehörden (DPAs) innovative Lösungen und tiefgreifende Informationen bereitzustellen, um sich mit den spezifischen Herausforderungen der LLM-Technologie auseinandersetzen zu können. Gleichzeitig liefert der Bericht auch Unternehmen wichtige Orientierungspunkte, um Datenschutzkonformität sicherzustellen.