Weder Radiologen noch KI können Deepfake-Röntgenaufnahmen eindeutig erkennen

25 März

Künstliche Intelligenz in der Medizin revolutioniert die Diagnostik und Forschung im Gesundheitswesen. Neue Erkenntnisse zeigen jedoch, dass synthetisch erstellte Deepfake-Röntgenbilder weder von Experten noch von KI zuverlässig als solche erkannt werden. Das wirft ethische und rechtliche Fragen auf.

Die rasante Entwicklung der Künstlichen Intelligenz (KI) revolutioniert das Gesundheitswesen. Besonders im Bereich der Diagnostik zeigt KI großes Potenzial, indem sie komplexe Datenmengen analysiert und präzise Vorhersagen trifft. Gleichzeitig werden jedoch ethische Fragen zur Transparenz von Algorithmen und dem Schutz von Patientinnen und Patienten sowie deren Daten aufgeworfen.

Zwei aktuelle Artikel in Nature und Radiological Society of North America (RSNA) zeigen dabei die Risiken auf, die mit der zunehmenden Integration von KI in der medizinischen Forschung und Praxis einhergehen. Forscher haben dazu im Rahmen einer Studie KI-Modelle wie bspw. ChatGPT genutzt, um synthetische Röntgenbilder zu generieren. Diese könnten zukünftig die medizinische Ausbildung und Forschung unterstützen, indem sie realistische, aber anonymisierte Bilddaten bereitstellen. Es werden jedoch auch starke Bedenken hinsichtlich der potenziellen Missbrauchsgefahr geäußert und die Notwendigkeit klarer regulatorischer Rahmenbedingungen betont.

Fazit: KI bietet enorme Chancen für das Gesundheitswesen, insbesondere in der Diagnostik und Forschung. Gleichzeitig sind klare ethische und rechtliche Leitlinien erforderlich, um Risiken zu minimieren und das Vertrauen in diese Technologien zu stärken.