Können wir KI vertrauen?

Drittmittelprojekt AI-TRUST ist gestartet

Die Zusammenführung verschiedener digitaler Technologien - Big Data, intelligente Sensoren, künstliche neuronale Netze für Deep Learning, Hochleistungsrechner und andere Fortschritte - ermöglichen eine neue Generation von "KI-Systemen".

In der medizinischen Forschung und Gesundheitsversorgung versprechen KI-Systeme wesentliche Fortschritte bei der Diagnose, Vorhersage und Behandlung von Krankheiten. Damit KI-basierte Systeme zu einem Erfolg und echten Vorteil in der Gesundheitsversorgung werden können, müssen sie jedoch interpretierbar und vertrauenswürdig sein, in dem Sinne, dass sie ethischen und rechtlichen Regeln und den hohen gesellschaftlichen Standards für technologische Risikobewertungen genügen. Ein systematischer, gründlicher und erschöpfender Vergleich bestehender Methoden zur Interpretation von Deep-Learning-Netzwerken, um ihre Nützlichkeit im Kontext eines klinischen KI-Systems zu bewerten, ist notwendig.

Um diese wichtige Forschungslücke zu schließen, wird AI-TRUST ein Deep-Learning-basiertes Assistenzsystem für die EEG-Diagnose (DeepEEG) entwickeln, das auf interpretierbaren Deep-Learning-Tools basiert. In einem interdisziplinären Team werden wir auch die zentrale Herausforderung für eine ethisch eingebettete und wertsensitive Gestaltung von KI-Systemen in der Medizin angehen. Ziel ist es, Lösungen zu finden, die die Werte, Rechte und Bedenken der wichtigsten Stakeholder (d.h. Patienten, Ärzte) in Bezug auf die gewünschten Funktionen, das Sicherheitsniveau und die Nicht-Verletzung von Rechten und Werten (wie der Autonomie des Patienten) und andere berücksichtigen. Gemeinsam werden diese Bemühungen die Entwicklung von transparenten und ethischen KI-Systemen in der Medizin wesentlich fördern.