In Kürze

Die Verantwortungslücke bei der KI

Berlin (pag) – Beim Einsatz von Künstlicher Intelligenz (KI) in der Medizin reicht Transparenz allein nicht aus, findet die Ethikerin Prof. Saskia Nagel. Für wichtiger im Umgang mit der Black Box des maschinellen Lernens hält sie die Interpretierbarkeit.

„Krank laut KI – wer übernimmt in Zukunft die Verantwortung für Diagnosen?” lautet die Leitfrage einer Veranstaltung, die im Rahmen der Zukunftsdiskurse der Universitätsmedizin Göttingen stattfindet. Dort beschäftigt sich Prof. Saskia Nagel, RWTH Aachen, mit ethischen Perspektiven beim KI-Einsatz in der Medizin. Im Moment gehe es darum, dass Mediziner und Prozesse durch KI unterstützt werden, betont sie. Ziel sei immer eine bessere medizinische Versorgung.

Nagel thematisiert den Umgang mit Systemen, die wir nicht mehr komplett durchdringen. Ihre etwas provokante Frage lautet: „Was glauben Sie, wie die Ärzte ihre jetzigen Technologien en détail verstehen?“ Die Professorin vermutet, dass nicht jeder Mediziner diese Systeme voll verstehe – warum sei das dann bei der KI ein Problem? Transparenz als Antwort auf die Black Box der KI hält sie für nicht zielführend. Was nutze ein offengelegter Code, den die meisten nicht verstehen? „Wir brauchen das, was wir Interpretierbarkeit nennen“, verlangt die Ethikerin, der es um Systeme geht, die ihr Verhalten so erklären, dass es die Nutzer verstehen können. Technisch sei das aber nicht immer möglich und sehr aufwendig. Nagel: „Dann müssen wir uns fragen, ob wir uns auf Entscheidungen verlassen sollten, die wir nicht erklären können? Tun wir das nicht schon oft?“

Stichwort Verantwortung: Nagel hält fest, dass diese nur zuschreibbar sei, wenn Kontrolle und Wissen bestehen. Was passiert aber, wenn der Mensch im Zusammenspiel mit der KI nicht mehr derjenige ist, der kontrolliert und nicht mehr alles verstehen kann? Dann bestehe eine Verantwortungslücke, „denn die KI sei kein moralischer Agent“. Wer trägt in diesem Fall die Verantwortung? Nagel nennt drei mögliche Lösungen: Erstens könne Verantwortung proportional aufgeteilt werden. Die zweite Möglichkeit bestehe darin, bei Mensch-Maschinen-Interaktionen nicht mehr nach Verantwortung zu fragen. Als drittes nennt sie die kollektive Verantwortung. Dabei bezieht man Verantwortung nicht länger auf Individuen, sondern auf Systeme oder Gruppen.

TÜV für KI-Systeme?

Die EU-Kommission will regulieren, was Künstliche Intelligenz darf und was nicht. Dabei möchte sie sich an der Kritikalität, am Risiko des jeweiligen KI-Systems, orientieren. Armin Grunwald, Professor für Technikphilosophie am Karlsruher Institut für Technologie und Leiter des Büros für Technikfolgen-Abschätzung beim Bundestag, fordert einen regelmäßigen TÜV für KI.

© stock.adobe.com, Elnur

Zur an der Kritikalität orientierten Regulierung merkt er an, dass eine theoretische Beurteilung nicht die mögliche Dynamik der späteren realen Nutzung vorwegnehmen könne. Diese sei oft unvorhersehbar, schon allein deshalb, weil Marktgeschehen und Akzeptanz bei den Menschen immer wieder überraschend verlaufen könnten. Daher sei eine niedrige Kritikalität nur ein Hinweis auf ein anzunehmendes geringes Schadenspotenzial, aber keine Garantie, dass dies auch so bleibe. Die Offenheit der Zukunft verhindere eine auf empirischen Daten beruhende Risikobeurteilung. „Hinzu kommt“, so Grunwald, „dass KI-Systeme sich durch maschinelles Lernen in unvorhersehbarer Weise verändern können“. Deshalb verlangt er, dass KI-Systeme zugelassen werden. Sie müssten außerdem verlässlich und nachweisbar ihren Dienst tun und regelmäßig von einer Art TÜV überprüft werden.