In Kürze

Das Vorurteil der Maschine

Chemnitz/Güterloh (pag) – Der Einsatz automatisierter Entscheidungen und Künstlicher Intelligenz (KI) nimmt einem Report zufolge in Europa an Fahrt auf. Prof. Wolfgang Einhäuser-Treyer und Prof. Alexandra Bendixen von der TU Chemnitz warnen jedoch davor, KI zu überschätzen und blind in die scheinbare Objektivität maschineller Entscheidungsprozesse zu vertrauen.

KI kann in riesigen Datenmengen Muster erkennen. Interessant wird es, wenn sie Muster erkennt, die dem Menschen bisher verborgen blieben. Die Hoffnung: Durch einen objektiven Algorithmus fällen KI-Anwendungen bei gesellschaftlich und individuell bedeutsamen Fragen „schnellere“ und „gerechtere“ Entscheidungen – etwa, wenn es um die Kreditvergabe oder medizinische Behandlungen geht.

Einhäuser-Treyer und Bendixen weisen darauf hin, dass Verzerrungen in den Datenbanken, mit denen selbstlernende Algorithmen trainiert werden, zu Vorurteilen bei der Bewertung individueller Fälle führen. Noch problematischer werde es, wenn sich die Ausführenden dieser Verzerrungen nicht bewusst seien oder die Verantwortung auf die KI abwälzen. „Hinzu kommt, dass bei hinreichend komplexen Systemen in der Regel nicht mehr nachvollziehbar ist, auf welcher Grundlage eine Entscheidung getroffen wurde“, betonen die Professoren. Nachvollziehbarkeit von und Verantwortlichkeit für Entscheidungsprozesse seien aber die zentralen Voraussetzungen für die Akzeptanz von Entscheidungen.

Verzerrungen in den Datenbanken führen zu Vorurteilen bei der Bewertung individueller Fälle, warnen Prof. Wolfgang Einhäuser-Treyer und Prof. Alexandra Bendixen von der TU Chemnitz, © TU Chemnitz, Jacob Müller

Verzerrungen unvermeidlich

Dass das Erkennen von Zusammenhängen in großen Datenbanken für den Einzelnen gewaltige Vorteile mit sich bringt, räumen die Vorstandsmitglieder des Zentrums für Sensorik und Kognition allerdings ein. Ein Beispiel seien Patienten mit einer seltenen Symptomatik. Diese könnten sehr davon profitieren, nicht nur auf das Wissen eines einzelnen Arztes zuzugreifen, sondern auf den gewichteten Erfahrungsschatz der gesamten Ärzteschaft. „Im besten Fall ergeben sich durch die KI neue Ideen zur Einordnung der Symptome und zur geeigneten Behandlung.“ Grundsätzlich mahnen die Wissenschaftler an, das Bewusstsein für die unvermeidlichen Verzerrungen von Datenbanken zu schärfen. „Scheinbar objektive Algorithmen unterliegen genau wie Menschen ‚Vorurteilen‘, deren Quellen häufig schwer nachzuvollziehen sind“, schreiben sie und appellieren: Das Abwälzen der Verantwortung für Entscheidungen auf ein KI-System ist nicht hinnehmbar.

Unterdessen zeigen Algorithm-Watch und die Bertelsmann Stiftung in einem Report, wie verbreitet automatisierte Entscheidungen in Europa sind. Einige Beispiele aus dem Gesundheitswesen: Eine Universität in Mailand hat das „Abbiamo i numeri giusti“ („We have the right numbers“) System entwickelt. Dieses helfe den Krankenversicherungen dabei, automatisch die effizienteste und effektivste Behandlung für Patienten auszuwählen – „while at the same time optimising public spending“. Berichtet wird ferner über den Einsatz vom IBM-System Watson beim Mammografie-Screening in Dänemark. Auch Kela, die staatliche Sozialversicherungsinstitution in Finnland, sehe künstliche Intelligenz und maschinelles Lernen als integralen Bestandteil ihrer zukünftigen Informations- und Kommunikationssysteme. Doch die Kommunikation automatisierter Entscheidungen, vor allem deren probabilistischer Charakter, stelle ein Problem dar, führen die Reportautoren aus.

Weiterführender Link
Report von Algorithm-Watch und der Bertelsmann Stiftung: https://algorithmwatch.org/en/automating-society/