In Kürze

Transparente Algorithmen und faire Computer

Berlin (pag) – Algorithmen brauchen Regeln wie alles andere in der Gesellschaft auch, verlangt Klaus Müller, Vorstand des Verbraucherzentrale Bundesverbandes. Wenige Tage nachdem der deutsche Ethikrat seine Stellungahme zu Big Data in der Medizin veröffentlicht hat, diskutiert der vzbv mit Experten das Thema Algorithmen.

„Erst wenn selbstlernende Maschinen nachweislich unsere ethischen und gesetzlichen Anforderungen erfüllen, wird sie die Gesellschaft als fair akzeptieren“, sind die Wissenschaftler des Max-Planck-Instituts überzeugt. © phonlamaiphoto, Fotolia.com

Relevante algorithmenbasierte Entscheidungsprozesse müssten durch eine unabhängige, staatlich legitimierte Institution kontrolliert werden können, fordert Verbraucherschützer Müller auf der Tagung. Dort erläutert Prof. Sebastian Stiller, Universität Braunschweig, dass ein Algorithmus kein Kochrezept sei, es komme nicht immer das Gleiche heraus. „Ein guter Algorithmus stellt sich auf die jeweilige Situation ein.“ Wichtig seien dessen Kriterien und nicht seine mathematische Programmierung. Stiller warnt davor, dass algorithmische Ungenauigkeit zur Wahrheit erklärt wird. Auch Prof. Judith Simon, Universität Hamburg, betont in ihrem Vortrag, dass Transparenz über die Funktionsweisen notwendig sei. „Man muss bis zu einem gewissen Grad nachvollziehen können, auf Basis welcher Kriterien maschinelle Entscheidungen getroffen werden, um gegebenenfalls zu widersprechen oder verstehen zu können, ob es gute Entscheidungen sind“, hebt die Professorin für Ethik in der Informationstechnologie hervor. Wie weit die Transparenz gehe, sei je nach Verfahren unterschiedlich – „sie muss aber auf jeden Fall gesteigert werden“. Als weitere künftige Herausforderung sieht Simon wertebasiertes Programmieren.

Ethische Anforderungen an Maschinen?

Aktuell untersuchen Wissenschaftler des Max-Planck-Instituts für Intelligente Systeme in Tübingen Daten auf ihren kausalen Zusammenhang. „Erst wenn selbstlernende Maschinen nachweislich unsere ethischen und gesetzlichen Anforderungen erfüllen, wird sie die Gesellschaft als fair akzeptieren“, heißt es in einer Mitteilung des Instituts. „Als intelligente, selbstlernende Maschinen nur in der Industrie eingesetzt wurden, machte sich keiner Gedanken, ob ein Computer fair handelt“, sagt Niki Kilbertus, Wissenschaftler am Institut. Doch spätestens seit die gleichen Algorithmen Anwendung in einem sozialen Kontext finden, müsse man sich folgende Frage stellen: Sind diese selbstlernenden Maschinen fair oder diskriminieren sie, wenn auch ungewollt? Kilbertus zufolge reicht die gängige Praxis nicht aus, „um unsere Intuition von Fairness vollständig wiederzugeben“.

Die Grundlagenforschung von ihm und seinen Kollegen soll dazu dienen, ein Umdenken in einer Gesellschaft anzuregen, in der maschinelles Lernen und künstliche Intelligenz immer mehr Entscheidungen beeinflussen. „Wenn Maschinen unsere eigenen Wertvorstellungen übernehmen sollen, dann darf man Daten nicht einfach blind weiterverwerten.“ Zusammenhänge müssten zuerst verstanden und formal definiert werden, bevor maschinelles Lernen im sozialen Kontext eingesetzt und als fair akzeptiert werden könne.