Datenspende oder Datenteilungspflicht?

Standpunkte: Wie funktioniert ein lernendes Gesundheitssystem?

Berlin (pag) – Ein lernendes Gesundheitssystem, das Daten nutzt, die im Gesundheitswesen, aber auch im Alltag erhoben werden, um die Versorgung zu verbessern – dieser Zielvorstellung widmet sich ein Forschungsprojekt. „Lernbedarf gibt es zuhauf, Lernmöglichkeiten eigentlich auch – wir nutzen sie aber nicht, weil ein Großteil der Daten, die täglich anfallen, nicht ausgewertet wird. Jedenfalls nicht im Rahmen solider Forschungsprojekte und -strategien“, konstatiert Prof. Christiane Woopen, Direktorin des Cologne Center for Ethics, Rights, Economics, and Social Sciences of Health (ceres).

Um Gesundheitsdaten für Forschungszwecke verfügbar zu machen, gilt es, eine Vielzahl von Fragen zu klären – methodischer, juristischer, ethischer Art. Dieser Aufgabe widmet sich das Projekt „Ethical Governance für ein lernendes Gesundheitssystem“, an dem ceres-Wissenschaftler mit Kollegen von der Forschungsstelle Datenschutz und dem Institut für europäische Gesundheitspolitik und Sozialrecht (ineges), Goethe-Universität Frankfurt, arbeiten.

© bakhtiarzein, Fotolia.com

Einen Zwischenbericht gibt es kürzlich bei einer Tagung in Berlin. Ein lernendes Gesundheitssystem, hebt dort Peter Bröckerhoff hervor, nutzt systematisch Daten aus der Versorgung für die Forschung. Umgekehrt werden Forschungsergebnisse schnell in der Versorgung implementiert. Ziel dieses Lernkreislaufes sei für Patienten eine Verbesserung der Behandlungsqualität. Gesamtgesellschaftlich gehe es um nachhaltige Gerechtigkeit und Solidarität. Der ceres-Wissenschaftler betont, dass ein lernendes Gesundheitssystem auf Zusammenarbeit basiere. Dafür sei im gegenwärtigen System ein Kulturwandel notwendig. „Dieser muss von allen Akteuren getragen, gefördert und aktiv gestaltet werden.“
Nicht alle Tagungsteilnehmer überzeugt die Vision. Eine kritische Nachfrage kommt etwa von Prof. Jürgen Windeler, Leiter des Instituts für Qualität und Wirtschaftlichkeit im Gesundheitswesen. Er findet, dass es bereits jetzt ein lernendes System gebe, das vielleicht etwas langsamer und schwieriger lerne. Bei einem anders lernenden, digital unterstützten System will er wissen: „Wenn wir über eine Solidarität genannte Relativierung des Datenschutzes reden, dann würde ich als Bürger schon gerne wissen, was ich dafür bekomme.“

Bei der Veranstaltung setzt sich Rebekka Weiß, Bitkom, mit der Frage auseinander, ob Unternehmen zu Gemeinwohlzwecken Daten mit Forschern teilen sollten. Der Rechtswissenschaftler Prof. Steffen Augsberg, Universität Gießen, beschäftigt sich damit, ob die Preisgabe personenbezogener Daten zu Zwecken eines lernenden Gesundheitssystems eine – ethische – Solidaritätspflicht sei. Im folgenden lesen Sie die Ausführungen der beiden.

Prof. Steffen Augsberg: Datenspende als Solidaritätspflicht?
.

Prof. Steffen Augsberg hat seit 2013 eine Professur für Öffentliches Recht an der Justus-Liebig-Universität Gießen inne. Zuvor hatte er eine Professur für Öffentliches Recht, insbesondere das Recht des Gesundheitswesens, an der Universität des Saarlandes. Augsberg ist zudem seit 2016 Mitglied des Deutschen Ethikrates. © pag, Fiolka

In der jüngeren Vergangenheit wird intensiv über die sogenannte Datenspende nachgedacht. Insbesondere in der medizinischen Forschung verbinden sich mit der Nutzung großer Datenmengen – „Big Data“ – große Erwartungen und Hoffnungen. Die Datenspende soll dazu beitragen, die hierfür erforderlichen Daten zu gewinnen. Könnte sich hieraus sogar eine (ethische) Pflicht ergeben, die eigenen Daten zur Verfügung zu stellen und damit anderen Menschen zu helfen? Diese Frage kehrt die gängige Perspektive des Datenschutzes um: Üblicherweise wird zur Legitimation der Preisgabe personenbezogener Daten allein darauf abgestellt, ob sie von den Betroffenen konsentiert und/oder diesen zumutbar ist. Dass es ein schützenswertes Recht auf Privatheit gibt, das der Offenlegung solcher Daten prinzipiell widerstreitet, bedeutet indes nicht das Ende der Debatte. Denn es handelt sich hierbei nicht um einen absoluten Wert, sondern um eine abwägungsfähige und -bedürftige (Rechts-)Position.
Bei genauerer Betrachtung zeigt sich, dass beim Umgang mit personenbezogenen Daten nicht auf eine vergleichsweise eindimensionale, schutzzentrierte Sichtweise abzustellen ist. Vielmehr muss das zugrunde liegende komplexere Geflecht einer Vielzahl, teilweise durchaus widersprüchlicher Rechte und Pflichten berücksichtigt werden. Das hat der Deutsche Ethikrat in seiner Stellungnahme „Big Data und Gesundheit“ ausführlich herausgearbeitet. Demnach zählen zu den normativ und evaluativ das Selbstverständnis des datengebenden Individuums wie seine Funktion und Position in der Gesellschaft beeinflussenden Werten neben Privatheit und Intimität auch Freiheit und Selbstbestimmung, Souveränität und Macht, Schadensvermeidung und Wohltätigkeit sowie Gerechtigkeit und Solidarität. Auch mit Blick auf den Schutz von Daten ist dementsprechend eine individuelle wie gesellschaftliche Verantwortung gegenüber Anderen, insbesondere in spezifisch hilfsbedürftigen und vulnerablen Positionen, zu berücksichtigen.
Gerade im Gesundheitssystem liegt auf der Hand, dass eine wechselseitige Unterstützung dem spezifischen Charakter von Gesundheitsrisiken entspricht. Niemand kann darauf vertrauen, gesund zu bleiben, und deshalb sind alle daran interessiert, im Falle des Falles die bestmögliche Versorgung zu erhalten. Eine (ethische) Pflicht zur Preisgabe bedeutet dies aber noch nicht. Im Abwägungsprozess zu berücksichtigen wären etwa die – unter Big-Data-Bedingungen indes zunehmend wenig aussagekräftige – Sensibilität der Daten, deren Ersetzbarkeit, zu befürchtende Auswirkungen bei Missbrauch und Ähnliches. Letztlich müssten der konkrete Kontext und individuelle Besonderheiten miteinbezogen werden. Das verdeutlicht, warum sich eine pauschale Antwort auf die titelgebende Frage verbietet. Es verweist zugleich darauf, dass es bessere Optionen gibt, Chancen und Risiken von Big Data gerecht werdende Datensouveränität zu gewährleisten – dazu enthält die genannte Stellungnahme eine Vielzahl von Empfehlungen.

Rebekka Weiß: Datenteilungspflicht kann Innovationskraft bremsen

.

Rebekka Weiß leitet beim Bundesverband Informationswirtschaft, Telekommunikation & Neue Medien (Bitkom) die Abteilung für Vertrauen und Sicherheit und betreut unter anderem den Arbeitskreis Datenschutz. Weiß ist Volljuristin und hat zusätzlich den Master of Laws in „Intellectual Property and the Digital Economy“ an der University of Glasgow erworben. © pag, Fiolka

Daten sind die Basis der digitalen Wirtschaft und Gesellschaft. Nicht ohne Grund haben sich längst Vergleiche von Daten mit Gold, Öl und Wasser etabliert. Obwohl Daten anders als Bodenschätze beliebig reproduzierbar, kopierbar und in größerem Umfang verfügbar sind, wird seit Längerem diskutiert, ob Daten nicht aus bestimmten Gründen geteilt werden müssten.
Als erste Hürde zeichnet sich aber schnell das Datenschutzrecht ab. Die DSGVO legt in mehr oder weniger unflexiblen Tatbeständen fest, unter welchen Umständen die Daten überhaupt erhoben werden dürfen. Gesundheitsdaten unterliegen sogar besonders strengen Regeln. Zwar sieht die DSGVO Erleichterungen für Forschung vor. Eine Datenteilungspflicht kann daraus aber nicht abgeleitet werden.
Als Ausweg aus dem engen Korsett der DSGVO wird die Anonymisierung gesehen. Anonyme Daten unterliegen nicht dem Datenschutz und so könnte man annehmen, dass diese einfach ge- und verteilt werden könnten. Allerdings ist häufig unklar, welche Merkmale von einem Datensatz entfernt werden sollen, um die notwendige Anonymität der Daten sicherzustellen. Es wird sogar die These vertreten, dass echte Anonymität kaum zu erreichen sei, da durch eine Kombination verschiedener Merkmale immer die Gefahr bestehe, dass Daten doch auf eine bestimmte Person zurückgeführt werden können. Neben dieser technischen Dimension muss aber vor allem eines Berücksichtigung finden: Anonymisierung passiert weder einfach noch von allein. Sie muss geplant, implementiert, nachverfolgt und die technischen Verfahren aufgebaut und angepasst werden. Diese Investitionen werden kaum getätigt werden, wenn am Ende des Investitions- und Innovationszyklus eine Datenteilungspflicht steht und die Früchte der Arbeit quasi kostenfrei abfließen. Eine Datenteilungspflicht – auch für anonyme Daten – kann daher immer auch die Innovationskraft bremsen. Und: Für viele innovative Verfahren benötigen die Anwender eben doch personenbezogene Daten. Die Investitionen, die notwendig sind, um Daten auf hohem Niveau auszuwerten, daraus neue Verfahren zu entwickeln und den Mehrwert in innovative Anwendungen zu übertragen, sind hoch. Alle Einzelstränge der Datenerhebung erfordern nicht nur Technologie, sondern durch den regulatorischen Rahmen dauerhafte Beratung. Auch bestehende Haftungsrisiken durch die Rechtsunsicherheiten und die zahlreichen komplexen Abwägungsmechanismen, die die DSGVO bereithält, müssen eingepreist werden.
Was wir brauchen ist daher keine Verpflichtung zum Teilen von Daten, sondern einen besseren, kontrollierten Zugang zu Daten. Dabei sollte vor allem auch Datenpooling erleichtert und Kooperationsmöglichkeiten zwischen Einrichtungen und Unternehmen verbessert werden. So könnten dann vor allem hochwertige Datensätze verbesserten Zugängen unterliegen. Mit einem flexibilisierten Rahmenwerk könnten auch Forscher verbesserten Zugriff erhalten und Gemeinwohlzwecke durch private und öffentliche Forschung vorangetrieben werden.

Das Vorurteil der Maschine

Chemnitz/Güterloh (pag) – Der Einsatz automatisierter Entscheidungen und Künstlicher Intelligenz (KI) nimmt einem Report zufolge in Europa an Fahrt auf. Prof. Wolfgang Einhäuser-Treyer und Prof. Alexandra Bendixen von der TU Chemnitz warnen jedoch davor, KI zu überschätzen und blind in die scheinbare Objektivität maschineller Entscheidungsprozesse zu vertrauen.

KI kann in riesigen Datenmengen Muster erkennen. Interessant wird es, wenn sie Muster erkennt, die dem Menschen bisher verborgen blieben. Die Hoffnung: Durch einen objektiven Algorithmus fällen KI-Anwendungen bei gesellschaftlich und individuell bedeutsamen Fragen „schnellere“ und „gerechtere“ Entscheidungen – etwa, wenn es um die Kreditvergabe oder medizinische Behandlungen geht.

Einhäuser-Treyer und Bendixen weisen darauf hin, dass Verzerrungen in den Datenbanken, mit denen selbstlernende Algorithmen trainiert werden, zu Vorurteilen bei der Bewertung individueller Fälle führen. Noch problematischer werde es, wenn sich die Ausführenden dieser Verzerrungen nicht bewusst seien oder die Verantwortung auf die KI abwälzen. „Hinzu kommt, dass bei hinreichend komplexen Systemen in der Regel nicht mehr nachvollziehbar ist, auf welcher Grundlage eine Entscheidung getroffen wurde“, betonen die Professoren. Nachvollziehbarkeit von und Verantwortlichkeit für Entscheidungsprozesse seien aber die zentralen Voraussetzungen für die Akzeptanz von Entscheidungen.

Verzerrungen in den Datenbanken führen zu Vorurteilen bei der Bewertung individueller Fälle, warnen Prof. Wolfgang Einhäuser-Treyer und Prof. Alexandra Bendixen von der TU Chemnitz, © TU Chemnitz, Jacob Müller

Verzerrungen unvermeidlich

Dass das Erkennen von Zusammenhängen in großen Datenbanken für den Einzelnen gewaltige Vorteile mit sich bringt, räumen die Vorstandsmitglieder des Zentrums für Sensorik und Kognition allerdings ein. Ein Beispiel seien Patienten mit einer seltenen Symptomatik. Diese könnten sehr davon profitieren, nicht nur auf das Wissen eines einzelnen Arztes zuzugreifen, sondern auf den gewichteten Erfahrungsschatz der gesamten Ärzteschaft. „Im besten Fall ergeben sich durch die KI neue Ideen zur Einordnung der Symptome und zur geeigneten Behandlung.“ Grundsätzlich mahnen die Wissenschaftler an, das Bewusstsein für die unvermeidlichen Verzerrungen von Datenbanken zu schärfen. „Scheinbar objektive Algorithmen unterliegen genau wie Menschen ‚Vorurteilen‘, deren Quellen häufig schwer nachzuvollziehen sind“, schreiben sie und appellieren: Das Abwälzen der Verantwortung für Entscheidungen auf ein KI-System ist nicht hinnehmbar.

Unterdessen zeigen Algorithm-Watch und die Bertelsmann Stiftung in einem Report, wie verbreitet automatisierte Entscheidungen in Europa sind. Einige Beispiele aus dem Gesundheitswesen: Eine Universität in Mailand hat das „Abbiamo i numeri giusti“ („We have the right numbers“) System entwickelt. Dieses helfe den Krankenversicherungen dabei, automatisch die effizienteste und effektivste Behandlung für Patienten auszuwählen – „while at the same time optimising public spending“. Berichtet wird ferner über den Einsatz vom IBM-System Watson beim Mammografie-Screening in Dänemark. Auch Kela, die staatliche Sozialversicherungsinstitution in Finnland, sehe künstliche Intelligenz und maschinelles Lernen als integralen Bestandteil ihrer zukünftigen Informations- und Kommunikationssysteme. Doch die Kommunikation automatisierter Entscheidungen, vor allem deren probabilistischer Charakter, stelle ein Problem dar, führen die Reportautoren aus.

Weiterführender Link
Report von Algorithm-Watch und der Bertelsmann Stiftung: https://algorithmwatch.org/en/automating-society/

Kontroverse zu Big Data und Leitlinien

Beim „quality of cancer care“ Kongress geht es ums Eingemachte

© iStock.com, erhui1979

Berlin (pag) – Spannende Debatten beim „quality of cancer care“-Kongress der Deutschen Krebsgesellschaft: Beim Thema Leitlinien treffen „barfüßige“ Kliniker und hochspezialisierte AMNOG-Methodiker aufeinander. Und Big-Data-Skeptiker Prof. Gerd Antes warnt vor den Verlockungen der großen Datenmengen. Energischen Widerspruch äußert Prof. Christof von Kalle.

Der Onkologe von Kalle nennt den Lungenkrebs als Beispiel dafür, wo etwa Sequenzierungen und hochauflösende Molekulardaten bereits heute Relevanz für die Behandlung von Patienten haben – „wo wir wirklich ein Big-Data-Konzept haben, das für die Patienten am Start ist“. Von Kalle, vor kurzem in den Sachverständigenrat Gesundheit berufen, analysiert in seinem Vortrag die Schwächen der hiesigen Krebsversorgung. Man wisse nicht, was die „ganz normalen Therapien in der ganz normalen Umwelt“ dem Patienten bringen, es gebe zu wenig Informationen über das Outcome der Verfahren. Das Problem bricht er auf zwei einfache Fragen herunter: Was haben wir mit unseren Patienten gemacht? Wie ist es ihnen daraufhin ergangen? Das Gesundheitssystem müsse sich in ein lernendes verwandeln, verlangt der Mediziner, „und dazu brauchen wir die Daten“.

Daten für und nicht über den Patienten

„Was haben wir mit unseren Patienten gemacht“, fragt Prof. Christof von Kalle. © pag, Fiolka

Er kritisiert außerdem, dass Patienten aus den Datenprozessen weitgehend ausgeschlossen seien. Der Patient habe zwar das Recht, über seine Daten Bescheid zu wissen, er oder sie verfüge aber über wenig Möglichkeiten, an dem Prozess teilzunehmen. Von Kalle plädiert daher für ein patientenzentriertes Gesundheitsdatenmanagement, damit Informationen für und nicht über den Patienten gesammelt werden. Nach Ansicht des Experten ließen sich damit auch viele Probleme des Datenschutzes oder transsektoraler Natur lösen. „Patienten sollten den Schlüssel zu dieser Entwicklung in der Hand halten“, appelliert er.

 

 

 

Qualitätsfreier Hype um Big Data: Prof. Gerd Antes teilt aus. © pag, Fiolka

Nach dem Pro-Daten-Impuls des Krebsexperten folgt der Konter von Antes, Mathematiker und Biometriker. Wie später auf einer KBV-Veranstaltung spricht er auch beim Kongress der Krebsgesellschaft in Bezug auf Big Data von einem „qualitätsfreien Hype“. Bullshit-Generator steht auf einer seiner Folien. Der ehemalige Direktor von Cochrane Deutschland will die Digitalisierungsideologie mit markigen Worten entlarven. Er ist davon überzeugt, dass der Nutzen von Big Data meist überschätzt und nicht belegt ist. „Jeder glaubt, dass mehr Daten besser sind – aber das stimmt nicht“, sagt er und verweist auf entsprechende Publikationen von Mathematikern, die er als einziger im Saal kennen dürfte. Mehr Daten verstopfen die Erkenntnisbahn und die richtigen Signale versacken im Rauschen, lautet seine Kernargumentation. Mittlerweile befinde man sich im Zeitalter der Korrelation, und Antes befürchtet, dass sich die Wissenschaft von der Qualität verabschiedet.

Verbindungsweg gesucht

In der folgenden Diskussion verweist PD Dr. Monika Klinghammer-Schalke, Direktorin des Tumorzentrums Regensburg, auf die vielen Datenquellen, die es in der Onkologie gibt – aus DMP, Qualitätssicherung, Zentren, klinischen Registern, Spezialregistern. „Warum begeben wir uns nicht auf den Weg, um das zu verbinden“, fragt die Expertin, die auch Direktorin des Instituts für Qualitätssicherung und Versorgungsforschung an der Universität Regensburg ist.

Weitere Impulse aus der Debatte: Geht es um ein Datensammeln des Sammelns wegen? Angemahnt wird, dass die Generierung von Daten nicht mit der Auswertung von Daten verwechselt werden dürfe. Und natürlich geht es auch um die großen Unternehmen, die große Datenmengen sammeln. Gefährlich findet es von Kalle, dass „Doubt-Diskussionen über das Marktverhalten von großen Internetunternehmen, deren Services wir fast alle benutzen, dazu führen, dass wir jetzt Entscheidungen darüber fällen, ob wir für uns selbst – zum Beispiel bei akademisch oder öffentlich geförderten Studien – Daten in bestimmter Form erheben oder ob wir das eben nicht tun“. Er warnt davor, das Kind mit dem Bade auszuschütten.

Wie methodisch naiv sind Leitlinien?

Leitlinien sind Handlungskorridor, kein Kochbuch, so Prof. Thomas Seufferlein. © pag, Fiolka

Der zweite Tag des Kongresses steht ganz im Zeichen von Leitlinien. Dabei geht es ans Eingemachte: Werden diese methodisch zu naiv erstellt? Und wie sind deren Aussagen zu neuen Arzneimitteln zu bewerten?

In Leitlinien stehe die optimale Patientenversorgung im Fokus, dabei handele es sich um einen Handlungskorridor, kein Kochbuch, stellt Prof. Thomas Seufferlein klar. Der Ärztliche Direktor der Klinik für Innere Medizin I am Universitätsklinikum Ulm betont auch, dass der Patientennutzen bei den Handlungsempfehlungen das Entscheidende sei und nicht die Kosteneffektivität von Behandlungen. „Diese spielt und wird hoffentlich keine Rolle spielen“, meint er. Verbesserungsbedarf räumt der Vizepräsident der Deutschen Krebsgesellschaft insbesondere in puncto Anwendungsfreundlichkeit ein.

 

Die eigene Position muss kritisch hinterfragt werden, meint Prof. Dr. Axel Heyll © pag, Fiolka

Die entscheidende Schwäche an Leitlinien ist für Prof. Dr. Axel Heyll, dass bei ihnen das Prinzip der evidenzbasierten Medizin noch immer nicht ausreichend umgesetzt wird. Viele der Beteiligten seien nicht bereit, ihre eigene Position ausreichend kritisch zu hinterfragen, „sodass wir meiner Meinung nach noch immer viele eminenzbasierte Empfehlungen haben“, sagt der Leiter des Kompetenz-Centrums Onkologie des GKV-Spitzenverbandes und der MDK-Gemeinschaft. Die Qualität einer Leitlinie bestehe darin, dass sie möglichst viele evidenzbasierte Empfehlungen und möglichst wenig konsensbasierte enthalte. Allerdings seien nicht alle konsensbasierten Maßnahmen schlecht, räumt Heyll ein.

„Riesiger Datenschatz“

IQWiG-Vertreter Dr. Thomas Kaiser sieht Handlungsbedarf. © pag, Fiolka

IQWiG-Vertreter Dr. Thomas Kaiser hat die Relevanz von Leitlinien hinsichtlich ihrer Aussagen zu neuen Arzneimitteln anhand der Beschlüsse des Gemeinsamen Bundesausschusses (G-BA) der letzten zwei Jahre untersucht. Er kommt zu einem ernüchternden Fazit: Erstens werde nur ein Drittel der Themen der frühen Nutzenbewertung in aktuellen S3- oder S2-Leitlinien adressiert. Zweitens sei die zugrunde liegende Recherche der Leitlinien veraltet. Laut Kaiser beträgt die Latenzzeit zwischen Leitlinienrecherche und Veröffentlichung des G-BA-Beschlusses im Mittel drei Jahre. Drittens basierten die Aussagen zu neuen Arzneimitteln „regelhaft“ auf unvollständiger Datenbasis. Hierzu führt der Co-Leiter des Ressorts Arzneimittelbewertung aus, dass in Fachzeitschrift-Publikationen, Zulassungsberichten und Studienregistern nur etwa 50 Prozent der verfügbaren Ergebnisse aus Studien veröffentlicht werden. Dagegen seien nahezu 100 Prozent im AMNOG-Prozess vorhanden – damit meint er Herstellerdossier, IQWiG-Bericht und G-BA-Beschluss. Für Kaiser ein „riesiger Datenschatz“, der für Leitlinien jedoch nur im Einzelfall und niemals vollständig recherchiert werde.

Unvollständigkeit wirft Fragen auf

Ein weiterer Kritikpunkt: Nur jede fünfte aktuelle Leitlinie befasse sich systematisch mit der Lebensqualität in Bezug auf neue Arzneimittel. Fast 100 Prozent der Bevölkerung kümmerten sich darum allerdings bei Yoga, Sport oder Musiktherapie. „Im Bereich Arzneimitteln ist es bei den Leitlinien-Erstellern offensichtlich noch nicht im Kopf, dass das wichtig ist.“ Als Beispiel nennt Kaiser eine 2018 veröffentlichte Leitlinie zum Lungenkarzinom, welche hinsichtlich der Nebenwirkungen eines neuen Wirkstoffes aus dem IQWiG-Bericht für die AMNOG-Bewertung zitiert. Der Leitlinie ist außerdem zu entnehmen, dass eine Analyse zur Lebensqualität bisher nicht publiziert wurde. Kaiser weist jedoch darauf hin, dass eine solche ebenfalls in jenem IQWiG-Bericht enthalten ist, der in der Leitlinie wenige Zeilen zuvor zitiert wurde. Diese Unvollständigkeit wirft Fragen auf.

Leitlinien im AIS

Anlass für Kaisers Analyse ist das geplante Arztinformationssystem (AIS), genauer gesagt eine Stellungnahme der AWMF aus dem vergangenen Jahr dazu. Die Arbeitsgemeinschaft der Wissenschaftlichen Medizinischen Fachgesellschaften hat darin bemängelt, dass Leitlinien im AIS nicht berücksichtigt werden. Dabei verfüge das AIS über keine Informationen über parallele oder spätere Zulassungen sowie über spätere Daten. Diesen Mangel könnten Leitlinien ausgleichen. Nach den Ausführungen des IQWiG-Mitarbeiters ist es wenig verwunderlich, dass dieser großen Handlungsbedarf bei den Aussagen zu neuen Arzneimitteln in Leitlinien sieht und hinterfragt, ob diese tatsächlich Datenlücken im AIS füllen können.

Enthusiastische Laien und das AMNOG

Die folgende Diskussion dreht sich um die vom Generalsekretär der Deutschen Krebsgesellschaft formulierte Kernfrage: Wie ist der „barfüßig“ breite klinische Blick der Leitlinien mit dem hochtechnisch selektiven Blick des AMNOG-Prozesses auf Arzneimittel zusammenzubringen, will Dr. Johannes Bruns wissen. Dr. Monika Nothacker von der AWMF findet, dass Leitlinien im AIS berücksichtigt werden sollen, auch wenn sie veraltet seien. Sie vermittelten dem Nutzer das klinische Umfeld, meint sie. Kaiser appelliert an die Leitlinien-Ersteller, die vorhandenen Datenquellen zu nutzen und mahnt eine hohe methodische Expertise an. Seufferlein räumt zwar ein, dass Leitlinien-Autoren „enthusiastische Laien“ seien. Er stellt aber auch heraus, dass Leitlinien für die Anwender gemacht werden. Die Empfehlungen müssten richtig, verständlich und umsetzbar sein. Die sperrige AMNOG-Sprache in klinische Realität zu übersetzen – „das leisten Leitlinien“.

© elenabsl, Fotolia.com

 

Versorgungsforschung braucht Patientendaten

Berlin (pag) – Datenschutz versus Datenschatz – wie ist dieser Antagonismus aufzuheben? Darüber diskutieren Wissenschaftler und Patienten auf dem Kongress für Versorgungsforschung. Sie fordern mehr Flexibilität beim Datenschutz und mehr Datensouveränität. Die gesetzlichen Vorgaben erschwerten eine sinnvolle Verknüpfung vorhandener Daten und damit Erkenntnisgewinne, die Patienten etwa bei der Behandlung von Krebs zugutekommen könnten.

„Ich möchte selbst entscheiden, was gut für mich ist und wer meine Daten nutzen darf“, sagt Eva Schumacher-Wulf, Chefredakteurin des Brustkrebsmagazins „Mamma Mia“. Ihr gehen die bisherigen Restriktionen des Datenschutzrechtes zu weit. „Nur wer Wissen erzeugt aus Daten, kann Patienten helfen, länger und besser zu leben“, ergänzt Ulla Ohlms, Vorsitzende der Path-Stiftung, die eine eigene Tumordatenbank besitzt.

Versorgungsforschung braucht Patientendaten – und zwar personenbezogene, betont Dr. Monika Klinkhammer-Schalke vom Tumorzentrum in Regensburg bei dem von Roche unterstützten Symposium. „Wir müssen die Daten zusammenführen, pseudonymisiert passieren zu viele Fehler.“ Doch gerade bei der Verknüpfung personenbezogener Daten setze das Datenschutzrecht hohe Hürden und stelle den (Daten-)Registern viele Auflagen. „Manchmal sind wir mehr damit beschäftigt als mit den Patientenauswertungen“, sagt sie. „Für jedes neue Datenfeld, jeden neuen Datensatz müssen wir kämpfen, das dauert mir viel zu lange.“ Der Datenschutz müsse viel flexibler werden, verlangt die Forscherin, die auch Verbindungen zu Krankenkassen-Daten begrüßen würde, um mehr über Komorbiditäten zu erfahren.

Die Zweckgebundenheit des jetzigen Datenschutzes passe nicht zu den Datensammelmöglichkeiten, welche die digitale Welt heute bietet, sagt Prof. Steffen Augsberg, Mitglied des Deutschen Ethikrates. Das Gremium spricht sich deshalb dafür aus, die Einwilligung in Datenverarbeitungen individuell nach Belieben ausweiten zu können. So könnten Daten nicht nur für einen festgelegten Zweck, sondern allgemein an bestimmte Verwender oder für größere Forschungszusammenhänge „gespendet“ werden.

Versorgungsforschung braucht Patientendaten – wie lässt sich das mit dem Datenschutz vereinbaren? Darüber diskutieren v.l.: Monika Klinkhammer-Schalke, Michael Hennrich MdB (CDU), Ulla Ohlms, Tamás Bereczky, EUPATI, Eva Schumacher-Wulf und Steffen Augsberg. © pag, Fiolka
Versorgungsforschung braucht Patientendaten – wie lässt sich das mit dem Datenschutz vereinbaren? Darüber diskutieren v.l.: Monika Klinkhammer-Schalke, Michael Hennrich MdB (CDU), Ulla Ohlms, Tamás Bereczky, EUPATI, Eva Schumacher-Wulf und Steffen Augsberg. © pag, Fiolka

 

 

 

Digitalisierung total

Ein Überblick zu Kommissionen, Räten und Agenturen

 

© iStock.com, akindo

Berlin (pag) – Digitalisierung ist als Schlagwort aus dem politischen Diskurs, speziell im Gesundheitswesen, kaum wegzudenken. Hinkt die Politik der rasanten technischen Entwicklung hoffnungslos hinterher? Im Rahmen einer großen Initiative – böse Zungen sprechen von Aktionismus – wurden jetzt mehrere Gremien gegründet, die sich des Themas annehmen sollen. Die Erwartungen sind hoch, die Ziele ehrgeizig.

Bei der Ankündigung eines Digitalrats im Regierungsprogramm der Union war von nichts weniger als den „klügsten Köpfen“ die Rede, die man in den Dienst der digitalen Umgestaltung stellen wolle. Am 22. August wurden zehn Experten, die der Regierung zufolge „das gesamte Spektrum der Digitalszene“ abbilden, in das Gremium berufen. Es soll mindestens zweimal jährlich mit der Kanzlerin tagen. Unbequem möge der Rat sein, wünscht sich die Regierung, er soll antreiben. Darauf sei man angewiesen, wenn man bei technologischen Entwicklungen Schritt halten und diese in praktisches Regierungshandeln umsetzen will.

Was die Datenethiker der Regierung ins Stammbuch schreiben

Der zehnköpfige Digitalrat mit Kanzlerin und Bundesministern @ Bundesregierung, Kugler
Der zehnköpfige Digitalrat mit Kanzlerin und Bundesministern @ Bundesregierung, Kugler

Wenige Tage später, am 5. September, hat die Datenethikkommission ihre Arbeit aufgenommen. Während der Digitalrat beim Bundeskanzleramt angesiedelt ist, wird sie federführend vom Bundesinnen- und Bundesjustizministerium begleitet. Die Kommission hat ein ambitioniertes Pensum zu erfüllen: Binnen eines Jahres soll sie ethische Leitlinien für Datenpolitik, den Umgang mit Algorithmen, künstlicher Intelligenz und digitalen Innovationen vorschlagen und Handlungsempfehlungen geben. Bereits einen guten Monat nach der ersten Sitzung hat sie Empfehlungen zu den Eckpunkten der KI-Strategie der Bundesregierung herausgegeben. Die fertige Strategie soll auf dem Digitalgipfel Anfang Dezember vorgestellt werden. Die Erwartungen, die die Regierung an die eigene Strategie hat, sind grandios. Als die Eckpunkte im Sommer vorgestellt werden, heißt es, dass die Regierung damit die Erforschung, Entwicklung und Anwendung von künstlicher Intelligenz in Deutschland „auf ein weltweit führendes Niveau“ bringen wolle.

Datenethikkommission mit Bundesinnenminister Seehofer und Bundesjustizministerin Barley © R. Bertrand, BMI
Datenethikkommission mit Bundesinnenminister Seehofer und Bundesjustizministerin Barley © R. Bertrand, BMI

Die Datenethikkommission vermisst bei den Eckpunkten offenbar die rechtliche und ethische Perspektive. Zumindest empfiehlt sie als zusätzliche Zielbestimmung: „Beachtung der an unserer freiheitlich demokratischen Grundordnung orientierten ethischen und rechtlichen Grundsätze im gesamten Prozess der Entwicklung und Anwendung künstlicher Intelligenz“. Auch solle ein zusätzliches Handlungsfeld „Förderung von individueller und gesellschaftlicher Kompetenz und Reflexionsstärke in der Informationsgesellschaft“ aufgenommen werden. Auf die weitere Arbeit des 16-köpfigen Gremiums, Sprecherinnen sind Prof. Christiane Woopen und Prof. Christiane Wendehorst, darf man gespannt sein – nicht zuletzt auch auf die inhaltlichen Schnittmengen zur Arbeit der KI-Enquete-Kommission des Bundestags.:.Blindtext Blindtext Blindtext Blindtext Blindtext Blindtext Blindtext Blindtext Blindtext

„Wir müssen KI-Kompetenz vermitteln“

Die Enquete-Kommission „Künstliche Intelligenz“ des Deutschen Bundestages © Dt. Bundestag, Achim Melde
Die Enquete-Kommission „Künstliche Intelligenz“ des Deutschen Bundestages © Dt. Bundestag, Achim Melde

Die Enquete-Kommission „Künstliche Intelligenz – Gesellschaftliche Verantwortung und wirtschaftliche, soziale und ökologische Potenziale“ hat sich im Oktober konstituiert. Ihr gehören 19 externe Sachverständige und 19 Bundestagsabgeordnete an. Zu letzteren gehört Claudia Schmidtke (CDU), die Herzchirurgin sitzt seit dieser Legislatur im Bundestag. Als größte Herausforderung sieht sie zwei Themen: Daten und Bildung. „Wir müssen KI-Kompetenz vermitteln“, sagt sie. Die Menschen müssten verstehen, was das ist und wie es arbeitet. Und dass KI auch fehlerhaft arbeiten könne. „Das macht mir besondere Sorge, da wir seit Jahren von der Vermittlung von Netz- und Medienkompetenz sprechen, und auch hier kaum vorankommen.“ Stichwort Daten: Lernende Systeme bräuchten große,  diskriminierungsfreie Datenmengen. Gerade im Gesundheitsbereich steht man der Politikerin zufolge vor der Herausforderung, wie Schnittstellen zu schaffen sind und eine Anonymisierung sichergestellt wird.

Wer auch noch mitmischt

Reichlich Stoff für die Kommission, die 2020 ihren Abschlussbericht vorlegen wird. Wer bei den neuen Gremien auf dem Laufenden bleiben will, sollte auch die neu einzurichtende Agentur für Sprunginnovationen auf dem Zettel haben. Auch sie wird sich Bundesforschungsministerin Anja Karliczek (CDU) zufolge dem Thema Künstliche Intelligenz annehmen. Und dann gibt es noch die Plattform Lernende Systeme, die im vergangenen Jahr vom Bundesministerium für Bildung und Forschung (BMBF) initiiert wurde. Deren Arbeitsgruppe „Gesundheit, Medizintechnik, Pflege“ befasst sich mit den Möglichkeiten, die Lernende Systeme für Prävention, Diagnose und Therapie in der Medizin sowie in der Pflege und Rehabilitation bieten. Geleitet wird sie von Dr. Karsten Hiltawsky, Drägerwerk, und Prof. Klemens Budde, Charité.

Last but not least ist die Wettbewerbskommission 4.0 zu nennen. Unter dem Vorsitz von Martin Schallbruch, Prof. Achim Wambach und Prof. Heike Schweitzer wird sie unter anderem der Frage nachgehen, welche Änderungen der wettbewerblichen Rahmenbedingungen erforderlich sind, um mehr Innovationen und Investitionen in Schlüsseltechnologien zu ermöglichen. „Sind – insbesondere beim Einsatz von Künstlicher Intelligenz – haftungsrechtliche Spezialregelungen opportun?“

„Künstliche Intelligenz ist die neue Elektrizität“

Über mangelnden Input dürfte das Digitalkabinett nicht klagen. Es gibt aber Experten wie Markus Beckedahl, die den Aktionismus kritisieren. Er hat in der von 2010 bis 2013 eingesetzten Enquete-Kommission Internet und digitale Gesellschaft mitgearbeitet und befürchtet, dass sich die Erfahrungen mit der Digitalen Agenda der vergangenen Legislaturperiode wiederholen könnten: „Viele egoistische Kompetenzstreitigkeiten zwischen Ministerien und Parteien verderben eine gute gemeinsame Strategie“, schreibt er auf netzpolitik.org. Dort erinnert er außerdem daran, dass von den vielen Handlungsempfehlungen der Internet-Kommission kaum welche umgesetzt worden seien.

Die Bundestagsabgeordnete Claudia Schmidtke (CDU) sieht es gelassen. Es sei typisch für ein Querschnittsthema, dass man es von vielen Blickwinkeln aus betrachten müsse. Sie zitiert den Informatiker Andrew Ng, der Künstliche Intelligenz als die neue Elektrizität bezeichnet. Sie habe Auswirkungen auf alles: Regierung, Parlament, Länder, Industrie, Gesundheit, Militär, Forschung. „Das kann ein Gremium alleine nicht abdecken“, betont die Politikerin.

Digitalisierung und Forschung

Auch jenseits von Kommissionen, Räten und Co. wird das Thema vom Wissenschaftsbetrieb intensiv beackert. Unterstützt vom BMBF untersucht ein Forscherteam etwa mobile Gesundheit (siehe Infokasten). Auch das Bundesgesundheitsministerium (BMG) fördert mehrere Projekte: Prof. Georg Mackmann und Prof. Eckhard Nagel wollen im Rahmen der Studie Medizin 4.0 das „ethische Fundament der Digitalisierung im Gesundheitswesen“ erfassen. Unter dem Titel „Digitalisierung für ein Lernendes Gesundheitssystem“ entwickelt das Team von Prof. Christiane Woopen ein Mehrebenenmodell von Ethical Governance (LEG²ES). Bei dem Projekt VALID geht es widerum um ethische Aspekte digitaler Selbstvermessung im Gesundheitswesen zwischen „Empowerment und neuen Barrieren“. Projektleiter Prof. Stefan Selke hat bereits, gefördert vom BMBF, ein Gutachten zu ethischen Standards für Big Data und deren Begründung verfasst. Die Expertise ist bereits publiziert. Bis Redaktionsschluss noch nicht veröffentlicht sind dagegen vom BMG die politischen Handlungsempfehlungen zur Weiterentwicklung der Rahmenbedingungen für Big Data im deutschen Gesundheitswesen. Diese wurden bereits im vergangenen Jahr auf einem Stakeholder-Workshop entwickelt.

Angesichts der vielfältigen Expertisen lässt sich die Wartezeit verschmerzen.

 

Mobile Gesundheit
PD Dr. Verina Wild, Ludwig-Maximilians-Universität München, untersucht mit ihrem Forschungsteam ethische, rechtliche und soziale Aspekte mobiler Gesundheitstechnologien. Ein noch relativ unerschlossenes Gebiet für die Wissenschaftler, die sechs Jahre lang vom BMBF unterstützt werden: „Wir sprechen über Dinge, die noch nicht gut definiert sind“, sagt die Medizinethikerin und meint teilweise synonym verwendete Begriffe wie mHealth, eHealth oder digitalHealth. Mobile Technologien, seien es Wearables, Sensoren oder Apps, seien allgegenwärtig und transformierten das traditionelle Versorgungssystem. „Gesundheit wird zunehmend auch außerhalb des medizinischen Kontextes angeboten und verhandelt.“
.
Die nationalen Grenzen des Systems würden von internationalen virtuellen Patienten-Communitys oder global agierenden IT-Konzernen aufgebrochen. Das bleibe nicht ohne Folgen für das Selbstverständnis von Patienten und Ärzten. Die Forschenden untersuchen beispielsweise die technische Manipulation mobiler Gesundheitstechnologien durch die Patienten selbst. Weitere Fragen, denen das interdisziplinäre Team nachgeht, lauten: Wie beeinflusst mHealth das Verhältnis von Eigenverantwortung für Gesundheit und Gerechtigkeit? Wie verändert self-tracking die Beziehung zum eigenen Körper?

.
Weitere Informationen unter www.meta.med.uni-muenchen.de

 

„Disruption bis ins Fundament“

Zur Zukunftsfähigkeit unseres Gesundheitswesens

Berlin (pag) – Eigentlich sollen auf der Veranstaltung Healing Architecture 4.0 der TU Berlin die Auswirkungen der Digitalisierung auf das Krankenhaus der Zukunft ergründet werden. Tatsächlich geht es aber um mehr, um die Zukunftsfähigkeit des Gesundheitswesens insgesamt. Warum für Architekten das Modell Hausarzt ausgedient hat.

„Disruption bis ins Fundament.“ So prägnant beschreibt Prof. Erwin Böttinger vom Hasso-Plattner-Institut in Potsdam die von ihm erwarteten Auswirkungen der Digitalisierung auf das Gesundheitswesen. Er prophezeit: „Der Wandel wird fundamental sein.“ Bei der Gestaltung von Gesundheitsräumen der Zukunft empfiehlt der Spezialist der personalisierten Medizin dynamisch und mobil zu denken. Warum das notwendig ist, stellt er in seinem Vortrag dar, in dem er von rasanten Fortschritten in Schlüsseltechnologien berichtet. Beispiel Genomsequenzierung: „Für fast 3.000 Erkrankungen monogenetischer Art können wir eine molekulare Diagnose erstellen – aufgrund der Erkenntnisse der genomischen Revolution“, sagt der Mediziner. Es seien mittlerweile viel mehr Medikamente auf dem Markt, bei denen man anhand der molekularen Analyse die richtige Therapie für den Patienten identifizieren könne. Ein Resultat der enorm rasanten Entwicklung von Technologien und deren Einführung in die klinische Anwendung, hebt Böttinger hervor.

„Die Mensch-Maschine-Beziehung wird immer enger“, sagt Architekturprofessorin Christine Nickl-Weller voraus. © Damian, Fotolia.com

Bessere Medizin praktizieren

Wie die klinische Anwendung funktionieren kann, beschreibt er anhand eines von ihm in den USA entwickelten digitalen Assistenzsystems für Ärzte. Grundlage dessen ist eine für Patienten einheitliche digitale Gesundheitsakte und ein System, dass mit dieser in Echtzeit kommuniziert. Damit wird die Möglichkeit geschaffen, best-standard-of-care Information, genomische Angaben und Leitlinien zum Zeitpunkt der Entscheidungsfindung zwischen Arzt und Patient einfließen zu lassen. „Wenn eine Verordnung im elektronischen System eingegeben wird, kommt in Millisekunden die Rückmeldung, dass das Medikament auf Basis der genetischen Patientendaten nicht wirken wird, und eine Empfehlung für ein anderes Medikament“, erläutert Böttinger. 70 Prozent der Hinweise bei Arzneimittelverordnungen seien von den behandelnden Ärzten angenommen worden. Für Böttinger ein Beispiel, wie digitale Lösungen für mehr Effizient und Qualität sorgen und es Ärzten ermöglichen, „bessere Medizin praktizieren zu können“.

90 Prozent Digitalisierung

Digitale Lösungen ermöglichen es Ärzten, eine bessere Medizin zu praktizieren, ist Prof. Erwin Böttinger überzeugt. © HPI, Kay Herschelmann

Böttinger stellt außerdem klar, dass klinisch generierte Informationen nur ein kleiner Teil der gesundheitsrelevanten Informationen der Zukunft seien und verweist auf die rasanten Entwicklungen in der Sensorik und Nanotechnologie. „Digitalisierung heißt nicht, dass wir die Dokumentation klinischer Prozesse digitalisieren, sondern dass wir eine ganz neue Art von Informationen mitberücksichtigen, die kontinuierlich und in Echtzeit eingeführt werden.“
In den USA habe man durch öffentliche Förderung die Einführung von digitalen Gesundheitsakten konsequent vorangetrieben – in den Praxen und in den Klinken. Böttinger spricht von 90 Prozent Digitalisierung und warnt davor, hierzulande den Anschluss zu verlieren. „Wir müssen die Entwicklung jetzt konsequent aufgreifen und umsetzen, auch am Standort Deutschland und in Europa“, appelliert er.

„Die Mensch-Maschine-Beziehung wird immer enger“

Damit schließt der Mediziner nahtlos an die Ausführungen von Gastgeberin Prof. Christine Nickl-Weller an, die ganz grundsätzlich fragt: „Lassen wir uns vom Fortschritt antreiben oder treiben wir ihn selbst an?“ Im Gesundheitswesen, führt die Architekturprofessorin aus, werden die vernetzen Prozesse um den Faktor Mensch erweitert. Dessen Daten seien die Währung unserer postindustriellen Zeit. Sie würden gesammelt, analysiert und weitergegeben; dadurch würden die Geräte, die man damit füttere, immer informierter. „Die Mensch-Maschine-Beziehung wird immer enger“, sagt Nickl-Weller. Der Pflegeroboter etwa sei schon heute kein Zukunftsszenario mehr – „er ist greifbare Realität geworden“. Sie sagt voraus, dass sich durch die engere Mensch-Maschinen-Beziehung der Raum der Gesundheitsversorgung verändern werde. „Müssen unsere infrastrukturellen Netzwerke nicht kleinteiliger, flexibler und vor allem besser vernetzt werden?“

Umdenken in Healing Modulen

Ihr Mann, Prof. Hans Nickl von Nickl & Partner Architekten, präsentiert auf der Veranstaltung eine Vision von hochspezialisierten Funktionsmodulen im Krankenhausbau, die in eine patienten- und mitarbeitergerechte Krankenhauswelt zu integrieren seien. Bei sogenannten „Healing Modulen“ besteht die Kernzelle aus den Elementen OP-Zentrum/Interventionszentrum, Notfall/Diagnostik/Therapie, Mutter-Kind-Zentrum sowie Tagespflege. Als assoziierte Einrichtungen sind etwa Geriatrie, Reha, Übergangspflege und Gesundheitseinrichtungen denkbar. „Diese Module kann ich dann beliebig zusammensetzen – je nach Bedarf und Größenordnung“, erläutert der Architekt. Ein Vorteil: Sie seien leichter zu anzupassen, wenn neue Technologien integriert werden. Die Gebäudetechnik beispielsweise ändere sich alle 15 Jahre, Nickl geht aber davon aus, dass sich die Intervalle inzwischen halbiert haben.
Anwendung findet dieser Ansatz demnächst in Indonesien, wo sogenannte Pocket Kliniken die medizinische Versorgung auf den zahllosen Inseln sicherstellen sollen. Dabei handelt es sich um kleine Einheiten, die als Grundmodul die Bereiche OP, Entbindung und Labor umfassen, erläutert Nickl. Die Pocket Kliniken sind mit den nächst größeren Klinikeinheiten, den Pocket Hospitals, und diese wiederum mit den General Hospitals digital vernetzt.

Paradiesisches Krankenhaus, inklusive Palmen Schmetterlingen und Papagei, skizziert von Architekt Hans Nickl © Nickl & Partner Architekten AG

DAS SMARTPHONE NAVIGIERT DURCH DIE THERAPIEPFADE

So schildert Hans Nickl die Situation in einer großen Klinik in Shanghai: In der Eingangshalle stehen 20 Terminals, bei denen die Patienten per Smartphone „einchecken“. Auf dem Handy erscheint der Therapiepfad: der zuständige Arzt mit Bild, die Stationen, die aufzusuchen sind, empfohlene Medikamente inklusive Preise. Die Arzneimittel können später direkt in der Krankenhausapotheke abgeholt werden, bezahlt wird ebenfalls per Smartphone.

Sind Hausärzte im digitalen Zeitalter nicht mehr zumutbar?

Ein weiteres Beispiel für effektive digitale Vernetzung hat Architekt Nickl in einer großen Klinik in Shanghai erlebt, wo die Patienten mittels Smartphone „einchecken“ und durch ihre Therapiepfade navigiert werden (siehe Infokasten). Somit erscheint es nur konsequent, dass der Technologiekonzern Apple angekündigt hat, ein eigenes Kliniknetzwerk aufzubauen – zunächst nur für die eigenen Angestellten. Dafür hat das Unternehmen die Tochterfirma AC Wellness gegründet. Diese verspricht eine einzigartige „concierge-like healthcare experience“.
Da schlägt die Disruption bereits voll ins Fundament durch, während hierzulande ein Streit um Konnektoren die Gemüter erhitzt. Bis in diese Niederungen verfolgt Nickl vermutlich nicht das Gerangel um die elektronische Gesundheitskarte. Dennoch ist er sich sicher, dass der Hausarzt ausgedient hat. Er sei nie da, nicht vernetzt, man müsse warten – kurzum: „das kann ich im digitalen Zeitalter keinem mehr zumuten“. Ähnlich schonungslos fällt sein Urteil zu neuen Klinikbauten aus: „Ich behaupte, dass die Häuser, die jetzt geplant und gebaut werden, bereits veraltet sind.“

Transparente Algorithmen und faire Computer

Berlin (pag) – Algorithmen brauchen Regeln wie alles andere in der Gesellschaft auch, verlangt Klaus Müller, Vorstand des Verbraucherzentrale Bundesverbandes. Wenige Tage nachdem der deutsche Ethikrat seine Stellungahme zu Big Data in der Medizin veröffentlicht hat, diskutiert der vzbv mit Experten das Thema Algorithmen.

„Erst wenn selbstlernende Maschinen nachweislich unsere ethischen und gesetzlichen Anforderungen erfüllen, wird sie die Gesellschaft als fair akzeptieren“, sind die Wissenschaftler des Max-Planck-Instituts überzeugt. © phonlamaiphoto, Fotolia.com

Relevante algorithmenbasierte Entscheidungsprozesse müssten durch eine unabhängige, staatlich legitimierte Institution kontrolliert werden können, fordert Verbraucherschützer Müller auf der Tagung. Dort erläutert Prof. Sebastian Stiller, Universität Braunschweig, dass ein Algorithmus kein Kochrezept sei, es komme nicht immer das Gleiche heraus. „Ein guter Algorithmus stellt sich auf die jeweilige Situation ein.“ Wichtig seien dessen Kriterien und nicht seine mathematische Programmierung. Stiller warnt davor, dass algorithmische Ungenauigkeit zur Wahrheit erklärt wird. Auch Prof. Judith Simon, Universität Hamburg, betont in ihrem Vortrag, dass Transparenz über die Funktionsweisen notwendig sei. „Man muss bis zu einem gewissen Grad nachvollziehen können, auf Basis welcher Kriterien maschinelle Entscheidungen getroffen werden, um gegebenenfalls zu widersprechen oder verstehen zu können, ob es gute Entscheidungen sind“, hebt die Professorin für Ethik in der Informationstechnologie hervor. Wie weit die Transparenz gehe, sei je nach Verfahren unterschiedlich – „sie muss aber auf jeden Fall gesteigert werden“. Als weitere künftige Herausforderung sieht Simon wertebasiertes Programmieren.

Ethische Anforderungen an Maschinen?

Aktuell untersuchen Wissenschaftler des Max-Planck-Instituts für Intelligente Systeme in Tübingen Daten auf ihren kausalen Zusammenhang. „Erst wenn selbstlernende Maschinen nachweislich unsere ethischen und gesetzlichen Anforderungen erfüllen, wird sie die Gesellschaft als fair akzeptieren“, heißt es in einer Mitteilung des Instituts. „Als intelligente, selbstlernende Maschinen nur in der Industrie eingesetzt wurden, machte sich keiner Gedanken, ob ein Computer fair handelt“, sagt Niki Kilbertus, Wissenschaftler am Institut. Doch spätestens seit die gleichen Algorithmen Anwendung in einem sozialen Kontext finden, müsse man sich folgende Frage stellen: Sind diese selbstlernenden Maschinen fair oder diskriminieren sie, wenn auch ungewollt? Kilbertus zufolge reicht die gängige Praxis nicht aus, „um unsere Intuition von Fairness vollständig wiederzugeben“.

Die Grundlagenforschung von ihm und seinen Kollegen soll dazu dienen, ein Umdenken in einer Gesellschaft anzuregen, in der maschinelles Lernen und künstliche Intelligenz immer mehr Entscheidungen beeinflussen. „Wenn Maschinen unsere eigenen Wertvorstellungen übernehmen sollen, dann darf man Daten nicht einfach blind weiterverwerten.“ Zusammenhänge müssten zuerst verstanden und formal definiert werden, bevor maschinelles Lernen im sozialen Kontext eingesetzt und als fair akzeptiert werden könne.

„Teilen ist Heilen“

Ethikrat bezieht Stellung zu Big Data

Berlin (pag) – „Man kann Big Data nicht aufhalten, aber sehr wohl gestalten“, sagt Bundesgesundheitsminister Hermann Gröhe (CDU). Bei der Präsentation der lang erwarteten Stellungnahme des Deutschen Ethikrats zu Big Data Ende vergangenen Jahres erläutern der Vorsitzende des Gremiums, Prof. Peter Dabrock, und Ratsmitglied Prof. Steffen Augsberg, wie dies gelingen kann.

©pixabay, montage: pag

Es handele sich bei Big Data um „eine gesellschaftliche und technologische Entwicklung, die das Zeug dazu hat, die Medizin zu revolutionieren“, ist sich der Minister sicher. Gröhe lobt den Ethikrat für seine Stellungnahme, in der das Gremium nicht mit Ängsten spiele, sondern konkrete Handlungsempfehlungen formuliere. Dennoch: „Datensouveränität durchzudeklinieren, wird eine große Aufgabe.“

Klassische Datenschutzmechanismen greifen nicht mehr

Im Mittelpunkt des Papiers stehen die klassischen Daten-schutzmechanismen, die sich laut Dabrock „als nicht mehr ausreichend oder sogar als dysfunktional“ erwiesen haben. Hier müsse man neue Wege gehen, denn es sei „gegenüber den vielen Menschen, denen signifikante Gesundheitsverbesserungen winken, unverantwortlich, wenn man diese Chancen gesellschaftlich wegen der alten Datenschutzprinzipien verbieten wollte“. Für den Einsatz von Big Data im Gesundheitswesen gelte: „Teilen ist Heilen.“ Damit spielt der Theologe auf ein Zitat aus dem dystopischen Roman „The Circle“ von Dave Eggers an. Vollständig lautet es: „Teilen ist Heilen. Privatheit ist Diebstahl und Geheimnisse sind Lügen.“ Dieses Mantra sei literarisch so angelegt, dass man es „in Gänze wie in seinen Teilen rundweg ablehnen soll“. Doch so einfach ist es Dabrock zufolge nicht – zumindest nicht, was das Themenfeld Big Data und Gesundheit betrifft. Denn: „Wer wollte schon dagegen sein, wenn sich mithilfe dieser Big-Data-getriebenen Entwicklung tatsächlich Lebenszeit verlängern und Lebensqualität verbessern ließe?“

Zwischen informeller Selbstbestimmung und Datenschutz

„Das ganze ist eine hochambivalente Situation“, sagt Prof. Peter Dabrock (links) bei der Übergabe des Gutachtens an Bundesforschungsministerin Prof. Johanna Wanka und Bundesgesundheitsminister Hermann Gröhe. Ebenfalls im Bild: Prof. Steffen Augsberg (rechts) © Dt. Ethikrat, Reiner Zensen

Bisher sei man ganz selbstverständlich davon ausgegangen, dass in der Medizin zum einen die informelle Selbstbestimmung, zum anderen die klassischen Datenschutzprinzipien wie Zweckbindung und Datensparsamkeit unbedingt zu gelten haben. Gleichzeitig brauche es aber für aussagekräftige Folgerungen sehr große Datenmengen. „Das Ganze ist eine hochambivalente Situation“, fasst Dabrock zusammen. Der Ethikrat greift daher einen Begriff auf, der seit wenigen Jahren in der Diskussion, aber bisher diffus gefüllt ist: Datensouveränität. Der Terminus werde „in den aktuellen Debatten nicht nur mit unklaren, sondern auch mit diametral entgegengesetzten Bedeutungsinhalten verwendet“, ergänzt Augsberg. „Teilweise werden damit lediglich die tradierten, letztlich kaum veränderten Regulierungsansätze des Datenschutzes unter neuem Namen fortgeschrieben.“ Der Ethikrat definiere Datensouveränität dagegen als „den Chancen und Risiken von Big Data angemessene verantwortliche informelle Freiheitsgestaltung“ und verweise damit auf das bekannte Konzept der informellen Selbstbestimmung, entwickele dieses jedoch weiter, so Augsberg. Es gehe dabei insbesondere um die Möglichkeit, je nach individueller Präferenz effektiv in den Strom persönlich relevanter Daten eingreifen zu können. Diese Freiheitsgestaltung soll sich nach den Vorstellungen des Ethikrats auch „an den gesellschaftlichen Anforderungen von Solidarität und Gerechtigkeit“ orientieren.

Verantwortung trägt sowohl der Einzelne als auch der Staat

Das Datenschutzrecht befinde sich derzeit in einem nahezu vorbildlosen Umbruchprozess, so Augsberg weiter. Als Beispiele nennt der Rechtswissenschaftler die EU-Datenschutzgrundverordnung, das Bundesdatenschutzgesetz und die noch im Gesetzgebungsverfahren befindliche europäische E-Privacy-Verordnung. Ein ethisch orientierter Umgang mit Big Data müsse sicherstellen, dass „für den Einzelnen zumindest die realistische Möglichkeit besteht, die eigene Identität zu bewahren und zu gestalten sowie die eigenen Handlungen vor sich und anderen zu verantworten“. Verantwortung trage dabei nicht nur das Individuum: „Sie trifft auch Institutionen und insbesondere den Staat.“ Angesichts der Defizite des traditionellen Datenschutzrechts bedürfe es hierfür eines neuen, die Komplexität und Entwicklungsdynamik von Big Data stärker spiegelnden Gestaltungs- und Regelungskonzepts, folgert Augsberg.

Politik soll „Datenspende“ ermöglichen

Die Stellungnahme enthält daher neben einer Beschreibung der Entwicklung hin zu Big Data sowie einer kritischen Analyse der Rechtslage und der ethischen Situation auch eine Reihe von Handlungsempfehlungen, die sich vor allem an die Politik richten. Eine davon lautet, die rechtliche Möglichkeit für den Einzelnen zu schaffen, die umfassende Nutzung seiner Daten für die medizinische Forschung ohne Zweckbindung zu erlauben. Dieses vom Ethikrat als „Datenspende“ bezeichnete Konzept setzt eine umfassende Aufklärung über mögliche Konsequenzen voraus – auch mit Blick auf die Rechte anderer, etwa mitbetroffener Familienmitglieder.
Darüber hinaus regt das Gremium an, die digitale Bildung zu fördern und bereits in der Schule bei den Kindern „ein Bewusstsein für die rechtlichen, sozialen und ethischen Implikationen zu schaffen“. Die Vermittlung solcher Nutzerkompetenz sollte daher zukünftig Teil der Lehreraus- und -fortbildung werden, heißt es. Der Ethikrat verstehe die Liste der Empfehlungen nicht als abschließend, betont Augsberg. „Ihre möglichst umfassende, zeitnahe und gegebenenfalls öffentlich zu finanzierende Umsetzung wäre aber ein wichtiger Schritt, um sicherzustellen, dass die mit Big Data unzweifelhaft verbundenen Chancen genutzt werden können, zugleich aber wesentliche ethische wie grundrechtlich fundierte Wertungen einschließlich der informellen Selbstbestimmung weiterhin die ihnen gebührende Achtung erfahren.“

 

Die Vorgeschichte
Mit Big Data und Gesundheit hat sich der Ethikrat bereits auf seiner Jahrestagung im Mai 2015 auseinandergesetzt. Die angekündigte Stellungnahme ließ aber auf sich warten. Dabrock erklärt die Verzögerung mit einer inhaltlichen Neuausrichtung – ursprünglich sollte es vor allem um Wearables gehen. Der Rat sieht diese jetzt als „ein Oberflächenphänomen einer sehr viel tiefer liegenden Fragestellung“. Auch hat inzwischen der turnusgemäße Wechsel von Ratsmitgliedern stattgefunden: Lediglich zwölf der 26 aktuellen Ratsmitglieder waren 2015 im Amt. Seinerzeit diskutierten die Experten recht kontrovers über das Thema. Dabrock befürchtete etwa, dass ohne eine möglichst internationale Regulierung die quantitative Verdichtung von Big-Data-getriebenen Prognosen zu einem qualitativen Verlust von Freiheit führen könne, der jedoch als Steigerung der Selbstbestimmung verkauft werde. Dagegen betonte Prof. Claudia Wiesemann, dass es auch gewichtige moralische Gründe für Big Data gebe, vor allem bei der Erforschung der Orphan Diseases – seltene Erkrankungen, die eine kritische Masse an Informationen und Daten benötigten. Diese Patientengruppen würden durch gute Big-Data-Forschung „entdiskriminiert“. Die aktuelle Stellungnahme enthält ein Sondervotum der Medizinerin Dr. Christiane Fischer. Sie wendet sich gegen eine zentrale Speicherung von Patientendaten, statt freiwilliger Selbstkontrollen will sie gesetzliche Regelungen.

 

Weiterführender Link:

Die Stellungnahme ist online verfügbar unter: www.ethikrat.org/publikationen/stellungnahmen/big-data-und-gesundheit-1