Standpunkte: Wie funktioniert ein lernendes Gesundheitssystem?
Berlin (pag) – Ein lernendes Gesundheitssystem, das Daten nutzt, die im Gesundheitswesen, aber auch im Alltag erhoben werden, um die Versorgung zu verbessern – dieser Zielvorstellung widmet sich ein Forschungsprojekt. „Lernbedarf gibt es zuhauf, Lernmöglichkeiten eigentlich auch – wir nutzen sie aber nicht, weil ein Großteil der Daten, die täglich anfallen, nicht ausgewertet wird. Jedenfalls nicht im Rahmen solider Forschungsprojekte und -strategien“, konstatiert Prof. Christiane Woopen, Direktorin des Cologne Center for Ethics, Rights, Economics, and Social Sciences of Health (ceres).
Um Gesundheitsdaten für Forschungszwecke verfügbar zu machen, gilt es, eine Vielzahl von Fragen zu klären – methodischer, juristischer, ethischer Art. Dieser Aufgabe widmet sich das Projekt „Ethical Governance für ein lernendes Gesundheitssystem“, an dem ceres-Wissenschaftler mit Kollegen von der Forschungsstelle Datenschutz und dem Institut für europäische Gesundheitspolitik und Sozialrecht (ineges), Goethe-Universität Frankfurt, arbeiten.
Einen Zwischenbericht gibt es kürzlich bei einer Tagung in Berlin. Ein lernendes Gesundheitssystem, hebt dort Peter Bröckerhoff hervor, nutzt systematisch Daten aus der Versorgung für die Forschung. Umgekehrt werden Forschungsergebnisse schnell in der Versorgung implementiert. Ziel dieses Lernkreislaufes sei für Patienten eine Verbesserung der Behandlungsqualität. Gesamtgesellschaftlich gehe es um nachhaltige Gerechtigkeit und Solidarität. Der ceres-Wissenschaftler betont, dass ein lernendes Gesundheitssystem auf Zusammenarbeit basiere. Dafür sei im gegenwärtigen System ein Kulturwandel notwendig. „Dieser muss von allen Akteuren getragen, gefördert und aktiv gestaltet werden.“
Nicht alle Tagungsteilnehmer überzeugt die Vision. Eine kritische Nachfrage kommt etwa von Prof. Jürgen Windeler, Leiter des Instituts für Qualität und Wirtschaftlichkeit im Gesundheitswesen. Er findet, dass es bereits jetzt ein lernendes System gebe, das vielleicht etwas langsamer und schwieriger lerne. Bei einem anders lernenden, digital unterstützten System will er wissen: „Wenn wir über eine Solidarität genannte Relativierung des Datenschutzes reden, dann würde ich als Bürger schon gerne wissen, was ich dafür bekomme.“
Bei der Veranstaltung setzt sich Rebekka Weiß, Bitkom, mit der Frage auseinander, ob Unternehmen zu Gemeinwohlzwecken Daten mit Forschern teilen sollten. Der Rechtswissenschaftler Prof. Steffen Augsberg, Universität Gießen, beschäftigt sich damit, ob die Preisgabe personenbezogener Daten zu Zwecken eines lernenden Gesundheitssystems eine – ethische – Solidaritätspflicht sei. Im folgenden lesen Sie die Ausführungen der beiden.
Prof. Steffen Augsberg: Datenspende als Solidaritätspflicht?
.
In der jüngeren Vergangenheit wird intensiv über die sogenannte Datenspende nachgedacht. Insbesondere in der medizinischen Forschung verbinden sich mit der Nutzung großer Datenmengen – „Big Data“ – große Erwartungen und Hoffnungen. Die Datenspende soll dazu beitragen, die hierfür erforderlichen Daten zu gewinnen. Könnte sich hieraus sogar eine (ethische) Pflicht ergeben, die eigenen Daten zur Verfügung zu stellen und damit anderen Menschen zu helfen? Diese Frage kehrt die gängige Perspektive des Datenschutzes um: Üblicherweise wird zur Legitimation der Preisgabe personenbezogener Daten allein darauf abgestellt, ob sie von den Betroffenen konsentiert und/oder diesen zumutbar ist. Dass es ein schützenswertes Recht auf Privatheit gibt, das der Offenlegung solcher Daten prinzipiell widerstreitet, bedeutet indes nicht das Ende der Debatte. Denn es handelt sich hierbei nicht um einen absoluten Wert, sondern um eine abwägungsfähige und -bedürftige (Rechts-)Position.
Bei genauerer Betrachtung zeigt sich, dass beim Umgang mit personenbezogenen Daten nicht auf eine vergleichsweise eindimensionale, schutzzentrierte Sichtweise abzustellen ist. Vielmehr muss das zugrunde liegende komplexere Geflecht einer Vielzahl, teilweise durchaus widersprüchlicher Rechte und Pflichten berücksichtigt werden. Das hat der Deutsche Ethikrat in seiner Stellungnahme „Big Data und Gesundheit“ ausführlich herausgearbeitet. Demnach zählen zu den normativ und evaluativ das Selbstverständnis des datengebenden Individuums wie seine Funktion und Position in der Gesellschaft beeinflussenden Werten neben Privatheit und Intimität auch Freiheit und Selbstbestimmung, Souveränität und Macht, Schadensvermeidung und Wohltätigkeit sowie Gerechtigkeit und Solidarität. Auch mit Blick auf den Schutz von Daten ist dementsprechend eine individuelle wie gesellschaftliche Verantwortung gegenüber Anderen, insbesondere in spezifisch hilfsbedürftigen und vulnerablen Positionen, zu berücksichtigen.
Gerade im Gesundheitssystem liegt auf der Hand, dass eine wechselseitige Unterstützung dem spezifischen Charakter von Gesundheitsrisiken entspricht. Niemand kann darauf vertrauen, gesund zu bleiben, und deshalb sind alle daran interessiert, im Falle des Falles die bestmögliche Versorgung zu erhalten. Eine (ethische) Pflicht zur Preisgabe bedeutet dies aber noch nicht. Im Abwägungsprozess zu berücksichtigen wären etwa die – unter Big-Data-Bedingungen indes zunehmend wenig aussagekräftige – Sensibilität der Daten, deren Ersetzbarkeit, zu befürchtende Auswirkungen bei Missbrauch und Ähnliches. Letztlich müssten der konkrete Kontext und individuelle Besonderheiten miteinbezogen werden. Das verdeutlicht, warum sich eine pauschale Antwort auf die titelgebende Frage verbietet. Es verweist zugleich darauf, dass es bessere Optionen gibt, Chancen und Risiken von Big Data gerecht werdende Datensouveränität zu gewährleisten – dazu enthält die genannte Stellungnahme eine Vielzahl von Empfehlungen.
Rebekka Weiß: Datenteilungspflicht kann Innovationskraft bremsen
.
Daten sind die Basis der digitalen Wirtschaft und Gesellschaft. Nicht ohne Grund haben sich längst Vergleiche von Daten mit Gold, Öl und Wasser etabliert. Obwohl Daten anders als Bodenschätze beliebig reproduzierbar, kopierbar und in größerem Umfang verfügbar sind, wird seit Längerem diskutiert, ob Daten nicht aus bestimmten Gründen geteilt werden müssten.
Als erste Hürde zeichnet sich aber schnell das Datenschutzrecht ab. Die DSGVO legt in mehr oder weniger unflexiblen Tatbeständen fest, unter welchen Umständen die Daten überhaupt erhoben werden dürfen. Gesundheitsdaten unterliegen sogar besonders strengen Regeln. Zwar sieht die DSGVO Erleichterungen für Forschung vor. Eine Datenteilungspflicht kann daraus aber nicht abgeleitet werden.
Als Ausweg aus dem engen Korsett der DSGVO wird die Anonymisierung gesehen. Anonyme Daten unterliegen nicht dem Datenschutz und so könnte man annehmen, dass diese einfach ge- und verteilt werden könnten. Allerdings ist häufig unklar, welche Merkmale von einem Datensatz entfernt werden sollen, um die notwendige Anonymität der Daten sicherzustellen. Es wird sogar die These vertreten, dass echte Anonymität kaum zu erreichen sei, da durch eine Kombination verschiedener Merkmale immer die Gefahr bestehe, dass Daten doch auf eine bestimmte Person zurückgeführt werden können. Neben dieser technischen Dimension muss aber vor allem eines Berücksichtigung finden: Anonymisierung passiert weder einfach noch von allein. Sie muss geplant, implementiert, nachverfolgt und die technischen Verfahren aufgebaut und angepasst werden. Diese Investitionen werden kaum getätigt werden, wenn am Ende des Investitions- und Innovationszyklus eine Datenteilungspflicht steht und die Früchte der Arbeit quasi kostenfrei abfließen. Eine Datenteilungspflicht – auch für anonyme Daten – kann daher immer auch die Innovationskraft bremsen. Und: Für viele innovative Verfahren benötigen die Anwender eben doch personenbezogene Daten. Die Investitionen, die notwendig sind, um Daten auf hohem Niveau auszuwerten, daraus neue Verfahren zu entwickeln und den Mehrwert in innovative Anwendungen zu übertragen, sind hoch. Alle Einzelstränge der Datenerhebung erfordern nicht nur Technologie, sondern durch den regulatorischen Rahmen dauerhafte Beratung. Auch bestehende Haftungsrisiken durch die Rechtsunsicherheiten und die zahlreichen komplexen Abwägungsmechanismen, die die DSGVO bereithält, müssen eingepreist werden.
Was wir brauchen ist daher keine Verpflichtung zum Teilen von Daten, sondern einen besseren, kontrollierten Zugang zu Daten. Dabei sollte vor allem auch Datenpooling erleichtert und Kooperationsmöglichkeiten zwischen Einrichtungen und Unternehmen verbessert werden. So könnten dann vor allem hochwertige Datensätze verbesserten Zugängen unterliegen. Mit einem flexibilisierten Rahmenwerk könnten auch Forscher verbesserten Zugriff erhalten und Gemeinwohlzwecke durch private und öffentliche Forschung vorangetrieben werden.