Münster (pag) – Zwei Antikörper-Wirkstoffe sind mittlerweile in Europa zur Behandlung der leichten Alzheimer-Demenz zugelassen. Handelt es sich bei ihnen um einen Gamechanger? Dazu nimmt Dr. Uwe Meier, Vorsitzender des Berufsverbands Deutscher Neurologen, bei einer Veranstaltung des Medizinischen Dienstes Stellung. Er äußert die Befürchtung, dass der Wert von Innovationen bei onkologischen und mentalen Erkrankungen mit unterschiedlichem Maß gemessen wird.
Der Neurologe sieht den Therapieansatz der beiden Medikamente als Gamechanger. Es handele sich um krankheitsmodifizierende, kausale Ansätze, die hochspezifisch sind – Stichwort Präzisionsmedizin – und messbare Effekte bewirken. Die Antikörper haben Meier zufolge bereits ein Umdenken bewirkt: Die Alzheimererkrankung wird inzwischen als Kontinuum betrachtet. Der Fokus richte sich auf sehr frühe Phasen, in denen die neuen Therapien zum Einsatz kommen sollen. „Time is brain“, dieses Motto aus Schlaganfallversorgung und der MS-Therapie, gilt jetzt auch für Alzheimer.
Der Experte räumt ein, dass man bisher nur kleine bis mittlere Effektstärken sehe. Er ist aber überzeugt: „Wir haben noch eine große Lernkurve vor uns.“ Zum einen geht es darum, die Subgruppen besser zu verstehen. Und zum anderen scheint der Nutzen mit der Behandlungsdauer zu steigen, weshalb die Langzeitdaten von großer Bedeutung sind. Außerdem betont der Arzt, dass auch anfangs kleine Effekte bedeuten könnten, dass bei den Patienten Alltagsfunktionen und Unabhängigkeit erhalten bleiben.
Gigantische Prävalenz
In der Versorgung sind die neuen Antikörper mit einem enormen Ressourcenaufwand verbunden – sowohl personell, räumlich als auch finanziell, sagt Maier und nennt als Notwendigkeiten: ein schnelles Screening, Ausschluss- und Biomarkerdiagnostik sowie die engmaschige Überwachung der neuen Therapien. Insgesamt sei der Aufwand, um die wenigen Patienten, die für Therapie in Frage kommen, zu identifizieren, sehr groß. Die Prävalenz der Krankheit sei gigantisch und führe zu einer erheblichen Bedarfssteigerung, wobei es schon jetzt sehr lange Wartezeiten bei Neurologen gibt, so der Vorsitzende des Berufsverbandes.
Er stellt in seinem Vortrag außerdem klar, dass Alzheimer nicht nur die Patienten und deren Angehörige betreffe, sondern auch eine gesamtgesellschaftliche Herausforderung darstelle – nicht zuletzt angesichts der Pflegekosten. Meier appelliert daher für eine ganzheitliche Betrachtung: „Wir dürfen nicht nur auf Effektgrößen und die Studiendiskussionen schielen, sondern auch gucken, was der Effekt bei Kosten ist, die wir an anderer Stelle einsparen.“ Ein weiteres Problem: Offenbar sei es nicht selbstverständlich, dass die Standards und Erwartungen, die für biologische Therapien in anderen Bereichen vorherrschen, auch für Alzheimermedikamente gelten. Der Neurologe spricht von Hinweisen, dass Krankheiten, die das Mentale betreffen, anders bewertet werden. Über den Wert eines onkologischen Medikamentes, das dem Patienten ein sieben Monate längeres Überleben schenke, werde anders diskutiert als über den Wert eines Mittels für die geistige Klarheit. Letzteres bedürfe mehr Rechtfertigung.
Berlin (pag) – Die Forschung ist insgesamt unzureichend an tatsächliche Gesundheitsbedarfe angepasst. Das ergibt eine internationale Studie unter Beteiligung der Universität Mannheim.
„Bisher wussten wir, dass Forschung und Krankheitslast oft nicht zusammenpassen – aber wie sich dieses Ungleichgewicht über die Zeit verändert hat, war weitgehend unbekannt“, konstatiert Korrespondenzautor Prof. Marc Lerchenmüller. Beides sei seit 1999 viel besser aufeinander abgestimmt, zeigt die Arbeit. Die Diskrepanz habe sich seitdem sogar halbiert. Der Hauptgrund dafür ist der regionale Rückgang übertragbarer Krankheiten wie HIV/AIDS, Malaria oder Tuberkulose. Ihr Anteil an der weltweiten Krankheitslast reduzierte sich in den letzten 20 Jahren deutlich. Dem steht jedoch eine globale Zunahme von nicht übertragbaren Krankheiten gegenüber – etwa Herz-Kreislauf-Erkrankungen, Suchterkrankungen oder Diabetes. Rechnung getragen würde dieser Veränderung von Seiten der Wissenschaft allerdings nicht.
Die Experten blicken auf eine Zweiteilung: Die Diskrepanz zwischen Forschung und Krankheitslast sei um etwa 75 Prozent zurückgegangen, weil die Krankheitslast lokal auftretender Infektionskrankheiten deutlich abgeflacht sei. Konträres gelte für chronische, nicht übertragbare Krankheiten: Hier sei die Kluft um 25 Prozent gestiegen. „Nichtübertragbare Krankheiten sind ein globales Problem – doch die Forschung dazu findet bislang vor allem in den westlichen Ländern statt und hinkt der globalen Zunahme der Krankheitslast hinterher“, betont Dr. Leo Schmallenbach, Erstautor der Studie.
Mehr Zusammenarbeit gefordert
Ändern sich Forschungsschwerpunkte künftig nicht, dürfte die Schere wieder auseinanderklaffen, glauben die Autoren. Damit Forschung und Gesundheitsbedarfe harmonisiert werden, brauche es stärkere internationale Zusammenarbeit, eine offene Wissenschaftspolitik – etwa durch Open Science und verpflichtendes Daten-Sharing – und Partnerschaften auf Augenhöhe. Nur so könnten auch unterversorgte Regionen erreicht werden, konstatieren die Wissenschaftler.
Vielschichtige Herausforderungen für Ärzte, Eltern und kleine Patienten
Berlin (pag) – „Patient Safety in all Health Policies“: So wandelt Dr. Ruth Hecker, Vorsitzende des Aktionsbündnisses Patientensicherheit, die bekannte Forderung der Public-Health-Szene „Health in all Policies“ ab. Patientensicherheit sei ein Querschnittsthema, betont sie und warnt vor einer Verschlechterung der Patientensicherheit bei kleinen Patienten.
„Wenn Kinderarztpraxen schließen, Kinderkrankenhausbetten reduziert werden, wenn unter Umständen in Leistungsbereichen die Kinderheilkunde nicht mehr im Vordergrund steht oder vergessen wird, dann sind das systemische Fehler, die eventuell dahinführen, dass Fehlbehandlungen passieren, dass Diagnosefehler passieren.“ Diese Prognose stellt Hecker kürzlich bei einer Veranstaltung des Verbandes forschender Arzneimittelhersteller (vfa) auf. Das Thema: „Patientensicherheit von Anfang an – sichere Versorgung für jedes Neugeborene und jedes Kind“. Verschiedene Expertinnen und Experten präsentieren dort ihre Perspektive auf dieses vielschichtige Thema.
„Enorme Zusatzbelastung“
Dr. Henriette Högl, Geschäftsführerin des Kindernetzwerkes, und Pädiater Jakob Maske rücken insbesondere Engpässe und den Off-Label-Use von Kinderarzneimitteln in den Mittelpunkt. Letzterer ist für Ärzte und Eltern mit teilweise großen Unsicherheiten verbunden. Für die betroffenen Familien stelle der Einsatz eines Arzneimittels außerhalb des Zulassungsgebietes eine enorme Zusatzbelastung dar, so Högl. Sie betont: „Zu der Herausforderung mit dem kranken Kind kommt etwas, was so elementar wie die Arzneimittelversorgung ist, noch obendrauf.“
Jakob Maske präsentiert aus dem Alltag seiner kinder- und jugendärztlichen Praxis in Berlin-Schöneberg ein typisches Beispiel zum Thema Off-Label-Use: ein Kind mit frühkindlichem Asthma. Nach der Leitlinie seien zwei Medikamente zur Behandlung vorgesehen, beide jedoch nicht zugelassen für diese Altersgruppe – „obwohl sie für mich als Mediziner die Mittel der ersten Wahl darstellen“.
Solche Situationen gebe es täglich. Hinzu komme die Ankündigung einer Krankenkasse, den Off-Label-Use verstärkt zu prüfen und Ärzte zu regressieren. Ein weiterer Aspekt, auf den Maske hinweist: Off-Label-Use sorge für Misstrauen bei den Eltern – zusätzlicher Redebedarf sei meist die Folge. „Diese Zeit fehlt bei der Behandlung von anderen Patienten“, berichtet der Pädiater. Darauf verzichten sei aber keine Option, denn je besser die Aufklärung, desto mehr Vertrauen und desto besser die Adhärenz.
Ein weiteres Problem sind für Högl die Arzneimittelengpässe, die den Familien nur schwer zu vermitteln und für die betroffenen Kinder untragbar seien. Maske bringt das Beispiel Antibiotika-Säfte: Mediziner seien darauf geschult, die bestmöglichen Antibiotika für die Patienten auszuwählen. Aber: „Das ist nicht mehr möglich, weil es teilweise das Mittel der ersten und zweiten Wahl gar nicht mehr gibt“, so Maske. Zwar habe sich die Situation verbessert, so der Mediziner mit Verweis auf eine Taskforce, die in der vergangenen Legislatur unter Prof. Karl Lauterbach initiiert, inzwischen jedoch wieder aufgelöst wurde, aber Maskes Warnung lautet: „Ich denke, das Problem ist nicht vorbei.“
Högl kritisiert in ihrem Vortrag außerdem für Kinder ungeeignete Darreichungsformen von Arzneimitteln – als Stichwörter nennt sie etwa Größe oder Geschmack. Die Geschäftsführerin fordert, dass die Darreichungsform bei der Zusatznutzenbewertung von PUMA-Arzneimitteln eine größere Rolle spielen sollte. Hecker vom Aktionsbündnis Patientensicherheit verlangt, die Forschung für Kinder voranzubringen, auch wenn dies nicht einfach sei. Als Beispiele nennt sie: kindgerechte Dosierung, altersgerechte Diagnostik und elternorientierte Kommunikation. „Das ist eminent wichtig, damit wir Patientensicherheit herstellen können – das bedeutet für mich auch personalisierte Medizin.“
Das Kinderformularium
Ein wichtiges Hilfsmittel für den Mediziner ist das Kinderformularium. Häufig sind Dosierungsempfehlungen im Off-Label-Bereich sowie kindgerechte Arzneiformen nicht direkt zugänglich. Die Datenbank enthält unter anderem Dosierungsempfehlungen für Früh- und Neugeborene, Kinder und Jugendliche sowie kinderspezifische unerwünschte Arzneimittelwirkungen, Warnhinweise und Kontraindikationen. Maske nutzt das Kinderformularium täglich. Eine verlässliche Finanzierung des Projektes, so heißt es auf der Veranstaltung mehrfach, sei unerlässlich. https://www.kinderformularium.de/
Repurposing als Strategie
Prof. Stefan Pfister, Direktor Präklinische Kinderonkologie des Hopp-Kindertumorzentrums Heidelberg, erläutert auf der Veranstaltung die Herausforderungen der Kinderonkologie, insbesondere bei der Medikamentenentwicklung. Kinder erkrankten an anderen Tumorarten als Erwachsene. Kennzeichnend seien zudem sehr kleine Patientenzahlen und viele verschiedene Tumorarten. Ideal seien spezifisch für krebskranke Kinder zugelassene Arzneimittel. Da sich die Entwicklung aufgrund der geringen Patientenzahlen für die Hersteller nicht lohne, gewinne dem Onkologen zufolge das sogenannte Repurposing – die Repositionierung von Arzneimitteln – an Bedeutung. Pfister erwartet eine Fülle neuer Medikamente, „von denen 70 Prozent auch eine relevante Anwendung für Kinder haben könnten“. Eine Filterung ist daher dringend notwendig.
Diese übernimmt ITCC-P4, eine gemeinnützige Organisation, die von zahlreichen großen europäischen Forschungsinstituten und drei Auftragsforschungseinrichtungen getragen wird. Dessen Mission besteht darin, die Aussagekraft präklinischer Tests für die Priorisierung von Krebsmedikamenten bei Kindern zu erhöhen. Mit von Patienten abgeleiteten Modellen wird systematisch getestet, welche der neuen Therapiemodalitäten besonders relevant für Kinder sein könnte. ITCC-P4 unterstützt als Stakeholder der europäischen Arzneimittelbehörde EMA die Regulatoren bei der Entscheidung, welche Medikamente für klinische Studien bei Kindern mit Krebserkrankungen priorisiert werden sollen.
Zugang zu neuen Medikamenten Prof. Stefan Pfister weist darauf hin, dass die Risiko- Nutzen-Abwägung abhängig von der Schwere der Erkrankung sei: Familien, deren Kind an einer tödlichen Erkrankung leidet, seien bereit, ein sehr viel höheres Risiko in Kauf zu nehmen, um Zugang zu neuen Medikamenten zu bekommen. In der aktuellen Revision der Erklärung von Helsinki ist daher festgehalten, dass medizinische Forschung an Schwangeren, Dementen, Kindern und Jugendlichen in Einzelfällen auch dann erlaubt sei, wenn Therapien zuvor nicht an Nicht-Vulnerablen erprobt wurden. Solche Einzelfälle könnten lebensbedrohliche Erkrankungen sein, die es bei Erwachsenen nicht gibt, so Pfister. Für ihn ist die Revision ein wichtiger Schritt, schließlich dauere es in der Kinderonkologie bis zu sieben Jahre, bis ein für Erwachsene entwickeltes Krebsmedikament zum ersten Mal bei Kindern eingesetzt wird. Viele Patienten überlebten diese Wartezeit nicht.
Berlin (pag) – „Warum sollte sich Deutschland nicht zum Ziel nehmen, Weltmeister in der Krebsforschung zu werden?“ Das fragt Prof. Michael Hallek, Direktor der Klinik für Innere Medizin und des Centrums für Integrierte Onkologie an der Uniklinik Köln. Beim Vision Zero Summit diskutieren zahlreiche Experten über Chancen und Herausforderungen der Krebsmedizin.
Hallek sieht in Deutschland eine „sehr gute Grundlagenforschung“. Die Schaffung der onkologischen Spitzenzentren sei ein guter Schritt gewesen und habe viel Bewegung in die Forschung gebracht. „Wir sind einfach schlecht in der Übersetzung von guten Ideen hin zu Produkten“, gießt er aber auch Wasser in den Wein. Um besser zu werden, sollten hausgemachte Probleme ausgeräumt werden: „Wir müssen jetzt antizyklisch investieren, um Wettbewerbsnachteile auszugleichen.“ Konkret nennt Halleck Überregulierung als größten Nachteil. „Bürokratie schützt zwar auch vor Willkür, sie kann aber auch Leben kosten. Hier muss sich das Mindset von Politik und Bürgern verändern.“
Erste Schritte in diese Richtung: Am 1. Juli ist die Spezialisierte Ethik-Kommission für besondere Vorhaben an den Start gegangen. Die Geschäftsstelle ist am Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM) angesiedelt. Das neue Gremium ergänze die bestehenden Ethik-Kommissionen nach Landesrecht, teilt das BfArM mit. Kernziel der neuen Kommission: den Schutz von Studienteilnehmern sicherstellen, zugleich Verfahren beschleunigen und damit den Weg für wissenschaftlichen Fortschritt ebnen. Zuständig sei die Behörde unter anderem für Anträge auf Genehmigung klinischer Studien, bei welchen Arzneimittel erstmalig am Menschen getestet werden. In den Zuständigkeitsbereich der Kommission fallen auch klinische Studien von Arzneimitteln für neuartige Therapien und klinische Prüfungen, bei welchen die Notfall-Einsatzgruppe der Europäischen Arzneimittel-Agentur beteiligt ist.
Novellierter Strahlenschutz
Mit der Einrichtung der Kommission setzt die Bundesregierung einen zentralen Baustein des Medizinforschungsgesetzes (MFG) und der Pharmastrategie um. Ebenfalls am 1. Juli greift das mit dem MFG novellierte Strahlenschutzgesetz. Es soll bürokratische Hürden für klinische Studien abbauen, die Strahlenanwendungen am Menschen vorsehen, teilt das Bundesamt für Strahlenschutz (BfS) mit. Für Forschende vereinfache sich die Zulassung vieler klinischer Prüfungen deutlich. Ein Beispiel: Werden bei Studien, die zur Überprüfung der Wirksamkeit eines neuen Medikaments CT-Untersuchungen einsetzen, mehr CTs benötigt als bei einer üblichen Behandlung, mussten die Untersuchungen bisher beim BfS angezeigt und geprüft werden. Seit dem 1. Juli wird dies mit der Bewertung der klinischen Prüfung für das Medikament selbst gebündelt.
Rund zwei Wochen später ziehen Bundesärztekammer und der Arbeitskreis Medizinischer Ethik-Kommissionen in der Bundesrepublik Deutschland nach und legen die gemeinsam erarbeitete „Richtlinie zur Bewertung der Qualifikation von Prüfern, Hauptprüfern, Leitern und ärztlichen Mitgliedern von Prüfungsteams durch Ethik-Kommissionen“ vor. Es ist die erste Richtlinie, die nach Inkrafttreten des MFG auf Basis der neuen Rechtslage veröffentlicht wird.
Berlin (pag) – „Nach meinem Eindruck stehen wir in der Genommedizin gemeinsam mit der medizinischen Biotechnologie vor einem Innovationssprung.“ Mit diesen Worten eröffnet Dr. Georg Kippels (CDU), parlamentarischer Staatssekretär im Bundesministerium für Gesundheit, das genomDE-Symposium 2025. Fokus des Events: das Modellvorhaben Genomsequenzierung, das vor einem Jahr gestartet ist.
Dieses erprobt, ob und wie die gesundheitliche Versorgung von Menschen, die unter seltenen und onkologischen Erkrankungen leiden, durch Ganzgenomsequenzierung verbessert werden kann. Kippels sieht „Chancen, die vor Kurzem noch undenkbar schienen“, sagt aber auch: „Wir sind noch am Anfang.“ Vielleicht irrt der Staatssekretär in diesem Punkt – denn beim Symposium zeigt sich: Für einige Patienten ist die Spitzenmedizin der Zukunft schon da.
„Im Bereich der Therapieempfehlungen sind wir schon bei über 200, die auf dieser Grundlage ausgesprochen wurden“, berichtet Dr. Andreas Till vom Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM). Das BfArM ist für den Aufbau und Betrieb der Datenplattform, die das Kernstück des Modellvorhabens bildet, zuständig. Diese Infrastruktur mit dezentralen Datenknoten soll erstmalig deutschlandweit Patientendaten möglichst unbürokratisch für Diagnose, Therapie und Forschung nutzbar machen. Kombiniert werden klinische Datensätze und Genomdaten. Sebastian C. Semler, Geschäftsführer der Technologie- und Methodenplattform für die vernetzte medizinische Forschung (TMF), die das genomDE-Projekt koordiniert, ergänzt: „Genommedizin bedeutet, die genetischen Ursachen von Erkrankungen besser zu verstehen und dieses Wissen gezielt in Diagnostik und Therapie einzusetzen.“ Laut Prof. Oliver Kohlbacher von der Uniklinik Tübingen wird damit „ein zentraler Schritt hin zur personalisierten Medizin in Deutschland gemacht“, die eine präzisere Diagnose und individualisierte Therapie ermögliche.
Perspektive: Regelversorgung
Der offizielle Name des fünfjährigen Projekts lautet „Modellvorhaben zur umfassenden Diagnostik und Therapiefindung mittels Genomsequenzierung bei seltenen und bei onkologischen Erkrankungen“. Hintergrund ist Paragraf 64e SGB V aus dem 2021 verabschiedeten Gesetz zur Weiterentwicklung der Gesundheitsversorgung. Das Projekt ist das Kernstück der Nationalen Strategie für Genommedizin und soll nach einer Evaluation Teil der Routineversorgung werden. Vertragspartner sind der GKV-Spitzenverband und der Verband der Universitätsklinika Deutschland. Wie Till vom BfArM berichtet, sind derzeit 28 Leistungserbringer, das heißt Universitätskliniken, im Modellvorhaben. Eine zweite Ausschreibungsrunde sei gerade im Gange. Einer unverbindlichen Datenabfrage bei allen Beteiligten zufolge sind 2.000 Patienten im Projekt eingeschlossen, Stand Ende März. Till geht davon aus, dass bis Jahresende eine Zahl von 10.000 erreicht sein könne. Geplant sind 100.000 Einschlüsse bis zum Abschluss des Projekts.
Auf Probleme des Modellvorhabens weist hingegen Stefanie Stegen, Vorstand beim BRCA-Netzwerk (ein Netzwerk für Brustkrebsbetroffene), hin: „Es gibt keine eindeutigen Einschlusskriterien.“ Auch sei die Frage offen, wie Patienten, die nicht an einer Uniklinik behandelt werden, etwa im ländlichen Raum, Zugang bekommen könnten. Hinzu kämen oft unverständliche und zu lange Einwilligungserklärungen.
München/Magdeburg (pag) – Ein Forschungsteam der Otto-von-Guericke-Universität Magdeburg und der Hochschule für Philosophie München hat ein Positionspapier vorgelegt: Es enthält sieben Thesen für evidenzbasierte Gesundheitspolitik in Krisenzeiten. Diese sollen eine Diskussion über konkrete Leitlinien anregen, um für kommende Gesundheitskrisen gewappnet zu sein.
Formuliert hat die Thesen ein interdisziplinäres Team aus Public-Health-Wissenschaftlerinnen und -Wissenschaftlern, Medizinerinnen und politischen Philosophinnen und Philosophen. „Ausgangspunkt war die COVID-19-Pandemie“, erläutert Prof. Christian Apfelbacher von der Otto-von-Guericke-Universität. Diese habe die politischen Entscheidungsträger vor die Herausforderung gestellt, unter extremer Unsicherheit zu agieren. Umstritten war unter anderem, wie eine evidenzbasierte Politik konkret ausgestaltet sein sollte. Um dies zu klären, hat das Team eine qualitative Studie zur Rolle von Public-Health-Wissenschaftlern in der Politikberatung während der Pandemie erarbeitet. Das Ziel: eine Typologie, die verschiedene Selbstbilder von Forschenden an der Schnittstelle von Wissenschaft und Politik darstellt.
Die Auswertung dieser Interviews zeige, so Apfelbacher, dass das Selbstverständnis, die Selbstbilder sowie die Werte der einzelnen Forscher eine wesentliche Rolle dabei spielten, wie sie Politikberatung praktisch umsetzten. Der Prototyp des „scientific study suppliers“ verstehe sich beispielsweise als neutraler und unabhängiger Experte. Für sie oder ihn stünden die Spezialisierung und wissenschaftliche Integrität an oberster Stelle, es werde eine klare Grenze zur Sphäre der Politik und der Öffentlichkeit gezogen. Dem „expert facing political issues“ dagegen sei es wichtig, mit der eigenen Forschung auf politische Anliegen zu antworten und mit Akteuren aus der Politik zu kooperieren.
Den Forschern zufolge nehmen Wissenschaftler im Spannungsfeld von Wissenschaft, Politik und Öffentlichkeit unterschiedliche Rollen ein. Mit diesen Rollen seien divergierende Vorstellungen darüber verbunden, was Politikberatung ist und wie eine wissenschaftsbasierte und demokratische Politik funktionieren soll. Dabei handele es sich auch um Wertekonflikte, die transparent gemacht werden sollten, empfehlen sie.
Digitale Gesundheitsforschung mit Patienten gestalten
Berlin/Hamburg (pag) – Ist in einer Legislatur, in welcher der Bundestag ein Digital-Gesetz, ein Gesundheitsdatennutzungsgesetz und ein Medizinforschungsgesetz verabschiedet hat, die Patientenbeteiligung in der digitalen Gesundheitsforschung ein blinder Fleck geblieben? Ein kürzlich vorgestelltes Positionspapier rückt dieses vernachlässigte Thema in den Mittelpunkt.
Im Positionspapier „Einbeziehung von Patientenorganisationen in die digitale Gesundheitsforschung“ sind auf 19 Seiten Empfehlungen und Lösungsansätze formuliert, um die Beteiligung von Patientinnen und Patienten zu unterstützen. Deren Forderungen lauten unter anderem:
Um Erfolg zu gewähren und ein Mindestmaß an Kooperation zwischen Patienten und Forschenden herbeizuführen, müssen Patienten und ihre Vertretungen aktiv in digitale Transformationsprozesse von Anfang an eingebunden werden.
Die Partizipation von Patientenorganisationen, Betroffenen und Angehörigen bei der Anwendung von digitalen Forschungsprozessen muss von allen Beteiligten realistisch gestaltet werden.
Eine fachliche, monetäre, personelle, strukturelle und technische Ausstattung ist die Grundbedingung für die Einbindung von Patientenorganisationen.
Es bedarf einer erhöhten Aufmerksamkeit für vulnerable Gruppen. Stigmatisierung und Diskriminierung müssen verhindert werden.
Erarbeitet haben die Betroffenen das Papier in einem konsensorientierten Prozess, der im Rahmen des vom Bundesministerium für Bildung und Forschung geförderten Forschungsverbundes PANDORA begleitet wurde.
Startpunkt war eine Stakeholder-Konferenz, die im Juni 2024 in Hamburg stattgefunden hat und an der über 30 Vertreter von Patienten- und Selbsthilfeorganisationen aus ganz Deutschland – sowohl vor Ort als auch digital – teilgenommen haben. Zwei Tage diskutierten sie über Aufklärungs- und Einwilligungsprozesse, Forschungsdatenmanagement, Partizipation an Forschung, digitale Teilhabe und relevante ethische Werte für eine Forschungsbeteiligung. Das Ziel: einen Konsens für das Positionspapier zu erarbeiten. Am Ende des zweiten Tages steht der erste vorläufige Entwurf des Positionspapiers. Fertiggestellt wird dieser von einem Redaktionsteam, das aus vier Vertreterinnen und Vertreter von Patienten- und Selbsthilfeorganisationen besteht. Einer von ihnen ist Thomas Duda von der Pro Retina Stiftung Deutschland. Bei der Vorstellung des Positionspapiers auf einer Pressekonferenz im Rahmen der PANDORA-Abschlusskonferenz sitzt er mit auf dem Podium. Er betont dort: „Es gibt ein hohes Potenzial durch Patientenbeteiligung, was leider nicht erkannt wird.“ Ihm ist es wichtig, dass das Positionspapier die momentanen Zustände nicht nur kritisch beschreibt, sondern auch konkrete Verbesserungsvorschläge formuliert. Durch informierte Patienten wie auch durch den Input aus ihrem Erfahrungsschatz werden Daten- und Forschungsergebnisse bedarfsorientierter ver- beziehungsweise angewendet, ist Duda überzeugt.
Für Prof. Silke Schicktanz, Universitätsmedizin Göttingen, ist das Positionspapier ein wichtiges Instrument, um „reflektierte und selbstbestimmte Position einer Vielzahl von Patientenverbänden in die deutsche Debatte einzubringen“, sagt sie bei der Pressekonferenz. Ihre Forschungskollegin und PANDORA-Leiterin Prof. Sabine Wöhlke von der HAW Hamburg adressiert in ihrem Statement die Wissenschaftscommunity. Die Forschenden sollten reflektieren, wie eine langfristige, vertrauensvolle Zusammenarbeit mit Patientenvertretenden aussehen könne. Für diese Organisation seien Reflexion der eigenen Erwartungen und Ziele, Umgang mit Macht, Transparenz in der Kommunikation aber auch Anerkennung von Erfahrungsexpertise wichtig. Wöhlke appelliert: „Eine intensivere Auseinandersetzung mit Machtasymmetrien und der oft fehlenden Transparenz über Forschungsprozesse ist geboten, um der bisher noch zu oft existierenden Scheinpartizipation in der partizipativen digitalen Gesundheitsforschung entgegenwirken zu können.“
Wie es weiter geht
Die Botschaft ist mehr als deutlich, doch um den angemahnten Umdenkungsprozess einzuleiten, müssen äußerst dicke Bretter sowohl in der Politik als auch in der Wissenschaftsszene gebohrt werden. Dass keiner der von PANDORA angefragten Gesundheitspolitiker bereit gewesen ist, an der Pressekonferenz teilzunehmen, spricht Bände. Umso drängender die Frage, wie es mit dem Positionspapier weitergehen soll. Wöhlke kündigt an, die wichtigen Ergebnisse der Stakeholder-Konferenz wissenschaftlich zu publizieren und das Positionspapier relevanten Ministerien, Gremien und Entscheidungsträgern zuzuschicken. An dieser Stelle ende der Einfluss als Forschende. Wöhlke: „Aber es kann dann niemand im Forschungsministerium sagen, man wisse ja gar nicht, dass die aktuellen Partizipationsinitiativen nicht wirklich gut im Sinne einer Teilhabe laufen und ob die Patientenorganisationen sich wirklich beteiligen wollen und was es dafür aus deren Sicht bedarf.“
Was ist PANDORA?
PANDORA (Patient*innenorientierte Digitalisierung) ist ein Verbundprojekt unter der Leitung der Hochschule für angewandte Wissenschaften Hamburg (HAW Hamburg). Kooperationspartner sind die Universitätsmedizin Göttingen und die Medizinische Hochschule Hannover. Die Wissenschaftlerinnen und Wissenschaftler analysieren ethische Fragestellungen, die mit der Einführung und Nutzung von Digitalisierungsprozessen und E-Health-Technologien im Gesundheitswesen einhergehen. Im Fokus stehen die Perspektiven von Patienten- und Selbsthilfeorganisationen, die an solchen digitalen Entwicklungen partizipieren. Das Ziel von PANDORA ist die Entwicklung und Bereitstellung von Unterstützungsinstrumenten, die es diesen Organisationen ermöglichen sollen, ihre Interessen bei der Beteiligung an Digitalisierungsprojekten zu wahren und ethische Prinzipien zu respektieren.
Forderungen der Industrie nach AMNOG-Reform werden lauter
Berlin (pag) – Ist das AMNOG für Innovationen wie Gen- und Zelltherapien noch das geeignete Bewertungsverfahren? Wie passend ist es für zunehmend personalisierte Behandlungsansätze, deren Evidenzgrundlagen nicht mehr ins bisher übliche Schema passen? Die Industrie verlangt nach einer grundlegenden AMNOG-Reform. Das Argument: Medizinischer Fortschritt dürfe nicht durch systemische Hürden ausgebremst werden.
2025 wird in Sachen Health Technology Assessment (HTA) ein spannendes Jahr. Am offensichtlichsten ist der Start des europäischen HTA-Verfahrens im Januar. Dieses sieht unter anderem eine Synchronisation mit dem europäischen Zulassungsprozess vor, eine nicht zu unterschätzende Herausforderung für die Beteiligten, gilt es doch zum Teil recht sportliche Fristen miteinander zu verzahnen.
Fest steht schon jetzt: Das AMNOG wird vom europäischen Pendant auf Dauer nicht unbeeinflusst bleiben. Im Januar legt das Bundesgesundheitsministerium etwa einen Last-Minute Änderungsentwurf für die Arzneimittel-Nutzenbewertungsverordnung vor. Grundsätzlich gilt: Wertungs- und Preisentscheidung bleiben zwar auf nationaler Ebene, gleichzeitig soll Doppelarbeit vermieden werden. Ein schwieriger Spagat, deshalb vermögen auch Experten die Relevanz des neuen Verfahrens noch nicht so richtig abzuschätzen. Das europäische Verfahren startet mit neuen Krebstherapien und ATMPs – ein besonders innovatives Feld, auf dem sich momentan viel tut. Ist man hierzulande dafür mit dem AMNOG gerüstet?
Grundsatzfragen zur Evidenz
Der FDP-Gesundheitspolitiker Prof. Andrew Ullmann ist skeptisch. Im Dezember stellt er auf einem parlamentarischen Frühstück der LAWG (Local Area Working Group), einem Verein, dem 17 weltweit agierende, forschungsorientierte Arzneimittelunternehmen angehören, klar, dass das AMNOG für ihn zwar ein wertvolles Werkzeug sei, aber er sieht auch deutliche Limitationen – etwa bei Schrittinnovationen. Ullmann fragt außerdem: „Wie sieht es bei der Personalisierten Medizin aus, wie sieht es aus bei der Gentherapie, bei der wir sehr individuelle Therapieformen haben und die klassische Evaluation des AMNOG-Verfahrens gar nicht funktionieren kann?“ Für ihn steckt dahinter die Grundsatzfrage, was medizinische Evidenz bedeutet. Er plädiert für eine differenzierte AMNOG-Weiterentwicklung: Im klassischen Verfahren sollten herkömmliche Medikamente wie etwa Bluthochdruckarzneimittel bewertet werden. Im Rahmen eines zweiten Moduls – Ullmann nennt es AMNOG innovativ – wird über den Zusatznutzen von neuartigen Therapieformen geurteilt.
Ähnlich äußert sich Prof. Christof von Kalle auf der LAWG-Veranstaltung. Der Onkologe, der (zu diesem Zeitpunkt noch) das gemeinsame klinische Studienzentrum von der Charité und dem Berlin Institute of Health leitet, spricht sich für eine flexible AMNOG-Methodik aus. Darunter subsummiert er unter anderem eine Beschleunigung der Prozesse sowie eine Optimierung durch internationale Zusammenarbeit und Harmonisierung internationaler Verfahren – Stichwort EU-HTA. Außerdem betont er: „Ich würde sehr stark dafür plädieren, dass wir wirklich alle verfügbaren Daten verwenden und überlegen, wie wir den Nutzen neu bewerten.“ Sehr wichtig sei in diesem Zusammenhang auch die Frage nach der Konditionalität der Zulassung und der Datenerhebung nach der Zulassung.
vfa: Webfehler des AMNOG
Einen Monat zuvor, im November 2024, hat der Verband forschender Arzneimittelhersteller (vfa) ein 15-seitiges Reformpapier zum AMNOG mit verschiedenen Handlungsfeldern präsentiert. Unter der Überschrift „Medizinischem Fortschritt gerecht werden“ wird ebenfalls die Frage nach der Evidenzgrundlage thematisiert. Der Verband stellt dar, dass angesichts zunehmend zielgerichteter Therapieansätze für eng definierte, häufig kleinere Gruppen von Patienten die Durchführung von randomisierten kontrollierten Studien nicht in allen Situationen ethisch vertretbar oder praktisch umsetzbar sei. Ein Webfehler des AMNOG sei daher, dass eine Anpassung im Umgang mit nicht-randomisierten Daten noch nicht erfolgt ist. Als Folge werde der therapeutische Zusatznutzen in besonderen Therapiesituationen nicht entsprechend gewürdigt, sodass bei den betroffenen Therapien kein angemessener Erstattungsbetrag vereinbart werden kann. Dies wirke sich negativ auf die Verfügbarkeit und den Einsatz neuer Therapien, wie Gentherapien, in der Versorgung aus, so der vfa. Seine Lösung: Der Gemeinsame Bundesausschuss (G-BA) prüft künftig auf Antrag eines Herstellers, ob eine besondere Therapiesituation vorliegt. In diesen Fällen wird die bestverfügbare Evidenz in der Nutzenbewertung herangezogen.
Wie realistisch ist Pay for Performance?
Der Verband bricht in dem Papier außerdem eine Lanze für erfolgsabhängige Erstattungsmodelle, sogenannte Pay-for-Performance-Ansätze. Sie könnten im Einzelfall helfen, bei limitierter Evidenz dieser „begründbaren Unsicherheit bei höherpreisigen Therapien zu begegnen“ und Patienten einen schnellen Zugang zu diesen Therapien zu ermöglichen, heißt es. Die Forderung ist nicht neu, auch der Gesundheitsökonom Prof. Wolfgang Greiner von der Universität Bielefeld macht sich dafür stark – beispielsweise im März 2024 in einem Beitrag für die „Interdisziplinäre Plattform Nutzenbewertung“. In derselben Ausgabe stellt Dr. Antje Haas, Leiterin der Abteilung Arznei- und Heilmittel des GKV-Spitzenverbandes, dagegen die Bedenken der Kostenträger dar: Die Preisbildung bei Gentherapien weise weiterhin eine „beträchtliche Diskrepanz“ zur vorhandenen Evidenz auf, konstatiert sie. Ob die Einführung erfolgsorientierter Vergütungssysteme Teil einer effizienten Lösung sein könne, sei fraglich. „Hierzu wären umfangreiche rechtliche und technische Änderungen und die Behebung bestehender Datenlücken erforderlich, die derzeit nicht absehbar sind“, so Haas.
Techniker Krankenkasse: Pay for Performance ist kein guter Weg
„Gentherapeutika – Hoffnungsträger oder Systemsprenger?“ lautet der Titel eines im März 2024 veröffentlichten Reports der Techniker Krankenkasse (TK), der die Arzneimittelpreisgestaltung im internationalen Vergleich – USA, Frankreich und Japan – darstellt. Zur Preisbildung für Gentherapeutika in Deutschland könnten demnach fünf Ansätze zur Anwendung kommen: Budgetierung, geheime Preise, kriterienbasierte Preise, Kostentransparenz sowie Raten- beziehungsweise Rückzahlungsmodelle. Letztere können auch mit einer Performance-Komponente ergänzt werden. Der Kasse zufolge erweist sich deren Umsetzung jedoch als äußerst schwierig. Tim Steimle, Leiter des TK-Fachbereichs Arzneimittel, erläutert gegenüber der Presseagentur Gesundheit: „Pay for Performance bedeutet ja folgendes: Tritt eine gewisse Non-Performance ein und das Medikament funktioniert nicht, dürfen Raten ausgesetzt werden.“ Darauf könnten sich aber die pharmazeutischen Unternehmen und die Krankenkassen fast nie verständigen. Strittig sei zum Beispiel, was wirklich ein guter Non-Performance-Indikator sei und wie dieser sauber erfasst werden könne. „Wer erfasst den? Benötigen wir ergänzende Informationen von Ärzten oder Patienten, um zu beurteilen, ob die Performance eingetreten ist oder nicht?“, fragt Steimle. Darüber streite man sich jedes Mal, wenn solche Verträge abgeschlossen werden. „Auf einen guten Weg einigen wir uns leider nicht.“
Berlin (pag) – Aus den Erfahrungen der Corona-Pandemie zieht das Netzwerk Evidenzbasierte Medizin (EbM-Netzwerk) ein Resümee für die wissenschaftliche Politikberatung zu Fragen der Gesundheitsversorgung. In dem vierseitigen Papier heißt es unter anderem: „,Die Wissenschaft sagt …‘ ist in mehrfacher Hinsicht keine angemessene Begründung des politischen Handelns.“
„Die Wissenschaft“ gebe es nicht, halten die beiden Autorinnen Ingrid Mühlhauser und Gabriele Meyer für das Netzwerk fest. Vielmehr existierten viele Wissenschaftsdisziplinen mit ihren jeweiligen Gegenstandsbereichen. „Vor allem gibt es gute und schlechte Wissenschaft. Erkenntnisse der Wissenschaft sind oft widersprüchlich und vorläufig, bis aussagekräftigere Evidenz sie verstärkt oder gar widerlegt“, betonen die beiden. Ergebnisse aus wissenschaftlichen Studien und Politikberatung durch Wissenschaftlerinnen und Wissenschaftler könnten nur entscheidungsrelevantes Wissen bereitstellen. Die Politik müsse unter Abwägung gesellschaftlicher und rechtlicher Voraussetzungen tragfähige und umsetzbare Entscheidungen treffen.
„Nachvollziehbar und transparent“
Neben der Unabhängigkeit von politischer Einflussnahme halten Mühlhauser und Meyer es für unabdinglich, dass die Empfehlungen aus wissenschaftlichen Expertengremien „nachvollziehbar und transparent“ gestaltet seien. Dabei müssten auch kontroverse wissenschaftliche Positionen und Unsicherheiten offen kommuniziert werden.
Weitere Forderungen lauten:
Wissenschaftliche Politikberatung muss klar getrennt sein von politischen Entscheidungen.
Wissenschaftliche Expertenkommissionen sollen die Belange der betroffenen gesellschaftlichen Gruppen repräsentieren.
Wissenschaftliche Politikberatung zu Fragen der Gesundheitsversorgung muss der EbM verpflichtet sein.
Empfehlungen der wissenschaftlichen Politikberatung müssen methodenbasiert und transparent sein.
Nicht rein wissenschaftlich
Unterdessen hat das Bundesgesundheitsministerium auf eine offizielle Anfrage von Bundestagsvizepräsident Wolfgang Kubicki eingeräumt, dass die entscheidende Risikobewertung, auf der die Corona-Maßnahmen beruhten, nicht rein wissenschaftlich fundiert gewesen sei. Weiter heißt es, dass diese zwar auf wissenschaftlichen Kriterien basierte, am Ende prüfe jedoch das übergeordnete Gesundheitsministerium – da auch eine „Abschätzung der gesellschaftlichen Folgen im Rahmen der Risikobewertung erforderlich“ gewesen sei, teilt das Haus von Prof. Karl Lauterbach (SPD) mit. FDP-Politiker Kubicki kritisiert, dass stets der Eindruck vermittelt wurde, bei den Wortmeldungen des Robert Koch-Instituts handle es sich um den aktuellen wissenschaftlichen Stand, tatsächlich aber im Zweifel der Minister die Hand geführt habe.
Berlin (pag) – Das Spitzenforum Medizin am letzten Tag des Hauptstadtkongresses bietet spannende Einblicke: Dr. Thomas Kaiser, Leiter des Instituts für Qualität und Wirtschaftlichkeit im Gesundheitswesen (IQWiG), kündigt neue Schwerpunkte der Institutsarbeit an. Und Prof. Nisar Peter Malek vom Universitätsklinikum Tübingen prognostiziert eine Revolution bei klinischen Studien.
Malek stellt in seinem Vortrag die These auf, dass man in den nächsten Jahren eine „Revolution bei der Durchführung klinischer Studien“ sehen werde. Seine Prognose: „Wir werden uns nicht mehr in dem Umfang auf randomisierte Phase-III-Studien stützen.“ Gerade in der Personalisierten Medizin mit ihren kleinen Patientengruppen würden Register eine größere Rolle spielen. Sie könnten genutzt werden, um die Innovationskraft eines neuen Medikamentes mit den gesammelten Daten zu vergleichen. Außerdem sieht der Ärztliche Direktor der Klinik Innere Medizin I am Uniklinikum Tübingen die Register als Möglichkeit, um eine „Reserve Translation“ zu machen. Das bedeutet: „Wir wissen zum Beispiel aus der Off-Label-Behandlung von Patienten mit bestimmten Tumorerkrankungen, dass hier ein Ansprechen, also ein Nutzen, erzeugt wird. Daraus können wir wiederum Rückschlüsse für die Initiierung neuer Studienkonzepte ziehen“, erläutert er.
Eine Revolution beim IQWiG kündigt Dr. Thomas Kaiser zwar nicht an, eine spannende Neuausrichtung aber allemal. Es müsse sich ein wichtiger Bestandteil der Arbeit verändern: „nämlich Forschung bezüglich Evidenzgenerierung selbst zu unterstützen und zu verstärken“. Das habe die Community der evidenzbasierten Medizin bisher mehr oder weniger ausgeblendet, räumt Kaiser ein. Zur Evidenzgenerierung wolle man durch eigene wissenschaftliche Forschung und die Teilnahme an europäischen Verbundprojekten beitragen. „Das wird eine Veränderung in der wissenschaftlichen Arbeit des IQWiG sein“, kündigt Kaiser an.
Beim Spitzenforum macht er sich grundsätzlich für die Etablierung einer Forschungsinfrastruktur hierzulande stark. Dabei geht es um qualitativ hochwertige, stehende Dateninfrastrukturen – „das können universitäre Netzwerke sein, das können Verknüpfungen mit anderen Daten sein, das können Register sein und das können auch andere Datenstrukturen sein“. Für Kaiser gehört dazu auch, das „Silodenken klinischer Studien“ hinter sich zu lassen, sprich nicht für jede klinische Studie eine neue Datenstruktur aufzubauen, die dann wieder beendet wird, sobald die Studie abgeschlossen ist.
Was ist mit den Bewertungen?
Bleibt die Frage, ob auch bei den Bewertungen des Instituts die Zeichen auf Wandel stehen. Kaiser zufolge schaue man sich neue Entwicklungen wie synthetische Studienarme offen an. Noch wisse man nicht, ob diese ausreichend sichere Ergebnisse für einen Vergleich lieferten. „Wenn das so sein sollte, dann ist das eine gute Idee, weil das forschungsökomisch zu mehr Forschung mit gleichem Aufwand führen kann.“ Allerdings müsse dieser Nachweis noch geführt werden. Kaisers Argumentation: „Nur weil man es kann, ist es noch nicht gut. Weil man es kann, kann man es untersuchen und beforschen. Wenn es dann gut ist, dann sollte man es anwenden.“ Insgesamt schließt er nicht aus, dass sich auch die Arbeit des IQWiG in puncto Bewertungen verändern wird.