Die Macht der Daten

Oktober 2015 | Die Zeit | Zukunft Medizin

Die Macht der Daten

Algorithmen revolutionieren die Heilkunde und öffnen die Tür zu einer neuen, personalisierten Medizin.

Illustration: Andrew Thorpe by Marsha Heyer
Dr. Ulrike Schupp / Redaktion

Weltweit verdoppelt sich das Datenvolumen Schätzungen zufolge etwa alle zwei Jahre. Nicht zuletzt deshalb, weil ständig neue Methoden entwickelt werden müssen, um diese Datenflut zu verwalten, ist Big Data seit geraumer Zeit in aller Munde.


Erst im Juni 2015 veranstaltete die Medizinische Universität Graz eine internationale Tagung, die sich gezielt mit der Auswertung von Big Data in Medizin und Biologie beschäftigte. Der Kölner Fachkongress PerMediCon 2014 nahm ebenfalls IT-Themen in den Fokus, und das Hasso Plattner Institut in Potsdam veranstaltete ein Symposium zu „Big Data und Medizin“.


Gefragt sind geeignete Tools, um aus gewaltigen Datenbeständen Forschungsergebnisse zu generieren sowie anschließend Behandlungsformen zu entwickeln, die auf den einzelnen Patienten möglichst individuell abgestimmt sind.


Geht es um die Zukunft der Medizin, wird jedoch nicht nur von personalisierten Therapien die Rede sein. Wissenschaftler wie Thomas Pieber von der Klinischen Abteilung für Endokrinologie und Stoffwechsel an der Medizinischen Universität Graz betonen den Stellenwert der „vier P“. Sie stehen für die Begriffe „personalised“, „predictive“, „preventive“ und „participatory“, für Ziele der modernen Medizin, wie Pieber in einem Interview mit HealthTech Wire erklärt.


„Das große Einsatzgebiet für P4-Medizin wird die Onkologie sein“, sagt der Wissenschaftler. „Hier werden wir Krebs anhand von Gendefekten und molekularen Pathways in immer kleinere Gruppen von Erkrankungen zerlegen und dann gezielt behandeln. Wenn sich das so umsetzen lässt, wird in der Krebstherapie, wie wir sie heute kennen, kein Stein auf dem anderen bleiben.“ In Biobanken muss zunächst eine entsprechende Menge an Material gesammelt werden, um tatsächlich aussagekräftige Biomarker für predictive, vorausschauende, Analysen zu erhalten. Der Bioinformatik fällt dann die Aufgabe zu, sämtliche Daten zu erfassen und zu strukturieren. Damit die Forschungsergebnisse in die Praxis gelangen, müssen Informatiker, Statistiker, Ärzte und Wissenschaftler aus den Kliniken eng zusammenarbeiten.


Zu den Herausforderungen zählt dabei eindeutig die Bewältigung der bereits vorliegenden unstrukturierten Datenmengen aus klinischen Dokumentationen, Labor- und Pathologiesystemen. Zudem gibt es weiteres Material aus genetischen Sequenzierungen in Spezialsystemen. Informa-tionstechnologien sollen eine schnelle Verfügbarkeit der Daten gewährleisten, beispielsweise über externe Arbeitsspeicher. Darüber hinaus ermöglichen sie es, sämtliche Informationen miteinander in Beziehung zu setzen und zu analysieren. Auch hierfür gibt es mittlerweile Applikationen und Programme.

»Damit die Forschungsergebnisse in die Praxis gelangen, müssen Informatiker, Statistiker, Ärzte und Wissenschaftler aus den Kliniken eng zusammenarbeiten.«


Eine frühzeitige Pseudonymisierung aller Patientendaten soll dabei den größtmöglichen Datenschutz gewährleisten. Und dennoch wird gerade der Schutz persönlicher Daten im Hinblick auf Big Data immer wieder heftig diskutiert. Dabei hegen selbst Skeptiker keinerlei Zweifel daran, dass es lebensrettend sein kann, wenn Ärzte alle verfügbaren Informationen zu einer bedrohlichen Krankheit abrufen können.  


Vor kurzem erst präsentierte das Hasso-Plattner-Institut (HPI) eine Lösung, mit der innerhalb weniger Minuten für einen Krebspatienten die individuell passende Chemotherapie ermittelt werden kann. Bisher dauerte es Wochen, bis Onkologen den Datenbestand zu Untersuchungs- und Test-Ergebnissen ausgewertet hatten. Zusammen mit dem Berliner Forschungspartner Charité setzt das HPI eine Höchstgeschwindigkeits-Datenbank ein. Dadurch sollen Ärzte auch das Ansprechen von Tumoren auf bestimmte Medikamente besser vorhersagen und die Wirkstoffmengen reduzieren können. „Krebsforscher versetzen wir außerdem in die Lage, Zusammenhänge zwischen Varianten in den Erbanlagen von Patienten und der Wirkung von Medikamenten bei diesen zu ermitteln“, erklärte Prof. Christoph Meinel, Direktor des HPI.


„Es gibt immer mehr Devices, die Gesundheitsdaten erfassen“, sagte Dr. Peter Grolimund von der Schweizer Teradata GmbH anlässlich des Fachkongresses PerMediCon 2014 in Köln. So habe das Massachusetts Institute of Technology beispielsweise eine Tasse entwickelt, die den Tremor von Parkinson-Patienten auswerten könne. Google arbeite an einer Kontaktlinse, die den Glukosespiegel im Auge misst. IT und Big Data sollen darüber hinaus im Kampf gegen HIV, Tuberkulose oder der Beurteilung der Wahrscheinlichkeit eines Herzinfarktes helfen, um nur einige zu nennen.  


Bertalan Meskó, der als Genetiker und ‚Medical Futurist‘ Zukunftsszenarien der Gesundheitswirtschaft erforscht, äußerte sich in einem Interview für das Konstanzer Ärzteportal coliquio durchaus kritisch zur Vernetzung von Medizin und IT: „Was also passieren könnte, ist, dass sich die künstliche Intelligenz im Diagnostizieren von Patienten als besser erweist. Mit besser meine ich, dass sie billiger sein könnte als menschliche Mitarbeiter und Ärzte. Natürlich ziehen Patienten es vor, diagnostische Möglichkeiten und Behandlungen mit Ärzten durchzusprechen – falls es aber billiger sein sollte, dies mit Algorithmen zu tun, dann wird es so kommen.“ Als positives Beispiel sieht Meskó den IBM Supercomputer Watson, der an US-Klinken bereits seit ungefähr zwei Jahren eingesetzt wird. „Kognitive Computer können die besten Diagnosen und Behandlungsmöglichkeiten für Onkologen vorschlagen. Natürlich treffen sie keinesfalls medizinische Entscheidungen, aber sie sammeln alle erforderlichen Informationen. Indem sie wirklich schlaue Algorithmen nutzen, versuchen sie die Dosierung zu finden, die die höchste Erfolgswahrscheinlichkeit hat, damit Ärzte die richtige Diagnose und die besten Behandlungsmöglichkeiten herausfiltern können“.