digitalization in medicine and omics

Bayern goes digital – Digitalisierung für den Patienten?

Am 30. Juni 2016 fand im Ludwig-Erhard-Festsaal des bayrischen Staatsministeriums für Wirtschaft und Medien die vom BioM Forum organisierte Veranstaltung „Digitalisierung der Medizin in Bayern – Fokus klinische Patientendaten“ statt.

Der Veranstaltungsort, wie auch die prominente politische und akademische Besetzung, unterstreichen die Wichtigkeit und Aktualität dieses Themas, und es ist sehr zu begrüßen, dass BioM hier den Startschuss für eine interdisziplinäre Plattform gegeben hat. Dass der Freistaat die Zeichen der Zeit erkannt hat, ist nicht nur durch die Unterstützung der Veranstaltung zu sehen, sondern auch durch das jüngst etablierte „Zentrum Digitalisierung.Bayern“, das den Anspruch einer Plattform für Innovation, Vernetzung und Gründungsförderung hat.

Alles eine Frage der Omics?

Sehr grob lassen sich die Vorträge der prominenten Referenten der Veranstaltung (hier einzusehen) in fünf Buchstaben zusammenfassen: OMICS.

Als Kernelement der Digitalisierung der Medizin wird also hauptsächlich die Integration von „omic“ Daten verstanden. Während vor einigen Jahren die Genomics (also Gen-Mutationsanalysen auf DNA Ebene) als der heilige Gral der medizinischen Forschung galten, wurde heute erkannt, dass diese nicht ausreichen, um komplexe Erkrankungen und physiologische Prozesse zu beschreiben. Die Liste der Omics wurde daher durch weitere ergänzt, mit denen sich die Medizin zukünftig vermehrt auseinandersetzen muss:

  • epigenomics (die Ebene der Gen-Regulation durch chemische Modifikationen der DNA und des Chromatins),
  • transcriptomics (also die RNA und microRNA Ebene),
  • proteomics (die Ebene der Proteinbiosysthese und der posttranslationalen Modifikationen),
  • metabolomics (Stoffwechselprozesse im weitesten Sinne, wobei hier der Stoffwechsel der einzelnen Zelle und des gesamten Organismus gemeint ist)
  • microbiomics (Interaktionen zwischen der Mikroorganismenflora und dem Wirtorganismus, also unserem Körper)
  • phenomics und pathophenomics (d.h. die Beschreibung des (Patho-) Phänotyps).

Mittlerweile verstehen wir, dass physiologische und pathophysiologische Prozesse immer auf komplexe Interaktionen zwischen diesen omic-Ebenen und der Umwelt beruhen. Somit bedarf es einer so genannten Network-Medicine, um diese zu integrieren, so dass am Ende ein neuer Therapieansatz oder zumindest ein Verständnis für eine Erkrankung entsteht. Und es gibt durchaus bereits heute Erfolgsbeispiele, die diesem Forschungsansatz entsprungen sind, vor allem in der Onkologie.

Neben den Fortschritten im klassischen omic-Bereich, vor allem der High-throughput Biotechnologie, gibt es immer intelligentere und effektivere Methoden, komplexe Phänotypen automatisiert und detailliert zu beschreiben.

So sollen text mining Technologienaus unzähligen Arztbriefen und Befunden und auch aus der medizinischen Literatur die relevante Phänotypinformation filtern, so dass diese in ähnlich standardisierter und validierter Weise wie die anderen om-Daten zur Verfügung steht. Wer schon einmal Laborwerte und Radiologiebefunde aus Arztbriefen in ein AE-Formular extrahieren musste, kann die Serienreife dieser Technologie nicht erwarten.

Die Notwendigkeit solcher Technologien führt dazu, dass Firmen, die man bislang nur aus dem Webbrowser oder Smartphonebereich kannte, in Zukunft das Gesicht der Biotechnologie und der Medizin zumindest mitgestalten werden.

So weit, so gut – doch hier beginnen praktische (und andere) Schwierigkeiten; eine Selektion meinerseits ohne Anspruch auf Vollständigkeit umfasst:

Präzision

In vielen omic-Bereichen sind die individuellen Streuungen groß, die Methoden sind jedoch noch jung und oft unpräzise. Viele Methoden benötigen größere Mengen biologischen Materials, das vor allem aus komplexen Geweben schwer zu isolieren ist, so dass hier neue Begriffskreationen (z.B. tissue-phenomenomics) die Notwendigkeit der Integration von neuen Methoden und „klassischem“ medizinischen Knowhow (z.B. Histologie und Pathologie) und gesundem Menschenverstand unterstreichen.

Daten(un)mengen

Bereits heute sind die medizinischen Datenmengen, die täglich generiert werden schier unermesslich und bewegen sich bereits im Yottabytebereich (ich musste auch nachschlagen – das sind 10^24 bytes oder 1 Billion Terabyte!). Somit wird die „analysis gap“, also die Lücke zwischen akkumulierten Daten und Daten, die wir mit der heutigen Analysekapazität sinnvoll analysieren können, immer größer. Da das Potenzial der Halbleitertechnologien nach übereinstimmender Expertenmeinung als fast ausgeschöpft gilt, bedeutet das, dass erst ein neuer technologischer Quantensprung notwendig ist, bevor wir das Potenzial der gesammelten (und weiter expandierenden) Yottabytes überhaupt ergründen können.

Gerade deshalb sind weitere Bestrebungen notwendig, intelligente Analysestrategien und Verfahren zu entwickeln und nicht nur Daten zu sammeln. Muss Digitalisierung immer gleichgesetzt werden mit dem hypothesenfreien Datengenerieren? Und auch wenn – müssen es immer Rohdaten sein, oder reichen vielleicht integrierte Datenpakete? Wie viele Daten mit welcher Präzision sammeln und wie analysieren? Hier ist, angesichts der Kurzlebigkeit so manch eines Hypes, z.B. im Bereich der Messmethodik, durchaus Vorsicht angebracht – Big Data darf nicht Big Imprecision bedeuten und nur Datensammeln des Sammelns wegen darf nicht zur Verschwendung von Mitteln führen.

Finanzen

Und so gelangt man schnell zum Thema Geld. Digitalisierung kostet viel Geld. Yottabytes kosten viel Geld, denn sie müssen ja mehrfachgesichert in gekühlten Serverhallen liegen. Jedes sequenzierte Genom, eigentlich jegliches Om, kostet Geld. Somit ist Geld ein zentraler Diskussionspunkt bei der Digitalisierung der Medizin. Es werden zu Recht mehr Mittel gefordert. Doch wofür soll eigentlich mehr Geld zur Verfügung gestellt werden?

Aus dem omic-Bereich kommen Beispiele wie „In Frankreich stellt der Staat X Euro zur Verfügung, damit bis zum Jahr Y eine Anzahl Z Genome sequenziert werden – Deutschland bleibt auf der Strecke“ oder „In China gibt es eine so starke Finanzkraft, dass sie bald Vorreiter sein werden, weil sie mehr investieren“. Die Frage, die sich mir stellt, ist: wollen wir (wenn wir scheinbar sowieso schon weit abgeschlagen sind) versuchen auf Biegen und Brechen den Big Data Wettlauf zu gewinnen, indem wir kopflos omic-Daten generieren? Oder soll die Digitalisierung und globale Vernetzung nicht als Chance erkannt werden, zu lernen, existierende Daten intelligent zu nutzen und spezifische Datenlücken mit hoch-qualitativen Daten zu füllen? Diese Diskussion wird man in Bayern und überall in der Fachwelt führen müssen.

Infrastruktur

Digitalisierung bedeutet auch, dass digitale Daten schnell ausgetauscht werden können – hier ist zugegebenermaßen noch Nachholbedarf auch in Bayern – jeder, der ein wenig außerhalb der Metropolen lebt, hat es schwer auf die Überholspur der Datenautobahn zu kommen. Der Staat treibt diesen Grundpfeiler der Digitalisierung auch tatsächlich enorm voran. Infrastruktur bedeutet allerdings auch, die Schaffung und Durchsetzung von einheitlichen Datenstandards – globale Ansätze wären daher notwendig (wir aus der klinischen Forschung kennen das!), jedoch konnte ich nicht den Eindruck loswerden, dass wir bereits innerhalb des Weißwurstäquators nicht so ohne weiteres omic und andere Big Data austauschen könnten. Auch hier müssen Bestrebungen und Investitionen fließen noch bevor zu viele Yottabytes in unterschiedlichen Formaten und Strukturen gesammelt worden sind.

Datenschutz

Diese Yottabytes müssen dann auch sicher und anonym bleiben. Wie schwierig Anonymisierung von medizinischen Daten ist, wo unter bestimmten Konstellationen wenige, banale, demographische Daten zur eindeutigen Re-Identifikation ausreichend sein können, wurde bei der Veranstaltung eindrucksvoll demonstriert. Und man kann sich ausmalen, wieviel einfacher dies sein wird wenn ganze Phänotypbeschreibungen standardisiert und Yottabyte-weise offen zugänglich sind.

Umso mehr wundert man sich über Statements wie „Die jüngeren Generationen geben doch viel mehr und viel intimere Daten ohne mit der Wimper zu zucken im Internet freiwillig Preis“. Dies darf hier nicht das Leitmotiv sein, und der Gesetzgeber muss mehr Weitsicht beweisen. Der Schutz von Daten, die man nutzen kann um Algorithmen zur Prädiktion von Erkrankungen zu generieren, muss stets gewährleistet sein. Denn Kostenträger im Gesundheitswesen würden ebenfalls nicht mit der Wimper zucken, anhand solcher Algorithmen zu entscheiden, wer zu welchen Konditionen versichert wird, und ob überhaupt.

Es gilt, eine feine Balance zwischen Transparenz, Datenverfügbarkeit und Forschungsinteresse auf der einen Seite, und Daten- und Patientenschutz (ggf. auch vor sich selbst) auf der anderen zu finden – wir in der klinischen Forschung wissen hiervon ein Lied zu singen.

digitalization in medicine and clinical research

Was bedeutet nun Digitalisierung für die klinische Forschung?

Generell – aus der praktischen Sicht der klinischen Forschung, aber auch der Medizin im Allgemeinen, darf Digitalisierung nicht nur mit omics gleichgesetzt werden. Digitalisierung der Medizin muss auch leidige Themen wie die digitale Gesundheitskarte, vereinfachte Kommunikationswege zwischen Ärzten, aber auch vereinfachte Kommunikation mit dem Patienten bedeuten.

Im Bereich der klinischen Forschung hält die Digitalisierung mehr und mehr Einzug mit der zunehmenden Anwendung von mobilen Endgeräten z.B. im Bereich der patient-reported outcomes, aber auch durch den Einsatz von wearable Technologies zur objektiven Erfassung von Verhaltensmustern (z.B. Aktivität) oder Körperfunktionen (z.B. EKGs, Schlaf-Wach-Rhythmus, vasomotorische Symptome etc.). Die sinnvolle Integrierung solcher großen Mengen komplexer Daten und deren Aussagen in klinisch relevante Endpunkte stellt eine große Herausforderung für die klinische Forschung dar. Die praktischen Implikationen, der Nutzen, aber auch das Risiko dieser neuen Technologien für die Studienplanung und Studiendurchführung, müssen vorab kritisch beleuchtet werden.

Ebenso muss davon ausgegangen werden, dass durch das hypothesen-freie Datensammeln (wie oben beschrieben) durchaus das Gesicht der real-world evidence Studien, also der nicht-interventionellen und Registerstudien in der nicht allzu fernen Zukunft ein anderes sein wird. Auch hier gilt es frühzeitig die Zeichen der Zeit zu erkennen und sich konstruktiv am Prozess zu beteiligen. Der Grundstein für ein Diskussions- und Austauschforum ist mit der o.g. Veranstaltung gelegt und es ist zu hoffen, dass bei zukünftigen Diskussionen der Fokus tatsächlich verstärkt auf die klinischen Patientendaten gelegt wird.