Thema:

Expertenpanel

BIO-IT

Getrieben vom Einzug der billiger und schneller High-Throughput-Technologien, zum Beispiel zur Analyse des Genoms, Transkriptoms, Epigenoms, Proteoms und Metaboloms, wächst der Bedarf an Hardware- und Softwarelösungen zur Verarbeitung der rapide zunehmenden Datenmengen. Derzeit entstehen in ambitionierten Infrastrukturprojekten wie ELIXIR oder im Rahmen der Internationalen Krebsgenom- und Epigenom-Konsortien Datenpools, für die noch keine angemessenen Modellierungstools verfügbar sind. LABORWELT hat die Bio- und IT-Experten gefragt, wohin die Entwicklung geht und was erforderlich ist, um die Daten möglichst effizient zu nutzen.

Prof. Dr. Hans Lehrach

LABORWELT:

Wie funktioniert und lernt ein Zellmodell, wie es im Rahmen des IT Future of Medicine-Projektes entwickelt wird, und welche IT-Erfordernisse stellt es?

Lehrach:

Unser Ziel ist es, individualisierte Modelle von Patiententumoren zu erstellen und auf dieser Basis vorherzusagen, welches die optimale Therapie für den Patienten ist. Grundlage dafür ist ein allgemeines Referenzmodell der biologischen Prozesse im Menschen. Wir nehmen also gesicherte Erkenntnisse aus der Literatur und bauen daraus ein Modell der biologischen Prozesse in den verschiedenen Geweben und Zelltypen des Patienten, einschließlich der verschiedenen Zelltypen im Tumor im Falle eines Krebspatienten. 

Um ein individualisiertes Modell zu erhalten, müssen wir leicht messbare Daten des Patienten in das Modell eingeben. Dabei können wir einerseits Informationen aus dem Genom oder Transkriptom etc. verwenden, die bestimmte Konsequenzen haben. Wenn zum Beispiel ein Gen im Tumorgenom mutiert ist, dann kann dies zum Beispiel im Fall eines mutierten ras-Gens eine Änderung in der Funktion des entsprechenden Proteins zur Folge haben. Andererseits können wir zum Beispiel Metaboliten im Blut oder Urin des Patienten messen. In diesem Fall können wir keine direkten Voraussagen daraus ableiten. Wir müssen also das Modell so lange anpassen (indivualisieren), bis wir eine möglichst gute Übereinstimmung zwischen Messresultaten und Voraussagen bekommen. Wenn wir also im Fall eines Krebskranken das Genom des Patienten und das Genom und Transkriptom des Tumors sequenzieren, finden wir zum Beispiel bekannte Mutationen, die nur im Tumorgenom vorkommen (somatische Mutationen). Diese Information können wir verwenden, um die entsprechenden Teile des Modells zu ändern. Eine ‚change of function’-Mutation führt zu einer Funktionsänderung im Protein. Ein frühes Stopp-Codon, eine Deletion eines Gens, seine Nichtexpression oder ein Fehler im Splicen führt zur Eliminierung des entsprechenden Objektes im Modell. Durch die Integration aller verfügbaren Daten können wir die Konzentration vieler Komponenten des Modells entsprechend setzen. Wir können aber auch nur einen Teil fixieren, zum Beispiel die RNA-Konzentrationen, und versuchen, andere Konzentrationen vorauszusagen, zum Beispiel die Metaboliten, und damit die Voraussagen des Modells validieren. 

Im nächsten Schritt geht es darum, die Modelle einzelner Zellen oder Gewebe zu vernetzen, indem wir diese Einzelmodelle entsprechende Signale austauschen lassen, die den Zustand der anderen ‚Zell’-Modelle modifizieren. Dabei können wir auch Bilddaten einbauen und so zum Beispiel die Sauerstoffkonzentration verschiedener Regionen des Tumors im Modell berücksichtigen. 

Ich habe einmal durchgerechnet, was von der IT-Seite her benötigt wird, wenn wir das, was wir derzeit machen, in größerem Maßstab tun würden – also 1.000 verschiedene Zelltypen, 1.000 verschiedene Bedingungen, 1.000 verschiedene Parametersätze, die wir in der Modellierung ausprobieren. Insgesamt also eine Milliarde Modellierungsläufe. Ein Lauf dauert momentan ein bis drei Stunden auf einem Core eines schnellen Computerchips. Damit würden wir also insgesamt mehrere Milliarden Core-Stunden an Rechnerzeit brauchen, selbst auf einem Supercomputer mit 100.000 Cores also ungefähr ein Jahr an Rechenzeit. Glücklicherweise werden die Computer ja immer schneller, die Programme können sicher auch effizienter gemacht werden, und bei vielen Krankheiten wird es auch vielleicht gar nicht notwendig sein, so viele verschiedene Zelltypen, und so viele verschiedene Bedingungen (Therapien) im Computermodell zu testen. 

Hans Lehrach, seit 1994 Direktor am Berliner Max-Planck-Institut für molekulare Genetik, beschäftigt sich seit mehr als 10 Jahren mit der Modellierung komplexer biologischer Prozesse. Der Mitherausgeber mehrerer Journals und Pionier der Humangenomforschung promovierte 1974 in Göttingen und gelangte über die Harvard Medical School, das EMBL und den Imperial Cancer Research Fund London in seine jetzige Position. Kontakt: lehrach@molgen.mpg.de  

Dr. Rolf Porsche

LABORWELT:

Vor welchen Hauptherausforderungen steht die IT-Industrie bei der Integration großer Datenmengen aus den omics-Technologien in eine stärker personalisierte Medizin?

Porsche:

Die Herausforderungen, denen die IT-Industrie bei der Verknüpfung patientenspezifischer Daten mit neuesten wissenschaftlichen Erkenntnissen zum Zwecke einer personalisierten Medizin gegenübersteht, sind vielfach. Stark anwachsende Datenmengen, zunehmende Anforderungen an das Datenmanagement, besonders aber die Integration und Analyse der Daten. 

Die derzeit rasante Entwicklung der Leistungsfähigkeit von Next-Generation Sequencern (NGS), die in kürzester Zeit Datenmengen im Petabereich liefern, erfordert die Entwick

lung von Speichersystemen, die zu tragbaren Kosten einen schnellen Datenzugriff ermöglichen. Wichtig dabei: die hocheffiziente Kombination mit Datenbanksystemen für verschiedenste Technologien. Automatische Kompressionsapplikationen helfen, die Daten ohne Performance-Einbußen zumindest um ca. 25% zu komprimieren. Auch Datensicherungen müssen spezifisch angepasst werden.

Bei der Rechnerleistung ist die Petascalegrenze ist längst überschritten und die Exa-scale-Performance klar erkennbar. Statt mehr Rechnerleistung zusammenzupacken, muss die Performance aber auf verschiedensten Ebenen (verbesserte CPU, noch feinere 3D-Strukturen, neuer Phase-Changespeicher, neue Materialien und neue Applikationen) gesteigert werden, um das Ziel bis 2017/2018 zu erreichen. 

Immer mehr Gewicht kommt auch dem Verhältnis von Rechenleistung zu eingesetzter Energie zu. Schon heute machen die Energiekosten bis zu 45% des Gesambudgets eines Rechenzentrums aus – entscheidend wird es sein, die Performance von heute etwa 1,0 linpack GF/Watt auf bis 3,0 zu optimieren. Auch die notwendigen Leitungssysteme und Datenübertragungstechnologien müssen angepasst werden, insbesondere wenn immer mehr Arbeiten in flexiblen internen und externen Cloudumgebungen stattfinden. 

Neben der Hardware wird auch die Frage nach den richtigen Applikationen immer wichtiger, gerade im analytischen -omics- Bereich. Bei der Integration der Daten zeigen Datenintegrations-Systeme wie Watson, wie man mit großen strukturierten und unstrukturierten Datenmengen künftig in der Forschung umgeht.

Gerade das komplexe Zusammenführen unterschiedlichster strukturierter und unstrukturierter Datenmengen ist die Herausforderung bei der personalisierten Medizin – damit der Arzt die bestmögliche Diagnose und Therapie anbieten kann, müssen Patienten-spezifische Daten (Genomdaten, Imagedaten, Krankengeschichte, etc.) analysiert und mit neuesten wissenschaftlichen Erkenntnissen verknüpft werden. Erste Pilotstudien mit dem Watson-Ansatz zeigen, dass das Ziel einer personalisierten Medizin erreicht werden kann.

Rolf Porsche ist Head of Pharma/Life-science/Healthcare der Global Business Services von IBM Deutschland GmbH. Der Doktor der Medizin stieg nach einigen Jahren in das Beratungsgeschäft um und arbeitete in den letzten 15 Jahren in führenden strategischen Consulting-Unternehmen in Europa und den USA. Der Schwerpunkt seiner Arbeit lag dabei in der Gesundheits-, Pharmazie, Medizintechnik- und Life Sciences-Branche. Kontakt: Porsche@de.ibm.com

Prof. Dr. Norbert Graf

LABORWELT:

Welche BIO-IT-Konzepte sollen in dem von Ihnen koordinierten EU-Projekt p-medicine verwirklicht werden?

Graf:

p-medicine (www.p-medicine.eu) ist ein europäisches Großforschungsprojekt, in dem sich IT-Spezialisten, Kliniker, Biologen, Ethiker, Juristen und Datenschutzexperten zusammengeschlossen haben, um mittels IT-Tools und -Strukturen die Durchführung und Vernetzung von klinischen Studien zu erleichtern und künftig eine individualisierte medizinische Versorgung zu ermöglichen. Um die Daten für die individuelle Diagnose, Prognose und Therapie von Patienten nutzbar zu machen, werden Software, Module und Tools entwickelt, die die Durchführung und Vernetzung von klinischen Studien und Simulationen von Krankheitsverlauf und Therapieansprechen erleichtern sollen.

Eine Grundlage des Projektes bildet ein Datenmanagementsystem für klinische Studien, das Daten zu diagnostischen und therapeutischen Zwecken rasch zum Nutzen der Patienten verfügbar macht. Das Softwareprodukt ObTiMA zur Eingabe, Speicherung und Analyse klinischer Daten, dessen Entwicklung im Vorgängerprojekt ACGT (www.eu-acgt.org) begonnen wurde, wird nun in p-medicine ausgebaut und validiert. ObTiMA wurde unter den Kriterien von Open Source entwickelt, und über einen modularen Aufbau der Software lässt sich diese kontinuierlich erweitern. 

Die so gewonnenen und verknüpften Daten aus klinischen Studien und der Forschung können dann für einzelne Patienten nach Anonymisierung in einem ‚Data Warehouse’ gespeichert werden. Durch den Aufbau eines ‚Data Warehouse’ ergeben sich ungeahnte Möglichkeiten des Erkenntnisgewinnes, indem bestimmte Fragen eines Forschers unmittelbar an dem Datenpool analysiert werden können, ohne zunächst eine aufwendige Datensammlung starten zu müssen. Für die Forscher wird diese Datenbasis durch den Zugang zu Tumormaterial aus Biobanken noch entscheidend ergänzt. Dies führt zu einer erheblichen Beschleunigung der Translation von Erkenntnissen der Grundlagenforschung in die Klinik, wie dies heute nicht vorstellbar ist. Mit den vielfältigen Informationen werden in p-medicine in einer nächsten Stufe Computer-Simulations-Modelle zur Modellierungen von Krankheiten und deren Ansprechen auf Therapien sowie klinische ‚Decision Support Tools’ entwickelt.

Um die individuelle Therapie für zum Beispiel einen Krebspatienten zu verbessern und ihn mit einer auf ihn abgestimmten Therapie wirksamer und nebenwirkungsärmer zu behandeln, sollen dem Arzt zukünftig umfangreiche Vergleichsdaten aus klinischen Studien und die Computer-Simulationen der Tumorerkrankung und Therapie erlauben, seine Therapieplanung entscheidend zu unterstützen. Gleichzeitig sollen auch die Patienten durch die entsprechend zu entwickelnden Technologien und Computer-Anwendungen besser informiert und bei ihren Entscheidungen über ihre Behandlung und die Verwendung ihres Tumormaterials für die Forschung unterstützt werden. In der zukünftigen Struktur wird dem Patienten insgesamt eine stärkere Rolle in der Behandlung ermöglicht, die ihn aktiv an der Therapieoptimierung beteiligt.

Eine verbindliche Einverständniserklärung zwischen Klinik und Patient, eine Anonymisierung der Daten und eine unabhängige, zentralverantwortliche Stelle, das ‚Center for Data Protection’ (CDP), das eine professionelle Unterstützung für alle Fragen rund um die Datensicherheit bietet sollen helfen, maximale Datensicherheit und eine uneingeschränkte Vertrauensbasis zwischen Arzt und Patient aufzubauen. 

Im Rahmen von klinischen Studien werden die p-medicine-Tools und -Technologien innerhalb der Projektlaufzeit geprüft. Pilotversuche in den Bereichen Wilms-Tumor/Nephroblastom, Brustkrebs und akute lymphoblastische Leukämie wurden auf der Grundlage von klar formulierten Forschungszielen ausgewählt, wobei ein Schwerpunkt auf die Notwendigkeit der Integration und Analyse von heterogenen Datensätzen gelegt wurde, um die Modellierung von Krankheiten und Therapieansprechen zu simulieren. Außerdem soll auch ein sogenannter Oncosimulator, das Ansprechen von Therapien im Computer simulieren, um so die bestmögliche Therapie für einen Patienten zu finden. 

Norbert Graf ist Direktor der Klinik für Pädiatrische Onkologie und Hämatologie sowie Studiendekan der Universität des Saarlandes. Der Spezialist für Nephroblastome hat ausgewiesene Expertise in Medizinischer Informatik und Kliniko-genomischen Studien. Kontakt: Norbert.Graf@uniklinikum-saarland.de

Mehr zum Spezial

Magazin zum Thema


Heft 6/2011

© 2007-2017 BIOCOM

http://www.laborwelt.de/spezialthemen/synbio-systembiologie/bio-it.html

Alle Themen

SpezialThemen

Produkt der Woche

Alle Produkte

Kalender

Alle Events

Partner-Events

Glasgow (UK)

DIA BioVenture Day

Istanbul (TR)

expomed eurasia