Thema:

Expertenpanel

Big Data in den Omics

Datenlawinen aus dem Next-Generation-Sequencing, der Pathwayanalyse oder den Proteomics können nur Nutzen für die Arzneimittelentwicklung bringen, wenn sie mit klinischen Daten vernetzt und im Zusammenhang verstanden werden. Das Verknüpfen der Informationen in riesigen Datenbanken ist dabei eine erste technische Hürde, die es zu meistern gilt.

LABORWELT:

Wo liegt der Nutzen der größten Bank für Proteomics-Daten, ProteomicsDB?


Küster:

Fortschritte in der modernen Grundlagenforschung in den Lebenswissenschaften wie auch deren Translation in klinische Anwendungen sind zunehmend von der Erzeugung molekularer Daten im großen Stil geprägt. Der Genomik kommt hier derzeit eine Vorreiterrolle zu, jedoch entwickelt sich das Gebiet der Proteomforschung derzeit ebenso rapide, da die meisten biologischen Funktionen und Aktivitäten von Proteinen gesteuert werden und die Analyse beispielsweise menschlicher Proteome neue Erkenntnisse in der personalisierten Medizin verspricht. Die Massenspektrometrie ist die Basistechnologie der Proteomforschung und erlaubt die Identifizierung und Quantifizierung von tausenden Proteinen in einem Experiment. Unter Big Data versteht man in diesem Zusammenhang die Erfassung, Speicherung, Integration, Analyse und Visualierung großer Datenmengen, wie sie in proteomischen Experimenten entstehen. Mit ProteomicsDB haben wir in Zusammenarbeit mit der SAP AG eine frei online verfügbare Datenbank geschaffen, mit deren Hilfe einige der wichtigsten Informationen über verschiedenste menschliche Proteome – sei es aus Körperflüssigkeiten oder Krebszelllinien – in Echtzeit abgerufen werden können. Dies wird über den Einsatz der sogenannten „in-memory computing“-Technologie ermöglicht. ProteomicsDB stellt dafür eine Infrastruktur bestehend aus 160 CPUs und 2 Terrabyte Hauptspeicher (RAM) zur Verfügung. Wir erwarten, dass sich das Datenaufkommen in der Proteomik in den nächsten Jahren vervielfachen wird und IT-Systeme wie ProteomicsDB daher zunehmend an Bedeutung gewinnen werden, um aus biologischen Daten praktischen Nutzen ableiten zu können.

LABORWELT:

Welche Aufgaben stellt der Fortschritt im Next-Generation-Sequencing an die Auswertung?


Cao:

Der Umgang mit rapide wachsenden Datenmengen aus dem Next-Generation-Sequencing (NGS) überfordert viele Labore. Zu geringe Kapazitäten bei der Analyse der Datenflut können aber zum Engpass werden und die Übertragung in die klinische Praxis bremsen. Abhilfe schaffen standardisierte Softwarepakete, die auf Knopfdruck Erkenntnisse aus „Big Data“ ziehen. Die Menge an Sequenzinformation wird 2015 ein Datenvolumen erreichen, das 1,5 Milliarden DVDs füllt. Gleichwohl arbeiten viele Anwender noch mit selbstentwickelten und nicht aufeinander abgestimmten Softwarelösungen. Auch die Interpretation der Daten gestaltet sich schwierig, da die Relevanz vieler Genvarianten nicht bekannt ist und laufend neue Erkenntnisse hinzukommen, die einen Abgleich erfordern. Daher gewinnen kommerzielle Lösungen, wie etwa von den Qiagen-Töchtern CLC bio und Ingenuity entwickelt, zunehmend an Popularität. Sie erlauben praktisch auf Knopfdruck das Zusammenführen der Rohdaten zu Sequenzinformationen und die Identifizierung von Genvarianten. Die CLC-Software bietet mehr als 200 Analysewerkzeuge sowie eine Infrastruktur für Arbeitsgruppen und Unternehmen. Die Cloud-basierten Lösungen von Ingenuity helfen bei der schnellen und zuverlässigen Interpretation von Genvarianten, eine neue Applikation speziell für den Einsatz im klinischen Umfeld steht kurz vor Markteinführung. Auch Anwender ohne bioinformatische Expertise profitieren durch eine komfortable Auswertung von NGS-Daten.

Mehr zum Spezial

Magazin zum Thema


1/2014

© 2007-2017 BIOCOM

http://www.laborwelt.de/spezialthemen/automation-in-den-life-sciences/big-data-in-den-omics.html

Alle Themen

SpezialThemen

Produkt der Woche

Alle Produkte

Kalender

Alle Events

Partner-Events

Glasgow (UK)

DIA BioVenture Day

Istanbul (TR)

expomed eurasia