Thema:

Expertenpanel

Was die Zukunft bringt

Im englischen Sprachraum entsprechen dem deutschen Begriff Bioinformatik zwei Forschungsrichtungen. Bioinformatics befasst sich mit dem Erfassen, Speichern und Analysieren biologischer Daten. Im Gegensatz dazu versucht die Computational Biology, statistische Modelle oder mathematische Simulationen aus biologischen Systemen abzuleiten oder auf sie anzuwenden. Burkhard Rost ist als Präsident der International Society for Computational Biology (ISCB) der zweiten Kategorie zuzuordnen. Der Münchner will der DNA-Sequenz von Proteinen Informationen über die Gestalt des fertigen Produkts entlocken. Hier erläutert er, wie gut die dafür derzeit vorhandenen Algorithmen funktionieren. Edgar Wingenders Fachgebiet hat hingegen eher mit der Bioinformatics-Bioinformatik zu tun. Er erforscht, wie Ontologien in der Biologie entstehen und weiterentwickelt werden. Solche definierten Darstellungen einer Menge biologischer Fachtermini bilden die Basis, auf der Labor- und Computerwelt miteinander kommunizieren.

Burkhard Rost

LABORWELT:

Welchen Einfluss haben bioinformatische Methoden auf dem Gebiet der Proteinstrukturanalyse, und welche Bedeutung wird ihnen in Zukunft zukommen?

Rost:

Die Bioinformatik nimmt bei der Untersuchung von Proteinstrukturen mittlerweile eine Schlüsselrolle ein. So konnten wir in diesem Jahr gemeinsam mit Debora Marks und ihren Kollegen von der Harvard-Universität zeigen, dass die Kenntnis der DNA-Sequenz allein ausreicht, um die Faltung eines Transmembranproteins korrekt vorherzusagen.

Von den etwa 20.000 Proteinen des Menschen besitzen ungefähr 4.000 mindestens zwei Transmembrandomänen. Diese können in ungefähr 200 bis 300 Familien klassifiziert werden. Bekannte Strukturen existierten aber nur für Proteine in knapp 20 davon. Für die besagte Cell-Publikation wurde nun die Struktur von elf Proteinen mit Transmembrandomänen rein theoretisch bestimmt. Bisher bestätigten auch alle durchgeführten Experimente diese Vorhersagen. Transmembranproteine sind enorm schwer zu kristallisieren, so dass sich durch das Cell-Paper mit einem Schlag die Zahl bekannter Strukturen von Proteinen mit Transmembrandomänen von den knapp 20 auf über 30 erhöhte.

Die Methode hat allerdings auch einen großen Nachteil. Für die Berechnung der 3D-Struktur benötigt man die Gendaten tausender Proteine der zu untersuchenden Proteingruppe. So richtig verlässlich funktioniert sie erst, wenn mehr als 10.000 Einzelproteine analysiert werden. Richtig ideal wären 20.000 bis 30.000. Eine Aufgabe für die Bioinformatiker der Strukturbiologie ist somit, die Algorithmen soweit zu verfeinern, dass sie auch auf kleinere Proteinfamilien angewendet werden können. Diesbezüglich sind Erfolge derzeit leider nicht abzusehen.

Eine zweite Zukunftsaufgabe ist die Problematik der Dynamik und der Proteinkomplexe. Bindet ein Einzelmolekül das Substrat? Was ist das Signal? Wie wird es ausgelöst? Kristallisierte Proteine geben schon erstaunlich viel Information über solche dynamischen Prozesse preis. War es während der beiden vorangegangenen Jahrzehnte die Strukturaufklärung einzelner Proteine, so stehen momentan Proteinkomplexe im Fokus. Dabei geht es weit über Komplexe von zum Beispiel 20 oder 50 Transkriptionsfaktoren hinaus. Es wird vielmehr darum gehen, den Aufbau zellulärer Riesenmaschinen aus 200 Proteinen zu klären. Das liegt allerdings noch weit vor uns. Algorithmen können auch hier Zusatzinformationen aus den reinen Röntgenstrukturdaten herauskitzeln.

Die Analyse von Wechselwirkungen von Proteinen ist durchaus möglich, allerdings benötigt man dafür noch eine viel, viel größere Datenbasis. Besonderes Augenmerk wird dabei den unstrukturierten (engl.: disordered) Regionen gelten, die beim Menschen beispielsweise in jedem dritten Protein vorkommen. Weder Röntgenkristallographen noch NMR-Spektroskopie-Experten bekommen diese kippeligen Strukturen derzeit zu fassen. Vielleicht können Bioinformatiker auch hier bei der Strukturaufklärung helfen.

Eine weitere Herausforderung ist ganz allgemein die Handhabung und Analyse der Masse an Daten – ein Problem, dem sich nicht nur Strukturbiologen gegenüber sehen. Jeder Protein-SNP (engl.: single nucleotide polymorphism) kann potentiell zu einer entscheidenden Veränderung der Gestalt des Proteins führen. Wie berechnen und speichern wir das? Und wie breiten wir die Daten auf, dass im Rahmen der individualisierten Medizin die Ärzte die wichtigen Informationen im entscheidenden Moment parat haben? Auch hier ist die Bioinformatik gefordert.   

Prof. Dr. Burkhard Rost 
Leiter der Gruppe Bioinformatik, TU München, und der Abteilung Biochemie, Columbia University (USA)

Edgar Wingender

LABORWELT:

Ontologien bilden die Schnittstelle zwischen Labor-Erkenntnissen und der Bioinformatik. Welchen Tücken begegnet das Feld derzeit?

Wingender:

Mit Ontologien versucht man, das Wissen einer bestimmten Wissensdomäne strukturiert darzubieten. Eines der Probleme der Lebenswissenschaften ist die ungeheure Fülle an Publikationen. Diese systematisch und möglichst rechnergestützt auszuwerten, ist ein wünschenswertes Ziel. Dafür braucht man ein computergestütztes Verständnis der Inhalte. Was eine Ontologie leistet, ist, dass Fachtermini definiert und einander zugeordnet werden, wobei die Art der Zuordnung, die Art der Relation selbst wieder Bestandteil des ontologischen Systems ist. Ob etwas eine Unterklasse oder ein Teil von etwas anderem ist, das alles sind Dinge, die in einer Ontologie mit abgebildet werden. Schließlich sind in einer Ontologie auch die Definitionen der Konzepte enthalten. 

Eine Herausforderung ist, Wissen über biologische Funktionen – wie es in der biologischen Literatur zu finden ist – computerlesbar aufzubereiten. Die Hintergründe liegen natürlich außerhalb der Biowissenschaften bei zum Beispiel der Entwicklung des „semantic web“ und der Forschung über künstliche Intelligenz. In den Lebenswissenschaften ist insbesondere die Gene Ontology herauszuheben, die mittlerweile von der Community gut angenommen wird. Sie bereitet Genfunktionen in einer solchen systematischen Weise auf. Die meiste Arbeit wird dabei von der Gemeinschaft der Nutzer erledigt. Es läuft dabei ähnlich wie bei Wikipedia ab: Neben dem Gros der Beitragenden gibt es auch einen redaktionellen Stab, der das ganze kontrolliert und etwaigen Wildwuchs eindämmt. 

Da das Wissen in Zukunft weiter zunehmen wird, kommt es bei der Konzeption von Ontologien auch darauf an, sie möglichst flexibel auszulegen. Solange nicht völlig neue Paradigmen gefunden werden, hält die Ontologie. Sie kann daher problemlos quantitativ erweitert werden. Kommt es jedoch zu einem Paradigmenwechsel – was in der Wissenschaft natürlich möglich ist –, dann muss man die Ontologie eventuell aber auch einmal umbauen.

Prof. Dr. Edgar Wingender 
Leiter der Abteilung Bioinformatik der Universitätsmedizin Göttingen

Mehr zum Spezial

© 2007-2017 BIOCOM

http://www.laborwelt.de/spezialthemen/bioinformatik/bioinformatik.html

Alle Themen

SpezialThemen

Produkt der Woche

Alle Produkte

Kalender

Alle Events

Partner-Events

Glasgow (UK)

DIA BioVenture Day

Istanbul (TR)

expomed eurasia