Was ist Ihr Beruf?
Ich bin Doktorand und forsche in der Bioinformatik zu Methoden des maschinellen Lernens in der Biologie. Das bedeutet, dass ich statistische Methoden entwickle und einsetze, um biologische Zusammenhänge oder Vorgänge zu entdecken, vorherzusagen und zu verstehen.
Mit welchen Daten arbeiten Sie?
Wir nutzen viele biologische Daten, beispielsweise DNA-Daten. Es gibt Datensätze, für die Personen sequenziert und ihre Krankheiten sowie andere Eigenschaften erfasst wurden. Wir versuchen dann anhand der Mutationen in der DNA vorherzusagen und damit zu erklären, wie wahrscheinlich Krankheiten aufgrund welcher Mechanismen sind. Hierfür greife ich auch auf vorhandenes biologisches Wissen darüber zurück, was über bestimmte Mutationen bereits bekannt ist, welche Effekte sie haben oder welche Funktionen einzelnen Proteinen zugeschrieben werden.
Wie hilft Ihnen ChatGPT dabei?
Ich nutze ChatGPT als Hilfe beim Programmieren. Manchmal recherchiere ich auch mit ChatGPT, um zu prüfen, ob bestimmte biologische Zusammenhänge grundsätzlich Sinn ergeben und bekannt sind. Ansonsten nutze ich es nicht viel. In meinem Feld gibt es aber viel Forschung dazu, wie man ChatGPT noch stärker nutzen könnte. Die eine Idee ist, von ChatGPT Hypothesen aufstellen zu lassen. Die andere Idee ist, die komplette Forschung zu automatisieren.
Wie kann man mit ChatGPT Hypothesen aufstellen?
Wenn ich biologische Mechanismen verstehen möchte, dann prüfen ich oder andere Forschende häufig, welche Gene oder Proteine sich in bestimmten Situationen ähnlich verhalten. Denn wenn sie sich ähnlich verhalten, dann kann man annehmen, dass sie eine gemeinsame Funktion haben. Bei Proteinen weiß man nicht unbedingt, welche Funktionen sie alle erfüllen. Hypothesen hierzu kann man nun aufstellen, indem man in älteren Datenbanken bekanntes Wissen recherchiert. Diesen Prozess könnte man an ChatGPT delegieren, indem man fragt, welche Funktion eine Gruppe wahrscheinlich hat. Forschende haben gezeigt, dass das schon ganz gut funktioniert – und im Vergleich zum Menschen wesentlich schneller ist.
Und wie kann man die komplette Forschung automatisieren?
Die Idee ist, dass man eine ganze Forschungsgruppe mit unterschiedlichen Agenten hat. Forschung hierzu hat gezeigt, dass das grundsätzlich möglich ist. Ein Agent ist dann zum Beispiel Forschungsleiter, ein anderer Informatiker, ein dritter Biologe und vielleicht ein vierter eine Art Kritiker. Diese Agenten würde man dann mit einer Forschungsfrage betrauen. Sie würden miteinander darüber reden, wie sie arbeiten wollen, und sich für ein Vorgehen entscheiden. Ein Paper hat gezeigt, dass das mit ein bisschen Hilfe von Menschen schon jetzt geht. Die Agenten haben ein funktionierendes Forschungsdesign erstellt und funktionierende Datenverarbeitungsschritte programmiert. Jedoch wurde damit die ursprüngliche Forschungsfrage nicht beantwortet und auch nicht der beste Ansatz gewählt oder das beste Resultat erzielt. Deshalb glaube ich, dass wir für wirklich tiefergehende Forschungsergebnisse in den nächsten Jahren noch sehr viele Menschen benötigen werden. Einfach, weil es keine Garantie gibt, dass das, was große Sprachmodelle machen, gut ist oder überhaupt stimmt. Die Agenten können zu Resultaten kommen, aber es braucht immer noch die Einschätzung von Expertinnen und Experten, ob etwas Sinn ergibt und wirklich neu ist.
In Zürich wurde mit Apertus auch ein offenes Modell entwickelt. Worin liegen für Sie die Unterschiede zu ChatGPT – und werden Sie mit Apertus arbeiten?
Für mich ist einfach die Frage entscheidend: Wie gut funktioniert ein großes Sprachmodell? Sowohl die Modelle von OpenAI als auch Claude sind sehr gut, sie können funktionierende Programme designen. Ich lasse diese Modelle aber keine Analysen selbst durchführen und gebe ChatGPT keine Daten, mit denen ich arbeite – vor allem keine personenbezogenen Daten, das wäre gar nicht gut und ist durch die Universität und das Labor untersagt. Wenn man solche Daten verarbeiten wollen würde, dann bräuchte man schon ein Modell wie Apertus, das man lokal sicher auf den eigenen Servern betreiben könnte und das keinem internationalen Konzern gehört.
Welche Rolle werden große Sprachmodelle und ChatGPT zukünftig in der Forschung spielen?
Es ist schwierig, in die Zukunft zu blicken. Ich glaube, dass die Modelle schon in einigen Bereichen unterstützen werden – vor allem bei der Literaturrecherche und bei einzelnen Programmieraufgaben. Da kann Künstliche Intelligenz die Forschung schneller machen.
Es wird aber weiterhin eine rigorose menschliche Überprüfung brauchen und eine Beurteilung durch die Forschenden, ob ein Ergebnis und eine Methode wirklich Sinn ergeben und neue Erkenntnisse bringen. Hierzu braucht es ein Verständnis des Fachgebiets und konzeptionelle Arbeit, die diese Tools nicht leisten können.
Dennis Gankin ist Doktorand bei Prof. Beltrao am Institut für Molekulare Systembiologie an der ETH Zürich und beschäftigt sich mit interpretierbarem Deep Learning zur Modellierung von Genotyp-Phänotyp-Beziehungen. Weitere Forschung umfasste die Entwicklung von Multi-Agenten-Systemen für die modulare Produktionssteuerung sowie die bioinformatische Entdeckung neuer CRISPR-Cas-Systeme. Gankin hat einen Masterabschluss in Informatik mit Schwerpunkt auf Künstlicher Intelligenz, Bioinformatik und IT-Sicherheit.