MIT entschlüsselt KI-Blackbox: Proteinmodell-Vorhersagen erklärt
In einem bedeutenden Schritt zur Entmystifizierung der künstlichen Intelligenz in der Biologie haben Forschende am MIT eine neuartige Methode vorgestellt, um in das Innenleben von Protein-Sprachmodellen zu blicken. Diese fortschrittlichen KI-Systeme, ähnlich den großen Sprachmodellen (LLMs), die Tools wie ChatGPT antreiben, sind in den letzten Jahren unverzichtbar geworden, um Proteinstrukturen und -funktionen vorherzusagen und bei Aufgaben von der Identifizierung potenzieller Wirkstoffziele bis zum Design therapeutischer Antikörper zu helfen. Obwohl sie bemerkenswert genau sind, blieben ihre Entscheidungsprozesse weitgehend undurchsichtig – ein „Black Box“-Phänomen, das die Fähigkeit der Forschenden, ihr Potenzial voll auszuschöpfen, einschränkte.
Die neue Studie, geleitet vom MIT-Doktoranden Onkar Gujral und der Seniorautorin Bonnie Berger, Professorin für Mathematik und Leiterin der Computation and Biology Group am Computer Science and Artificial Intelligence Laboratory des MIT, bietet einen entscheidenden Durchbruch. Indem sie die spezifischen Merkmale beleuchtet, die diese Modelle bei Vorhersagen berücksichtigen, verspricht die Forschung, Wissenschaftlern bei der Auswahl effektiverer Modelle für bestimmte Anwendungen zu helfen und so die Entwicklung neuer Medikamente und Impfstoffkandidaten zu optimieren. Wie Berger betont, hat diese Arbeit weitreichende Auswirkungen auf die Verbesserung der Interpretierbarkeit von KI-Systemen, die für nachgelagerte biologische Anwendungen entscheidend sind, und könnte sogar neuartige biologische Erkenntnisse zutage fördern. Die Ergebnisse sind in den Proceedings of the National Academy of Sciences veröffentlicht.
Protein-Sprachmodelle funktionieren nach ähnlichen Prinzipien wie ihre textbasierten Gegenstücke. Anstatt Wörter zu analysieren, verarbeiten sie riesige Mengen von Aminosäuresequenzen und lernen Muster, die es ihnen ermöglichen, Proteineigenschaften vorherzusagen. Zum Beispiel nutzte Bergers frühere Arbeit aus dem Jahr 2021 ein solches Modell, um Abschnitte von viralen Oberflächenproteinen zu identifizieren, die weniger anfällig für Mutationen sind, und so potenzielle Impfstoffziele gegen Influenza, HIV und SARS-CoV-2 zu finden. Die genauen Mechanismen hinter diesen Vorhersagen blieben jedoch ein Rätsel.
Um diese rechnerische „Black Box“ zu knacken, setzte das MIT-Team eine Technik namens Sparse Autoencoder ein, eine Art Algorithmus, der kürzlich verwendet wurde, um traditionelle LLMs zu beleuchten. Proteine innerhalb eines neuronalen Netzes werden typischerweise durch Aktivierungsmuster über eine begrenzte Anzahl von „Knoten“ oder „Neuronen“ dargestellt – analog dazu, wie das Gehirn Informationen speichert. Beispielsweise könnte ein Protein durch 480 solcher Knoten dargestellt werden. Ein Sparse Autoencoder erweitert diese Darstellung drastisch und streckt sie über eine viel größere Anzahl von Knoten, vielleicht 20.000. Diese Erweiterung, kombiniert mit einer „Sparsity-Beschränkung“, ermöglicht es, dass sich die Informationen ausbreiten, wodurch sichergestellt wird, dass ein zuvor von mehreren Knoten kodiertes Merkmal nun einen einzigen, dedizierten Knoten belegen kann. Dies macht die Aktivierung jedes einzelnen Knotens wesentlich aussagekräftiger und interpretierbarer.
Nachdem diese spärlichen Darstellungen generiert wurden, nutzten die Forschenden einen KI-Assistenten, Claude, um sie zu analysieren. Claude verglich die neu expliziten Darstellungen mit bekannten Proteineigenschaften – wie molekulare Funktion, Familie oder zelluläre Lokalisation. Durch diese Analyse von Tausenden von Darstellungen konnte Claude identifizieren, welche spezifischen Knoten bestimmten Proteineigenschaften entsprachen, und diese in klarer, verständlicher Sprache beschreiben. Zum Beispiel könnte die KI berichten, dass ein bestimmtes Neuron Proteine erkennt, die am Transmembrantransport von Ionen oder Aminosäuren beteiligt sind, insbesondere solche, die in der Plasmamembran vorkommen. Die Studie zeigte, dass Proteinfamilie und verschiedene Stoffwechsel- und Biosyntheseprozesse zu den Merkmalen gehörten, die am häufigsten von diesen neu interpretierbaren Knoten kodiert wurden.
Diese neu gewonnene Fähigkeit zu verstehen, welche Merkmale ein Proteinmodell priorisiert, eröffnet spannende Möglichkeiten. Forschende können Modelle nun intelligenter für spezifische Forschungsfragen auswählen oder feinabstimmen und ihre Eingaben optimieren, um überlegene Ergebnisse zu erzielen. Darüber hinaus verspricht die Fähigkeit, die interne Logik dieser Modelle zu sezieren, mit zunehmender Leistungsfähigkeit und Komplexität die Entdeckung völlig neuer biologischer Prinzipien, wodurch die Grenzen unseres derzeitigen Verständnisses von Proteinen und dem Leben selbst verschoben werden.