Neue KI-Methode erfasst weitreichende atomare Wechselwirkungen in komplexen Molekülen
Google DeepMind, BIFOLD und die TU Berlin gehen einen zentralen Engpass bei atomistischen Simulationen an
Anzeigen
Forscher von Google DeepMind in Berlin, BIFOLD und der Technischen Universität Berlin haben eine neue Methode des maschinellen Lernens vorgestellt, mit der sich globale atomare Interaktionen in chemischen Systemen effizienter darstellen lassen. Dadurch könnten chemische und materialwissenschaftliche Prozesse in Zukunft genauer simuliert werden, was die Entwicklung neuer Medikamente, effizienterer Batterien und nachhaltigerer Materialien beschleunigen könnte. Die Arbeit mit dem Titel "Machine Learning Global Atomic Representations with Euclidean Fast Attention" wurde im März 2026 in Nature Machine Intelligence veröffentlicht.
Um genau zu verstehen, wie zum Beispiel ein Medikament wirkt, müssen Wissenschaftler genau berechnen, wie sich die Atome in Molekülen bewegen und miteinander interagieren. Solche Simulationen bilden die Grundlage für die moderne Arzneimittelentwicklung, aber auch für die Entwicklung neuer Materialien und effizienterer Katalysatoren. Viele Berechnungsmethoden stoßen jedoch an ihre Grenzen, wenn es um größere Moleküle mit Hunderten oder Tausenden von Atomen geht, da diese sehr komplex sind. Die Modellierung atomistischer Systeme ist eine Herausforderung, weil jedes Atom gleichzeitig Kräfte von vielen anderen Atomen erfährt, auch von solchen, die weit entfernt sind, und nicht nur von seinen unmittelbaren Nachbarn. Dies führt zu einem hochkomplexen Vielteilchensystem, in dem selbst kleine Veränderungen an einer Stelle das Verhalten des gesamten Systems beeinflussen können.
Die neue Darstellung dieser Wechselwirkungen wird Euklidische Schnelle Aufmerksamkeit (EFA) genannt.
Eine zentrale Rolle in diesem Prozess spielt ein grundlegendes Konzept des modernen maschinellen Lernens, die sogenannte Selbstaufmerksamkeit. Dieses Konzept ermöglicht es den Modellen, die Bedeutung einzelner Informationen im Zusammenhang mit allen anderen Informationen zu bewerten und so weitreichende Beziehungen zu erfassen. Mit zunehmender Anzahl der Atome wächst jedoch die Anzahl der relevanten Interaktionen ungefähr mit dem Quadrat der Anzahl der Atome. Dies macht die Verwendung der Selbstaufmerksamkeit für die präzise Modellierung physikalischer Systeme extrem rechenintensiv und begrenzt die Größe atomistischer Strukturen, die überhaupt simuliert werden können.
Genau an dieser Stelle setzt die neue Methode des Forscherteams an. Die Wissenschaftler entwickelten eine neue, linear skalierende Darstellung dieser Wechselwirkungen, die Euclidean Fast Attention (EFA). Sie wurde speziell für Daten im euklidischen Raum konzipiert, in dem die Regeln der klassischen Geometrie gelten, z. B. für Atome in Molekülen und Materialien, deren relative Positionen und Ausrichtungen für genaue Vorhersagen entscheidend sind. Ein Schlüsselaspekt des Ansatzes ist, dass räumliche Informationen effizient dargestellt werden können, ohne wichtige physikalische Symmetrien zu verletzen. In ihren Experimenten zeigen die Forscher, dass EFA verschiedene Langstreckeneffekte effektiv erfasst und chemische Wechselwirkungen beschreiben kann, für die herkömmliche maschinell lernende Kraftfelder möglicherweise falsche Ergebnisse liefern. Dadurch können Wechselwirkungen über große Entfernungen zuverlässig erfasst werden, während der Rechenaufwand vergleichsweise gering ist.
"Unser Ansatz ermöglicht einen wichtigen neuen Schritt hin zu einer quantenmechanisch genaueren Modellierung von Vielteilchensystemen mit neuen Deep-Learning-Methoden", sagt Prof. Klaus-Robert Müller, Co-Direktor von BIFOLD und Professor an der Technischen Universität Berlin.
Die Arbeit adressiert damit eine zentrale Frage bei der Modellierung von Vielteilchensystemen in Chemie und Physik: Wie können globale Strukturinformationen in atomistische Modelle einfließen, ohne die für große Systeme notwendige Recheneffizienz zu opfern? Da die Methode speziell für große Moleküle ausgelegt ist, kann sie in Zukunft auch auf besonders anspruchsvolle Systeme, wie große oder komplexe Materialien, angewendet werden. Die Autoren sehen EFA als einen vielversprechenden Ansatz, um Methoden des maschinellen Lernens robuster und effizienter für anspruchsvolle chemische und materialwissenschaftliche Simulationen zu machen.
Hinweis: Dieser Artikel wurde mit einem Computersystem ohne menschlichen Eingriff übersetzt. LUMITOS bietet diese automatischen Übersetzungen an, um eine größere Bandbreite an aktuellen Nachrichten zu präsentieren. Da dieser Artikel mit automatischer Übersetzung übersetzt wurde, ist es möglich, dass er Fehler im Vokabular, in der Syntax oder in der Grammatik enthält. Den ursprünglichen Artikel in Englisch finden Sie hier.