Theoretische Spektroskopie: Surface-Hopping-Ansätze basierend auf der zeitabhängigen Dichtefunktionaltheorie simulieren effizient zeitaufgelöste, elektronische Spektren von Festkörpermaterialien und liefern Einsichten in photoc...
Trendbericht Theoretische Chemie 2025 1/2
Maschinelles Lernen für angeregte Zustände
Von Wiley-VCH zur Verfügung gestellt
Maschinelles Lernen für angeregte Zustände: vom akkuraten Modellieren konischer Durchschneidungen zu längeren und komplexeren Simulationen.
Maschinelles Lernen für angeregte Zustände
Wenn Licht auf ein Molekül trifft, kann es Elektronen in höhere Energieniveaus befördern – der Molekülzustand ist dann angeregt. Solche Prozesse bestimmen die Farben von Farbstoffen, treiben die Photosynthese an, sind Grundlage moderner Solarzellen und Photokatalysatoren. Um sie gezielt zu nutzen, will die theoretische Chemie verstehen, wie sich Moleküle nach einer Anregung verhalten. Das ist leichter gesagt als getan: Angeregte Zustände sind rechnerisch deutlich anspruchsvoller als der elektronische Grundzustand. Während sich dieser oft mit etablierten und genauen quantenchemischen Methoden gut beschreiben lässt, erfordern angeregte Zustände entweder rechenintensive oder approximative Verfahren.
Um die Dynamik angeregter Zustände realistisch zu beschreiben, genügt es nicht, nur ein angeregtes Potenzial zu berechnen und die Bewegung der Atomkerne zu verfolgen. Im Grundzustand gilt meist die Born-Oppenheimer-Näherung: Man trennt die schnelle Bewegung der Elektronen von der deutlich langsameren Bewegung der Atomkerne, berechnet eine Potenzialfläche und behandelt die Kerne dann mit klassischer Mechanik. In vielen Photoprozessen bricht diese Näherung jedoch zusammen. Angeregte Zustände liegen oft dicht beieinander, und während sich das Molekül verformt, können die Elektronen zwischen den Zuständen springen. Solche Übergänge sind entscheidend: Sie bestimmen, wie die Energie eines Photons aufgenommen und in Strahlung oder Wärme umgewandelt wird.
Um diese Prozesse zu erfassen, nutzt man gemischt-quanten-klassische Methoden, zum Beispiel Surface Hopping.1) Dabei werden Tausende Moleküldynamiktrajektorien gestartet, die jeweils auf einer elektronischen Potenzialfläche laufen, aber mit einer gewissen Wahrscheinlichkeit auf eine andere Fläche springen können. Die Bewegung der Kerne folgt dabei klassischen Gesetzen, während die Elektronen mit einer quantenmechanischen (QM) Wellenfunktion beschrieben werden. Das Ergebnis ist ein Ensemble von Trajektorien, und dieses bildet das quantenmechanische Wellenpaket der Atomkerne statistisch ab. Das Problem: Für jeden einzelnen Zeitschritt dieser Simulation sind nicht nur Energie und Kräfte für den gerade aktiven Zustand zu berechnen, sondern auch die Übergangswahrscheinlichkeiten zwischen allen relevanten Zuständen. Diese hängen von Größen ab, die aufwendig zu berechnen sind, etwa nichtadiabatischen Kopplungsvektoren (sie beschreiben, wie stark sich zwei elektronische Zustände miteinander mischen). Realistische Simulationszeiträume (Pikosekunden) und große Ensembles (hunderte Trajektorien) sind mit herkömmlichen Verfahren oft nur für Moleküle möglich, die viel kleiner sind als die Farbstoffe, die man gerne untersuchen würde.
Das Potenzial maschinellen Lernens
Hier setzt maschinelles Lernen (ML) an. Anstatt jede einzelne Geometrie eines Moleküls mit aufwendiger Quantenchemie zu behandeln, trainiert man ein Computermodell mit einer begrenzten Menge von Referenzrechnungen. Das Modell erkennt dabei wiederkehrende Zusammenhänge zwischen Molekülstruktur und den gesuchten Größen – beispielsweise Energie, Kräfte oder Übergangsdipole – und kann diese für neue Strukturen vorhersagen. Das Modell lernt aus bekannten Molekülgeometrien und deren quantenchemischen Eigenschaften, um dann auch für bisher unbekannte korrekte Werte zu liefern. Das Potenzial von ML ist zum Verständnis der Dynamik angeregter Zustände besonders groß, weil hier die Rechenkosten so hoch sind.
Beim Berechnen des elektronischen Grundzustands nahm ML in den letzten Jahren eine rasante Entwicklung: Es gibt Modelle, die für bestimmte Molekülklassen mit quantenchemischen Methoden konkurrieren können – bei einem Bruchteil der Rechenzeit. Besonders spannend sind Foundational Models:2) vortrainierte ML-Modelle, die auf umfangreichen, heterogenen Datensätzen aus Millionen von Molekülen und Strukturen basieren und sich für spezielle Anwendungen gezielt feinjustieren (Fine Tuning) lassen. Dadurch bringen sie chemisches Wissen aus einer breiten Basis ein und erreichen die Präzision, die für hochspezialisierte Aufgaben nötig ist. In der Grundzustandschemie sind solche ML-Methoden mittlerweile so ausgereift, dass sie für Moleküldynamik, Materialdesign und sogar für reaktive Prozesse eingesetzt werden. Der Schritt von Grund- zu angeregten Zuständen scheint auf den ersten Blick gar nicht so groß – schließlich handelt es sich ja nur um Elektronen in einer anderen Konfiguration. Die Praxis aber ist komplex:
Meilensteine und offene Probleme
Trotzdem hat es in den letzten Jahren beachtliche Fortschritte gegeben. Mehrere Forschungsgruppen entwickeln ML-Modelle, die für kleine organische Moleküle Energien, Kräfte und nicht-adiabatische Kopplungen der untersten angeregten Zustände gleichzeitig vorhersagen. Eines der bekanntesten Beispiele ist SchNarc:3) Es verknüpft die für Grundzustände entwickelte Architektur SchNet4) mit dem Surface Hopping Code SHARC.5) Mit solchen Modellen wurden nicht-adiabatische Moleküldynamiksimulationen durchgeführt, die erstaunlich nah an die Genauigkeit hochaufwendiger Referenzmethoden herankommen.6) ML kann also auch in der angeregten Zustandschemie funktionieren. Der Weg zu universell einsetzbaren, robusten Modellen ist aber noch lang.
Ein zentrales Problem heutiger ML-Modelle für angeregte Zustände ist: Ihre Architektur wird in der Regel aus Grundzustandsmodellen übernommen, versehen lediglich mit mehreren Ausgabekanälen für die elektronischen Zustände. Das klingt naheliegend, hat aber einen entscheidenden Haken: Nichts im Modell erzwingt, dass die physikalische Ordnung der Zustände oder deren topologische Eigenschaften erhalten bleiben. So kann es passieren, dass das Modell für bestimmte Molekülgeometrien den ersten angeregten Zustand (S1) energetisch unterhalb des Grundzustands (S0) platziert, was physikalisch falsch ist. Ebenso kann das Modell konische Durchschneidungen, die in der Realität scharf und klar definiert sind, nur als breite, glatte Beinahe-Kreuzungen wiedergeben. Das kann den gesamten Verlauf einer nicht-adiabatischen Dynamik verfälschen.
Ein Beispiel liefert CH₂NH₂+ (Abbildung 1a). Im oberen Teil von Abbildung 1b betrachten wir eine Konfiguration, bei der sich der erste und zweite angeregte Zustand (S1 und S2) hoch in der Energie und bei einem Diederwinkel von 0 ° schneiden. Hochgenaue MRCI-Berechnungen zeigen hier eine klare Durchschneidung. Zwei ML-Modelle (eines basierend auf SchNet4), eines auf PaiNN7)), die gleichzeitig auf S0, S1 und S2 mit Daten der gleichen QM-Methode trainiert wurden (die Daten stammen aus der kürzlich erschienenen Publikation von SPaiNN8), der Kombination von SHARC und PaiNN), erkennen diesen Trend grundsätzlich, geben aber kein exaktes Crossing wieder: Stattdessen entsteht ein Avoided Crossing, also eine glatte Annäherung ohne echten Schnittpunkt. Der untere Teil von Abbildung 1b zeigt das eigentliche Problem: Beim Schnitt von S0 und S1 bei einem Diederwinkel von 90 ° liefern beide ML-Modelle zwei deutlich getrennte Flächen; der energetische Abstand beträgt fast 1 eV, wo in Wirklichkeit ein spitzer Schnitt vorliegt. Hier fehlt dem Modell jegliche Information, um die richtige Topologie zu rekonstruieren. Dieses pathologische Verhalten hat mehrere Gründe:
Lösungsansätze und Blick nach vorne
Erste Modellarchitekturen nehmen sich inzwischen gezielt der Herausforderung konischer Durchschneidungen an. Zwei beispielhafte Ansätze sind das X-MACE-Modell9) und das Diabatic Artificial Neural Network (DANN)10).
Das X-MACE-Modell kombiniert das erfolgreiche MACE-Grundmodell, das im Gegensatz zu SchNet oder PaiNN keine systematischen Schwierigkeiten mit Diederwinkeln hat, mit einer speziellen Ausgabeschicht (Output Layer). Diese Schicht transformiert die zunächst glatt vorhergesagten Funktionen so, dass die korrekte energetische Reihenfolge der Zustände erhalten bleibt und auch scharfe Schnittpunkte (konische Durchschneidungen) realistisch wiedergegeben werden.
Das Diabatic Artificial Neural Network (DANN) verfolgt einen anderen Weg. Im Fokus steht eine Größe, die im Grundzustand keine Rolle spielt, in der angeregten Zustandsdynamik jedoch entscheidend ist: die nicht-adiabatischen Kopplungsvektoren. DANN sagt zunächst diabatische Energieflächen voraus: glatte Flächen, die für jede Geometrie denselben elektronischen Charakter beibehalten. Anschließend werden diese über eine Transformation in adiabatische Flächen überführt, die nach Energien sortiert sind. Dieses Vorgehen hat einen entscheidenden Vorteil: Aus den transformierten Flächen lassen sich nicht nur klassische Kräfte (Gradienten), sondern auch die nicht-adiabatischen Kopplungsvektoren direkt ableiten.
Für ein weiteres zentrales Element vieler Photoprozesse (die Spin-Bahn-Kopplung) existiert bislang keine speziell zugeschnittene Architektur: ein noch völlig offenes Feld.
Was ist nötig, um maschinelles Lernen für angeregte Zustände vom Forschungsprototypen zum zuverlässigen Werkzeug zu machen? Ein Schlüssel liegt in größeren und besser auf das Ziel gerichteten Datensätzen. Kürzlich wurde ein Datensatz veröffentlicht, mit dem sich Modelle für angeregte Zustände entwickeln lassen. Er enthält Energien, Kräfte und Kopplungen und bietet die Möglichkeit, neue Modelle für unterschiedliche Spin-Multiplizitäten und -Kopplungen zu entwickeln und vergleichen.11) Zentral sind Geometrien, bei denen die Born-Oppenheimer-Näherung versagt – etwa in der Nähe konischer Durchschneidungen. Hier kann adaptives Sampling helfen: entweder indem das Modell selbst seine Unsicherheit schätzt und neue Referenzrechnungen anfordert (Uncertainty-driven Sampling)12,13) oder indem bekannte „kritische Geometrien“ gezielt und dicht vermessen werden. Parallel dazu wird eine enge Verzahnung mit Experimenten entscheidend sein. Hochauflösende (zeitaufgelöste) Spektroskopie liefert Tests für simulierte Energieniveaus, Lebensdauern und Reaktionspfade. Ein kontinuierlicher Abgleich zwischen Modellvorhersagen und Messdaten könnte systematische Fehler erkennen und Modelle zielgerichtet verbessern.
Wenn es gelingt, intelligente Datenerfassung, physikalisch fundierte Modellarchitektur und experimentelle Validierung zu vereinen, könnte maschinelles Lernen in wenigen Jahren zum Standardwerkzeug werden, um angeregte Zustände zu simulieren. Damit würde sich die Tür zu realistischen, großskaligen Simulationen photochemischer Prozesse öffnen – von der Photosynthese bis zu maßgeschneiderten photonischen Materialien. Bis dahin bedarf es jedoch noch entscheidender Entwicklungen in den Feldern, die im Folgenden beleuchtet werden.
Maschinelles Lernen für Biomoleküle und Simulationen in Lösung
Die meisten ML-Methoden benötigen umfangreiche Referenzdaten. Gerade für große molekulare Systeme – etwa Moleküle mit hunderten Atomen, Moleküle in Lösung oder Proteine – ist es schwierig bis unmöglich, Referenzdaten für elektronisch angeregte Zustände mit verschiedenen Spin-Multiplizitäten sowie den dazugehörigen Kräften und Kopplungen zu erzeugen. Daher wird oft auf Näherungen zurückgegriffen.
Für multichromophore Systeme kommen etwa Exziton-Modelle zum Einsatz. Hier werden elektronische Anregungszustände auf einzelne Chromophor-Einheiten (Fragmente) verteilt und deren Wechselwirkungen mit effektiven Hamilton-Operatoren beschrieben. Das Frenkel-Exziton-Modell (Abbildung 2) beschreibt angeregte Zustände in solchen Systemen anhand einer Basis aus Teil-Exzitationszuständen, bei denen genau ein Chromophor im angeregten Zustand ist (lokalisierte Anregung). Diese Basis kann den Energietransfer zwischen Chromophoren erfassen, typischerweise im schwachen Kopplungsfall. Abbildung 2 zeigt zwei Bodipy-Farbstoff-Einheiten, hier mit α und β gelabelt, deren angeregte Zustände separat berechnet werden. Anhand von Dipolmomenten oder partiellen Atomladungen lassen sich die Kopplungen (in der Abbildung mit V benannt) berechnen.14)
Ein Team um Leticia González hat jüngst eine Weiterentwicklung vorgestellt: die Excitonic-Configuration-Interaction(ECI)-Methode.15) Dieses Verfahren ist eine verallgemeinerte Form des Frenkel-Exziton-Modells. Es nutzt unter anderem eingebettete Punktladungen, um Monomerzustände im Einfluss ihrer Umgebung zu korrigieren. Durch systematisches Erweitern der Monomerzustände (inklusive Fälle, in denen mehrere Fragmente gleichzeitig angeregt sind) kann ECI schrittweise zum exakten Ergebnis konvergieren. Solche Exziton-Modelle sind für große, multi-chromophore Systeme oft unverzichtbar, allerdings existiert bislang kein ML-Modell, das direkt einen derartigen Formalismus ersetzt.
Eine andere Möglichkeit, große Systeme zu behandeln, bieten hybride QM/MM-Simulationen.14) Das System wird in eine quantenmechanische (QM) und eine molekülmechanische Region (MM) aufgeteilt. Die QM-Region, etwa ein angeregtes Molekül, wird mit voller Genauigkeit berechnet, während die umgebenden Moleküle nur durch ein klassisches Kraftfeld beschrieben werden. Wichtig ist hierbei die elektrostatische Einbettung: Die Atomladungen der MM-Atome beeinflussen direkt die QM-Berechnung. Dieses QM/MM-Einbettungsschema liefert in vielen Fällen einen guten Kompromiss zwischen Genauigkeit und Effizienz. Dieser Ansatz lässt sich prinzipiell auch in ML-Modelle integrieren: Das Modell erspürt gleichsam, in welcher Umgebung sich die ML-Region befindet, und bildet so zum Beispiel Lösungsmitteleffekte ab. Tatsächlich wurden in den letzten Jahren ML-Ansätze entwickelt, die solche Umgebungsfelder explizit einbeziehen. Ein Beispiel ist Field-SchNet,16) eine Erweiterung von SchNet, die das elektrische Feld der Umgebung als zusätzlichen Input erhält. Ursprünglich wurde Field-SchNet für den Grundzustand entwickelt, um Kraftfelder mit polarisierbarer Umgebung zu ermöglichen. Für angeregte Zustände wurde dieser Ansatz weiterentwickelt und in Anlehnung an die Kombination aus SchNet und SHARC Field-SchNarc getauft.17) Damit lassen sich ML-Modelle trainieren, die nicht nur mehrere adiabatische Potenzialenergieflächen und ihre Kopplungen (wie im SchNarc-Ansatz) lernen, sondern gleichzeitig die Wirkung eines elektrostatischen Feldes der Umgebung berücksichtigen. Abbildung 3 (links) zeigt ein Furan-Molekül in wässriger Lösung, wobei das Furan mit QM und die Wassermoleküle mit MM behandelt wurden. In einer kürzlich veröffentlichten Arbeit wurden zunächst konventionelle nicht-adiabatische QM/MM-Dynamiken für dieses System simuliert. Ein Teil dieser Trajektorien diente als Trainingsdaten für Field-SchNarc-Modelle, die die QM-Berechnung ersetzen (ML/MM). Idealerweise sollten dann ML/MM-Simulationen mit diesen Modellen die Dynamik der QM/MM-Referenzmethode reproduzieren können. Hierzu wurden die nicht im Training verwendeten Trajektorien herangezogen. Wie ein Vergleich von drei Modellen mit ähnlicher Test-Fehlerstatistik zeigte, produzierte eines der Modelle überraschenderweise eine deutlich abweichende zeitliche Entwicklung der elektronischen Populationen (Abbildung 3, rechts): Die Zustände verteilen sich im Lauf der Zeit deutlich anders als in den Referenzdaten – ein Effekt, der nicht vorherzusehen war. Solche Unterschiede sind problematisch, zumal üblicherweise keine unabhängigen Referenz-Trajektorien existieren, um ML-Ergebnisse in neuen Bereichen zu validieren. Schließlich illustriert dieses Beispiel auch, dass aktuelle ML-Modelle für angeregte Zustände nur dann physikalisch plausible Dynamiken liefern, wenn die Trainingsdaten sämtliche relevanten Konformations- und Zustandsräume abdecken. Ohne physikalische Zwangsbedingungen in der Netzwerkarchitektur bleibt das Modell anfällig für strukturelle Ausreißer, selbst wenn es in harmlosen Geometriebereichen sehr genau ist.
Robustere und besser übertragbare ML-Modelle könnten die Lösung sein. Sie benötigen weniger Trainingsdaten und liefern auch außerhalb des Trainingsbereichs verlässliche Ergebnisse. Vielversprechend sind hier Foundational Models wie MACE-OFF,18) also vortrainierte Grundzustandsmodelle, die sich mit Transfer Learning an neue Systeme anpassen lassen. Ein Vertreter dieser neuen Generation ist Field-MACE,19) ein äquivariantes Netzwerk, das eine Multipol-Expansion nutzt, um die langreichweitigen elektrostatischen Wechselwirkungen aus der Umgebung abzubilden. Der Vorteil von Field-MACE: Es kann auf einem großen Datensatz von Grundzustandsberechnungen (ohne Umgebung) vortrainiert werden, sodass es bereits allgemeine chemische Wechselwirkungen gelernt hat (Abbildung 4). Im zweiten Schritt wird das Modell dann mit wenigen Datenpunkten an das konkrete System in Lösung angepasst. Dieses Vorgehen wurde ebenfalls am genannten Furan-Wasser-System erprobt. Ein mit Field-MACE und Transfer Learning trainiertes Modell kommt demnach bereits mit wenigen QM/MM-Datenpunkten aus, um die Dynamik qualitativ richtig wiederzugeben. Konkret waren mit unter 100 Trainingspunkten die Hauptmerkmale der Populationsdynamik von Furan erfassbar. Ein Modell ohne Vortraining versagte hier dagegen. Insgesamt lieferte Field-MACE für Furan in Wasser deutlich stabilere Simulationen. Dieser Test lässt erwarten, dass vortrainierte ML-Grundmodelle künftig Simulationen großer (Bio-)Moleküle in Lösung mit signifikant geringerem Datenaufwand ermöglichen – ein wichtiger Schritt, um ML-Methoden in der Praxis breit einsetzbar zu machen.
Maschinelles Lernen für lange Zeitskalen
Wie lässt sich die Verlässlichkeit von ML-Ergebnissen sicherstellen, wenn kein direkter Vergleich mit Referenzmethoden möglich ist? Dieses Problem besteht nicht nur bei Simulationen in Umgebungen oder großer Systeme, sondern insbesondere bei längeren Zeitskalen (Nanosekunden oder mehr). Diese sind auch mit ML-Modellen nur schwer erreichbar; bisher gelang dies nur für kleine organische Moleküle.20,21) Für solche langen Zeitskalen sind experimentelle Befunde wichtig, um die Plausibilität der Simulationen abzusichern. Ultraschnelle spektroskopische Methoden wie die Pump(-Repump)-Probe-Spektroskopie bieten Einblicke in längerlebige Zwischenzustände. Hauer, Storch und Mitarbeiter haben mit solchen Pump-Repump-Techniken gezeigt, wie sich höherliegende Tripelzustände oder andere versteckte Spezies in komplexen Photoreaktionen identifizieren lassen.22) Hier kann ML zweifach beitragen: Einerseits können ML-getriebene Simulationen Vorhersagen über Intermediate und deren Lebensdauern liefern, die sich dann mit Experimenten überprüfen lassen. Andererseits lässt sich ML auch einsetzen, um die Auswertung der experimentellen Daten zu unterstützen, etwa durch globales Fitten kinetischer Modelle an die mehrpulsigen Spektren oder indem neuronale Netze Merkmale aus verrauschten Signalsignaturen extrahieren. In jedem Fall ist es von Vorteil, experimentelle und ML-Methoden für lange Zeitskalen zu kombinieren.
Maschinelles Lernen für experimentelle Daten
Die genannten Anwendungen von ML in der theoretischen Chemie basierten primär auf Daten aus Computersimulationen. ML kann jedoch auch für Experimente wertvolle Dienste leisten, etwa um Daten zu analysieren oder um Versuche zu planen. Allerdings verschieben sich hierbei die Herausforderungen deutlich: Experimentelle Datensätze sind häufig klein und verrauscht, während ML-Algorithmen klassischerweise riesige, aufbereitete Datenmengen benötigen. Zudem fließt in experimentelle Studien viel chemisches Wissen ein; etwas, das in ML-Trainingsdaten nicht ohne Weiteres enthalten ist.23) Daher sind für den Einsatz von ML mit experimentellen Daten spezielle Strategien gefragt, die mit wenig Daten auskommen und Unsicherheiten angemessen behandeln. Eine Möglichkeit bietet die aktive Lernstrategie, bei der das ML-Modell selbst vorschlägt, welche neuen Experimente am informativsten wären. Insbesondere die Bayes’sche Optimierung hat sich hier als nützlich erwiesen. Diese iterative Methode behandelt das Experiment als globale Optimierungsaufgabe und wählt für jeden weiteren Schritt die Bedingungen so, dass man effizient zum Optimum gelangt. Kürzlich wurde gezeigt, dass eine Bayes’sche Optimierung bei der Reaktionsoptimierung gängige Design-of-Experiment-Methoden in puncto benötigter Experimente und Reproduzierbarkeit übertrifft.24) So lässt sich beispielsweise die Ausbeute einer organischen Reaktion oder die Effizienz eines Katalysators mit deutlich weniger Versuchen maximieren, indem der Algorithmus aus den bisherigen Resultaten lernt, welche Parameter vielversprechend sind (etwa Lösungsmittel, Temperatur, Konzentration).
Trotz dieser Fortschritte steht ML bei experimentellen Daten noch am Anfang. Experimentelles Rauschen und Messfehler sind noch nicht in die ML-Modelle integriert. Hier könnten probabilistische Ansätze wie Gauß-Prozesse helfen, da sie von Natur aus mit Unsicherheiten umgehen können. Auch kleine Datensätze mit vorhandenem Vorwissen zu kombinieren ist ein aktives Forschungsgebiet, etwa durch Transfer Learning, bei dem ein auf großen Daten vortrainiertes Modell gezielt mit einigen experimentellen Punkten feinabgestimmt wird, oder durch das Einbauen physikalischer Gesetzmäßigkeiten als Randbedingungen ins Modell. Solche Ansätze könnten es ermöglichen, ML-Methoden breit auf reale Labordaten anzuwenden, selbst wenn diese begrenzt und fehlerbehaftet sind. Insbesondere für angeregte Zustände großer Systeme, bei denen Referenzdaten aus der Quantenchemie oft schwierig oder nicht zugänglich sind, ist es denkbar, Modelle durch Transfer Learning zu verbessern.
Diskussion und offene Punkte
Welche Hürden sind auf dem Weg zu verlässlichen, universell einsetzbaren ML-Modellen für die Photochemie noch zu überwinden? Ein zentrales Thema ist und bleibt die Datenverfügbarkeit. Zwar erleichtern vortrainierte Modelle den Start, aber hochwertige Referenzdaten für angeregte Zustände, insbesondere in komplexen Umgebungen, sind nach wie vor rar und langwierig zu berechnen. Hier sind kreative Ansätze gefragt, etwa aktive Lernverfahren zur intelligenten Datenauswahl oder die verstärkte Kooperation mit experimentellen Gruppen, um ML-Modelle direkt mit Messdaten zu füttern.
Eng damit verknüpft ist die Verlässlichkeit und Generalisierbarkeit der Modelle: Die Community muss Kriterien und Metriken entwickeln, um beurteilen zu können, wann ein ML-Modell außerhalb seines Trainingsraums versagt. Erste Ansätze, etwa spezielle Performanzmetriken für nicht-adiabatische Dynamik,17) wurden in Einzelfällen bereits demonstriert. Ein allgemein anerkanntes Gütemaß fehlt jedoch noch. Zudem wäre es sinnvoll, mehr Physik in die ML-Modelle zu integrieren: Indem Symmetrien, Erhaltungssätze oder physikalische Grenzen direkt in die Architektur eingebaut werden, lässt sich das Ausufern in unphysikalische Bereiche verhindern. Zudem könnten physikinformierte Modelle mit weniger Daten auskommen, da sie gewisse Zusammenhänge a priori kennen.
Ein weiterer Punkt ist die Interpretierbarkeit von ML-Ergebnissen. Während Quantenchemiker bei herkömmlichen Berechnungen, etwa aus Orbitalen oder Übergangsdichten, Einsichten in Reaktionsmechanismen gewinnen, sind die Entscheidungsgrundlagen eines neuronalen Netzes oft schwer zu deuten. Hier besteht Forschungsbedarf, um ML-Modellen erklärbare Komponenten zu verleihen oder um Methoden zu entwickeln, die aus einem trainierten Modell wieder neue chemische Erkenntnisse extrahieren. Schließlich darf man den kulturellen Wandel nicht unterschätzen: ML hält rasant Einzug in die theoretische Chemie. Noch müssen viele Anwender erst Vertrauen in diese Black Boxes fassen; das darf aber nicht blind geschehen. Durch transparente Validierung, Community-Benchmark-Studien und den offenen Austausch von Modellen und Daten kann dieses Vertrauen wachsen. Insgesamt ist ML auf dem besten Weg, von einer Trendtechnik zu einem etablierten Werkzeug in der Photochemie zu werden, sofern Zuverlässigkeit sowie solide Datenbasis und Integration gewährleistet sind. Die kommenden Jahre werden zeigen, ob und wie ML theoretische Photochemie schneller und skalierbarer machen wird.
Drei Fragen an den Autor: Johannes Dietschreit
Ihre Forschung in 140 Zeichen?
Beschleunigung von Simulationen im Grund- und angeregten Zustand mittels Methoden des maschinellen Lernens und der statistischen Thermodynamik.
Was brauchen Sie heute im Beruf, was Sie im Studium nicht gelernt haben?
Für meine Forschung brauche ich Mathematik und gute Programmierkenntnisse; vor allem letztgenanntes spielte im Chemiestudium kaum eine Rolle. Am meisten habe ich aber bei all dem dazugelernt, was nicht direkt mit Forschung zu tun hat: etwa, was es braucht, damit Lehre wirklich gut wird.
In welchem Gebiet erwarten Sie im nächsten Jahr die größten Entwicklungen und warum?
Die theoretische Chemie wird stark von der allgemeinen KI-Entwicklung beeinflusst werden, besonders hervorzuheben ist die zunehmende Verwendung großer Sprachmodelle (LLMs) und selbstständiger Agenten. Ein Beispiel ist ‚El Agente Q‘ aus der Aspuru-Guzik-Gruppe: Hier reicht es, dem Agenten zu beschreiben, welche Rechnung man durchführen möchte – das Modell erstellt dann die Eingabedateien, startet die Quantenchemie-Berechnungen und wertet die Ergebnisse eigenständig aus. Solche Konzepte, wie man sie heute schon von Chatbots wie GPT kennt, werden meiner Erwartung nach auch von anderen Chemie-Arbeitsgruppen aufgegriffen werden.
Johannes C. B. Dietschreit verfasste zusammen mit Julia Westermayr den Teil „Maschinelles Lernen für angeregte Zustände“ des diesjährigen Trendberichts Theoretische Chemie. Er habilitiert sich seit Anfang 2024 bei Leticia González an der Universität Wien am Institut für Theoretische Chemie. Seine Forschungsgebiete sind: maschinelles Lernen für den elektronischen Grundzustand sowie angeregte Zustände, Verknüpfung von maschinellem Lernen und modernen Simulationsmethoden, statistischer Thermodynamik und Uncertainty Quantification. Johannes.dietschreit@univie.ac.at
Die drei Fragen wählen die Autor:innen aus einem redaktionell erstellten Fragenkatalog.
Drei Fragen an die Autorin: Julia Westermayr
Welche Erkenntnis der letzten zwölf Monate war für Ihre Forschung besonders wichtig?
Für meine Forschung ist in den letzten zwölf Monaten besonders deutlich geworden, dass die Qualität und Aufbereitung von Daten der entscheidende Faktor für die Leistungsfähigkeit von Machine-Learning-Modellen sind. Das gilt nicht nur in der Photochemie, sondern auch bei Anwendungen: Duft- und Geschmacksstoffen, biomechanischen Prozessen oder der Integration experimenteller Daten. Gerade in Bereichen mit verrauschten oder schwer reproduzierbaren Daten sind sorgfältige Dokumentation und Strukturierung unverzichtbar, um robuste Modelle zu entwickeln.
In welchem Gebiet erwarten Sie im nächsten Jahr die größten Entwicklungen und warum?
Ich erwarte die größten Fortschritte in der engeren Kopplung von Theorie und Experiment, da maschinelles Lernen hier eine echte Brücke schlagen kann. Modelle, die nicht nur auf theoretischen Daten trainiert sind, sondern systematisch mit experimentellen Messungen abgeglichen werden, können die Validität und Anwendbarkeit deutlich verbessern und uns Zugang zu Beschreibungen liefern, die allein durch die Theorie nicht möglich sind. Dadurch entstehen neue Möglichkeiten, Vorhersagen effizient zu überprüfen, Experimente gezielt zu steuern und komplexe chemische Prozesse noch besser zu verstehen.
Was würden Sie gerne entdecken oder herausfinden?
Ich möchte verstehen, wie wir Machine-Learning-Vorhersagen in der Photochemie so zuverlässig machen können, dass sie Experimente nicht nur ergänzen, sondern gezielt steuern. Besonders spannend finde ich die Frage, wie wir Modelle aufbauen können, die nicht nur numerisch präzise sind, sondern auch chemisch interpretierbare Einsichten liefern. Langfristig würde ich gerne einen Beitrag dazu leisten, molekulare Prozesse durch Integration von maschinellem Lernen in Echtzeit vorhersagen und kontrollieren zu können – von lichtinduzierten Reaktionen bis hin zu Anwendungen in Biologie und Materialwissenschaft.
Julia Westermayr verfasste zusammen mit Johannes C. B. Dietschreit den Teil „Maschinelles Lernen für angeregte Zustände“ des diesjährigen Trendberichts Theoretische Chemie. Sie ist seit Oktober 2022 Juniorprofessorin an der Universität Leipzig und seit Februar 2023 assoziiertes Mitglied von ScaDS.AI (Center for Scalable Data Analytics and Artificial Intelligence) Dresden/Leipzig. Sie forscht unter anderem an der Entwicklung und Anwendung von maschinellen Lernmethoden für den elektronischen Grundzustand sowie angeregte Zustände in der Gasphase und in Lösung (QM/MM-Ansätze). Julia.westermayr@uni-leipzig.de
- 1 C. Tully, J. Chem. Phys. 1990, 93, 1061–1071
- 2 I. Batatia, P. Benner, Y. Chiang, A. M. Elena, D. P. Kovács et al., arXiv 2023, doi: 10.48550/arXiv.2401.00096
- 3 J. Westermayr, M. Gastegger, P. Marquetand, J. Phys. Chem. Lett. 2020, 11, 3828–3834
- 4 K. T. Schütt, H. E. Sauceda, P.-J. Kindermans, A. Tkatchenko, K.-R. Müller, J. Chem. Phys. 2018, 148, 241722
- 5 S. Mai, P. Marquetand, L. González, WIREs Comput. Mol. Sci. 2018, 8, e1370
- 6 B. Bachmair, J. C. B. Dietschreit, L. González, Phys. Chem. Chem. Phys. 2025, 27, 8212–8220
- 7 K. T. Schütt, O. T. Unke, M. Gastegger, arXiv 2021, doi: 10.48550/arXiv.2102.03150
- 8 S. Mausenberger, C. Müller, A. Tkatchenko, P. Marquetand, L. González, J. Westermayr, Chem. Sci. 2024, 15, 15880–15890
- 9 R. Barrett, C. Ortner, J. Westermayr, arXiv 2025, doi: 10.48550/arXiv.2502.12870
- 10 S. Axelrod, E. Shakhnovich, R. Gómez-Bombarelli, Nat. Commun. 2022, 13, 3440
- 11 R. Curth, T. E. Röhrkasten, C. Müller, J. Westermayr, Sci. Data 2025, 12, 1300
- 12 A. R. Tan, S. Urata, S. Goldman, J. C. B. Dietschreit, R. Gómez-Bombarelli, Npj Comput. Mater. 2023, 9, 225
- 13 A. R. Tan, J. C. B. Dietschreit, R. Gómez-Bombarelli, J. Chem. Phys. 2025, 162, 034114
- 14 M. F. S. J. Menger, F. Plasser, B. Mennucci, L. González, J. Chem. Theory Comput. 2018, 14, 6139–6148
- 15 T. Piteša, S. Polonius, L. González, S. Mai, J. Chem. Theory Comput. 2024, 20, 5609–5634
- 16 M. Gastegger, K. T. Schütt, K.-R. Müller, Chem Sci 2021, 12, 11473–11483.
- 17 M. X. Tiefenbacher, B. Bachmair, C. G. Chen, J. Westermayr, P. Marquetand, J. C. B. Dietschreit, L. González, arXiv 2025, doi: 10.48550/arXiv.2501.16974
- 18 D. P. Kovács, J. H. Moore, N. J. Browning, I. Batatia, J. T. Horton, V. Kapil, I.-B. Magdău, D. J. Cole, G. Csányi, arXiv 2023, doi: 10.48550/arXiv.2312.15211
- 19 R. Barrett, J. C. B. Dietschreit, J. Westermayr, arXiv 2025, doi: 10.48550/arXiv.2502.21045
- 20 J. Li, P. Reiser, B. R. Boswell, A. Eberhard, N. Z. Burns, P. Friederich, S. A. Lopez, Chem. Sci. 2021, 12, 5302–5314
- 21 J. Westermayr, M. Gastegger, M. F. S. J. Menger, S. Mai, L. González, P. Marquetand, Chem. Sci. 2019, 10, 8100–8107
- 22 Y. Xu, M. T. Peschel, M. Jänchen, R. Foja, G. Storch, E. Thyrhaug, R. de Vivie-Riedle, J. Hauer, J. Phys. Chem. A 2024, 128, 3830–3839
- 23 E. Shim, A. Tewari, T. Cernak, P. M. Zimmerman, J. Chem. Inf. Model. 2023, 63, 3659–3668
- 24 B. J. Shields, J. Stevens, J. Li, M. Parasram, F. Damani, J. I. M. Alvarado, J. M. Janey, R. P. Adams, A. G. Doyle, Nature 2021, 590, 89–96
Überprüfung Ihres Anmeldestatus ...
Wenn Sie ein registrierter Benutzer sind, zeigen wir in Kürze den vollständigen Artikel.