Gesellschaft Deutscher Chemiker
Anonymous

Anonymous

Keine Benachrichtigungen
Sie haben noch keine Lesezeichen
Abmelden

Polymerforschung im Zeitalter der Digitalisierung

100 Jahre Makromolekulare Chemie

Kaum etwas hat die Welt, in der wir leben, so schnell und so nachhaltig verändert wie das Aufkommen von Computern, Smartphones und neuen Kommunikationsformen im Zeitalter der Digitalisierung. Dieser Artikel gibt einen kurzen Überblick darüber, worum es hier im Wesentlichen geht und wo die Polymerchemie diesbezüglich steht.

Digitalisierung ist nichts Neues. Seit den neunziger Jahren nutzen immer mehr von uns digitale Tools wie PC, Handys und E-Mail. Computer mit einer Leistungsfähigkeit, die man früher nicht für möglich gehalten hätte, moderne und größtenteils tragbare Hardware wie Smartphones und Laptops sowie neue Kommunikationsformen, allen voran Kurznachrichtendienste und soziale Netzwerke, sind aus unserem täglichen Leben nicht mehr wegzudenken. Neu ist aber die immer weiter zunehmende Geschwindigkeit, mit der sich Innovationen in diesem Bereich entwickeln. Die Digitalisierung in der Polymerforschung (und darüber hinaus) verspricht uns, Forschungsergebnisse wesentlich schneller erzielen zu können, als es bisher möglich war.

Oftmals wird Digitalisierung in Forschung & Entwicklung vereinfachend mit der Modellierung von Molekülen im Computer gleichgesetzt. Diese Verfahren werden seit vielen Jahren sowohl an den Unis als auch in der Industrie entwickelt und erfolgreich angewendet. Dadurch, dass es immer mehr Rechenkapazität gibt, sind diese Modellierungen mit immer größerer Genauigkeit möglich. Insbesondere Supercomputer, die pro Sekunde über 1015 Rechenoperationen durchführen können (beispielsweise der Supercomputer „Quriosity“ bei BASF1), ermöglichen es heutzutage, auch das Verhalten von großen Molekülen und komplexen Systemen ausreichend genau vorherzusagen.

Neben den oben erwähnten Modellierungen werden auch Verfahren auf Basis von künstlicher Intelligenz (KI) sowie von maschinellem Lernen (ML) immer stärker thematisiert. Ziel dieser Forschung ist die Entwicklung von Computerprogrammen, die in der Lage sind, eigenständig Probleme zu bearbeiten und Lösungen zu finden. Oftmals werden hierunter, insbesondere im Bereich der naturwissenschaftlich-technischen Daten, immer ausgefeiltere und leistungsfähigere mathematische Algorithmen zur Analyse vorhandener Daten sowie zur Vorhersage neuer Datenpunkte auf Basis der bereits vorhandenen Daten zusammengefasst. Auch dies ist eigentlich nicht neu, allerdings lassen auch hier die heutigen, größeren Rechenkapazitäten die Ausführung wesentlich komplexerer Algorithmen zu als früher. Neben diesen wissensbasierten Systemen wird künstliche Intelligenz auch zur Musteranalyse und -vorhersage eingesetzt.

Ein Teilbereich der KI ist das maschinelle Lernen (ML)2 In diesem Gebiet werden auf Basis von Trainingsdaten statistische Modelle entwickelt, die den Datensatz möglichst gut beschreiben, und anschließend überprüft, beispielsweise bei der Anwendung auf Daten, die dem System bisher unbekannt waren. Oft werden rekursive Verfahren angewendet, die das Ziel haben, die Korrektheit der eigenen Vorhersagen zu prüfen, wenn neue experimentelle Daten vorliegen, und sie für die Verbesserung des bisher verwendeten Datenmodells zu verwenden. Geschieht dies weitgehend automatisiert, ist das System in der Tat in der Lage, seine Modelle stetig durch „Lernprozesse“ aus dem, was das System „gesehen“ hat, zu verbessern – so wie eben auch Menschen aus Erfahrung lernen.

Verfahren zur Analyse vorhandener Datensätze sind, wie im letzten Abschnitt erläutert, heutzutage ausgesprochen leistungsfähig. Sie setzen aber voraus, dass die zur Analyse vorliegenden Daten maschinenlesbar und gut strukturiert sind. In der Praxis erweist sich das Thema „sauberer“ Daten jedoch als größte Herausforderung bei der Digitalisierung. Dies liegt an einer oftmals noch unstrukturierten Datenspeicherung, die auch im dritten Jahrtausend noch immer zum Teil händisch und in dafür nicht geeigneten Programmen, die eigentlich zur Tabellenkalkulation entwickelt wurden, durchgeführt wird – oder schlimmstenfalls auf Papier.

Viele Projektteams sind unternehmens- und länderübergreifend. Die Datenstrukturen leiden in der Praxis oftmals darunter, dass Systeme und Vorgaben zur sauberen Datenablage nicht vorhanden oder nicht sinnvoll genutzt werden. Die daraus resultierenden ungeordneten sowie in der Regel unvollständigen und nicht maschinell verarbeitbaren Datensätze sind ein großes Problem, wenn man sie mathematisch analysieren will. In der Mehrzahl der Fälle müssen Daten erst mühsam aufbereitet werden, was neben Zeit und Geld auch einen erheblichen Sachverstand und die genaue Kenntnis sowohl des chemischen Gebietes als auch der Anforderungen an die geeignete Datenstruktur erfordert.

Zur besseren Datenerfassung werden heute oft spezialisierte Softwarelösungen (sogenannte elektronische Laborjournale, Laborinformationsmanagement-Systeme) zur zentralen Datenerfassung und zur Erzeugung von einheitlichen und maschinell verarbeitbaren Datensätzen angeboten. Auch eine automatisierte Datenerfassung von Laborprozessen hilft bei der Erzeugung sauberer Datensätze.

Insbesondere bei Polymeren ist es schwierig, ihre chemische Struktur genau zu beschreiben. Viele Polymere sind als „Product by Process“ zu beschreiben. Das bedeutet, dass viele wesentliche Eigenschaften durch die genauen Bedingungen des Syntheseprozesses entscheidend geprägt werden. Dies erschwert, im Gegensatz zu den in der Regel eindeutig charakterisierbaren niedermolekularen Stoffen, die Vergleichbarkeit von Polymerproben massiv, da oftmals nicht genügend Daten über die zugrunde liegenden Synthesebedingungen und den davon beeinflussten Aufbau des Makromoleküls vorliegen.

Viele Initiativen, sowohl im akademischen als auch im industriellen Umfeld, zielen darauf ab, diese Lücke im Bereich Datenmanagement zu schließen. Dennoch ist dieser Punkt in der Praxis immer noch eine sehr große Herausforderung bei der Digitalisierung in der Polymerchemie.

Quintessenz

Die stetig ansteigende Geschwindigkeit, mit der sich unsere Arbeitswelt ebenso wie unser Privatleben digital verändert, fordert von uns allen ein sehr hohes Maß an Offenheit und Anpassungsfähigkeit, bietet dafür aber auch enorme Potenziale. Es wird in Zukunft auch für Chemiker immer wichtiger sein, sich auch im Rahmen der Ausbildung intensiv mit digitalen Arbeitsweisen und insbesondere auch mit Verfahren zum Datenmanagement und zur Datenanalyse zu beschäftigen.

Modell der Aggregation von Polymeren in komplexen Fluiden

Autor: Prof. Dr. Sebastian Koltzenburg, BASF SE, Ludwigshafen
Redaktionelle Bearbeitung: Maren Mielck, GDCh

1

www.basf.com/supercomputer

2

Bezüglich der Definition und der Abgrenzung der Begriff KI und ML finden sich in der Literatur z.T. deutlich abweichende Definitionen. Welche Begriffe sich hier mittelfristig durchsetzen werden, ist aktuell völlig unklar.

Die Makromolekulare Chemie feiert in diesem Jahr hundert Jahre. Jeder von uns ist Makromolekülen schon begegnet, zum Beispiel in Form von Kunststoff. Zum Jubiläum zeigen unsere Beiträge dieses Jahr, wo Makromoleküle vorkommen.

Dieser Artikel erschien zuerst auf faszinationchemie.de.

Überprüfung Ihres Anmeldestatus ...

Wenn Sie ein registrierter Benutzer sind, zeigen wir in Kürze den vollständigen Artikel.

18