© JUNGE FREIHEIT Verlag GmbH & Co. www.jungefreiheit.de 18/18 / 27. April 2018

Mit neuronalen Netzen im Datenozean fischen
Massiv erhöhte Rechnerleistungen eröffnen neue Forschungsfelder / Maschinelle Google-Lernalgorithmen?
Sven Mielke

Worin die „Revolution für die Wissenschaft“ durch „neuronale Netze“ bestehen soll, machen die Informatiker Christoph Angerer und Michael Nielsen auch Technikmuffeln quasi spielerisch deutlich (Spektrum der Wissenschaft, 1/18). Beide Computerwissenschaftler, wobei Nielsen als erfolgreicher Fachbuchautor das geübtere didaktische Talent ist, weisen für die Auswirkungen dieser „Revolution“ auf zwei Ereignisse hin, die im Frühjahr 2016 und im Herbst 2017 Schlagzeilen machten: Zuerst schlug ein Computer (Alpha Go) den besten Go-Spieler der Welt, dann ließen seine Konstrukteure diesen Superrechner gegen eine von ihnen verbesserte Version (Alpha Go Zero) antreten. Das neue System gewann 100 von 100 Spielen.

Nervenverbindungen des Hirns dienen als Vorbild

Go, ein fernöstliches Brettspiel, ist „um Größenordnungen komplexer“ als Schach, weil es 361 und nicht nur durchschnittlich 30 bis 35 Zugmöglichkeiten gestattet. Computerprogramme müssen daher potentiell Milliarden denkbarer Züge verfolgen, eigene und gegnerische, um eine Zugfolge zu suchen, die auf alle Spielweisen des Gegners optimal bis zum Sieg reagiert.

Neu und ungewöhnlich, eben „revolutionär“ ist, daß Alpha Go Zero sich seine phantastisch anmutenden Spielfähigkeiten selbst zugelegt hat. Was nur möglich war, weil die Rechenleistung der Netzwerkarchitektur, des immer noch nach anschaulich biologischen Vorbildern, den Nervenverbindungen des menschlichen Hirns, sogenannten „neuronalen Netzen“, 2012 von Forschern der Universität Toronto erheblich verbessert worden ist. Deren wichtigste Neuerung bestand darin, statt herkömmlicher PC-Prozessoren (CPU) Grafikkarten (GPU), also Chips mit extrem vielen Miniprozessoren als zentrale Steuerungseinheit zu benutzen. Nur sie verfügen über die erforderliche Kapazität, um während des kurzen „Trainings“ Millionen von Parametern so zu justieren, daß etwa ein Netzwerk wie Alpha Go Zero durch Auszählen für jede Position eines weißen oder schwarzen Spielsteins errechnet, mit welcher Wahrscheinlichkeit ein Zug zum Sieg führt.

Seit dem durch ein GPU-beschleunigtes Netz errungenen Triumph von Alpha Go Zero ist deren Zahl und Komplexität stetig gestiegen. Während der AlexNet getaufte „Prototyp“ 2012 noch aus acht Schichten mit 65.000 Neuronen und circa 65 Millionen Parametern bestand, bringen es neuere, „tiefere“ Netze wie ResNet-152 auf mehr als hundert Schichten. Was „auf den zehnfachen Bedarf an Rechenleistung hinausläuft“, will man sie optimal „trainieren“, um explodierenden Datenmengen gewachsen zu sein, schwärmt Angerer.

Insoweit sei die massive Ausweitung der Rechnerleistungen mittels Grafikprozessoren zum richtigen Zeitpunkt erfolgt. Denn nicht allein der kommerzielle Sektor, die pharmazeutische und chemische Industrie (JF 30/17), auch die Wissenschaft produziert immer mehr Daten, die ausgewertet und aufbereitet sein wollen, was nur dank des gesteigerten Potentials der neuen neuronalen Netze zu bewältigen sein werde.

Angerer verweist dafür auf das jüngste, Sensation machende Anwendungsfeld, die Suche nach den Gravitationswellen (JF 44/17). Ihr meßbarer Effekt ist winzig, denn es kommt auf Längenveränderungen an, die einem Bruchteil des Protonendurchmessers entsprechen. Diese Signale seien aus einem „Strom verrauschter Daten“ herauszufiltern. Für den ersten Nachweis (2015) genügten noch klassische Datenverarbeitungsalgorithmen, die auf Tausenden CPUs liefen, die aber wegen des großen Rechenaufwands mit dem „Filtern“ der Daten letztlich nicht nachkamen.

Mit dem Einsatz tieferer neuronaler Netze im Advanced Laser Interferometric Gravitational Wave Observatory (Ligo, JF 8/16) gelang es mittlerweile, die Meßgenauigkeiten zu erhöhen und die Datenanalyse nun in wenigen Mikrosekunden ablaufen zu lassen. Deswegen erfolgte die Auswertung der am 17. August 2017 registrierten Kollision zweier Neutronensterne so rasch, daß die Ligo-Astronomen binnen Minuten zahlreiche andere Observatorien weltweit über das Ereignis informieren konnten.

Simulationen modellieren chemische Reaktionen

In ähnlicher Weise eröffnet „Deep Learning“ nach Angerers Einschätzung der Teilchenphysik ungeahnte Horizonte. Das europäische Kernforschungszentrum CERN birgt mit dem Large Hadron Collider (LHC) den Produzenten eines jedes Vorstellungsvermögen sprengenden Rohdatenstroms, den 600 Millionen Teilchenkollisionen pro Sekunde anschwellen lassen. Dies entspricht dem Datenberg von einem halben Petybyte – ausgedruckt wären dies 250 Milliarden A4-Seiten.

Um solche Mengen zu handhaben, werden die Kollisionen in einem mehrstufigen Prozeß gefiltert. Am Ende bleiben pro Sekunde 100 bis 200 interessante Ereignisse übrig, an denen sich der Ablauf von Kollisionsprozessen studieren läßt, die als Basis für Entdeckungen taugen, „die unser Verständnis der fundamentalen Physik verändern könnten“.

In ähnlichen Dimensionen operiert die Material- und Pharmaforschung. Quantenmechanische Simulationen modellieren chemische Reaktionen, um die Bewegung jedes einzelnen Atoms in einem Molekül detailliert zu beschreiben. Um grundlegende Eigenschaften von Festkörpern und Molekülen, beispielweise Bindungslängen und Bindungsenergien zu berechnen, müßte man, wie Angerer nur andeutet, eine komplexe Vielteilchen-Variante der Schrödinger-Gleichung aus der Quantenmechanik lösen. Das übersteige aber heute noch die Kapazität modernster Computer, und zwar „bei weitem“. Mit der Dichtefunktionaltheorie wäre dieser Rechenaufwand zwar drastisch zu reduzieren, doch auch damit reiche die Rechenfähigkeit „moderner Supercomputer“ nur aus, um das Bewegungsmuster weniger tausend Atome zu erfassen.

Grenzen dieser Art zeigen auch Forschungsprojekte von Google Brain und Disney Research auf, wo man datengetriebene maschinelle Lernalgorithmen einsetzt, um Strömungen zu berechnen. Die künstliche Netzintelligenz lerne dabei, aus dem momentanen Zustand, Ort und Geschwindigkeit aller Partikel eines Gases oder einer Flüssigkeit, ihren Zustand für eine gewisse Zeit später zu berechnen. Angerer zeigt sich einerseits skeptisch, da diese Projekte weiterhin extrem rechenaufwendig seien, sieht aber andererseits, daß US-Wissenschaftler hier „völlig neue Einsatzgebiete für die neuronalen Netze“ erschließen, wie sie sich inzwischen überall zeigen, in der Wetter- und Klimaforschung ebenso wie in der Molekularbiologie, der Astronomie und Hochenergiephysik.

Gleichwohl sollte man nicht vergessen, daß neuronale Netze lediglich ein Werkzeug von vielen im Arsenal wissenschaftlicher Methoden seien. Und zwar eins, wie Nielsen hinzufügt, von dem unsere Kenntnis „in vieler Hinsicht noch sehr rudimentär ist“, was nicht zuletzt der Umstand beweist, daß bestehende Systeme weiterhin häufig von „menschlichen Lehrern“ konditioniert werden.

Fraunhofer- und US-Projekte zur künstlichen Intelligenz und zum maschinellen Lernen:  

bigdata.fraunhofer.de/

 www.disneyresearch.com