Seit 123 Jahren wird der Physiknobelpreis von der Königlich Schwedischen Akademie der Wissenschaften vergeben – nur 27mal war bislang ein Deutscher, aber 94mal ein US-Wissenschaftler unter den Preisträgern. Und mit John Joseph Hopfield, Sohn des polnisch-amerikanischen Physikers Jan Józef Chmielewski, kommt in diesem Jahr der 95. hinzu. Der 91jährige erhält die Auszeichnung zusammen mit dem Engländer Geoffrey Everest Hinton, der die Zahl der britischen Physiknobelpreise auf 25 erhöht. Allerdings lehrt der 76jährige schon seit 1987 am Computer Science Department der Universität Toronto, nachdem er zuvor an der University of California (UCSD) und der Carnegie Mellon University (CMU) in Pittsburgh forschte.
Die beiden bekommen den Physiknobelpreis im Dezember allerdings nicht für die Forschung am Urknall, dem Kosmos oder der Quantenmechanik, sondern für „bahnbrechende Entdeckungen und Erfindungen, die maschinelles Lernen mit künstlichen neuronalen Netzen ermöglichen“. Ihre Grundlagenarbeit in der künstlichen Intelligenz (KI) hat mit der traditionellen Physik auf den ersten Blick nur bedingt zu tun, doch für Bioinformatik gibt es keine eigene Nobelpreiskategorie. Die heutige KI-Forschung ist spätestens seit dem Sprachmodell ChatGPT in aller Munde, denn es ist der bekannteste KI-Algorithmus.
Die Konzepte aus der Physik auf die neue Bioinformatik übertragen
Das künstliche neuronale Netz ist eine vergleichsweise alte Technologie: Bereits 1957 hat der amerikanische Psychologe Frank Rosenblatt erste Algorithmen entwickelt, um die Aktivität der Neuronen im menschlichen Gehirn nachzubilden. Die Grundlage bestand aus dem künstlichen Perzeptron, das über einen Eingang ein Signal erhält. Wenn dieses stark genug ist, wird wie in biologischen Neuronen im Ausgang ein neues Signal abgefeuert. Doch erst über die Netzwerkstruktur, die mehrere Perzeptronen miteinander verbindet, können Synergien entstehen: In der ersten Schicht erhalten die Perzeptronen die Signale von der Außenwelt, beispielsweise die Pixel einer Bilddatei. Die Signale, die in der ersten Schicht abgefeuert werden, werden mit unterschiedlicher Gewichtung an die Perzeptronen der zweiten Schicht weitergeleitet.
Diese werten die Signale ihrer Vorgänger aus und feuern in die nächste Schicht, was sich so lange wiederholt bis irgendwann die tiefste Schicht erreicht wird. Hier wird dann ein Ergebnis ausgegeben und anhand der Signale aus der vorletzten Schicht entschieden, ob das Bild etwa einen Hund oder eine Katze darstellt. Obwohl das einzelne Perzeptron simpel ist, können die Verknüpfungen über zahlreiche Schichten hinweg so komplex werden, daß sie sich an schwierige Aufgaben anpassen können.
Doch ein großes Problem für die Informatik war stets, die Gewichtung der Signale zwischen den Schichten korrekt abzuschätzen. Moderne Bilderkennungs-KI hat Hunderttausende Neuronen und Millionen von Gewichtungsparametern, deren Feinschliff auf die letzten Nachkommastellen entscheidet, ob die KI gute Ergebnisse oder Unsinn ausgibt. Ziel ist es stets, den Fehler zwischen KI-Vorhersage und den realen Ergebnissen zu minimieren, doch bei dieser schieren Parametermenge kommt dies einer Herkulesaufgabe gleich. Daher setzte in den 1970ern der KI-Winter ein, in dem die Forschung zum Stillstand kam.
Hopfield war maßgeblich daran beteiligt, in den 1980ern die KI-Forschung wieder aus dem Winterschlaf aufzuwecken, indem er Konzepte aus der Physik auf die KI übertragen konnte: In der Natur minimieren Systeme selbständig ihre physikalische Energie. So rollt ein Ball immer bergab, um seine Lageenergie zu verringern. Die mathematische Beschreibung der Energieminimierung war in der Physik bereits gut erforscht, und Hopfield machte sich dies zunutze. 1982 formulierte er das Hopfield-Netz als KI-Algorithmus so, daß die Optimierung der Parameter analog zur Minimierung von Energie in mathematischen Formeln ausgedrückt werden konnte.
Insbesondere orientierte er sich am Ising-Modell für Magnetismus, das erklärt, wie makroskopisch meßbarer Magnetismus aus den mikroskopischen Spins entsteht: Jedes Atom hat einen Spin, der als winziger Magnet einen kleinen Beitrag zum Magnetfeld erzeugt. Wenn die Spins in zufällige Richtungen zeigen, gleicht sich ihr Einfluß aus und kein Magnetfeld ist meßbar. Doch durch das Prinzip der Energieminimierung ist es vorteilhaft, wenn benachbarte Spins in dieselbe Richtung zeigen. Somit entsteht nach einiger Zeit und vielen Spin-Wechseln ein starkes Magnetfeld. Die Grundidee des Ising-Modells, daß in einem Netzwerk viele mikroskopische Spins miteinander interagieren, adaptierte Hopfield für Netzwerke von Perzeptronen. Mit den Methoden der mathematischen Physik gelang so eine leichte Minimierung der „Energie“ seiner KI, um den Algorithmus schnell und effizient zu trainieren.
Hinton knüpfte an die Arbeit von Hopfield an und entwickelte basierend auf den Hopfield-Netzen 1985 die Boltzmann-Maschine. Sie erweitert das relativ simple Hopfield-Netz um eine Schicht von versteckten Einheiten, die keinen direkten Input von dem Datensatz erhalten, sondern nur Signale bekommen, die von den Neuronen der ersten Schicht bereits verarbeitet wurden. Was angesichts der tiefen neuronalen Netze mit zahlreichen Schichten heutzutage simpel klingt, war damals eine maßgebliche Erweiterung der bestehenden Technologie. Doch obwohl der Nobelpreis Hinton nur für seine Arbeit an Boltzmann-Maschinen ehrt, erstrecken sich seine Beiträge zur KI-Forschung noch weit darüber hinaus.
„Hätte ich es nicht getan, dann hätte es jemand anders gemacht“
Beispielsweise entwickelte er mit seinen Doktoranden den Algorithmus AlexNet, der einen Meilenstein in der Bilderkennung setzte. AlexNet bildet über spezielle Filter die Funktionsweise des visuellen Cortex im menschlichen Auge nach, um somit eine hohe Genauigkeit zu erzielen. Für seine zahlreichen Erfolge in der KI-Forschung wurde er bereits 2018 mit dem Turing Award ausgezeichnet, der als inoffizieller Mathematik-Nobelpreis gilt, so daß er nun der erste Mensch ist, der sowohl Turing Award als auch Nobelpreis gewonnen hat.
Wie in der Informatik üblich, forschte Hinton auch in den Entwicklungsabteilungen großer Technologieunternehmen und war von 2013 bis 2023 bei Google tätig. Nach seinem Abschied bei dem kalifornischen IT-Giganten übte Hinton heftige Kritik an den KI-Unternehmungen und warnte davor, die negativen Einflüsse der KI zu unterschätzen (JF 39/24). In zwanzig Jahren, so schätzt Hinton, könnte die KI „Änderungen in vergleichbarem Ausmaße zur Industrialisierung“ mit sich bringen, und er forderte daher bereits ein bedingungsloses Grundeinkommen, um die Folgen von Arbeitslosigkeit durch KI abzumindern. Teilweise bedauere er seine Arbeit, gab Hinton zu, doch „ich tröste mich mit der normalen Ausrede: Hätte ich es nicht getan, hätte es jemand anders gemacht.“
nobelprize.org/prizes/physics/2024/summary
pni.princeton.edu/people/john-j-hopfield
www.cs.toronto.edu/~hinton
Illustration einer funktionellen neurologischen Symptomstörung: Bereits 1957 hat der US-Psychologe Frank Rosenblatt erste Algorithmen entwickelt, um die Aktivität der Neuronen im menschlichen Gehirn nachzubilden