

Die Faszination der Wechselwirkungen zwischen Mathematik und Naturwissenschaften
von Eberhard Zeidler
Teil I
Die Mathematik ist das Tor und der Schlüssel zu den Wissenschaften.
Roger Bacon (1214-1294)
Ich liebe die Mathematik nicht nur, weil man sie auf viele Bereiche unseres Lebens anwenden kann, sondern auch wegen ihrer Schönheit.
Rósza Péter (1905-1977)
In einem langen Leben habe ich gelernt, dass all unsere Wissenschaft primititv und naiv ist, verglichen mit der Wirklichkeit; und doch ist sie das Wertvollste was wir haben.
Albert Einstein (1879-1955)
Blickt man in einer klaren Nacht im Hochgebirge oder in den Tropen zum Himmel, dann ist man fasziniert vom majestätischen Anblick der Sterne. Dieser erhabene Anblick hat seit uralten Zeiten die Menschen fragen lassen, ob es eherne Gesetze gibt, die in den Weiten des Kosmos herrschen. Die einzige Quelle, die uns zur Beantwortung dieser Frage zur Verfügung steht, ist das Licht der Sterne. Das Licht der Sonne ist zugleich Spender unseres Lebens.
Ich möchte mit Ihnen einen Streifzug durch die Geschichte der Naturwissenschaften unternehmen und zeigen, daß das Licht nicht nur Spender unseres Lebens, sondern auch eine wichtige Quelle der menschlichen Erkenntnis ist. Wir werden dabei zwanglos auf die Mathematik geführt. Ist Mathematik nur eine seelenlose Ansammlung von trockenen Formeln und Rechenrezepten? Nein!
Die Mathematik ist ein wundervolles zusätzliches Erkenntnisorgan des Menschen, ein geistiges Auge, das ihn etwa in der modernen Elementarteilchenphysik, der Kosmologie und der Hochtechnologie in Bereiche vorstoßen lässt, die ohne Mathematik nicht zu verstehen sind, weil sie von unserer täglichen Erfahrungswelt extrem weit entfernt ist.
In der Welt des Mikrokosmos und in den Weiten des Universums gelten völlig andere Gesetzmäßigkeiten als in der uns vertrauten Welt. Diese Gesetzmäßigkeiten kann man mathematisch erfassen, allerdings bedarf es dabei sehr abstrakter Mathematik, die jedoch bei Wahl einer geeigneten Sprache auf einer höheren Ebene wieder einfach und durchsichtig wird. Albert Einstein hat einmal gesagt:
"Man soll alles so einfach wie möglich machen, aber nicht einfacher."
Für jeden von uns, der junge Menschen mit der Mathematik vertraut machen möchte, stellt sich immer wieder die Frage: Wie erreicht man dieses Ziel am besten? Blicke ich auf meine eigene Schul- und Studienzeit zurück, dann haben mir immer diejenigen Lehrveranstaltungen die meiste Freude bereitet, in denen die Lehrenden selbst von ihrem Fach begeistert waren. Junge Menschen haben dafür ein sehr feines Gespür. Im Fall der Mathematik liegt eine Gefahr darin, daß man den Eindruck erweckt, sie bestehe nur aus logischer Strenge, ohne Motivation, Intuition und Phantasie und somit ohne menschliche Dimension. Tatsächlich ist die historische Entwicklung der Mathematik sehr verschlungene Pfade gegangen - voller Irrtümer, wie alle menschlichen Erkenntnisprozesse. Von Max Planck stammt der Ausspruch:
"Wenn man nicht manchmal das Unlogische denkt, wird man nie zu neuen Ideen in der Wissenschaft gelangen."
Blickt man auf seine Partituren, dann sind diese reich an logischer Struktur. Seine Musik ist jedoch mehr als Struktur. Sie bringt die Seele zum Schwingen. So ergeht es dem Mathematiker mit seiner Wissenschaft. Wäre die Mathematik nichts weiter als eine Sammlung von Axiomen und logischen Formalismen, ohne Lebensnähe und ohne tiefe Bezüge zum menschlichen Erkenntnisprozeß, sie wäre schon längst verkümmert. Wie Musik, Malerei und bildende Kunst, so ist auch die Mathematik ein wertvoller Bestandteil der menschlichen Kultur. Heutzutage ist sie beides, eine Herausforderung des menschlichen Geistes und Schlüsseltechnologie. Die Mathematik ist abstrakt und zugleich voller praktischer Anwendungen.
Das Prinzip der kleinsten Wirkung, Symmetrien und Erhaltungsgesetze
Lassen Sie uns den historischen Streifzug mit dem Titel "`Das Licht als Quelle der menschlichen Erkenntnis"' mit dem französischen Mathematiker Pierre de Fermat beginnen, der in der ersten Hälfte des 17. Jahrhunderts lebte. Von ihm stammt das sogenannte Fermatsche Prinzip:
Das Licht bewegt sich so zwischen zwei Raumpunkten, daß es dafür die kürzeste Zeit benötigt.
Hier begegnet uns zum ersten Mal ein Extremalprinzip zur mathematischen Beschreibung von Vorgängen in der Natur. Rund 100 Jahre nach Fermat begründete Leonhard Euler mit einer fundamentalen Arbeit aus dem Jahre 1744 die Variationsrechnung, die sich damit beschäftigt, wie man Kurven berechnet, die ein Integral minimal werden lassen. Zum Beispiel stellt die Berechnungvon kürzesten Fluglinien der Lufthansa ein durch die Variationsrechnung gelöstes Problem dar. Das Fermatsche Prinzip der kürzesten Zeit kann man als Variationsproblem formulieren. Die Eulersche Methode ließ sich nur auf eindimensionale Variationsprobleme anwenden. Der 26jährige Joseph Louis Lagrange entwickelte 1762 eine äußerst elegante Methode zur Behandlung von Variationsproblemen für mehrdimensionale Integrale, die man noch heute in den Lehrbüchern findet. 1788 veröffentlichte Lagrange seine "Mécanique analytique"', in der er etwa 100 Jahre nach Newton dessen Grundgleichung "Kraft gleich Masse mal Beschleunigung" mit Hilfe eines Variationsprinzips auf mechanische Systeme mit beliebigen Nebenbedingungen verallgemeinerte.
Lagrange gelang damit ein Durchbruch, der sich nicht nur für die Mechanik, sondern für die gesamte Physik als fundamental erwies. Aus heutiger Sicht ergibt sich folgendes Bild:
- Die Naturgesetze werden besonders einfach, wenn man die infinitesimale Strategie von Newton und Leibniz benutzt, d.h. wenn man zu "unendlichkleinen" räumlichen Abständen und Zeitdifferenzen übergeht. Dann entstehen nur wenige fundamentale Differentialgleichungen, z.B. die Maxwellschen Gleichungen der Elektrodynamik, die Einsteinschen Gleichungen der allgemeinen Relativitätstheorie, die die Entwicklung des Kosmos beherrschen und die Gleichungen für das Standardmodell der Elementarteilchen.
Es ist erstaunlich, daß man die Fülle der Naturerscheinungen durch wenige Grundgleichungen beschreiben kann. Die Aufgabe der Mathematik ist es, diese Differentialgleichungen zu lösen. Wegen der Vielgestaltigkeit der Phänomene in der Natur ist es jedoch nicht verwunderlich, daß die Lösung von Differentialgleichungen mit erheblichen mathematischen Schwierigkeiten verbunden ist und einen höchst aktuellen Forschungsgegenstand darstellt.
- Die Grundgleichungen der Physik besitzen die wichtige zusätzliche Eigenschaft, dass man sie aus einem Variationsprinzip gewinnen kann. Das vereinfacht die mathematische Behandlung physikalischer Probleme außerordentlich, weil das Verhalten der Systeme in einer einzigen Funktion - der sogenannten Lagrangefunktion - kodiert ist.
- Die Symmetrieeigenschaften der Lagrangefunktion führen auf Erhaltungsgrößen. Das sind Größen, die sich im Laufe der Zeit nicht ändern. Beispielsweise ist die Erhaltung der Energie eine Konsequenz der Invarianz der Lagrangefunktion unter Zeittranslationen. Ohne die Existenz von Erhaltungsgrößen wäre unsere Welt ein einziges Chaos - ohne relativ stabilen Formenreichtum.
Jeder Mensch besitzt einen Sinn für Schönheit und Harmonie. Dazu gehören Symmetrien, die mathematisch durch die Gruppentheorie beschrieben werden. Der große norwegische Mathematiker Sophus Lie, der von 1886 bis 1898 in Leipzig wirkte, widmete sein wissenschaftliches Schaffen der Untersuchung von Symmetrien. Ihm verdankt man die Theorie der kontinuierlichen Gruppen und ihrer linearen Approximationen, die man heute als Liegruppen und Liealgebren bezeichnet. Neben anschaulichen Symmetrien - wie der Symmetrie eines Kristalls - existieren in der Natur unanschauliche Symmetrien, die man nur mathematisch erfassen kann. Beispielsweise haben die Physiker etwa Mitte unseres Jahrhunderts experimentell gefunden, daß in der Natur eine fundamentale Symmetrie existiert, die auf der komplexen Matrizengruppe SU(3) basiert und dafür verantwortlich ist, daß ein Proton aus drei Quarks besteht.
Zurück zu unserem historischen Streifzug. Lagrange starb 1813 - im Jahr der Leipziger Völkerschlacht. Zu diesem Zeitpunkt war der irische Mathematiker William Rowan Hamilton ein achtjähriger Knabe. Hamilton hatte später die Idee, die Methoden der geometrischen Optik auf die Mechanik auszudehnen. An die Stelle des Fermatschen Prinzips der kürzesten Zeit für die Ausbreitung des Lichts tritt in der Mechanik das Prinzip der kleinsten Wirkung. Die Lagrangeschen Bewegungsgleichungen werden durch die Hamiltonschen kanonischen Gleichungen ersetzt. Die Wirkung ist eine physikalische Größe von der Dimension Energie mal Zeit.
Ich bin versucht zu sagen, daß die Wirkung die wichtigste physikalische Größe ist. Drei Tatsachen unterstreichen diese Feststellung:
- Die fundamentalen Prozesse in der Natur laufen so ab, daß ein Extremalprinzip für die Wirkung gilt.
- Es gibt nicht beliebig kleine Wirkungen in der Natur, sondern es existiert eine kleinste Einheit der Wirkung - das sogenannte Plancksche Wirkungsquantum. Diese von Max Planck zu Beginn unseres Jahrhunderts gemachte Entdeckung hat die Physik revolutioniert und zur Entwicklung der Quantenphysik geführt. Alle entscheidenden Prozesse im Kosmos werden von der Gravitation und von Quantenphänomenen beherrscht. Der Halbleiter und der Laser, die wichtige Bestandteile unserer Hochtechnologie sind, basieren ebenfalls auf Quantenphänomenen.
- Alle Elementarteilchen werden mathematisch durch die Quantenfeldtheorie beschrieben. Der geniale amerikanische Physiker Richard Feynman ersann Mitte unseres Jahrhunderts eine Methode, um aus einer klassischen Lagrangefunktion sofort die zugehörige Quantenfeldtheorie zu gewinnen. Er benutzte dabei einen unendlichdimensionalen Integralbegriff - das Pfadintegral oder Feynmanintegral. Dabei wird grob gesprochen über alle möglichen klassischen Feldkonfigurationen gemittelt, wobei das Gewicht der Mittelung von der klassischen Wirkung abhängt.
Dieser Feynmansche Zugang zur Quantenfeldtheorie wird von den Physikern benutzt, um Elementarteilchenprozesse im Rahmen des Standardmodells zu berechnen. Hier liegt eine merkwürdige Situation vor. Obwohl die Feynmansche Methode nicht mathematisch konsistent ist, liefert sie zum Beispiel in der Quantenelektrodynamik Ergebnisse, die erstaunlicher Weise mit den Experimenten in Teilchenbeschleunigern übereinstimmen. Um zum Beispiel das mit außerordentlicher Präzision gemessene anomale magnetische Moment des Elektrons bis auf neun Stellen nach dem Komma zu berechnen, benutzt man die Methode der renormierten Störungsrehnung in vierter Ordnung, die auf der Auswertung von 891 Feznmangraphen mit den zugehörigen hochdimensionalen Integralen beruht und nicht mehr von Hand ausgeführt werden kann, weil Jahre an Supercomputerzeit erforderlich sind. Gauß hat bei seinen astronomischen Berechnungen der Planetenmassen im Rahmen der Störungstheorie täglich um die 4000 Ziffern bewältigt. Trotz seinen überragenden Intellekts würde er ohne Computer den Anforderungen der modernen Elementarteilchenphysik hilflos gegenüber stehen.
Trotz intensiver Bemühungen in den letzten sechzig Jahren gibt es bis heute keine mathematisch streng begründete Quantenfeldtheorie. Der Aufbau einer solchen Theorie stellt seitens der Physik die größte Herausforderung an die moderne Mathematik dar.
Die Methoden der Quantenfeldtheorie sind nicht nur für die Elementarteilchenphysik und die Kosmologie von grundlegender Bedeutung, sondern auch für unsere Hochtechnologie. Die Miniaturisierung von Schaltkreisen in Computern hat dazu geführt, dass inzwischen zehn Prozent der Wärmeentwicklung in Großrechnern vom sogenannten Casimir-Effekt der Quantenfeldtheorie herrühren. Die streng mathematische Berechnung dieses Effekts basiert auf neuartigen, geistvollen Methoden der analytischen Zahlentheorie, die von Don Zagier entwickelt wurden, der am Max-Planck-Institut für Mathematik in Bonn und am Collège de France in Paris tätig ist. Diese Methoden haben ihren Ursprung in einer der wichtigsten Arbeiten der Mathematik, die im Jahre 1859 von Bernhard Riemann über die Zetafunktion und ihren Zusammenhang mit der Primzahlverteilung verfasst wurde.
Der interessierte Leser findet den von Don Zagier hergestellten Zusammenhang zwischen Zahlentheorie und Quantenfeldtheorie in dem Buch des Autors "Quantum Field Theory: A Bridge between Mathematicians and Physicists," Springer-Verlag, Heidelberg, 2006. Dort findet man auch eine andere Entwicklungslinie in Biologie, Physik, Mathematik und Ökonomie, die höchst überraschend ist. Im Jahre 1905 schuf Albert Einstein eine physikalische Theorie der Bewegung von winzigen Partikeln in Flüssigkeiten, die der englische Botaniker Robert Brown erstmals 1827 unter dem Mikroskop beobachtet hatte. Einstein erkannte qualitativ und quantitativ, dass thermodynamische Fluktuationen die Brownsche Bewegung verursachen. Die zugehörige mathematische Theorie der zufälligen Prozesse wurde von Norbert Wiener im Jahre 1923 entwickelt, der dazu einen unendlichdimensionalen Integralbegriff - das Wienerintegral - ersann. Das von Richard Feynman im Jahre 1942 eingeführte Feynmanintegral (in seiner in Princeton verfassten Dissertation) kann als eine Variante des Wienerintegrals betrachtet werden. Grob gesprochen berechnete Feynman Quantenprozesse als Brownsche Bewegungen in imaginärer Zeit. Die Theorie zufälliger Prozesse dient heute unter anderem auch zur Bestimmung der Schwankungen auf Finanzmärkten und brachte Robert Merton und Maron Scholes vor etwa zehn Jahren den Nobelpreis für Ökonomie ein.
Im Jahre 1917 schrieb Einstein eine Arbeit über die Koeffizienten zur Beschreibung spontaner Emission von Licht in Atomen. Heutzutage ist diese Arbeit die theoretische Basis für den Laser (light amplification by stimulated emission of radiation), für dessen experimentelle Grundlagen Nikolai Basow, Alexander Prochorow und Charles Townes den Nobelpreis für Physik im Jahre 1964 erhielten. Zahlreiche Autofahrer benutzen heutzutage das durch Satelliten gestützte Navigationssystem GPS (global positioning system). Dieses System muss Effekte berücksichtigen, die durch die Ausbreitung elektromagnetischer Wellen mit Lichtgeschwindigkeit und das Gravitationsfeld der Erde im Rahmen von Einsteins spezieller und allgemeiner Relativitätstheorie verursacht werden. Anderenfalls wäre das Navigationssystem um etwa hundert Meter zu ungenau und für den Straßenverkehr unbrauchbar.
Dass mathematische Methoden auch "zeitlos" sind, erweist sich an einem aktuellen Phänomen der Astrophysik, an sogenannten Gravitationslinsen. Ein Beispiel dafür ist das "Einsteinkreuz" im Sternbild der Fische: Es entsteht durch das Licht eines außerordentlich stark strahlenden Quasars (quasistellare Radioquelle) aus der Frühzeit des Universums, das auf seiner Jahrmilliarden dauernden Reise zur Erde eine Galaxis durchläuft, und dabei gemäß Einsteins allgemeiner Relativitätstheorie durch die Schwerkraft der Sterne innerhalb dieser Galaxie gebrochen und in mehrere Teilstrahlen aufgespalten wird. Auf diese Weise erscheinen im Teleskop um das helle Zentrum der Galaxie herum vier Bilder des Quasars. Die Mathematik, mit der sich solche Gravitationslinsen beschreiben lassen, ist die gleiche, die Pierre de Fermat und Christian Huygens, die Begründer der geometrischen Optik, im 17. Jahrhundert für die Berechnung "irdischer" Linsensysteme entwickelten. Die Mathematik des 20. Jahrhunderts hat jedoch einen zusätzlichen Beitrag geleistet. Im Rahmen der aus der algebraischen Geometrie stammenden Singularitätentheorie haben Vladimir Arnold und seine Moskauer Schule unter anderem die möglichen Strukturen von Kaustiken in der geometrischen Optik klassifiziert. Diese Muster werden tatsächlich in der modernen Astronomie im Zusammenhang mit Gravitationslinsen beobachtet.
Abschließend möchte ich darauf hinweisen, dass der Hamiltonsche Zugang zur Mechanik liefert zugleich den Schlüssel zur modernen Optimierungstheorie, die sich mit der optimalen Gestaltung von Prozessen in Wirtschaft und Technik beschäftigt, zum Beispiel mit der optimalen Bewegung von Industrierobotern. In der geometrischen Optik beobachtet man eine
Dualität zwischen Lichtstrahlen und Wellenfronten.
Mitte unseres Jahrhunderts wurde die Optimierungstheorie in zwei Varianten entwickelt, die durch die Stichworte "dynamische Optimierung" und Pontrjaginsches Maximumprinzip" beschrieben werden können. Der mathematische Formalismus der dynamischen Optimierung untersucht eine Funktionalgleichung für die zu optimierende Größe, die beispielsweise den Kosten für ein Produkt oder dem Treibstoffverbrauch für eine Mission zum Mars entspricht. Dieser Zugang entspricht mit der Untersuchung von Wellenfronten. Dagegen basiert das Pontrjaginsche Maximumprinzip auf einer Verallgemeinerung der Hamiltonschen kanonischen Gleichungen und steht somit in Analogie zu den Lichtstrahlen.
Eine der wesentlichen Stärken der Mathematik besteht darin, dass sie den gemeinsamen abstrakten Kern völlig unterschiedlicher Phänomene in Wissenschaft und Technik herausarbeiten kann und dadurch in der Lage ist, scheinbar sehr verschiedenartige Probleme mit der gleichen mathematischen Methode zu lösen.
Die Mathematik ist eine Querschnittswissenschaft.
Inhalt
Hinweis
Dieser Artikel stellt die erweiterte Fassung eines öffentlichen Vortrags dar, den der Autor auf der Jahrestagung der Deutschen Mathematiker-Vereinigung im September 2006 in Bonn gehalten hat. Dieser Vortrag wendete sich an eine breite Zuhörerschaft. Erfreulicherweise waren viele junge Menschen unter den Zuhörern. Das Ziel des Vortrags war es, auf die Vielfalt und die Schönheit der Ideen aufmerksam zu machen, die von den Naturwissenschaften in die Mathematik und in umgekehrter Richtung fließen.
Über den Autor
Prof. Dr. Eberhard Zeidler wurde 1940 in Leipzig geboren. Dort studierte er Mathematik und Physik. 1974 wurde er zum ordentlichen Professor für Analysis an die Universität Leipzig berufen. Zusammen mit Prof. Dr. Jürgen Jost und Prof. Dr. Stefan Müller gründete er 1996 das Max-Planck-Institut für Mathematik in den Naturwissenschaften in Leipzig und war von 1996 bis 2003 dessen geschäftsführender Direktor. Er ist Mitglied der Deutschen Akademie der Naturforscher Leopoldina. Für sein Lebenswerk erhielt er den Alfried Krupp Wissenschaftspreis 2006 der Alfried Krupp von Bohlen und Halbach-Stiftung.
Prof. Zeidler starb im November 2016.