20. Mai 2000, Schleswig-Holsteinische Landeszeitung

 

Brauchen wir die Greencard? / Ein Plädoyer für die Grundlagenforschung

Zwischen indischen Experten und rauem Forschungsklima

Die Industrie ruft nach Computer-Experten aus dem Ausland, die Politik diskutiert die Greencard. Braucht Deutschland Hilfe? Und ist die Anwerbung ausländischer Experten, beispielsweise aus Indien, der richtige Weg? Professor Dr. Hermann König, Mathematiker und Dekan der Mathematisch-Naturwissenschaftlichen Fakultät der Christian-Albrechts-Universität zu Kiel, hat Zweifel. Er hat Schleswig-Holsteins Bildungsministerin Ute Erdsiek-Rave in einem Brief dargelegt, dass er eine Schieflage in der Greencard-Diskussion ausmacht. Auf einen einfachen Nenner gebracht appelliert Professor König an die Politik, umzusteuern. Nach seiner Auffassung ist der Expertenmangel in Deutschland nicht auf unzureichende Ausbildungsmöglichkeiten zurückzuführen. Ein großes Problem indes sei, dass die Grundlagenforschung vernachlässigt werde. In seinem Gastbeitrag für unsere Zeitung erklärt König, wie sehr Forschung aus Neugier den Alltag positiv prägt.

 

Informationstechnologie und Grundlagenforschung an Hochschulen

Hermann König

Der augenblickliche Mangel an hochqualifizierten Experten im Bereich der Informationstechnologie - Internet, Netzwerke, mobile Kommunikation - beruht nicht auf unzureichenden Ausbildungsmöglichkeiten an den Hochschulen Deutschlands. Traditionell entstammen die Computer-Experten in vielen großen und kleinen Firmen nicht nur der Informatik, sondern auch der Mathematik, aus der sich die Informatik Anfang der 70er Jahre entwickelte, und der Physik, die Geräte der Hochtechnologie nutzt, mitentwickelt und daran ausbildet. Die Studierendenzahlen in den Fächern Informatik, Mathematik, Physik, Chemie und Technik waren in den 90er Jahren rückläufig, einerseits, da die Industrie konjunkturell bedingt weniger Bewerber aus diesen Gebieten einstellte, andererseits, da Mathematik und Naturwissenschaften an den Schulen und den Universitäten als schwer galten und gelten und vergleichsweise wenig populär sind. Die Universitäten könnten zur Zeit deutlich mehr Studierende der Informatik, Mathematik, Physik oder technischer Disziplinen aufnehmen und ausbilden, als sich anmelden. Die Berufsaussichten in diesen Feldern sind exzellent, und das nicht nur im Informationstechnologie-Sektor. Während Informatik-Studierende eher unmittelbar für die Praxis ausgebildet werden, ist das strukturell und mustererkennend angelegte Denken der Mathematik und der Physik vorteilhaft bei einem schnellen Wechsel von Methoden und Technologien, wie wir ihn momentan erleben.

In den ersten Computern der 30er und 40er Jahre waren die Arbeitsschritte noch fest verdrahtet, sie waren damit nur für eine feste Aufgabe geeignet. Das Konzept der Programmierung von Computern und ihrer Abspeicherung im "Kernspeicher" wurde 1945/46 zum erstenmal von einem der bedeutendsten Mathematiker des 20. Jahrhunderts, John von Neumann, systematisch durchdacht und 1952 am Institute für Advanced Study in Princeton, USA (wo auch der Physiker Albert Einstein wirkte) mit der MANIAC realisiert. Auf von Neumann geht übrigens auch die in den Wirtschaftswissenschaften bedeutende Spieltheorie und die mathematische Fundierung der Quantenmechanik zurück.

Ein gut ausgebildeter, strukturell denkender Fachmann kann bei neuartigen Problemen diese besser und schneller analysieren als mehrere nur unzureichend ausgebildete "Experten". Die Studierenden der Mathematik und der Naturwissenschaften lernen das strukturell angelegte Denken insbesondere bei der eigenständigen Bearbeitung umfangreicher Problemstellungen in ihrer Diplomarbeit. Diese ist wesentlicher Bestandteil der Ausbildung mit intensiver Betreuung durch die Lehrenden und nicht nur eine abzulegende Prüfungsleistung. Sie ist quasi ein Test- und Modellfall für die Lösung komplexer Probleme, wie sie sich später in der Berufspraxis stellen.

Multimediale Techniken treten zu den traditionellen Lehrformen hinzu, ergänzen diese, ersetzen sie aber nicht. Gute Darstellungen von Vorlesungen im Internet erfordern einen hohen Aufwand. Ein schönes und gelungenes Beispiel dafür ist die Experimental-Grundvorlesung für Chemie an der Universität Kiel, die im Internet unter http://chemnet01.ipn.uni-kiel.de:8080 verfügbar ist, mit Video-Sequenzen von Experimenten und Zusatzinformationen für Studierende anderer Fächer.

Die Lehre und Forschung an den Universitäten widmet sich zumeist grundlegenden und modellhaften Problemen. Die Diskussion in der Politik und der Öffentlichkeit scheint aber immer stärker die angewandte Forschung zu favorisieren, deren Ergebnisse unmittelbar nutzbringend vermarktet werden können. Angewandte Forschung ist notwendig, Grundlagenforschung ist aber die Stärke unserer Hochschulen. Ich halte es auf Dauer für eine fatale Entwicklung, die Grundlagenforschung zu vernachlässigen. Die langfristige gedeihliche Fortentwicklung der Wissenschaften beruht entscheidend auf mitunter unwichtig erscheinenden Ergebnissen oder zufälligen Beobachtungen bei zweckfreier Forschung, die allein durch Neugier und Wissensdrang motiviert war. Oft führte diese Grundlagenforschung erst sehr viel später zu wichtigen und unerwarteten Konsequenzen. Ein frühes Beispiel dafür ist die Entdeckung der Röntgenstrahlen durch Wilhelm Röntgen im Jahre 1895. Die Grundlagenforschung sollte daher nicht als praktisch irrelevant angesehen und von der Förderung ausgenommen werden. Der Nobelpreisträger für Chemie des Jahres 1996, Sir Harold Kroto, entdeckte die C60-Fullerene, ein Material 100mal stärker als Stahl und nur ein Sechstel so schwer wie Stahl, bei der Untersuchung und der Modellierung der Chemie roter Riesensterne. Das Projekt war in England als praktisch irrelevant eingestuft und nicht gefördert worden. Kroto führte vor kurzem etwas verbittert aus: "Alle angewandten Forschungsstrategien sind zweitrangig. Wenn man genau weiß, was man erforschen will, kann man mit Sicherheit nichts grundlegend Neues entdecken".

Zur weiteren Illustration unerwarteter späterer Anwendungen der Grundlagenforschung seien einige Beispiele aus der Mathematik angeführt. Sie dokumentieren gleichzeitig die fortschreitende Mathematisierung vieler Bereiche unseres Lebens und der Wissenschaften, die in der Öffentlichkeit wenig bekannt ist und kaum registriert wird.

Die in der Medizin verwandte Computertomographie (CT) erzeugt präzise Bilder von Querschnitten des menschlichen Körpers, wobei auch Weichteilstrukturen sichtbar gemacht werden. Dazu wird die untersuchte Körperregion schichtweise aus allen Richtungen mit dünnen, fächerartigen Röntgenstrahlbündeln abgetastet und die Strahlenabsorption von Detektoren gemessen. Aus der Messung dieser linearen Strahlenintensitäten wird durch Transformation ein zweidimensionales Schnittbild berechnet und erzeugt. Das Verfahren beruht mathematisch auf der schon 1915 von einem ungarischen Mathematiker untersuchten Radontransformation und ihrer numerisch sehr instabilen Umkehrung. Die Instabilität ist dabei ein prinzipielles Problem. Sie bedeutet, dass auch kleine Messfehler bei den Strahlungsintensitäten zu großen Fehlern bei den Bildstrukturen führen können. Das bessere theoretische Verständnis der inversen Radontransformation ermöglichte recht stabile Bilderzeugungsverfahren, die für den Erfolg der Methode wichtiger waren als die in den letzten beiden Jahrzehnten schnell angewachsene Rechengeschwindigkeit der Computer. Die Computertomographie wird zunehmend auch in anderen Wissenschaftsgebieten zur Erzeugung von Schnittbildern unzugänglicher Bereiche genutzt, etwa in der Geophysik, wo Bilder des Erdinneren aus seismischen Messungen (Erdbebenwellen) generiert werden.

Viele Phänomene der Natur, etwa das Wettergeschehen, werden durch mathematische Gleichungen modelliert, die ähnliche Instabilitäten aufweisen wie die inverse Radontransformation. Obwohl prinzipiell deterministisch, d.h. vorhersehbar, ist eine längerfristige Wettervorhersage praktisch unmöglich, da kleine unvermeidliche Messfehler bei Temperatur, Druck, Wind und Luftfeuchtigkeit im Modell nach einigen Tagen zu großen Vorhersagefehlern führen. Ein derartiges "chaotisches" Verhalten von zeitabhängigen (nichtlinearen) dynamischen Systemen wie dem Wetter war zwar prinzipiell schon um 1900 von dem französischen Mathematiker Henri Poincaré erkannt worden, in seinen praktischen Konsequenzen aber erst mit der Verfügbarkeit moderner Computer wiederentdeckt worden. Der amerikanische Meteorologe Edward Lorentz untersuchte 1963 am Massachussetts Institute of Technology numerisch mit Computern ein stark vereinfachtes Wettermodell und stellte verblüfft fest, dass Änderungen von Temperaturwerten in der dritten Stelle nach dem Komma im Modell nach einigen Tagen zu völlig anderen Vorhersageergebnissen führten. Die graphische Darstellung unterschiedlicher Vorhersageergebnisse bei fast gleicher Ausgangslage ergibt oft ein stabiles Gesamtbild, das heute in der Theorie chaotischer dynamischer Systeme als Lorenz-Attraktor bezeichnet wird (Abb.).

Wiederholt man Berechnungsvorschriften mit leicht geänderten Parametern, wie bei der Wettervorhersage von einem zum nächsten Tag sehr häufig, erhält man oft sehr komplizierte Ergebnisse. Die französischen Mathematiker Pierre Fatou und Gaston Julia studierten um 1920 Iterationen, also wiederholte Anwendungen, einfacher Berechnungsvorschriften und wiesen nach, dass die Grenze zwischen zwei verschiedenen Verhaltensmustern der Iterierten eine höchst komplexe Menge in der Ebene bestimmt ("Julia-Menge"). Obwohl schon 1920 ohne Computer in ihrer Struktur gut verstanden, wurden diese Mengen erst 1980 bildlich durch die Computer-Animationen von Benoit Mandelbrot u.a. einer größeren Öffentlichkeit zugänglich gemacht. Die Mandelbrotmenge, auch als "Apfelmännchen" bekannt (Abb.), zeigt die Parameter, für die die Julia-Menge zusammenhängend, d.h. aus einem Stück ist. Ausschnittsvergrößerungen der Mandelbrotmenge auch in sehr starker Vergrößerung zeigen immer wieder ähnliche Bildstrukturen, man spricht von Selbstähnlichkeit.

Die graphische Bildverarbeitung und Bildübertragung im Internet beruht z.T. auf der Nutzung sogenannter "Wavelets". Dies sind Berechnungsvorschriften, die durch Skalierung aus einer einzigen Vorschrift hervorgehen und jeweils nur einen kleinen Bereich beeinflussen, aber ein "orthogonales" System bilden und damit numerisch sehr stabil sind. Die Wavelets wurden um 1970 aus reiner Neugier untersucht und fanden später vielfältige Anwendungen in der Bildverarbeitung und Bildübertragung.

Das Vordringen von elektronischer Kommunikation in immer weitere Bereiche wie Mobilfunk, Internet, electronic banking oder CD-Spieler erfordert immer bessere digitale Verschlüsselungsalgorithmen. Die Sprachsignale, Bilder, Aufträge oder allgemein Daten werden dabei in lange Folgen aus Nullen und Einsen übersetzt, die elektronisch als "aus" oder "ein" übertragen werden oder bei CDs als mikroskopisch kleine Vertiefungen oder Nicht-Vertiefungen in den spiralförmigen Rillen eingeprägt sind und von einem Laserstrahl gelesen werden. Das Ziel der Verschlüsselung ist zweifach: einerseits sollen geheime Daten oder Nachrichten bei der Übertragung vor dem Zugriff unberechtigter Personen geschützt werden (Kryptologie), andererseits soll sichergestellt werden, dass die Signale und Daten korrekt, also fehlerfrei, übertragen oder gespeichert werden (Codierung). Verschlüsselungsalgorithmen sind Thema der mathematischen Kryptologie und Codierungstheorie.

Wenden wir uns zunächst dem Geheimhaltungs- und Sicherheitsaspekt zu, der in der Vergangenheit hauptsächlich im militärischen Sektor von Interesse war, aber jetzt zunehmend für die elektronische Kommunikation von Bedeutung ist. Im 2. Weltkrieg gelang es dem Britischen Dechiffrierzentrum in Bletchley Park unter Leitung des Mathematikers Allan Turing, der später einer der Väter der theoretischen Informatik wurde, den Code der deutschen ENIGMA-Verschlüsselungsmaschine zu knacken und damit z.B. die Befehle an deutsche U-Boote im Atlantik zu lesen. Auf deutscher Seite wurde die ENIGMA-Maschine, die ein ausgeklügeltes mechanisches Wunderwerk war, für sicher gehalten und bis 1945 benutzt.

Die heute gebräuchlichen Algorithmen, die sich dem Sicherheitsaspekt widmen, sind zumeist Varianten des 1977 publizierten RSA-Algorithmus, der nach den Mathematikern Rivest, Shamir und Adleman benannt ist. Er beruht auf grundlegenden Tatsachen der Zahlentheorie, die seit alters her als ein Juwel der Mathematik, aber ohne praktische Anwendungen angesehen wurde. Der RSA-Algorithmus macht sich zunutze, dass es auch für die besten heutigen Computer praktisch unmöglich ist, sehr große Zahlen N sagen wir mit 300 Dezimalstellen in ein Produkt von zwei fast gleich großen Primzahlen p und q zu zerlegen, wenn N von der Form N=p.q ist. Bei der Internet-Kommunikation oder beim Mobilfunk ist der öffentliche Schlüssel N prinzipiell bekannt, p und q sind es aber nicht. Mittels Kenntnis von p und q wird eine private Nachricht verschlüsselt, die vom Zugangsberechtigten über die Kenntnis eines privaten Schlüssels etwa einer vierstelligen Codezahl (und von N) decodiert werden kann. Mathematisch werden dabei der euklidische Algorithmus zum Auffinden des größten gemeinsamen Teilers zweier Zahlen aus dem klassischen Altertum und Ergebnisse über Primfaktoren benutzt, die schon dem deutsch-schweizerischen Mathematiker Leonhard Euler im 18. Jahrhundert bekannt waren.

Bei der elektronischen Übertragung von immens vielen und langen digitalen Datenfolgen aus Nullen oder Einsen oder bei der Speicherung dieser 0-1-Folgen auf CDs oder CD-ROMs treten technisch unvermeidbar immer wieder Fehler auf. Selbst eine gute CD mit einem Fassungsvermögen von 650 MB, also etwa 5 Billionen Bits, weist ca. 500 000 Fehlstellen auf. Würden beim Lesen einer Musik-CD diese Fehler nicht erkannt und korrigiert, wäre nur ein allgemeines Rauschen zu hören. Man benutzt dazu sogenannte "fehlerkorrigierende Codes". Dabei werden statt 24 Bit einer Dateneinheit durch Zugabe von 8 "Prüfbits" 32 Bit übertragen oder gespeichert, wobei nur ein geringer Teil aller 32 Bitfolgen der in seiner Struktur genau bekannt ist auftreten kann. Daher können ein oder zwei Fehlstellen sofort erkannt werden; das (nächstgelegene) korrekte Datenwort kann daraufhin sehr schnell rekonstruiert werden. Diese fehlerkorrigierenden Codes beruhen auf der "linearen Algebra" und Konstruktionen mit endlichen Zahlbereichen, die Anfang des 20. Jahrhundert nur exotische Beispiele für "Zahlkörper" darstellten. Die fehlerkorrigierenden Codes, die beim CD-Spieler oder CD-Lesegeräten im PC benutzt werden, wurden vom holländischen Mathematiker Jacobus van Lint ausgewählt und weiterentwickelt. Sie sind so gut, dass selbst leichte Kratzer auf Computer-CD-ROMs die Lesbarkeit der Daten oft nicht beeinträchtigen.

Die vorigen Beispiele illustrieren, dass auch in Zukunft "curiosity driven research", wie die Angelsachsen sagen, also Forschung aus reiner Neugier und Wissensdrang, betrieben und unterstützt werden sollte. Unter Bezug auf analoge frühere Beispiele sprach Albert Einstein einmal von der wundersamen und unerwarteten Anwendungsvielfalt einer so abstrakten Disziplin wie der reinen Mathematik.

 

Der Autor ist Professor für Mathematik und zur Zeit Dekan der Mathematisch-Naturwissenschaftlichen Fakultät der Christian-Albrechts-Universität Kiel.