15.05.2007
Information statt Daten: Marburger Mathematiker koordiniert DFG-Schwerpunktprogramm
Wie lassen sich aus gigantischen Datenmengen die relevanten Informationen herausziehen? – Neben sieben deutschen Institutionen auch ETH Zürich beteiligt – Schwerpunktprogramm wird mit rund fünf Millionen Euro gefördert
Gemeinsam mit sieben weiteren Antragstellern aus Deutschland und der Schweiz rechnet Dahlke während der ersten dreijährigen Förderperiode mit Mitteln in Höhe von rund 5 Millionen Euro, eine zweite Förderperiode wird sich anschließen. Zusätzliche Mittel stehen für die Wahrnehmung der Koordinationsfunktion durch Dahlke zur Verfügung.
„Wissenschaftler und andere Anwender haben mittlerweile nicht mehr
das Problem, Daten automatisch zu erfassen und zu speichern, sondern
vielmehr, die oft hochkomplex strukturierten Datenmengen sinnvoll zu
analysieren“, sagt der Mathematiker. Videoaufzeichnungen, bei denen
jedes einzelne Bild einer Analyse unterzogen werden soll, gehören zu
diesem Themenfeld ebenso wie Aufgabenstellungen aus den Bereichen Data
Mining oder Computational Finance: „Stellen Sie sich vor, Sie haben ein
riesiges Portfolio aus Aktien, die sich im Zeitverlauf alle
unterschiedlich entwickeln, und Sie müssen daraus eine Gewinnerwartung
abschätzen.“
Ansporn zu realistischeren Modellen
Vor verwandte Probleme seien zum Beispiel auch Physiker gestellt: „Will man ein System mit sehr vielen Elementarteilchen modellieren, benötigt man die Grundgleichung der Quantenmechanik: die Schrödinger-Gleichung“, erklärt Dahlke. „Bei so vielen Teilchen wird die Schrödingergleichung jedoch hochkomplex und ist mit traditionellen Rechenverfahren praktisch nicht mehr handhabbar.“ Ein Ende des Komplexitätswachstums sei ohnehin nicht abzusehen: „Die ständig wachsende Rechnerleistung spornt natürlich auch dazu an, immer realistischere und damit komplexere mathematische Modelle zu formulieren.“
Ziel von Dahlke ist daher die Entwicklung „langfristig tragfähiger Lösungsansätze“, die auch die „konzeptionellen Querverbindungen“ zwischen den verschiedenen Anwendungsmöglichkeiten „systematisch ausnutzen“. Einmal geht es dabei um Quantifizierung der jeweiligen Komplexität – also eine präzise Aussage über den Schwierigkeitsgrad eines Unterfangens –, die wiederum hilft, geeignete Lösungsansätze zu identifizieren. Zum anderen geht es um die Entwicklung konkreter Rechenverfahren (Algorithmen), die auf Supercomputern implementiert werden und in überschaubarer Zeit zu Resultaten führen sollen.
„Erproben werden wir unsere Ergebnisse auf dem Marburger
Supercomputer“, so Dahlke weiter. Der „MArburger RechenCluster“ MARC,
der unter anderem auch auf seine Initiative hin errichtet worden war
und erst im Januar ausgebaut wurde, bietet mittlerweile eine Leistung
von bis zu 2,5 Teraflops (Billionen Gleitkommaoperationen pro
Sekunde).
Zahlreiche deutsche Standorte und ETH Zürich beteiligt
Dahlke wird die Arbeit von Wissenschaftlern der RWTH Aachen, der Universität Bonn, des Leipziger Max-Planck-Instituts für Mathematik in den Naturwissenschaften, der TU Darmstadt, der Universität Kiel, der TU Berlin, der ETH Zürich und zahlreicher weiterer Standorte koordinieren, darunter unter anderem Numeriker, Stochastiker und Approximationstheoretiker.
Der genaue Umfang der Gelder, die nach Marburg fließen werden, hängt von der nun anstehenden Bewilligung einzelner Teilprojekte durch die DFG ab. „Zwei wissenschaftliche Mitarbeiterstellen sollten aber auf jeden Fall drin sein“, erwartet Dahlke.
Kontakt
Professor Dr. Stephan Dahlke
Philipps-Universität Marburg, Fachbereich Mathematik und Informatik, Hans Meerwein Straße, 35032 Marburg
Tel.:
(06421) 28 25474
E-Mail