Dresden. Wissenschaftler der TU Dresden und der Leipziger Uni haben den sächsischen Supercomputer weiter ausgebaut. Damit können sie nun Dinge berechnen, wie es in dieser Art sonst nirgends in Deutschland möglich ist. Der Rechner wurde in den vergangenen Jahren technisch so erweitert, dass er gigantische Datenberge besser als andere filtern kann.

Datensilos sortieren, so nennt es Informatikprofessor Wolfgang Nagel, Chef des Hochleistungsrechnens an der TU Dresden. Als wäre ein Getreidespeicher gefüllt mit Milliarden reifen Körnern und die Forscher suchen darin die fünf einzig noch grünen.

Nur geht es den Forschern nicht um Körner, sondern um menschliche Zellen. Krebszellen zum Beispiel und um gefährlichen Eiweißbausteine, die auch Alzheimer auslösen. Milliarden von Bildern werden so automatisch ausgewertet. Den Zellen wird beim Wachsen und Sterben zugeschaut. Materialwissenschaftler sehen den einzelnen Molekülen bei ihrer Arbeit zu. Dank der Berechnungen erkennen sie dann, was neue Stoffe leicht, fest oder eben auch biologisch verträglich macht.

Prof. Wolfgang Nagel ist der Chef des Hochleistungsrechnens an der Dresdner Universiät. Unter seiner leitung entsteht hier eines der bedeutenden Big Data-Zentren Deutschlands. © Christian Juppe

Der Rechner HPC-Data Analytics geht heute offiziell an der TU Dresden in Betrieb. Sechs Millionen Euro wurden dafür bereits vom Bund zusätzlich in den 15 Millionen-Euro-Rechner investiert. Weitere vier Millionen Euro folgen bis September, sagt Wolfgang Nagel der SZ.

Scads nennt sich das Projekt, mit dem Dresden/Leipzig seit 2016 zu einem der zwei deutschlandweiten Zentren für Big Data wurde. Fast 70 Mitarbeiter kamen neu dazu. Das Umweltforschungszentrum ist beteiligt, dort geht es um Klima-Simulationen. Am Forschungszentrum Dresden-Rossendorf interessieren sich die Forscher zum Beispiel für derzeit noch unbekannte Zustände der Materie im Extremlabor. Die Dresdner Max-Planck-Zellbiologen liefern riesige Datenmengen und Bilder von Zellen und Genen. Die Ökologen vom Dresdner Leibniz-Institut für ökologische Raumentwicklung interpretieren uralte Landkarten auf bisher nicht mögliche Art und schreiben mit Hilfe von Geo-Daten und Archäologie Sachsens Geschichte in Teilen neu. Geisteswissenschaftler aus Leipzig lassen den Rechner komplette Werke großer Autoren durchsehen.

Der Dresdner Rechner kann jetzt pro Sekunde 2.000.000.000.000 Byte, also 2 Terabyte einlesen und ausgeben. „Es gibt zwar schnellere Rechner in Deutschland, aber es gibt weltweit nur einen mir bekannten Rechner in den USA mit einer vergleichbaren Leistung“, sagt Professor Nagel. Das sei eine wesentliche Grundlage für ein dauerhaftes, vom Bund finanziertes Big-Data-Center in Dresden. Den Antrag dafür schreibt Wolfgang Nagel derzeit.