Gesellschaft | Daten

Der Dompteur wissenschaftlicher Daten

Woran kann es liegen, dass auch ein perfekt geplantes System wie vollautomatisierte Klimahäuser versagen kann? Informatikprofessor Johann Gamper analysierte...
Hinweis: Dies ist ein Partner-Artikel und spiegelt nicht notwendigerweise die Meinung der SALTO-Redaktion wider.
Prof. Johann Gamper
Foto: unibz

...bei einer internationalen Konferenz an der unibz mit Kollegen aus aller Welt Fragen, die sich bei der Verwaltung und Nutzung riesiger Datenmengen ergeben. Ein Überblick.

 

Es war ein rundes Jubiläum, das ein internationaler Kreis von Informatikspezialisten in der zweiten Juli-Woche an der Freien Universität Bozen beging: Dort fand die 30. Auflage der International Conference on Scientific and Statistical Database Management (SSDBM) statt, einem anfangs zweijährlichen und mittlerweile jährlichen Treffpunkt von Wissenschaftlern, Datenbank-Forschern, Anwendern und Entwicklern, der 1981 im kalifornischen Menlo Park aus der Taufe gehoben worden war. Aus heutiger Sicht in der digitalen Steinzeit – wenn man bedenkt, dass allein in den vergangenen zweieinhalb Jahren weltweit so viele Daten generiert wurden wie in der gesamten Menschheitsgeschichte davor. Datenbanken gab es in den ausklingenden Achtziger Jahren zwar klarerweise auch schon. Allerdings wurden sie damals vor allem von Banken und für Buchhaltungszwecke verwendet, erinnert der Informatikprofessor Johann Gamper. Die wissenschaftliche Community habe dagegen damals noch nicht von den effizienten digitalen Ablage - und Managementsystemen profitiert, ohne die unsere heutige Welt nicht funktionieren würde. Dies zu ändern und in Folge stets zu optimieren, haben sich die Gründer der SSDBM – mit Erfolg – auf die Fahnen geschrieben.

 

Die Arbeit geht der internationalen Community, die sich einmal jährlich abwechselnd in den USA und in Europa trifft, auch drei Jahrzehnte später nicht aus. Im Gegenteil: Das exponentielle Wachstum der Datenmengen und immer komplexere Anforderungen an ihre Analyse und Verarbeitung fordern die Informatikspezialisten heute mehr denn je heraus. „Jedes Jahr kommen neue Arten von Daten dazu, für die es wieder neue Algorithmen zu finden gilt“, sagt Johann Gamper.

 

Einige davon wurden auch auf der ersten Bozner Auflage der internationalen Konferenz präsentiert. Zum Beispiel ein vollkommen neuer Ansatz des Routing, mit dem der schnellste Weg zwischen zwei Punkten auf Basis historischer Daten berechnet wird. Sprich: Statt von der, unter optimalen Verkehrsbedingungen kürzesten Strecke auszugehen, wie es der seit den Sechziger Jahren für eine solche Routenberechnung verwendete Dijkstra-Algorithmus und seine Erweiterungen machen, fragt man nun vereinfacht gesagt ab, wie lange andere Menschen an diesem Wochentag und zu dieser Uhrzeit für die selbe Strecke gebraucht haben. „Über Millionen solcher Verläufe und deren Mittelwerte kommt man dann schneller zu genaueren Ergebnissen als mit den bisher gebräuchlichen Algorithmen“, erklärt Gamper.

 

Ein Paradigmenwechsel – der nur dadurch ermöglicht wurde, dass in unserem digitalen Zeitalter quasi jedes Auto über GPS geortet werden kann. Viele solcher Daten werden jedoch irgendwo gesammelt, ohne produktiv eingesetzt zu werden. Daraus noch viel mehr Nutzen für die Allgemeinheit zu ziehen, ohne Auflagen, wie jene hinsichtlich Anonymität zu verletzen, ist eine der Aufgaben, der sich das internationale Netzwerk aus Database-Spezialisten widmet. Und so ging es auch in Bozen nicht nur darum, wie Trillionen von Rechenoperationen oder gewaltige Datenmengen von wissenschaftlichen Anwendungen in der Astrophysik oder beispielsweise beim Teilchenbeschleuniger CERN effizient gespeichert und verarbeitet werden können – oder wie Computer unter dem Slogan „Deep Learning“ auch Probleme jenseits mathematischer Logiken lösen können. Eine der Fallstudien zeigte laut Tagungsorganisator Gamper auch, wie eine gute Datenanalyse aufdecken kann, warum perfekt geplante Systeme wie vollautomatisierte Klimahäuser dennoch nicht funktionieren. „In diesem Fall entdeckte man über die gesammelten Daten zum Beispiel, dass völlig banale Gründe wie das Abdecken von Klimaanlagen-Ventilatoren mit Jacken das ganze System kippen.“

 

Solch pragmatische Anwendungen sind für den Informatiker auch in seiner täglichen Arbeit immer wieder an der Tagesordnung. Schließlich wurden an der Fakultät für Informatik bereits seit längerem die Tore für die lokale Wirtschaft weit geöffnet. Unter dem Slogan „Look and touch“ erhalten Unternehmer dort eine jeweils halbstündige Einführung in die Forschungsarbeit der einzelnen Professoren. „Wenn sie dann konkrete Anliegen haben, haben sie bereits ein Gesicht und einen Namen, an den sie sich wenden können“, meint Gamper. Auch wenn die Universität klarerweise nicht dazu da sei, Softwarelösungen für Firmen zu entwickeln, sei der Austausch wichtig, um die akademische Arbeit auch immer wieder mit dem Boden der Realität zu konfrontieren.

 

Umso stolzer ist der Organisator der internationalen Datenbank-Tagung auf eine Premiere, die er sich für Bozen einfallen ließ: eine „Local Stakeholder Session“, bei der zwei lokale Unternehmen der internationalen wissenschaftlichen Community in einer Kurzpräsentation ihre größten aktuellen Herausforderungen präsentierten. Das neue Format stieß laut Gamper auf beiden Seiten auf Begeisterung. Und: „Beide Unternehmen haben anschließend Kontakte zu Universitätsprofessoren aus den USA bzw. Kanada geknüpft, die sie konkret unterstützen wollen bzw. einen Termin mit ihnen vereinbart haben.“

 

Bild
Profil für Benutzer Hermann Rochholz
Hermann Rochholz Di., 21.08.2018 - 16:11

Jetzt muss ich überlegen, wie ich das formuliere.
Simulationen von irgendwelchen strömungsmechanischen Dingen (nebenbei: ich bin promovierter Strömungsmechaniker) oder irgendwelchen anderen Sachen, die mit der Thermodynamik oder auch Mechanik zu tun haben, unterliegen letztendlich physikalische Modelle, die man über die Mathematik abbildet. Und hier gibt es mehrere Optionen, Weswegen modelle beziehungsweise Rechnungen versagen können:
1) das Modell ist falsch
2) das Modell ist unvollständig
3) irgendjemand hat bei den mathematischen Rundungen Mist gemacht
4) die Randbedingungen der Berechnungen falsch

5) es wurden keine Sensitivitätsuntersuchungen gemacht. das hört sich kompliziert an oder? Aber im Prinzip ist es ganz einfach: Ingenieure wie auch Informatiker geben irgendwelche Eingangsdaten ein, drücken auf einen Knopf, haben dann ihre Ergebnisse und das ist es dann, was rauskommt.

Was bei dieser Betrachtung fehlt: es gibt resiliente und vulnerable Systeme. die meisten Systeme sind resilienter Natur: bei Änderung von irgendwelchen Eingabeparametern passiert nicht viel. Es gibt aber auch, wie oben dargestellt, vulnerable Systeme. Ändert man einen Eingangsparameter ganz leicht steht das ganze System Kopf.

Dazu eine erheiternde Geschichte: vor etwa 30 Jahren gab es als Alternative zum Space Shuttle das Sänger-Projekt.
Im Gegensatz zum Space Shuttle startete das Gerät waagerecht wie ein Flugzeug und obendrauf befand sich dann der eigentliche Raumtransporter. Das Ding sollte also auf 30 km Höhe fliegen mit halbwegs normalem Antrieb (scramjet) und dann gab es bei mach =8 die Trennung der Oberstufe.
Und Triebwerke sind sehr empfindlich, wenn sie bei hohen Geschwindigkeiten betrieben werden. intern werden 98 % der Leistung umgesetzt, extern 2 %. Und die Ingenieure rechneten über Jahre mit einem konstanten Anstellwinkel des unteren Flugzeuges, das auch nötig war, um die Luft komplett durch die Triebwerke zu bringen. (Vorkompression)
Nach Jahren (!) Kam dann ein Ingenieur auf die Idee, nachzufragen, wie genau es überhaupt möglich ist, diesen fixen Anstellewinkel einzuhalten. Zudem jedes Flugzeug in einer Phygoide fliegt, wobei es sich um eine Sinusschwingung handelt, bei der sich auch der Anstellewinkel sinusförmig als Funktion der Zeit ändert.

Tja- diese Nachfrage hat dann die jahrelangen "Rechenorgien", wie es Professor Hirschel nannte (Sein Buch steht an der TFO in der Bibliothek) zum Erliegen gebracht; das Projekt ist gestorben.

Di., 21.08.2018 - 16:11 Permalink
Bild
Profil für Benutzer Hartmuth Staffler
Hartmuth Staffler Mi., 22.08.2018 - 20:39

Ich finde die Erkenntnis genial, dass das Abdecken von Klimaanlagen-Ventilatoren das ganze System kippen kann. Auf so eine weltbewegende Erkenntnis wäre man wohl ohne die sicher nicht ganz preiswerten Forschungen dieser Professoren und ihrer ebenfalls nicht billigen internationalen Tagungen niemals gekommen. Nicht auszudenken, wenn überall auf Klimaanlagen-Ventilatoren Jacken herumliegen und alle Systeme kippen würden. Ich komme mir mit meinem bescheidenen Kachelofen, der auch trotz daraufliegender Jacke nicht kippt, furchtbar unbedeutend vor.

Mi., 22.08.2018 - 20:39 Permalink
Bild
Profil für Benutzer Christoph Moar
Christoph Moar Mi., 22.08.2018 - 21:03

Antwort auf von Hartmuth Staffler

Die Krux ist die, dass bei einem komplexen System mit zahlreichen Vollautomatisierungen und hochdimensionierten Komponenten das Abdecken weniger einzelner Ventilatoren zu einer Reaktion führen kann, die die Software der Steuerung nicht bedacht oder falsch interpretiert hat. Das führt zum Kippen eines ansonsten völlig durchdachten Systems. Ein ganz kleiner David kann dem Goliath eins auswischen, also. Und der David ist so klein und unauffällig in der gesamten Population der Erde, dass sie ihn so ohne weiteres nicht sehen, geschweige denn verstehen.
Vielleicht verstehen sie jetzt besser, was diese Professoren so tun.

Zu den Kosten von Forschung und Wissenschaft, nun ja - wer nicht investiert fällt schnell aus dem Wettbewerb. Aber keine Sorge: die lokalen Unternehmen sind nicht abgeneigt, solche internationalen Tagungen zu unterstützen. Auch wenn sie gar keine Klimaanlagen bauen.

Mi., 22.08.2018 - 21:03 Permalink