Società | Academia

Lern, Maschine!

Forschung wie Industrie bedienen sich immer öfter Technologien künstlicher Intelligenz. Oswald Lanz von der unibz und Alexander Jacob von Eurac Research erklären maschinelles Lernen und wie sie es einsetzen.
Avvertenza: Questo contributo rispecchia l’opinione personale del partner e non necessariamente quella della redazione di SALTO.
intelligenza_artificiale.jpg
Foto: SingularityHub.com

Forschung wie Industrie bedienen sich immer öfter Technologien künstlicher Intelligenz. Oswald Lanz von unibz ist Experte für Computer Vision und ihre Anwendung in Produktionsprozessen, Alexander Jacob von Eurac Research setzt maschinelles Lernen ein, um große Menge Satellitendaten auszuwerten. Im Interview erklären sie, wo KI uns befreit, wie sie uns begrenzt und was der Mensch immer noch besser kann.

 

Academia: Es heißt, wenn man  sechs Wissenschaftler bäte, Künstliche Intelligenz zu definieren, bekäme man sieben verschiedene Definitionen. Wie würden Sie Laien erklären, was KI eigentlich ist?

Oswald Lanz: Ich finde, die Definition des namhaften Forschers Andrew Moore bringt es gut auf den Punkt: „The science and engineering of making computers behave in ways that, until recently, we thought required human intelligence”. Es geht also um Maschinen und Computer, die ein menschenähnliches Verhalten zeigen, etwa in Entscheidungsprozessen, bei der Übersetzung von Texten oder der Bilderkennung. Ist dieses Verhalten nicht mehr von dem eines Menschen zu unterscheiden, würde die Maschine den sogenannten Turing Test bestehen: Das ist das Ziel der KI.  

Alexander Jacob: Wichtig ist, KI nicht mit Maschinellem Lernen gleichzusetzen, was leider häufig passiert und dann zu Missverständnissen und falschen Erwartungen führt. Machine Learning, bei dem sogenannte neuronale Netze programmiert werden, die aus Daten lernen, ist zwar eine Komponente von KI, aber in diese spielt noch viel mehr hinein. Etwa Kognitionsforschung, um zu verstehen, wie menschliche Erkenntnis funktioniert und wie das auf eine Maschine übertragen werden kann. Also da braucht es sehr viel Interdisziplinarität. In den letzten Jahren hat sich vor allem maschinelles Lernen sehr weiterentwickelt und wird schon verbreitet eingesetzt.  

Geben Sie uns ein Beispiel aus ihrem jeweiligen Bereich?

Jacob: Wir in der Erdbeobachtung nutzen Machine Learning-Systeme, um große Mengen Satellitendaten auszuwerten und so zum Beispiel Veränderungen in Ökosystemen nachzuzeichnen. Da geht es immer auch darum,  die zugrundeliegenden Dynamiken möglichst genau zu verstehen, um daraus Prognosen für die Zukunft abzuleiten. 

Lanz: Ein ganz aktuelles Beispiel aus dem industriellen Bereich ist eine optische KI zur Qualitätskontrolle, die wir gerade im Covision Lab in Brixen entwickeln: eine  selbstlernende KI die über ein Bild erkennt, ob ein Objekt aus der Produktion der Norm entspricht. Während bisherige Systeme aufwendig von Experten programmiert werden mussten, kann man diese KI sehr schnell und einfach konfigurieren.

Wenn wir kurz zurückblicken – wie hat sich das Forschungsfeld entwickelt?

Lanz: Die ersten Lernalgorithmen gab es bereits Ende der 50er Jahre, doch der richtige Durchbruch kam erst in den vergangenen zehn Jahren. Die ausschlaggebenden Faktoren sind die enormen Mengen verfügbarer Daten, von denen gelernt werden kann, die Verbesserung der Rechenleistung, die das Lernen ermöglicht, und schließlich die offenen Software Frameworks, dank denen man nicht mehr alles von Null aus programmieren muss. Auch hat sich in der Forschung eingebürgert, bei neuen Entwicklungen den Code zu veröffentlichen. So können andere mit geringstem Aufwand auf den Ergebnissen aufbauen oder sie für eine bestimmte Anwendung spezialisieren, was sowohl die Forschung wie die Industrie weiterbringt.

 

Waren die Erwartungen manchmal der Realität voraus? Vor ein paar Jahren konnte man den Eindruck haben, es wären bald nur noch selbstfahrende Autos unterwegs – dann gab es ein paar Unfälle und es wurde um das Thema sehr viel ruhiger.

Jacob: Ich denke das ist ein generelles Problem mit Erwartungen an die Wissenschaft. Das sehen wir auch in Zusammenhang mit Corona und Klimawandel. Es gibt nichts, das absolut perfekt, das immer genau ist. Entscheidungen, die eine KI trifft, werden immer mit einer gewissen Probabilität und Genauigkeit getroffen, die von Qualität der verfügbaren Informationen abhängt – genauso wie bei uns Menschen. Und es gibt zweifelhafte Entscheidungen, wo Variante A und B sich 49 : 51 verhalten, oder noch viel knapper. Wenn dann nur eine Detailinformation fehlt, trifft das System die falsche Entscheidung. Gerade bei Autos hängt viel davon ab, mit welcher Genauigkeit die Sensorik Daten liefert, was auch von äußeren Faktoren, wie etwa Verschmutzung, beeinflusst werden kann. Generell gilt: Um neuronale Netzwerke gut zu trainieren, also ein gutes Entscheidungsmodell zu entwickeln, braucht man extrem viele und zuverlässige Daten.

Lanz: Dazu passt der Forschungsbereich Adversarial Learning. Man hat schon vor Jahren gesehen, dass die KI bei der Bilderkennung  völlig daneben liegen kann, wenn nur wenige Pixel eines Bildes verändert werden. Ein Mensch sieht da nicht einmal einen Unterschied. Die KI aber erkennt plötzlich ein Pferd als Zebra. Wenn die (aktuelle) optische KI falsch liegt, dann kann sie oft auch fatal falsch liegen.

Jacob: Auch deshalb ist es ein Risiko, in der Forschung alles dem Algorithmus zu überlassen. Wenn man nur noch versucht, die Zusammenhänge datengetrieben darzustellen, und sich nicht mehr damit auseinandersetzt, welche physikalischen Prozesse dahinterstehen, dann kann das in gewisser Weise auch zu einer Verdummung des Wissenschaftlers führen, weil er ein Ergebnis geliefert kriegt, ohne den Zusammenhang verstanden zu haben.

Was kann die intelligente Maschine besser, was (noch) der Mensch?

Jacob: Das einzelne Satellitenbild interpretiert ein Mensch meist besser, doch dank maschinellen Lernens können wir riesige Mengen an Bildern auswerten. Wir reden hier von tausenden Bildern pro Tag, das können Menschen nicht mehr leisten. Es wäre auch nicht ökonomisch, und langfristig zu langweilig: Wenn wir Studierende bitten, auf Satellitenbildern Wälder nachzuzeichnen, dann hat nach zehn Bildern keiner mehr Lust. Da hilft uns KI enorm, weil der Computer einen Teil der Auswertung übernimmt und wir uns auf andere Fragen konzentrieren können. Allerdings sollte man von Fall zu Fall überlegen: Lohnt sich der Aufwand, ein Deep Learning Modell zu trainieren, oder kann ich mit einfacheren statistischen Verfahren ein nicht viel schlechteres Ergebnis bekommen? Sind zwei Prozent höhere Genauigkeit es wert, zehnmal so viele Ressourcen zu verbrauchen? Green Computing  bedeutet, nicht unnötig Rechenressourcen zu verbrennen. Nicht alles wird automatisch besser durch KI.

Lanz: Allgemein kann man sagen: Alles, was berechnet werden kann oder wo es genügend Beispiele zum Lernen gibt, oder man einem beschreibbarem Schema folgt, ist KI-fähig im Moment. Wenn es um Kreativität geht, oder das sogenannte Commonsense Reasoning, ist KI eindeutig noch nicht konkurrenzfähig.

Sie haben den Turing-Test erwähnt – wie bald werden wir Maschinen nicht mehr vom Menschen unterscheiden können?

Lanz: Die technologische Singularität, also eine KI, die selbständig eine bessere KI hervorbringt, den Menschen nicht mehr braucht – das ist Science Fiction. Aber Deepfakes sind schon nah dran, den Turing Test zu bestehen: Das sind etwa Videos, in denen die Gesichter ausgetauscht und Stimmen angepasst wurden – Obama sagt dann beispielsweise Dinge, die er nie gesagt hat; diese mit Methoden des Deep Learning erzeugten Fälschungen wirken absolut realistisch.

 

Die Ängste, die KI in vielen Menschen weckt, scheinen nicht unbegründet.

Lanz: Ja, so etwas kann schon Angst einflößen. Und es gibt natürlich die Angst, dass man transparent wird – sobald es etwa eine KI gibt, die all die Daten interpretieren kann, die wir allein schon über das Smartphone verschicken. In der Industrie können Maschinen den Menschen bei manchen Tätigkeiten ersetzen; mit der Robotik ist das vor allem für repetitive Tätigkeiten in der Produktion zum Teil auch schon passiert. Doch generell geht es darum, die KI so einzusetzen, dass sie dem Menschen hilft und ihn nicht ersetzt.

Jacob: Eine Gefahr sehe ich auch im sozialen und wirtschaftlichen Bereich, wo einen die Empfehlungssysteme immer mehr dazu zwingen, in der eigenen Blase zu leben. Damit wird natürlich der eigene Horizont stark eingeschränkt. Services wie Amazon machen auch schon personalisierte Preisvorschläge, angepasst an das, was man in der Vergangenheit ausgegeben hat. Das Problem ist immer die Anwendung. Und da stellen sich natürlich auch bei der Open Science ethische Fragen: Wenn man Ergebnisse teilt, ist nicht immer vorherzusehen, wer sie dann in welcher Weise nutzt. In der Fernerkundung entwickeln wir viele Technologien für Umweltanalysen, doch die meisten können auch für militärische Zwecke genutzt werden – Spionage, Kriegsführung; und das sind eigentlich nicht die Themen, die wir voranbringen wollen.

Stichwort Umweltanalysen – wie hilfreich ist das Werkzeug KI im Kampf gegen den Klimawandel?

Jacob: KI kann einerseits bei der Anpassung an den Klimawandel helfen, zum Beispiel durch hydrologische Modelle, die helfen, Wasser effizienter zu nutzen. Durch das Zusammenspiel großer Mengen verfügbarer Daten, etwa von Satelliten, und ihrer automatisierten Auswertung kann die Wissenschaft jetzt aber vor allem sehr viel mehr und genauere Informationen liefern und auch Prognosen abgeben. Handeln muss dann die Politik. Aber das kann sie eben nur, wenn ihr klar ist, was passiert, wenn man nichts tut.


 

Alexander Jacob

Alexander Jacob hat an den Universitäten von Darmstadt, Stockholm und Pavia Geodäsie und Geoinformatik studiert und sich in seiner Forschungstätigkeit auf satellitengestützte Fernerkundung und geografische Datenverarbeitung spezialisiert. Am Institut für Erdbeobachtung von Eurac Research leitet er die Forschungsgruppe „Hochleistungsdatenverarbeitung für die Erdbeobachtung.“

Oswald Lanz

Der gebürtige Bozner Oswald Lanz hat an der Universität Trient Mathematik studiert und sein Doktorat in Bereich Computer Vision gemacht. Nach jahrelanger Forschungstätigkeit für die Fondazione Bruno Kessler trat er mit 1. Oktober 2021 eine Stiftungsprofessur an der Fakultät für Informatik der unibz an. Seit 2019 leitet er darüber hinaus die Forschungsabteilung des Covision Lab in Brixen.