Zum Hauptinhalt springen
TU Graz/ TU Graz/ Services/ News+Stories/

Maschine Learning: Lernende Maschinen

17.01.2022 | Planet research | FoE Advanced Materials Science | FoE Information, Communication & Computing | FoE Sustainable Systems

Von Birgit Baustädter

„Machine Learning wird unsere Welt verändern, wie es der Computer getan hat“, ist Robert Legenstein von der TU Graz überzeugt.

Künstliche Intelligenz und Machine Learning entwickeln sich zu einem der wichtigsten Werkzeuge der Zukunft. © AndSus – AdobeStock

Eine Maschine, die wie selbstverständlich Entscheidungen trifft. Die sich sinnvoll unterhalten, spielen und Nachhilfe geben kann. Oder ein Schwarm schwer bewaffneter Drohnen, der die Menschheit unterjochen möchte. So oder so ähnlich ist das landläufige Bild von künstlicher Intelligenz - Artificial Intelligence (AI). Die Realität schaut (noch) ein wenig anders aus.

„Unter künstlicher Intelligenz hat man immer das verstanden, was zum jeweils aktuellen Zeitpunkt maschinell noch nicht möglich war“, versucht TU Graz-Forscher Robert Legenstein eine Definition. „Vor 50 Jahren war das zum Beispiel Schach spielen. Danach Bild- und Spracherkennung. Heute ist all das maschinell bereits möglich.“ All diese Fähigkeiten gehören heute zu dem, was unter „Weak Artificial Intelligence“ bekannt ist. Die „Strong Artificial Intelligence“ ist es, die derzeit noch in den Sternen steht - also kognitive Systeme, die menschenähnliche Fähigkeiten besitzen. „Der künstlichen Intelligenz von heute fehlt die Generalisierungsfähigkeit. Sie ist für eine bestimmte Aufgabe perfekt trainiert, kann dieses Wissen aber alleine nicht auf andere Situationen umlegen.“ Zum Beispiel kann ein Algorithmus entsprechend trainiert wunderbar Schach spielen oder sogar das noch komplexere Spiel Go. Aber sogar schon bei Mensch ärgere dich nicht! hätte er - ohne vorhergehendes Training - keine Chance.

An der TU Graz wird aktuell das Research Center GRAML (Graz Research Center for Machine Learning) gegründet. Es soll, so Leiter Robert Legenstein, ein TU Graz-weites Netzwerk schaffen, das Forschende verknüpft, die sich auf unterschiedliche Arten mit Machine Learning beschäftigen. „Die Initiative geht von Instituten aus dem Bereich Informatik aus. Wir haben aber auch ganz bewusst Kolleg*innen zum Beispiel aus der Physik oder Chemie mit an Bord geholt, weil wir gerade in diesen Bereichen sehr viel Potenzial sehen.“

Spikende Neuronen

Robert Legenstein, Institut für Grundlagen der Informationsverarbeitung, nimmt sich in seiner Arbeit den derzeit leistungsfähigsten und dabei energieeffizientesten Computer zum Vorbild: das menschliche Gehirn. Kurz zusammengefasst beschäftigt er sich mit bioinspirierter künstlicher Intelligenz und baut neuronale Netzwerke, also mathematische Strukturen, die dem menschlichen Gehirn ähnlich sind. „Das Gehirn ist deshalb so energieeffizient, weil immer nur die Neuronen aktiv sind, die aktuell für die Informationsweitergabe gebraucht werden. Alle anderen ‚schlafen‘ und verbrauchen keine Energie. Das nennt man ‚spikende Neuronen‘.“ Diese Arbeitsweise nutzen Legenstein und sein Team und bauen spikende neuronale Netzwerke, die komplexe Rechenaufgaben mit wenig Energie erledigen können. Zuletzt entwickelte Legenstein als Teil eines internationalen Teams einen von einem neuronalen Netzwerk gesteuerten und wie einen Elefantenrüssel geformten Roboterarm. „Die Steuerung ist eine sehr komplexe Regelungsaufgabe, weil 300 einzelne Motoren aufeinander abgestimmt gesteuert werden müssen, um eine flüssige Bewegung zu ermöglichen. Diese Kontrollaufgabe kann unser neuronales Netz erledigen und ist dabei zusätzlich energieeffizient.“

Robert Legenstein befasstsich mit biologisch inspirierter künstlicher Intelligenz. © Lunghammer – TU Graz

Unsichere Computer

Ebenfalls an der Basis künstlicher Intelligenz und maschinellen Lernens arbeitet Robert Peharz, Institut für Grundlagen der Informationsverarbeitung. Er befasst sich hauptsächlich mit probabilistischem maschinellem Lernen - bezieht also die Wahrscheinlichkeitstheorie in seine Algorithmen mit ein. „Wahrscheinlichkeitstheorie kann schon sehr viel dessen, was künstliche Intelligenz können soll“, erklärt er. „Vor allem bezieht sie den Faktor Unsicherheit mit ein, erkennt Abhängigkeiten zwischen Daten und Ergebnis und hat einen integrierten Schlussfolgerungsprozess.“ So ermöglicht es die Wahrscheinlichkeit, aus neu gewonnenen Daten zu lernen und die Einschätzung einer Situation zu adaptieren. „Eines meiner Lieblingsbeispiele ist die Frage: Kann Timi fliegen? Gehen wir davon aus, dass Timi ein Mensch ist, dann ist die Wahrscheinlichkeit sehr gering. Bekommen wir aber die Information, dass Timi ein Vogel ist, dann steigt die Wahrscheinlichkeit stark an. Erfahren wir aber, dass er krank ist, dann sinkt die Wahrscheinlichkeit wieder. Das ist ein Beispiel von nicht-monotonem Schlussfolgern, das durch Wahrscheinlichkeit dargestellt wird und das auch in menschlichen Denkprozessen erkennbar ist.“

Was für ihn das maschinelle Lernen zu einem der wichtigsten Werkzeuge der Zukunft macht, ist die Fähigkeit, zu adaptieren. „Im Grunde schreibe ich ein Meta-Programm, dem ich die Regeln einer bestimmten Aufgabe mitgebe - zum Beispiel, Dinge zu unterscheiden. Dieses Metasystem kann ich dann gezielt auf einzelne konkrete Aufgaben anpassen - zum Beispiel in einer Mülltrennungsanlage oder in der Qualitätskontrolle von Waren.“

Wohin genau die Reise im Bereich der Artificial Intelligence gehen wird, ist für ihn unsicher. Das Forschungsgebiet erfinde sich grundsätzlich selbst und werde gleichzeitig erforscht. „Ich halte es mit Niels Bohr. Vorhersagen sind immer schwierig, vor allem, wenn sie die Zukunft betreffen.“

Dieses Video wird von Youtube gehostet, durch Klick darauf werden Daten an Youtube übermittelt. Es gelten die Datenschutzbestimmungen von Youtube.
Video starten
 

Was ist maschinelles Lernen? Erklärt von TU Graz-Forscher Thomas Pock.

Hörende Maschinen

Für Franz Pernkopf, Institut für Signalverarbeitung und Sprachkommunikation, sind künstliche Intelligenz und maschinelles Lernen vor allem eines: ein Werkzeug. „Vor allem ein Werkzeug für Faule“, lacht der Forscher. „Wir stehen vor komplexen Problemen, die nicht mehr mit relativ einfachen Modellen beschrieben werden können. Deshalb nutzen wir lernende Algorithmen, die sich Zusammenhänge aus großen Mengen an Daten suchen, für die ich als Forscher Unmengen an Zeit brauchen würde.“ Vor allem in dynamischen Situationen habe künstliche Intelligenz enorme Vorteile - zum Beispiel, wenn es um Pernkopfs Forschungsfeld, die Sprache, geht. Hörende Maschinen sind mittlerweile in Form von Sprachassistenzsystemen im Leben von uns allen angekommen. Aber richtiges maschinelles Hören ist nicht trivial, wie Pernkopf erklärt: „Aufgrund unterschiedlicher Sprechweisen, Dialekte und vor allem Hintergrundgeräusche ist es schwierig, ein bestimmtes Wort einem einzelnen akustischen Signal zuzuordnen. Aber ich kann einen Algorithmus mit einer großen Datenbank trainieren.“ Das kann so weit getrieben werden, dass einzelne Sprecher*innen etwa aus einer Cocktail-Party-Situation herausgefiltert werden können.

Franz Pernkopf. © Lunghammer – TU Graz

Sehende Maschinen

In einem ähnlichen Gebiet arbeitet Thomas Pock, Institut für Maschinelles Sehen und Darstellen - allerdings liegt sein Fokus auf einem anderen menschlichen Sinn: dem Sehen. Der visuelle Kortex im menschlichen Gehirn kann in Sekundenbruchteilen Bilder erfassen und Objekte erkennen, selbst wenn diese kaum oder nur bruchstückhaft zu sehen sind. Thomas Pock lehnt seine Algorithmen an die Arbeitsweise des visuellen Kortex an, um Bilder etwa in der medizinischen Bildgebung zu optimieren. So anwendungsnah seine Forschung klingt, ist sie doch stark im Grundlagenbereich angesiedelt. „Ich bin eigentlich ein sehr großer Verfechter von ‚handgemachten‘ mathematischen Modellen, aber ich sehe, dass sie bei Weitem nicht ausreichen, um die Wirklichkeit zu beschreiben“, erklärt er. „Ich nehme also Algorithmen, die ich von Hand designt habe, und spendiere ihnen einige freie Parameter. Diese lasse ich dann aus vorhandenen Daten lernen und verbessere dadurch das Modell. Wenn ich immer mehr freie Parameter hinzugebe, lande ich irgendwann beim Deep Learning, einem relativ einfachen, aber stark überparametrisierten Modell, bei dem wir überhaupt nicht mehr nachvollziehen können, wie der Algorithmus zu seinen Schlüssen kommt, weil wir die gelernten Parameter nicht mehr interpretieren können.“ Die Vision eines tatsächlich denkenden Systems sieht Pock noch in weiter Ferne - möglicherweise auch überhaupt nicht realisierbar. „Künstliche Intelligenz ist derzeit zu einem großen Teil reine Mustererkennung, keine wirkliche Intelligenz. Aber sie ist ein tolles Werkzeug, wenn Forschende an bestimmten Stellen nicht mehr weiterwissen und der Algorithmus trotzdem noch Dinge aus den Daten herauslesen kann, weil er wesentlich schneller ist und natürlich auch nicht müde wird.“

Thomas Pock verbessert die Sehfähigkeit von Maschinen. © Lunghammer – TU Graz

Strömende Luft

Olga Saukh forscht sowohl für das Institut für Technische Informatik an der TU Graz als auch für den Complexity Science Hub Vienna an komplexen Systemen. Ein komplexes System ist etwa die Meinungsbildung in Gesellschaften, aber etwa auch die Bewegung von Feinstaubpartikeln in der Luft, der sich Saukh seit mehreren Jahren widmet. Im Fokus sind dabei Vorhersagen der Luftqualität, die der Gesetzgebung flexibles Reagieren auf aktuelle Veränderungen ermöglichen sollen. „Wir beziehen dabei die Luftströme mit ein, die Feinstaubpartikel etwa von einer Region in eine andere weiterwehen und so für kurzfristige änderungen der Luftqualität sorgen können“, erklärt Saukh ihren Ansatz. In bisherigen Modellen hätten diese Luftströme noch wenig bis gar keinen Einfluss gehabt. „Wir nutzen maschinelles Lernen, um diese kurzfristigen Vorhersagen zu verbessern. In diesem Bereich ist die künstliche Intelligenz den Expert*innenmodellen weit überlegen. Wenn es aber um langfristige Vorhersagen geht, dann sind die Expert*innenmodelle immer noch zuverlässiger.“ Neben der Luftverschmutzung beschäftigt sich Saukh außerdem mit der Verbindung aus Embedded Systems und Machine Learning. „,Small is mighty‘ ist unser Motto. Wenn ich derzeit Modelle verbessern will, dann mache ich sie größer und erweitere die Datensätze. Was natürlich mit höherem Energiebedarf einhergeht und auf kleinen Systemen wie Smartwatches nicht umsetzbar ist. Ich versuche also, sehr kleine, spärliche, aber leistungsfähige Modelle zu finden und deren Ausführung auf die zugrundeliegenden Hardware- und Ressourcenbeschränkungen zu optimieren, sodass das Gesamtsystem mit geringer Batterieleistung viel erreichen kann.“

Olga Saukh. © Lunghammer – TU Graz

Rennfahrende Nanopartikel

Festkörperphysiker Oliver Hofmann nutzt in seiner Forschung rund um Machine Learning einen spielerischen Ansatz und möchte so Forschenden langwierige Routinearbeiten abnehmen. „Wir möchten lernende Algorithmen nach vielversprechenden Materialstrukturen suchen lassen, durch die sich unser Team sonst mühevoll in wochenlanger Arbeit wühlen müsste“, erklärt Hofmann. Alleine entscheidet der Algorithmus aber nicht: „Wir sehen uns das Ergebnis an und rechnen die attraktivsten Strukturen natürlich selbst noch mal nach. Der Algorithmus kann zwar Zusammenhänge auf Basis des vorher trainierten Wissens erkennen, aber nicht, ob sie auch wissenschaftlich korrekt sind.“

Die so gefundenen Strukturen möchte Hofmann anschließend auch in einem Experiment nachbauen und testen lassen. „Es ist aber ebenfalls eine langwierige Arbeit, diese Struktur aufzubauen, und oft haben wir als Forschende keine Ahnung, wie wir es überhaupt angehen sollen.“ Auch hier soll ein trainierter Algorithmus unterstützen und lernen, Strukturen selbstständig zu bauen. Derzeit wird diese Technik in einem unterhaltsamen Setting erforscht: mit einem „Autorennen“ im Nano-Maßstab.

Dabei müssen Nanopartikel - die Autos - mittels elektrischer Impulse unter einem STM - Scanning Tunnel Microscope - durch einen Parcours gelenkt werden. „Das alles spielt sich im Quantenbereich ab. Die Vorgänge sind also nicht immer deterministisch - auch wenn ich dem Teilchen den gleichen elektrischen Impuls gebe, bewegt es sich nicht immer in die richtige Richtung.“ Die weltbesten „Rennfahrer*innen“ würden es derzeit bei jedem zweiten Versuch schaffen, das Partikel auch wirklich zu bewegen. „Ob es sich dann auch noch in die richtige Richtung bewegt, ist eine andere Frage“, schmunzelt Hofmann. Sein Team hat nun statt eines menschlichen „Lenkers“ oder einer menschlichen „Lenkerin“ einen Algorithmus trainiert und konnte bereits tolle Ergebnisse erzielen: „Ein Mensch braucht jahrelange Erfahrung, um Teilchen effizient zu bewegen. Unser Algorithmus hat nur wenige Wochen benötigt, um gleich schnell durch den Parcours zu manövrieren. Das ist ein großer Erfolg“.

Denkende Maschinen

Die Anwendungsmöglichkeiten von künstlicher Intelligenz und lernenden Algorithmen sind also vielfältig - vor allem als Werkzeug in der Forschung. Um noch einmal zur Vision am Beginn zurückzukehren, den denkenden Robotern: Robert Legenstein hat hier eine eindeutige Meinung: „Ich glaube, dass es bis zu einem gewissen Grad möglich ist. Aber sie werden sich nicht exakt wie Menschen verhalten. Menschen sind soziale, fühlende Wesen und ein Roboter wächst nicht im gleichen Umfeld auf und macht so nicht die gleichen Erfahrungen. Aber er könnte gewisse menschliche Verhaltensweisen in einem künstlichen Umfeld durchaus entwickeln.“

Mehr Forschungsnews finden Sie auf Planet research. Monatliche Updates aus der Welt der Wissenschaft an der TU Graz erhalten Sie über den Forschungsnewsletter TU Graz research monthly.

Information

Dieser Artikel stammt aus Ausgabe #26 des Forschungsmagazins TU Graz research. Lesen Sie das ganze Magazin im E-Paper und abonnieren Sie das Magazin gedruckt oder digital auf der Website von TU Graz research.