Kompostwender sind dafür zuständig, die Komposthäufen – sogenannte Dreiecksmieten – am Kompostplatz regelmäßig zu wenden. Das ist in der gewerblichen Kompostierung ein essentieller Gütefaktor, denn das Rohmaterial muss während des Kompostierprozesses der passenden Temperatur, Feuchtigkeit und Belüftung ausgesetzt sein, um schlussendlich zu nährstoffreicher und wertvoller Erde zu werden. Das Wenden der Komposthäufen geschah bisher manuell: Eine Person musste den Kompostwender über den Platz steuern – eine heiße und für die Nase sehr unangenehme Arbeit. Eva Reitbauer arbeitete in ihrer Dissertation an der TU Graz an einer autonomen Kompostwendemaschine. Damit diese selbstständig navigieren kann und unfallfrei arbeiten, ist vor allem die Wahrnehmung der Umgebung sehr wichtig. Sie hat uns deshalb sehr essentielle Fragen zum Thema „Sehen“ bei Robotern beantwortet.
In nachfolgendem Interview wird ausschließlich das Thema „Sehen“ behandelt. Ein Portrait zu Eva Reitbauer finden Sie unter „Mit dem Kompostwender zum Doktorat“ und einen ausführlichen Bericht zum Projekt unter „TU Graz entwickelt autonom fahrenden Elektro-Kompostwender“
News+Stories: Roboter sehen in meiner Vorstellung sehr humanoid aus. Also können sie – wieder in meiner Vorstellung – auch sehen wie Menschen. Stimmt das? Haben sie Augen oder Arbeiten sie mit anderen Sinnensorganen?
Eva Reitbauer: Roboter haben nicht immer die klassische menschliche Roboter-Form, wie wir sie aus Filmen kennen. Meine Roboter sind zum Beispiel Fahrzeuge, die selbstständig über Kompostieranlagen fahren und dort Reihen von Kompost wenden und so belüften. Dafür muss der Roboter die Kompostreihen erkennen, aber auch auf Hindernisse reagieren und ihnen ausweichen können.
Roboter haben keine Augen, wie wir Menschen sie haben, sondern können ihre Umgebung mithilfe von verschiedenen Sensoren wahrnehmen. Zum einen haben wir Kameras. Das können entweder „normale“ RGB-Farbkameras sein, die Bilder liefern wie klassische Fotos. Aber es können auch Kameras mit speziellen Funktionen sein, wie zum Beispiel Thermalkameras, die auf Wärme reagieren. Es gibt auch sogenannte Stereokameras, die mit zwei Linsen arbeiten, die gleichzeitig Bilder aufnehmen. Diese Kameras sind dem menschlichen Auge sehr ähnlich und mit ihnen können die Roboter auch dreidimensional „sehen“. So können sie Entfernungen und Dimensionen abschätzen.
Kameras sind aber nicht die einzigen Sensoren oder?
Reitbauer: Nein. Neben Kameras verwenden wir auch noch LiDAR (Light Detection and Ranging)-Sensoren. Das sind Laserscanner, die mit aktiven Lichtimpulsen, die sie aussenden, die Umgebung abtasten. So kann die Umgebung des Roboters sogar direkt in 3D aufgenommen werden. Diese Sensoren sind heute in fast allen autonomen Robotikanwendungen eingesetzt. Autonome Autos verwenden zusätzlich Ultraschall und Radar-Sensoren.
Sensoren und Algorithmen entwickeln sich ständig weiter und damit auch die Fähigkeiten der Roboter. Um besonders gut und in vielen Situationen die Umgebung korrekt wahrnehmen zu können, verwenden Roboter nicht nur einen Sensor, sondern kombinieren viele unterschiedliche Sensoren, um möglichst gut und umfassend sehen zu können.
Warum tun sich Roboter beim Sehen immer noch schwer? Warum sind wir Menschen ihnen da noch immer voraus?
Reitbauer: Roboter sind beim Sehen gar nicht so schlecht. Manchmal können sie sogar Dinge wahrnehmen, die das menschliche Auge nicht sieht – zum Beispiel eben Wärmequellen über Thermalkameras oder Dinge in der Dunkelheit mit dem LiDAR.
Was aber für Roboter immer noch sehr schwer ist, ist, die gesehene Umgebung so zu begreifen, wie wir Menschen es tun. Es ist eine besondere Herausforderung, den Kontext in den gesehenen Bildern richtig einzuordnen, komplexe Situationen richtig zu analysieren und daraus die passenden Schlüsse zu ziehen und Handlungen abzuleiten.