Talk Science To Me ist der neugierigste Wissenschaftspodcast der Podcastwelt – aber vor allem der TU Graz. Wir stellen Fragen – unsere Forschenden antworten. Von künstlicher Intelligenz über Nachhaltiges Bauen bis hin zu Mikroorganismen, die sich von CO2 ernähren und so Proteine erzeugen. Hört rein und lasst euch begeistern.
Abonniert die neuesten Folgen auf der Podcast-Plattform eures Vertrauens:
iTunes
Google Podcasts
Spotify
Deezer
Amazon Music
RSS-Feed
Der folgende Text ist ein wörtliches Transkript der Podcastfolge.
Talk Science to Me - der Wissenschaftspodcast der TU Graz
Herzlich Willkommen bei Talk Science to Me, dem Wissenschaftspodcast der TU Graz. Mein Name ist Birgit Baustädter und heute spreche ich mit TU Graz-Forscherin Elisabeth Lex, die mittels künstlicher Intelligenz und maschinellem Lernen nicht nur Menschen besser verstehen möchte, sondern auch ihre ganz persönlichen Musikvorschläge verbessern will.
Talk Science to Me: Liebe Elisabeth, vielen Dank, dass du heute Gast bist und meine Fragen zum Thema künstliche Intelligenz beantwortest. Du bist Forscherin am Institute of Interactive Systems and Data Science und beschäftigst dich eben sehr stark mit künstlicher Intelligenz. Könntest du mir kurz beschreiben, was machst du den ganzen Tag? Woran forschst du? Was sind aktuelle Fragestellungen, die sich dir auftun?
Elisabeth Lex: Sehr gerne. Dank erstmal für die Einladung. Ich freue mich, dass wir über dieses wichtige Thema sprechen können. In meiner Forschung geht es, wie du schon richtig angesprochen hast, viel um künstliche Intelligenz, viel um maschinelles Lernen. Und ganz konkret beschäftige ich mich damit, große Datenmengen zu analysieren, um interessante Spuren und Muster zu detektieren, die etwas aussagen über menschliches Verhalten. Einerseits, um menschliches Verhalten auch besser zu verstehen – gerade im Kontext des Internets, im Kontext des Webs. Und andererseits, um auch Personalisierungsalgorithmen bestmöglich beim Zugang und beim Zugriff auf Informationen zu unterstützen. Und ich bin eben Wissenschafterin. Das heißt einen großen Teil meines Alltags beschäftige ich mich damit, neue Forschungsfragen zu finden, Algorithmen zu entwickeln, zu testen, verschiedenste Fragestellungen mit Datensätzen zu beantworten. Ich arbeite beispielsweise sehr viel mit Musikdaten, weil es sehr interessant ist, wie Menschen Musik konsumieren und überhaupt mit kulturellen Artefakten umgehen. Ich schreibe Papers. Und ich habe natürlich einiges auch in der Lehre zu tun, wo ich dann versuche, meinen Studierenden diese Art von Technologien näher zu bringen, sodass sie auch selbstständig Forschung betreiben können.
Welche Fragestellungen gibt es da im Bereich Musik? Und warum genau Musik?
Lex: Musik ist ein spannendes Anwendungsfeld. Man kennt wahrscheinlich diese ganzen Musikstreaming-Plattformen wie Spotify, LastFM, Apple Music und so weiter und so fort. Und die werden wirklich von Millionen von Menschen täglich genutzt. Das heißt, man hat wahnsinnig viel Information, welche Musik hören welche Menschen zu welcher Tageszeit in welchem Kontext in welchem Land in welcher Sprache. Und kann damit sehr gut verstehen, wie Musik als kulturelles Artefakt weltweit genutzt wird. Und auch, wie sich verschiedene Teile in Musik-Genres oder auch Länder gegenseitig beeinflussen. Das finde ich sehr spannend. Und ein großer Teil von Musik ist ja auch die Empfehlungsalgorithmen. Es wird so viel Musik produziert und erstellt. Und wenn man sich diese Musikkataloge in den Systemen anschaut, dann würde man es als Mensch nie schaffen, dass man es wirklich alles durchhört und da Dinge findet, die für einen interessant sind. Und da braucht man eben Algorithmen, die einem helfen, das was man gerne hören würde in einem bestimmten Kontext, in einer bestimmten Zeit, in einer bestimmten Mood zu finden. Und diese Art von Design von Algorithmen, das ist was, das ich besonders spannend finde.
Und was hast du schon alles herausfinden können über das Musik-Hör-Verhalten von Menschen? Und was es dann zulässt an Rückschlüssen über den menschlichen Alltag und die kulturellen Gegebenheiten?
Lex: Ganz spannend ist, dass es Ländercluster gibt. Es gibt Länder, die hören gemeinsam ähnliche Musik. Das ist oft stark durch die Sprache der Lyrics geprägt. Also spanische Cluster findet man stark. Man findet portugiesische Cluster. Man findet heraus, dass es manche Länder gibt, wo die Musik sehr lokal ist. Wo es wenig Einfluss von außen gibt. Das ist zum Beispiel im Bereich des Metals in Finnland. Da gibt es eine starke Community. Und das sieht man auch an Leuten, die angeben, aus Finnland zu sein, dass sie sehr stark dies Art von Musik hören und weniger beeinflusst werden von diesem globalen Mainstream, der ja stark aus dem amerikanischen Bereich in diesen Streamingplattformen vertreten ist. Und das finde ich persönlich sehr interessant. Also, dass man sieht, dass es gerade bei manchen Ländern so ist, dass nicht der amerikanische Musikmarkt ist, der alles dominiert. Gleichzeitig sieht man in diesen Plattformen auch, dass manche Arten von Usern nicht so gute Empfehlungen bekommen von den Algorithmen und von den Systemen. Das sind beispielsweise Leute, die nicht genau diesen Mainstream bevorzugen. Sondern die Nischen-Musik hören, die Nischen-Genres hören. Und da haben wir in einer Studie ganz schön gezeigt, dass die Algorithmen für manche Genres ganz schlecht personalisieren könne. Weil da das Userverhalten so divers ist, von den Leuten, die so eine Art von Musik bevorzugen, dass man die schwer in Gruppen zusammenfassen kann. Und das ist ja, was Algorithmen gerne tun – Menschen in Gruppen zusammenfassen. Und dann quasi das Beste für die Gruppe zur Verfügung zu stellen.
Das wäre meine nächste Frage gewesen: Wie funktionieren solche Vorschlags-Algorithmen?
Lex: Die funktionieren so, dass man Daten hat. Und Daten sind jetzt Musik-Artefakte. Das kann ein Stück sein, das kann ein Genre sein. Und das man Hörer hat. Und diese Information wird ja mitrecordet in den Plattformen. Das heißt, ich weiß ganz genau, zu welchem Zeitpunkt eine Person welches Musikstück konsumiert hat. Und das weiß ich für jede Person. Und dann habe ich viele Nutzer auf diesen Plattformen. Damit weiß ich das für sehr viele Leute. Das heißt, ich habe eine sogenannte Listening-History, von dem, was die Leute in der Vergangenheit konsumiert haben. Dann kann ich jetzt KI anwenden und in dieser Listening-History interessante Muster finden, interessante Gruppierungen finden, Cluster finden, oder auch Spuren, die mir helfen, damit ich vorhersage, was diese Person vermutlich mögen wird. Also Dinge, die ähnlich sind, aber noch neu genug, sodass die Person vielleicht sogar überrascht wird. Da kann man auf ganz unterschiedliche Metriken optimieren. Man kann versuchen ganz genau das zu treffen. Zum Beispiel die Person hat in der Vergangenheit Beatles-Lieder gehört. Schlage ich halt lauter Beatles-Lieder vor, die die Person noch nicht gehört hat. Ist aber auf Dauer nicht spannend. Wird die Person nicht begeistern. Die Challenge ist, dass man auch Dinge vorschlägt, die neu und interessant sind, aber nicht zu weit davon entfernt, was die Person sonst bevorzugt.
Das heißt, als User kann ich das auch ein bisschen mittrainieren.
Lex: Ich kann das ein bisschen mittrainieren, indem ich mein Verhalten immer wieder einmal auf die Probe stelle und ändere. Und wenn man zum Beispiel Spotify-User ist, dann sieht man, dass einen Spotify auch dazu anregt, dass man das tut. Dass man immer mal wieder seinen Musik-Geschmack ändert. Sie haben zum Beispiel dieses Discover Weekly schon recht lange, wo man dann immer wieder Titel sieht, Bands sieht, Künstler sieht, die man vielleicht noch gar nicht gekannt hat. Und so quasi seinen Geschmack testen kann. Ob man den erweitern möchte oder nicht.
Tust du das? Gehst du so um mit den ganzen Empfehl-Algorithmen?
Lex: Grundsätzlich schon. Und mein Interesse daran, wie gut funktioniert das für Menschen, die nicht Mainstream hören, ist auch stark geprägt durch meine eigenen Erfahrungen mit den Plattformen so geprägt worden. Weil ich selbst immer wieder darunter gelitten habe, dass diese Empfehl-Algorithmen für mich nicht so gut funktioniert haben. Und es ist natürlich spannend. Man kann da, indem man sein Verhalten in gewisser Weise anpassen, indem man immer etwas Neues findet. Aber ich persönlich finde, da gibt es noch Luft nach oben. Und deshalb beschäftige ich mich auch mit der Entwicklung dieser Art von Algorithmus.
Damit du bessere Vorschläge bekommst.
Lex: Damit ich bessere Vorschläge bekomme. Ganz altruistisch.
Jetzt wäre es natürlich sehr interessant, wenn du es sagen möchtest, welche Art von Musik du hörst?
Lex: Ich höre relativ divers. Ein sehr diverses Set an Genres. Und bin eben stark in der Metal-Music verhaftet. Und dort auch eher in der unpopulären Metal-Music. Und da ist teilweise schwierig, je nach Plattform, dass man auch Dinge findet, die nicht „Enter Sandman“ von Metallica sind. Nichts gegen das Lied. Das ist ein schönes Lied.
Danke für die Klarstellung. Ich gehe jetzt davon aus, dass das auch ein Musikgeschmack ist, der im „natürlichen“ Leben, außerhalb der Plattformen recht schwer zu finden ist. Jetzt, wenn man von früher ausgeht, in Plattenläden oder wo auch immer. Hast du das Gefühl, dass diese Algorithmen einen eher in eine Richtung pushen, die in den Mainstream geht oder ist das eine Abbildung von dem, was so und so schon existiert hat?
Lex: Ja, das ist eine interessante Frage. Weil da gibt es auch viel Forschung dazu und auch aus meiner Gruppe, wo wir gezeigt haben, dass diese Plattformen durchaus einen Popularity-Bias aufweisen. So heißt der Fachterminus dafür, dass man in Richtung Mainstream gepushed wird. Das heißt, auch wenn man eine Listening-History hat, wo Nischen-Items drin sind, über die Zeit bekommt man immer mehr Mainstream-Items auch empfohlen. Weil eben die populären Items überwiegen. Die haben grundsätzlich mehr User, die diese Items konsumieren. Die haben mehr Daten. Das ist natürlich für einen Mashine Learning-Algorithmus immer gut, wenn man viele Daten hat. Abgesehen von diesen Mechanismen, die es bei manchen Plattformen gibt, dass manche Singer auch gepushed werden, dass alles ja nicht immer organisch ist, was da passiert. Das ist schon ein Problem. Eine KI lernt von Daten. Je mehr Daten, desto besser kann sie daraus ein Modell ableiten. Das halt dann in diesem Fall nicht für alle gut funktioniert.
Du hast ja schon erwähnt, eine KI lernt von großen Mengen an Daten. Jetzt ist es so, dass künstliche Intelligenz nicht ausschließlich im Musikbereich eingesetzt werden, sondern in sehr vielen Bereichen unseres Lebens. Und man hört dann häufig, KI sind gefährlich, wenn sie Entscheidungen treffen, KI sind rassistisch, KI sind sexistisch. Und noch viele andere Dinge. Da ist wieder die Frage: Kann ein Algorithmus diese Dinge wirklich sein oder ist das eher ein Abbild der Daten, die ja aus der Gesellschaft kommen?
Lex: Ja, man muss da unterscheiden zwischen dem, was man meint mit „etwas ist rassistisch“, „etwas ist diskriminierend“. Das würde voraussetzen, dass es ein konkretes Bewusstsein gibt dafür, was bedeuten diese Begriffe und was bedeuten Handlungen, die ich setze, um diskriminierend zu agieren. Momentan, in der KI, die es gibt, gibt es kein Bewusstsein in dieser Hinsicht, da gibt es keine bewussten Entscheidungen, dass man diskriminierend agiert. Ist auch nicht beim Menschen immer bewusst. Aber es sind Mechanismen am Werk, Stereotype, die man gelernt hat. Eine KI ist im Wesentlichen ein Abbild von dem, was man ihr zeigt. Und nachdem die typischer Weise auf Daten trainiert sind, die sehr große Mengen umfassen, die sehr oft aus dem Internet und von verschiedenen Plattformen ienfach gecrawled wurden, sind da natürlich auch Daten drinnen, die diskriminierend sind, die hateful sind, wo Biases drinnen sind, wo Seximus drinnen ist. Wenn ich das einem Mashine Learning-Algorithmus zeige, dann wird er auch diese Muster und Korrelationen erkennen und in seine Vorhersagen einfließen lassen. Das heißt aber nicht, dass das bewusst so gemacht wird. Man muss schon entscheiden, was ist die menschliche Perspektive darauf und was ist die technische Perspektive auf dieses Thema. Das ist auch ganz wichtig, dass man das weiß. Man kann jetzt nicht so weit gehen zu sagen, diese KI ist böse, weil die hat diskriminierend entschieden. Über einen Menschen kann man das sagen. Oder über Menschen, die die KI designen.
Du hast es schon erwähnt: Es ist kein Bewusstsein dahinter. Was ist die künstliche Intelligenz, die wir heute kennen? Was ist das? Ist das Intelligenz? Ist das etwas Anderes? Was ist eigentlich Intelligenz?
Lex: Was Intelligenz ist, ist natürlich eine gute Frage. Da gibt es keine klare Definition. Ich verstehe es so: Das ist eine menschliche Fähigkeit grundsätzlich, mit der man komplexe Probleme lösen kann, mit der man lernen kann. Mit der man ableiten kann von Gelerntem und es auf etwas Neues anwenden kann. Und eine künstliche Intelligenz ist ein Abbild dessen, von diesen intelligenten Fähigkeiten, die normalerweise ein Mensch tun würde. Damit kann künstliche Intelligenz sehr viel leisten in sehr gut definierten Aufgabenbereichen. Manchmal kann es viel mehr leisten, wenn die Aufgabenbereiche sehr gut umrissen sind. Zum Beispiel beim Erkennen von Mustern in großen Datenmengen. Das funktioniert mit einer KI sehr gut. Und Menschen können oft diese ganzen Daten gar nicht überblicken, weil es einfach viel zu viel ist. Aber es ist schon ein Unterschied, noch, zwischen künstlicher Intelligenz und Intelligenz. Diese generelle Intelligenz, von der ja auch immer wieder gesprochen wird, gerne auch in Science Fiction-Büchern, aber mittlerweile auch in der breiten Masse, die gibt es in diesem Sinne noch nicht.
Wenn wir noch einmal ganz zum Anfang zurückgehen: Du bist ein Mensch, mit menschlicher Intelligenz, der künstliche Intelligenz verstehen ider nutzt, um dann wieder Rückschlüsse auf menschliches Verhalten zu ziehen. Verstehe ich das richtig?
Lex: Genau, ja. Momentan ist KI ein Tool für Menschen, um gewisse Aufgaben effizienter machen zu können. Und auch manche Dinge, die für den Menschen gefährlich sind, sehr gut lösen zu können. Aber es ist mehr oder minder noch eine Erweiterung der menschlichen Fähigkeiten. Zumindest ist das meine Perspektive darauf.
Aber warum gehst du diesen „Umweg“ über die künstliche Intelligenz? Du könntest ja auch direkt sozialwissenschaftliche Methoden anwenden.
Lex: Ja, das ist richtig. Könnte man natürlich. Und das wird in vielen Bereichen ja auch noch gemacht. Es gibt genug Aufgaben, die Menschen sehr gut können und die KI noch nicht so gut kann. Aber man hat eben den Faktor des Scales. Man kann wirklich mit riesigen Datenmengen echt effizient operieren. Wenn sich das Menschen alles durchlesen müssten, dann wäre das schon alleine ein Zeitfaktor, der enorm ist. Und das würde auch gar nicht gehen. Und das ist der Vorteil, was KI wirklich bietet. Es kann Schlüsse ziehen über riesige Datenmengen in einer extrem kurzen Zeit. Das ist die Stärke von dem. Und die Mustererkennung ist wirklich sehr gut. Und gerade, wenn man auf die Verhaltensdaten zurückgehen. Wenn man einer KI riesige Mengen an Verhaltensdaten zeigt, dann sieht sie oft Sachen, die man als Mensch gar nicht sehen würde, weil man es in dieser Fülle von Informationen gar nicht die Aufmerksamkeitsspanne hätte, um das zu sehen.
Zum Beispiel?
Lex: Wenn man sich zum Beispiel ansieht, wie politische Wahlen gesteuert werden in Social Media, dann würde man als Mensch sehr lange brauchen, um zu sehen, wer sind da die Stakeholder, wer redet mit wem, in welcher Sprache wird da gesprochen. Vielleicht ist das auch nicht in meiner Muttersprache, dann müsste ich eine Übersetzungskomponente haben. Also wäre das für einen Menschen sehr aufwändig, das zu analysieren. Wohingegen eine KI den Text nehmen kann, den übersetzen kann, dort recht effizient die Hauptakteure raus extrahieren kann. Wer redet mit wem? Netzwerke aufbauen kann. Und das Ganze dann auch noch über die Zeit analysieren kann. Da würde ein Recherche-Team an Journalisten sehr lange brauchen. Da gibt es ja auch schon sehr gute Beispiele, wie Journalisten das genutzt haben. Die Panama-Papers. Da ist ja durchaus KI eingesetzt wurden, um das journalistische Projekt zu unterstützen bei der Recherchetätigkeit.
Und dieser Bereich ist ja auch ein Thema deiner Arbeit. Polarisierung. Wie Wahlen funktionieren. Wie Meinungsbeeinflussung passiert. Wie Meinungen gebildet werden.
Lex: Genau. Das, finde ich, ist auch ein sehr wichtiges Thema. Und ich finde, das ist eine der großen Challenges in den nächsten Jahren, wo einerseits KI ein gewisser Verursacher sein kann, weil man sehr effizient Fake-News generieren kann. Sehr effizient gefälschte Bilder, Videos, Tonspuren von Personen generieren kann. Auf der anderen Seite kann es uns auch helfen, Bots zu detektieren, Accounts, die wirklich Fehlverhalten aufweisen, die Content verbreiten, der gefährlich ist, der Bevölkerungsgruppen diskriminiert. Es ist Source und Remindy. Gleichzeitig befinden wir uns in einer Zeit, wo Informationskriege immer wichtiger werden, oder immer mehr geführt werden. Das heißt, Akteure versuchen gezielt Informationen zu verbreiten, schauen, dass das möglichst viele Menschen lesen, damit interagieren. Und streuen das gerne über verschiedene Social Media-Kanäle. Das heißt, da wird es meiner Meinung nach immer wichtiger, dass man auch mit KI analysiert, was sind da die Meinungen, wie werden die gestreut, wie werden die beeinflusst, welche Muster strahlen die aus, welche Frames. Ich beschäftige mich auch viel mit dem Thema Framing. Das heißt, wie werden die Informationen dargestellt, welche Emotionen sollen die ansprechen in den Menschen. Weil man ja weiß, dass Emotionalisierung immer hilft, wenn man Menschen gezielt ansprechen möchte. Im Guten wie im Schlechten. So in diese Richtung geht dann meine Forschung. Hier ist es dann besonders spannend, wenn man dann nicht nur mit Informatikern kooperiert, sondern auch mit Sozialwissenschafterinnen und -wissenschafter, Psychologinnen und Psychologen, Leuten aus der Rechtswissenschaft. Weil die dann ganz differenzierte Perspektiven auf Datenspuren bieten können. Man steht dann oft da, hat ein Muster gefunden, eine Datenspur gefunden, die interessant erscheint, aber man kann sie nicht richtig interpretieren. Und die helfen uns dann, das in einen richtigen Kontext zu setzen.
Wo bekommst du diese großen Mengen an Verhaltensdaten her, die da benötigt werden?
Lex: Bislang ist das recht gut gegangen, dass man sich viele Daten aus dem Internet über APIs geholt hat. Über so Programmierinterfaces. Viel Forschung ist da im Bereich Twitter, jetzt heißt es ja X, gelaufen. Die hatten sogar eine eigene Academic API, das heißt, wo wirklich Wissenschafterinnen und Wissenschafter aufgefordert wurden, die Daten zu nehmen und zu beforschen, was auf der Plattform so passiert. Schon auch mit dem Hintergedanken, dass wenn man Dinge findet, die nicht in Ordnung sind, man das transparent macht. Und so ist viel Forschung passiert mit diesen Social Media-Daten. Mittlerweile hat X diese Academic API abgedreht. Man müsste jetzt die Daten sehr teuer kaufen. Es haben ein paar andere Social Media-Plattformen nachgezogen. Also jetzt wird es spannend. Man kann noch immer einiges sich aus dem Internet holen, über Web-Scraping. Aber es wird definitiv immer schwieriger, weil die Plattformen immer enger werden, wem sie Zugang zu ihren Daten erlauben. Hat auch den Grund, dass jetzt mittlerweile sehr viel generative AI auf den Markt gekommen ist, so wie ChatGPT, das kennt man ja wahrscheinlich. Und diese generative AI braucht auch sehr viele Daten zum Trainieren, damit sie uns diese schönen Texte generieren kann. Und diese Anbieter haben einfach auch immer diese Social Media-Daten genutzt. Ungefragt. Als Nutzerin oder Nutzer hat man gar nicht einmal gewusst, dass man ein Trainingsobjekt für so einen Algorithmus ist. Jetzt sagen die Plattform-Provider schon auch: „Halt! Ihr könnt unsere Daten nicht einfach verwenden! Unsere User wissen das gar nicht. Und deshalb drehen wir den Zugang ab.“ Noch kriegen wir Daten aus dem Internet. Aber man wird sehen, woher die kommen. Und gleichzeitig, ich habe die Kooperation mit den Sozialwissenschafterinnen und -wissenschafter ja schon angesprochen, gleichzeitig greifen wir auch auf klassische Daten zurück, wie Umfragedaten, um etwas über das menschliche Verhalten und über Meinungsbildung zu erfahren. Und in der Vergangenheit haben wir das dann auch kombiniert. Das wir klassische Umfragedaten hatten, wo man die Leute beispielsweise zu Policies aus der COVID-Phase befragt haben, und das dann angereichert haben um Meinungen, die die Leute im Internet geäußert haben. Und dann auch abgeglichen haben, um zu schauen, inwieweit deckt das, was die Leute im Web sagen, das ab, was sie sagen, wenn man sie auf der Straße befragt. Und man sieht da durchaus eine gewisse Kongruenz in den Meinungen.
Und wenn ihr dann die Daten habt, wie geht es dann weiter praktisch?
Lex: Praktisch ist das so: Man hat dann einen sehr großen Datensatz und man muss dann einmal ein paar Statistiken auf dem Datensatz rechnen damit man weiß, welche User hat man da drinnen. Welche Art von Information hat man überhaupt. Man bekommt dann oft nur ein abstrahiertes Bild vom User. Was auch sinnvoll ist, um den Datenschutz zu wahren. Der Sinn von diesen Statistiken ist auch zu schauen, ob es irgendwelche problematischen Effekte gibt in den Daten. Ob es zum Beispiel einen Übergang in den Daten gibt – um beim Musik-Beispiel zu bleiben – an männlichen Hörern vs. weiblichen Hörern. Weil, wenn ich dann sage, ich mache einen Algorithmus und der funktioniert dann nur für die männlichen Hörer sehr gut und für die weiblichen nicht so gut, dann habe ich vielleicht auch ein Problem, ohne behirnt zu haben, dass es so ein Problem geben könnte. Das heißt, man muss einmal diese Daten bereinigen und auch überprüfen, welche Art von Problemen in den Daten drinnen sind. Und erst dann kann ich so weit gehen und überlegen, wie kann ich diese Daten nutzen, um Algorithmen zu designen oder auch, um solche Probleme zu analysieren, wie Biases, wie Sexismus, und dann wieder geeignete Methoden zu entwickeln, um die Probleme zu beheben. Und dann wird das typischer Weise publiziert. Die Datensätze, soweit es erlaubt ist, veröffentlichen wir, damit es auch andere in der Forschungscommunity damit arbeiten können, damit die Ergebnisse reproduzierbar sind. Und so funktioniert das typischer Weise.
Welches Potential siehst du in den nächsten Jahren für künstliche Intelligenz?
Lex: Ich denke, künstliche Intelligenz wird auf jeden Fall bleiben und ich sehe viel Potential darin. Vor allem, was spezifische Anwendungsfelder betrifft. Im Bereich Klimaforschung erwarte ich mir eigentlich große Sprünge. Es ist mittlerweile schon so, dass die Klimaprognosen sehr genau sind, aber da gibt es sicher noch vieles, was da getan wird. Im Bereich Gesundheitswesen gibt es sehr viele Innovationen, was das Erkennen von Krankheiten betrifft. Tumorerkennen aus Bildern. Da habe ich selber auch eine Kooperation mit der Med Uni Graz, die in die Richtung geht, dass man auch Datenanalysen auf medizinischen Daten macht, um zum Beispiel auch zu untersuchen inwieweit ein transplantiertes Organ halten wird oder nicht halten wird. Im Bereich Entwicklung von personalisierter Medizin. Weil da habe ich auch ein persönliches Interesse daran. Viele der Medikamente sind getestet für eine normierte, männliche Gruppe und funktionieren bei weiblichen Personen oder Personen, die nicht männlich sind, nicht so gut. Da erwarte ich mir auch sehr viel. Was wir gesehen haben in den letzten paar Jahren oder eigentlich die ganze Zeit sehen ist, dass die KI schon sehr gut ist, was das Verstehen von natürlicher Sprache betrifft. Übersetzungs-Apps sind ja ein Gamechanger würde ich einmal sagen. Ich habe es selbst gerade gebraucht, als ich im Urlaub eine Autopanne hatte im tiefsten Italien und kann nicht gut genug Italienisch, um mit dem Mechaniker zu sprechen. Und wir haben das dann gut über Google Translate gelöst, wo wir beide reingesprochen haben in unserer eigenen Sprache und es dann übersetzt wurde. Das hat sehr gut funktioniert. Also im Verstehen von unserer eigenen Sprache denke ich wird es noch viel Potential geben. Das funktioniert schon ganz gut, aber die Einbettung in einen bestimmten Kontext funktioniert noch nicht so gut, damit man versteht, was Sprache in einem bestimmten Kontext bedeutet. Also ich denke, da sind noch große Innovationen, die uns bevorstehen. Und natürlich in allem, was autonome System sind – Roboter, selbstfahrende Autos, Drohnen. In Österreich sieht man noch relativ wenig, weil das Terrain für selbstfahrende Autos sehr schwierig ist mit den Bergen, den kurvigen Straßen. Aber ich denke, da wird noch sehr viel passieren. Und ich bin echt schon gespannt, wie das in fünf oder zehn Jahren aussehen wird.
Aber das sind jetzt alles Anwendungen, wo KI als Tool verwendet wird, wie es jetzt verwendet wird. Siehst du aus deiner Forschenden-Sicht, Potential, dass das in eine generellere Richtung geht, wie man es jetzt aus der SciFi zum Teil kennt?
Lex: Ich denke, über kurz oder lang wahrscheinlich schon, weil da große Stakeholder daran arbeiten und da viel Geld hineinpumpen. Und da kommt normalerweise auch dann etwas raus. Was das genau sein wird, das ist die Frage. Weil dazu müsste man einmal verstehen, wie menschliche Intelligenz tatsächlich funktioniert. Wie das menschliche Gehirn wirklich funktioniert. Und meines Wissens nach weiß man das noch nicht so ganz genau. Auch wenn man jetzt ein sehr mächtiges generatives AI-Modell hat, dann ist das immer noch sehr viel weniger mächtig als das menschliche Gehirn. Ich bin ja Informatikerin und man kommt dann schnell in eine philosophische Ecke. Eben: Was ist Intelligenz? Was ist das Bewusstsein? Woher kommt das? Das sind alles Fragestellungen, die wissen wir noch nicht. Und je nachdem, wie man es definiert, kann man wahrscheinlich sagen, man ist dort bald oder eben noch nicht. Ich persönlich sehe es noch nicht, dass das soweit sein wird, dass wir eine generelle Form von künstlicher Intelligenz bald haben werden. Vielleicht wünsche ich mir das auch, dass das nicht so schnell passiert. Ich finde ja, die AI ist sehr gut als Tool. Aber ich denke, Menschen sind sehr gut in ihren Fähigkeiten. Das war immer mein Antrieb in der Forschung, eigentlich schon, seit ich Dissertantin war: Ich will immer Menschen intelligenter machen und Menschen unterstützen, dass sie ihre Sachen möglichst gut machen können. Und das bleibt auch weiterhin mein Ziel, meine Vision.
Gibt es vielleicht heute schon eine Entwicklung, die absehbar ist, auf die du dich besonders freust in dem Bereich?
Lex: Ich habe grundsätzlich nicht so viel Angst vor autonomen Systemen. Da gibt es vieles, auf das man sich freuen kann. Effizientere Transportsysteme sind da bei mir ganz oben auf meiner Liste wo ich mich freue, wenn es das gibt. Wenn ich mich mehr entspannen kann, wenn ich mit einem Fahrzeug wohin fahre und mich nicht so anstrengen muss. Wenn es mehr öffentlichen Verkehr gibt, der quasi autonom fährt. Das sind Dinge, auf die ich mich freue.
Gibt es ein Problem oder eine Fragestellung, die du persönlich gerne lösen würdest?
Lex: Das größte Problem mit der KI ist, dass es in vielen Fällen intransparent ist, dass es Biases gibt. Das es Probleme gibt mit Privacy von Daten. Dass es noch immer sehr viel menschlichen Effort braucht, damit es läuft. Es müssen immer noch sehr viele Menschen problematischen Content ansehen und labeln, damit der problematische Content in dieser Form nicht mehr auftaucht. Das sind Probleme, die würde ich gerne lösen. Wie kann man KI vertrauenswürdig machen? Wie kann man KI transparent machen? Wie kann man schauen, dass der ganze Prozess an sich fairer abläuft, damit es nicht so ist, dass Menschen in ärmeren Ländern den Content labeln müssen. Da gibt es wahrscheinlich auch effizientere Methoden, wie man es dann machen kann. Da gibt es Fragestellungen, die sehr wichtig sind. Ich bin auch sehr froh, dass ich in der Europäischen Union lebe, weil wir haben ein Bewusstsein dafür, dass man das tun muss und tun soll. Und da bietet die Europäische Union auch den richtigen Rahmen mit den Guidelines, die sie vorgeben, damit man es schafft, dass die KI auch so wird, dass sie dem Menschen nicht schadet, sondern benefitial ist.
Vielen Dank für das Interview!
Lex: Vielen Dank für die Einladung!