Immer öfter beschleicht einen das Gefühl, dass die Gesellschaft zu verstärkter Polarisierung neigt. Seien es die Maßnahmen während der Covid19-Pandemie, das Thema Impfen, politische Wahlen oder auch der Umweltschutz. Auch TU Graz-Informatikerin Elisabeth Lex beobachtet diesen Trend seit Jahren - allerdings mit dem Blick einer Forscherin. Sie beschäftigt sich mit unterschiedlichen Methoden des Maschinellen Lernens und der Künstlichen Intelligenz und möchte damit nicht nur das menschliche Verhalten besser verstehen können, sondern auch Menschen mittels Recommender Systems das Leben erleichtern. In unterschiedlichen Projekten kooperiert sie gezielt mit Sozialwissenschafterinnen und Sozialwissenschaftern, die sich der Interpretation der von Lex identifizierten Daten widmen. „Das ist das Spannende an dieser Kombination: Lernende Algorithmen ermöglichen uns, Strukturen oder Muster in Datenmengen zu erkennen, die mit unseren menschlichen Kapazitäten nicht überblickbar wären. Mit Hilfe von sozialwissenschaftlichen Modellen und Theorien können wir gefundene Muster und Strukturen dann anschließend interpretieren und analysieren.“
Ein Beispiel: Elisabeth Lex untersuchte im Rahmen einer Kooperation mit der Uni Graz, ob die öffentlich in Sozialen Medien (in diesem Fall dem textbasierten Twitter) getätigten Aussagen mit den Antworten in einer Umfrage übereinstimmen. „Was hier zum Tragen kommt, ist der sogenannte Social Desireability Bias“, erklärt Lex. „Menschen tendieren dazu, ihre Aussagen der Meinung der Masse anzugleichen und Antworten zu geben, von denen sie glauben, dass sie in der gesellschaftlichen Mehrheit vertretbar sind.“ Die Studie, die sich mit den Maßnahmen gegen die Covid19-Pandemie beschäftigte, brachte folgende Ergebnisse: Zum einen ließ sich eine klare Überschneidung zwischen den online geäußerten Meinungen und den Antworten auf die Umfrage feststellen. „So haben wir gesehen, dass unsere informatischen Methoden es durchaus ermöglichen, gesellschaftliche Phänomene abzubilden.“ Wichtig sei aber zu berücksichtigen, dass bei einer Umfrage Antworten auf genau definierte Fragen gegeben werden und so die Meinung einer Person klar und direkt zeigen. Bei einem Twitter-Account gilt es hingegen, die Summe an Tweets zu einem Thema zu betrachten und daraus quasi ein Meinungs-Mittelwert zu berechnen. „Zum anderen konnten wir auch sehen, dass die Menschen, die den Maßnahmen positiv gegenüberstanden, viel eher ihre Accounts mit uns teilten und der Forschung öffneten.“ Heute könnte - wegen des Social Desireability Bias - das Bild bereits ein gänzlich anderes sein, weil es gesellschaftlich akzeptierter ist, die Covid19-Maßnahmen zu hinterfragen und zu kritisieren.
Polarisierung als schwer verständliches Konzept
Polarisierung ist eines der Schlagwörter, mit denen sich Elisabeth Lex in ihrer Forschung hauptsächlich beschäftigt. Dabei ist gerade dieses Thema für eine künstliche Intelligenz ein äußerst komplexes Untersuchungsgebiet, wie Lex erklärt: „Polarisierung ist ein Konzept, das wir Menschen sehr gut verstehen. Aber, und das mussten wir zu Beginn unserer Forschung erkennen, es gibt in den unterschiedlichen Forschungs-Communities kein einheitliches Verständnis der Begrifflichkeiten.“ Was bedeutet, dass dieses Konzept auch einem Algorithmus sehr schwer beizubringen ist. Algorithmen lernen sehr häufig Muster und Strukturen von klar definierten, großen Beispielen. Das so Gelernte können sie dann auf neue Datensätze anwenden. Dieses, „supervised learning“ genannte, Vorgehen ist also im Falle der Detektion von Polarisierung nicht ohne weiteres möglich. Also suchen die Forschenden, unterstützt von maschinellen Modellen, nach Clustern - das sind stark vernetzte Accounts, die häufig miteinander und über ähnliche Themen sprechen. „Wenn wir solche Cluster identifizieren können, dann führen wir Inhaltsanalysen durch, wie beispielsweise eine Sentiment-Analyse – um zu verstehen, ob die Menschen dem Thema positiv, negativ oder neutral gegenüberstehen.“
Framing - Katastrophe oder Erwärmung?
Danach kommen die wohl relevantesten Fragen: Warum kommt es zu dieser polarisierten Meinung? „Hier spielt Framing eine sehr große Rolle“, erklärt Lex. Auf sprachlicher Ebene können die gleichen Inhalte sehr unterschiedlich verpackt werden. Rund um das Thema Klimawandel kann etwa von „Erwärmung“ gesprochen werden oder von „Katastrophe“. „Erwärmung klingt für uns positiv. Wir mögen es warm, also kann es ja nicht so schlimm sein. Das Wort Katastrophe löst aber ganz andere Bilder in unseren Köpfen aus.“ Und genau in diesem Bereich habe sich in den vergangenen Jahren sehr viel gewandelt, wie Lex herausfinden konnte: Wo früher Medien im Dunstkreis von Verschwörungstheorien bereits anhand ihrer Wortwahl und optischen Aufmachung einfach von seriösen Qualitätsmedien unterschieden werden konnten, sind sie sich mittlerweile sehr viel ähnlicher, nutzen gleiche Methoden (etwa in Form von neutral geschriebenen Artikeln und inkludierten Quellenangaben), aber eben unterschiedliche Frames. „Wir haben in unseren Analysen zum Beispiel gesehen, dass in der Covid-Thematik Conspiracy-Theorie-nahe Magazine sehr häufig mit den Frames Glauben und Religion argumentiert haben, seriöse Medien viel stärker aus dem Bereich Wissenschaft.“
Untersucht werden diese Medien wieder mit den Methoden des maschinellen Lernens. Im Hintergrund stehen große Sprachmodelle, wie wir sie etwa von ChatGPT bereits kennen. „Es ist bemerkenswert, wie mächtig diese Modelle bereits sind und wie einfach sie mit unterschiedlichen Sprachen umgehen können“, erzählt Lex von ihren Erfahrungen. Die Forschenden nutzen die bereits verfügbaren Sprachmodelle und adaptieren sie. Der jüngste Erfolg gelang bei der diesjährigen international renommierten SemEval 2023 Challenge, bei der es um das Detektieren von Frames in Texten unterschiedlicher Sprache und mit sehr wenigen bis hin zu gar keinen Trainingsdaten ging (diese Art zu lernen wird als few-shot oder zero-shot learning bezeichnet). „Mein Team erreichte den 1. Platz bei der Erkennung von Frames in Spanisch und unser Ansatz hat in acht weiteren Sprachen Top Platzierungen erreicht“, freut sich Elisabeth Lex.
Furcht vor dystopischer Zukunft
Das große Potential von künstlicher Intelligenz führt aber auch zu Furcht vor ihren Auswirkungen. Wie sieht die Forscherin dieses Thema? „Letztlich können Algorithmen zwar komplexe Zusammenhänge in großen Datenmengen identifizieren und auch Vorhersagen treffen, aber es fehlt ihnen (noch) das tiefgreifende Verständnis von Bedeutung und Kontexten in menschlicher Sprache. Ich habe ganz generell weniger Angst vor einem KI-getriebenen Killer-Roboter. Aber wenn die Durchdringung von KI-generierten Inhalten immer stärker wird und diese immer schwerer von „authentischen“ Inhalten unterscheidbar werden, steigt auch die Gefahr, dass diese zur gezielten Verbreitung von Fehlinformationen und zur Beeinflussung von Meinungen und demokratischen Prozessen eingesetzt werden. Menschen sind sehr zwar gut darin, zwischen den Zeilen zu lesen und auch Absichten hinter Aussagen zu erkennen - dennoch wird die Entwicklung von Technologien zur Erkennung von missbräuchlichen KI-generierten Inhalten von großer Bedeutung sein.