Mit Forschung gegen Fake News

Ein Video, das einen Kriegsschauplatz zeigt. Es sieht täuschend echt aus, doch in Zeiten von Fake News ist Vorsicht angesagt: Waren die gezeigten Personen wirklich dort, oder wurden ihre Gesichter ausgetauscht? Stimmt es, was die Menschen im Video sagen? Und: Ist das Gezeigte überhaupt passiert?
Fragen wie diese zeugen nicht von übertriebener Skepsis, sagen Experten. Manipulierte Videos, Bilder und Audiodateien sowie Texte mit Falschinformationen, die gezielt gestreut werden, stellen ein ernsthaftes Problem für Medien, Behörden und damit für die Demokratie dar: Darüber ist man sich am Austrian Institute of Technology (AIT) und an der Donau-Universität Krems einig. Eine Umfrage der Universität zeigt etwa, dass die Mehrheit jener Menschen, die beruflich mit Falschinformationen zu tun haben, glaubt, dass Fake News deutlich schneller und qualitativ besser voranschreiten als Gegenmaßnahmen möglich sind.
Das Grundproblem: Manipulierte Inhalte sind oft nicht als solche zu erkennen. Hier kommt „defalsif-AI“ ins Spiel: Das digitale Analyse-Tool — entwickelt vom AIT, dem Unternehmen enliteAI und der Donau-Uni — kombiniert Techniken der Künstlichen Intelligenz, um Manipulationen zu erkennen. Und das mit einer Genauigkeit von 95 Prozent. Mehr sei technisch noch nicht möglich, da ein Computer zum Beispiel keinen Sarkasmus erkennen kann, erklärt Walter Seböck. Er leitet das Zentrum für Infrastrukturelle Sicherheit der Donau-Universität Krems. Künstliche Intelligenz meint Systeme, die selbst lernen, Muster erkennen und dadurch treffsicherer werden. Nicht alle Daten müssen also händisch programmiert werden.
Testlauf bei APA, ORF und in Ministerien
Projektstart von „defalsif-AI“ war im Herbst 2020. Jetzt ist Halbzeit, und die Entwicklung des Analyse-Tool ist laut Seböck schon sehr weit vorangeschritten. Nun müsse es weiterentwickelt werden. Die Austria Presse Agentur (APA), der ORF, das Bundeskanzleramt, das Verteidigungs- und das Außenministerium testen das Tool im Berufsalltag. Die Verwendung ist komplex, dafür braucht es spezielle Schulungen. Auch am Tool selbst muss noch gefeilt werden. Etwa am sogenannten „Overblocking“: Das sei der Fall, wenn das Tool zu viele Informationen als falsch identifiziert, die es nicht sind.
„defalsif-AI“ soll aber nicht nur analysieren, die Ergebnisse der Analyse müssen für die Benutzer auch nachvollziehbar sein. Bis zum Projektende im Herbst 2022 soll sowohl der technologische, als auch der sozialwissenschaftliche Teil von „defalsif-AI“ abgeschlossen sein. Für Letzteren ist die Donau-Universität zuständig. Sie hat die Bedingungen erhoben, unter denen das Tool anwendbar sein kann. Und sie beschäftigt sich gemeinsam mit dem österreichischen Research Institute mit ethischen und rechtlichen Konsequenzen sowie den Auswirkungen von Fake News auf das gesellschaftliche Miteinander. Als Beispiel nennt Seböck die aktuelle Pandemie-Situation, in der mit gezielter Desinformation auf Sozialen Medien Angst beim Thema Schutzmaßnahmen gestreut werde. Das befeuere die gesellschaftliche Spaltung.
„defalsif-AI“ analysiert audiovisuelle Inhalte und in weiterer Folge auch Texte. Faktenchecks durch kritische Journalisten und Behörden werde das nicht ersetzen. Es kann jedoch eine große Hilfe sein.