Samstag, 20. April 2024

DYNAMO – Erkennen und Bekämpfen von Desinformationen in Messenger-Diensten

Must read

Desinformationen, umgangssprachlich auch „Fake News“ genannt, sind Mitteilungen, die sich wie Nachrichten geben, aber bewusst falsch sind und beabsichtigen, Schaden oder Unfrieden in der Gesellschaft auszulösen. Eine Nachricht muss also absichtlich falsch sein, um als Desinformation zu gelten; eine falsche Aussage aus Unwissen heraus würde nicht als Desinformation bezeichnet werden. Und sie muss einen Inhalt haben, der für viele eine Bedeutung hat. Nur so wird eine Wirkung durch seine Falschheit erreicht. Eine einfache Unwahrheit ist also ebenfalls keine Desinformation.

So eine Desinformation muss aber nicht nur erzeugt werden. Sie hat erst dann eine große Wirkung, wenn sie verbreitet und von vielen gelesen, gehört oder gesehen wird. Dafür gibt es eine ganze Reihe von Möglichkeiten. Früher waren Zeitung, Radio und Fernsehen die einzigen Informationsquellen, auf die fast alle Bürger*innen Zugriff hatten. Hier war eine Kontrolle von Inhalten verhältnismäßig einfach. Journalist*innen konnten die Nachrichten überprüfen, bevor sie verbreitet wurden. Natürlich gab es auch hier immer wieder Falschmeldungen und Richtigstellungen.

Mit dem Internet kam aber eine ganz neue Art der Kommunikation auf: Jetzt kann jede*r eine Mitteilung verfassen, die von sehr vielen Menschen gelesen werden kann, beispielsweise in Sozialen Medien, in Foren oder in den Kommentaren zu Online-Artikeln von Zeitungen.  Diese Mitteilungen sind nur schwer zu kontrollieren, weil es sehr viele Nutzer*innen und gibt und diese immer neue Texte verfassen und veröffentlichen wollen.  Eine Prüfung wie bei klassischen Nachrichten ist daher nicht mehr oder nur mit sehr viel Aufwand und hohen Kosten möglich. Verfassen Nutzer*innen dann Texte, die wie eine Nachricht wirken und angeblich wichtige Informationen verbreiten, die aber bewusst und mit böswilliger Absicht falsch sind, dann sind wir bei Desinformationen angekommen.

Solche Desinformationen können darauf abzielen, Personen gegen andere Personen, Konzepte, Organisationen oder Dinge aufzuwiegeln und damit Unfrieden zu erzeugen. Menschen werden dann angefeindet, weil man im Internet gelesen hat, dass sie sehr wahrscheinlich Terrorist*innen sind. Oder medizinische Vorsorge wird verweigert, weil angeblich die Vorsorge gefährlicher ist als die Krankheit, gegen die sie schützen soll.

Da erkannt wurde, dass solche Desinformationen ein Risiko darstellen, sind beispielsweise die Betreibenden von Sozialen Medien in die Verantwortung genommen worden: Sie müssen nun versuchen, Desinformationen oder Hassbotschaften möglichst schnell aus ihrem Angebot zu entfernen und auch verhindern, dass diese einfach wieder eingestellt werden. Nutzer*innen, die solche Mitteilungen verfassen, werden zumindest gesperrt und können nicht mehr am Austausch dort teilnehmen.

Aber es gibt immer neue technische Möglichkeiten, Mitteilungen zu verbreiten. Nachdem bei Verbreiter*innen von Desinformationen immer mehr Kontrollen durchgeführt wurden, waren Messenger-Dienste willkommene Ausweichmöglichkeiten. Hier konnten Mitteilungen wieder unkontrolliert verbreitet werden. Oft gibt es hier Kanäle von sogenannten Meinungsführer*innen oder -treiber*innen, die neue Desinformationen an alle Abonnent*innen verschicken. Diese greifen dann die Desinformationen auf und verteilen sie weiter über andere Kanäle im selben Messenger, aber auch über die Grenzen der Messenger hinweg wieder zurück in soziale Medien.

Unser Projekt DYNAMO setzt genau hier an: Wir untersuchen, wie Messenger zur Verbreitung von Desinformationen eingesetzt werden, wie dort Desinformationen aufgespürt werden können und welche Ansätze es gibt, diesen Desinformationen entgegenzuwirken. Dabei betrachten wir das Problem aus unterschiedlichen wissenschaftlichen Perspektiven. Informatik, Recht, Psychologie und Journalismus bringen jeweils ihre Fragenstellungen und Ansätze in das Projekt ein.

Um Desinformationen in Messengern untersuchen zu können, muss man sie zuerst finden und dann so speichern, dass alle Projektteilnehmer*innen über die Laufzeit des Projekts darauf zugreifen können. In Messengern sind Nachrichten oft nur kurz verfügbar und werden nach ein paar Tagen gelöscht. Für ein Forschungsprojekt müssen solche Nachrichten aber über Jahre hinweg betrachtet werden, um beispielsweise Änderungen an der Ausdrucksweise oder lang angelegte Kampagnen zur Desinformation untersuchen zu können.

Daher ist der erste Schritt in DYNAMO, Kanäle zu finden, auf denen Desinformationen verbreitet werden. Hier kann jede*r Projektpartner*in Vorschläge machen. Mit Kanälen sind in einem Messenger Gruppen, denen man beitreten oder Personen, denen man folgen kann, gemeint. Diese Kanäle werden dann automatisch erfasst und gespeichert. Hier kommt dann auch gleich der Datenschutz ins Spiel: Eine Erfassung von Nachrichten und die darauffolgende Analyse muss im Einklang mit geltendem Recht sein. Daher folgt DYNAMO dem Prinzip, Datenschutz schon beim Entwurf des Systems umzusetzen (Privacy by Design). Daten können beispielsweise frühzeitig pseudonymisiert werden, was bedeutet, dass Namen von Personen mit einem zufälligen Namen ersetzt werden, damit man sie nicht erkennen kann. Die Daten werden erst verschlüsselt und dann gespeichert oder weitergegeben, damit sie nicht im Falle eines Hacker*innen-Angriffs gestohlen werden können. Wer auf die Daten zugreifen will, muss einen Grund dafür angeben, der dann protokolliert wird.

Hat man nun viele Nachrichten in den Kanälen gesammelt, können die Expert*innen diese durchgehen und entscheiden, welche davon Desinformationen sind. So kommt eine große Menge an Nachrichten zusammen, von denen wir wissen, dass sie Beispiele von Desinformationen sind. Jetzt kann ein Computer versuchen zu lernen, woran man Desinformationen erkennen kann. Er soll also versuchen, die gleichen Entscheidungen wie die Expert*innen zu treffen. Wenn das gelingt, können die großen Mengen von Nachrichten viel einfacher nach Desinformationen durchsucht werden. Denkbar ist, dass der Computer lernt, auf bestimmte Worte zu achten, die häufig in Desinformationen auftauchen, oder er lernt, wie Desinformationen typischerweise aufgebaut sind. Vielleicht haben Desinformationen auch bestimmte stilistische Eigenschaften, sind beispielsweise persönlicher und gefühlsbetonter oder versuchen stärker, Leser*innen direkt anzusprechen. Wenn es solche Merkmale gibt und im Projekt genug Beispiele dafür gefunden werden, kann der Computer mittels maschinellen Lernens eine Art Muster für Desinformationen finden, mit dem er dann neue Desinformationen erkennt.

Darüber hinaus sollen noch viele andere Fragen betrachtet werden, beispielsweise welche Rolle Bilder in Desinformationen spielen und wie man erkennt, ob diese die Desinformation unterstützen. Oder wie Desinformationen sich aus dem Messenger auf andere Plattformen ausbreiten und dort erkannt werden können, auch wenn sie abgeändert werden. Und ob es beispielsweise hilft, wenn zu einer erkannten Desinformation der Grund für die Einschätzung und eine Gegendarstellung angezeigt wird, damit jeder für sich selbst entscheiden kann, welcher Nachricht er glaubt und welche er schnell wieder vergisst.

Prof. Dr. Martin Steinebach ist Abteilungleiter am Fraunhofer SIT, Honorarprofessor an der TU Darmstadt und Koordinator des ATHENE-Forschungsbereichs Security and Privacy in AI. Er forscht zu Multimedia-Sicherheit, Darknet, OSINT und der Sicherheit von und durch maschinellem Lernen. In dem von ihm koordinierten Projekt DYNAMO, welches vom BMBF gefördert wird, forscht er gemeinsam mit der Hochschule der Medien Stuttgart, der Universität Duisburg-Essen und der Universität Kassel an Desinformationen in Messengern.

- Werbung -

More articles

Latest article