Mit Datenwissenschaft zu einer besseren Gesellschaft
Forschende analysieren Desinformation in Sozialen Medien und entwickeln Wege, um Fakten und faire Dialoge im Netz zu fördern
Hass und Fake News nehmen im Netz und auf sozialen Medien zu. Auch Forschende werden immer mehr zur Zielscheibe. Am Max-Planck-Institut für Sicherheit und Privatsphäre arbeitet ein Team um die neue Direktorin Mia Cha daran, die Dynamiken dahinter zu verstehen und wie sich der Trend hin zu echten Fakten und einem fairen Umgang miteinander umkehren lässt.
Text: Thomas Brandstetter
Ein immer größer werdender Teil unseres Lebens spielt sich online ab. Soziale Medien bringen Menschen zusammen, die sich in der realen Welt sonst nie getroffen hätten und tragen dazu bei, dass sich wichtige Informationen rasend schnell über den gesamten Globus ausbreiten. Doch die schöne, neue Welt im Internet hat auch ihre Schattenseiten. Nur allzu oft bieten die Plattformen auch Nährboden für Hass und Falschinformationen.
„Diese Phänomene haben starke, negative Auswirkungen auf die Gesellschaft“, sagt Meeyoung (Mia) Cha. Sie ist Direktorin für Data Science for Humanity am Max-Planck-Institut für Sicherheit und Privatsphäre. „Deshalb versuchen wir, ihnen mit den Methoden der Daten- und Sozialwissenschaften auf den Grund zu gehen.“ Ein wichtiger Punkt von Chas Arbeit ist deshalb die Analyse der Ausbreitung von Fake News in sozialen Medien. Alleine die Art und Weise, wie Informationen geteilt werden, enthält nämlich bereits wichtige Hinweise auf ihren Inhalt.
Während bestätigte Fakten aus offiziellen Quellen oder seriösen Medien oft von sogenannten Superspreadern verbreitet werden, die damit eine große Zahl von Followern erreichen, verläuft die Verbreitung von Fake News meist kleinteiliger. Zwar stoßen auch Falschinformationen und Gerüchte auf großes Interesse, die Menschen neigen dann aber dazu, sie im Stillen zu lesen und nicht weiterzuleiten. „Schließlich weiß man, dass in so einem Fall der eigene Ruf auf dem Spiel steht“, erklärt Cha.
Um solche Ausbreitungsmuster zu erfassen, arbeitet die Forscherin immer wieder mit Social-Media-Plattformen zusammen, die für Forschungszwecke Informationen darüber freigeben, wer mit wem kommuniziert. Schließlich ist es auch für sie wichtig, Bescheid zu wissen, was in ihrem Netzwerk vorgeht. „Die Plattformen haben oft gar nicht die Kapazitäten, um selbst solche Forschung zu machen“, sagt Cha. „Um erfolgreich zu sein, müssen sie aber auch in der Lage sein, schädliche Informationen oder illegale Inhalte einzudämmen.“ Liegen die Muster der Informationsausbreitung erst einmal vor, setzten Cha und ihre Kolleginnen und Kollegen auf maschinelles Lernen, um daraus mit hoher Trefferwahrscheinlichkeit abzuleiten, ob es sich bei einer bestimmten Nachricht um Fake News oder Fakten handelt.
Doch es ist nur ein Aspekt von Chas Arbeit, zu beobachten, wie sich solche Inhalte verbreiten. Schließlich stellt sich auch die Frage, was sich gegen Desinformation tun lässt. „In unseren Forschungsarbeiten während der COVID-19-Pandemie konnten wir in Echtzeit beobachten, wie sich dieselben Falschinformationen zusammen mit dem Virus von Land zu Land ausgebreitet haben“, sagt Cha. Deshalb riefen die Forschenden damals kurzerhand die Kampagne „Facts before Rumors“ ins Leben und verbreiteten in 151 Ländern Faktenchecks, noch bevor die entsprechenden Falschinformationen dort überhaupt angekommen waren. „Das war wie eine Art Impfung gegen Fake News“, berichtet Cha. „Wenn man die Fakten schon vorher kennt, verlieren Falschinformationen und Gerüchte ihre Strahlkraft.“
Problemfall: Hass
Natürlich spielt auch der Inhalt problematischer Nachrichten eine Rolle bei ihrer automatischen Detektion. Während Gerüchte etwa oft mit Phrasen wie „Ich bin mir nicht sicher, aber...“ beginnen, ist das Auffinden von Hasskommentaren schwieriger, weil sich der Stil, in dem sie verfasst sind, schnell ändert. „Früher waren sie meist sehr unverblümt und entsprechend leicht zu erkennen“, sagt Cha. „Heute dagegen treten sie oft in Verbindung mit Emojis auf oder es werden absichtlich Worte falsch geschrieben, um die automatischen Filter zu umgehen.“ Erst kürzlich haben Cha und ihr Team deshalb eine neue Methode zur Erkennung beleidigender Sprache auf Basis von maschinellem Lernen vorgestellt, die sich nicht so leicht austricksen lässt.
Mit den großen KI-Sprachmodellen lassen sich allerdings auch Social-Media-Posts automatisch analysieren, um etwa die Grundstimmung eines Users abzuschätzen. Und zusätzlich ermöglichen es dieselben Modelle einem Angreifer, den Emotionsgehalt einer Nachricht auf einfache Weise gezielt zu verändern, um bei diesem User eine höhere Wirkung zu erzielen. „Oft entscheidet die Gemütslage eines Empfängers darüber, wie er auf eine Nachricht reagiert“, sagt Cha. „Und mit KI ist es ein Leichtes, eine manipulative Nachricht beispielsweise etwas wütender oder fröhlicher zu formulieren.“ Unter dem Schlagwort „Cognitive Warfare“ werden auf diese Weise immer wieder Menschen über lange Zeit gezielt manipuliert, um eine politische Agenda voranzutreiben.
In Zukunft möchte Cha ihren Kampf gegen Hass und Fake News auch noch auf das Dark Web ausbreiten. „Dort gibt es auch eine Menge problematischer Inhalte und wir haben noch gar nicht angefangen, uns das anzusehen“, sagt die Forscherin. Doch auch in den sozialen Medien gibt es noch viel für sie und ihr Team zu tun. „Diese Plattformen können viel Gutes bewirken, aber auch viel Schlechtes“, sagt Cha. „Und auch wenn die Unternehmen vor allem darauf ausgelegt sind, mit Werbung Geld zu verdienen, sollten wir sie letztlich dazu zwingen, das menschliche Wohlergehen in den Mittelpunkt zu stellen.“