Meinungsfreiheit contra Falschmeldungen
Eine Studie ermittelt, wie Menschen Dilemmas bei der Moderation von Online-Inhalten lösen
Die Moderation von Online-Inhalten ist ein moralisches Minenfeld, insbesondere dann, wenn das Grundrecht auf freie Meinungsäußerung und mit dem Anliegen kollidiert, Schäden durch Falschinformationen zu vermeiden. Ein Forscherteam mit Beteiligung des Max-Planck-Instituts für Bildungsforschung hat untersucht, wie Menschen in den USA mit solchen moralischen Dilemmas umgehen würden. Sie fanden heraus, dass die Mehrheit der Befragten Maßnahmen ergreifen würde, um die Verbreitung von Falschinformationen zu kontrollieren. Die Ergebnisse der Studie können helfen, kohärente und transparente Regeln für die Moderation von Inhalten aufzustellen, die von der breiten Öffentlichkeit akzeptiert werden.
Die Frage der Moderation von Inhalten auf Social-Media-Plattformen rückte 2021 in den Mittelpunkt, als große Plattformen wie Facebook und Twitter die Konten des damaligen US-Präsidenten Donald Trump sperrten. Die Debatten gingen weiter, als die Plattformen mit gefährlichen Falschinformationen über Covid-19 und die Impfstoffe konfrontiert wurden und nachdem Elon Musk im Alleingang die Twitter-Richtlinie zum Umgang mit irreführenden Informationen über Covid-19 umgestoßen und zuvor gesperrte Konten wieder freigeschaltet hatte.
„Bisher waren es die Social-Media-Plattformen, die die wichtigsten Entscheidungen über die Moderation von Falschinformationen getroffen haben, was sie praktisch in die Position von Schiedsrichtern über die Meinungsfreiheit versetzt. Darüber hinaus werden Diskussionen über die Moderation von Online-Inhalten oft hitzig, aber weitgehend ohne empirische Daten geführt“, sagt die Hauptautorin der Studie, Anastasia Kozyreva, Wissenschaftliche Mitarbeiterin am Max-Planck-Institut für Bildungsforschung. „Um mit Konflikten zwischen freier Meinungsäußerung und schädlicher Falschinformation angemessen umgehen zu können, müssen wir wissen, wie Menschen mit verschiedenen Formen von moralischen Dilemmas umgehen würden, wenn sie Entscheidungen über die Moderation von Inhalten treffen sollen", ergänzt Ralph Hertwig, Direktor am Forschungsbereich Adaptive Rationalität des Max-Planck-Instituts für Bildungsforschung.
Im Rahmen eines Umfrageexperiments in den USA gaben mehr als 2500 Befragte an, ob sie Beiträge in sozialen Medien entfernen würden, die Falschinformationen über demokratische Wahlen, Impfungen, den Holocaust und den Klimawandel enthalten. Sie wurden auch gefragt, ob sie Strafmaßnahmen gegen diese Accounts ergreifen würden, indem sie eine Verwarnung oder eine vorübergehende oder unbefristete Sperrung aussprechen würden. Den Befragten wurden Informationen über die hypothetischen Accounts, einschließlich deren politische Ausrichtung und der Anzahl der Follower sowie die Beiträge der Accounts und die Folgen der darin enthaltenen Falschinformationen vorgelegt.
Die Mehrheit der Befragten entschied sich dafür, Maßnahmen zu ergreifen, um die Verbreitung schädlicher Falschinformationen zu verhindern. Im Durchschnitt gaben zwei Drittel der Befragten an, dass sie die fragwürdigen Beiträge löschen würden, und 78 Prozent würden Maßnahmen gegen den Account ergreifen. Dabei entschieden sich 33 Prozent für eine „Warnung“ und 45 Prozent für eine unbefristete oder zeitlich begrenzte Sperrung von Accounts, die Falschinformationen verbreiten. Nicht alle Falschinformationen wurden gleichermaßen geahndet: Die Leugnung des Klimawandels wurde am wenigsten abgestraft (58 %), während auf die Leugnung des Holocausts (71 %) und auf die Anzweifelung von Wahlen (69 %) am häufigsten reagiert wurde, dicht gefolgt von Anti-Impf-Inhalten (66 %).
„Unsere Ergebnisse zeigen, dass sogenannte Verfechter der freien Meinungsäußerung wie Elon Musk, nicht mit der öffentlichen Meinung übereinstimmen. Die Menschen erkennen im Großen und Ganzen an, dass es Grenzen für die freie Meinungsäußerung geben sollte, nämlich dann, wenn sie Schaden anrichtet, und dass die Entfernung von Inhalten oder sogar der dauerhafte Ausschluss unter extremen Umständen, wie zum Beispiel bei der Leugnung des Holocaust, angemessen sein kann“, sagt Co-Autor Stephan Lewandowsky, Lehrstuhlinhaber für Kognitionspsychologie an der Universität Bristol.
Die Studie wirft auch ein Licht auf die Faktoren, die die Entscheidungen der Menschen in dieser Frage beeinflussen. Das Thema, die Schwere der Folgen der Falschinformation und die Frage, ob es sich um einen wiederholten Verstoß handelt, hatten den stärksten Einfluss auf die Entscheidung, Beiträge zu entfernen und Accounts zu sperren. Die Merkmale des Accounts selbst – die Person hinter dem Account, ihre Parteizugehörigkeit und die Anzahl der Follower – hatten wenig bis gar keinen Einfluss auf die Entscheidungen der Befragten.
Die Befragten neigten weder dazu, Beiträge von einem Account mit einer gegensätzlichen politischen Haltung zu entfernen, noch dazu, Accounts zu sperren, die nicht ihren politischen Präferenzen entsprachen. Allerdings verfolgten Republikaner und Demokraten tendenziell unterschiedliche Ansätze, um das Dilemma zwischen dem Schutz der Meinungsfreiheit und der Entfernung potenziell schädlicher Falschinformationen zu lösen. Die Demokraten zogen es in allen vier Szenarien vor, gefährliche Falschinformationen zu verhindern, während die Republikaner es vorzogen, die freie Meinungsäußerung zu schützen, indem sie weniger Einschränkungen vornahmen.
„Wir hoffen, dass unsere Forschungsergebnisse in die Gestaltung transparenter Regeln für die Moderation von Inhalten mit schädlichen Falschinformationen einfließen. Die Präferenzen der Menschen sind zwar nicht der einzige Maßstab für wichtige Abwägungen bei der Moderation von Inhalten. Aber man sollte nicht ignorieren, dass es bei den Menschen Unterstützung für Maßnahmen gegen Falschinformationen und die veröffentlichenden Accounts gibt. Sonst könnte das Vertrauen der Öffentlichkeit in die Richtlinien und Vorschriften zur Moderation von Inhalten untergraben werden“, sagt Mitautor Jason Reifler, Professor an der Universität Exeter. „Eine wirksame und sinnvolle Regulierung von Plattformen erfordert nicht nur klare und transparente Regeln für die Moderation von Inhalten, sondern auch eine allgemeine Akzeptanz der Regeln als legitime Beschränkungen des Grundrechts auf freie Meinungsäußerung. Diese wichtige Studie trägt wesentlich dazu bei, die politischen Entscheidungsträger darüber zu informieren, was akzeptable nutzergenerierte Inhalte sind und was nicht“, ergänzt Mitautor Mark Leiser, Professor an der Vrije Universiteit Amsterdam.