Die Grenzen des Rechts
Warum es mehr als nur Regulierung braucht, um die Debattenkultur im Internet zu retten. Ein Meinungsbeitrag von Erik Tuchtfeld
Meta will fortan weniger Inhalte löschen und die Faktenprüfung den Communitys seiner Plattformen überlassen. Auf Facebook erlauben neue Nutzerregeln, „Community Guidelines“, das Verunglimpfen von Gruppen oder politischen Ansichten - als Ende der „Zensur“. Was der Konzernchef von Meta dabei verkennt und wie wichtig eine starke EU mit neuen Konzepten ist, erklärt Plattformexperte und Jurist Erik Tuchtfeld vom Max-Planck-Institut für ausländisches öffentliches Recht und Völkerrecht.
In der vergangenen Woche hat Mark Zuckerberg eine grundsätzliche Neuausrichtung der Moderation von Inhalten auf den verschiedenen Meta-Plattformen angekündigt: Faktenchecking wird (zunächst in den USA) abgeschafft und durch „Community Notes“ ersetzt, die Community Guidelines – das privat gesetzte Recht in den sozialen Netzwerken – werden es zukünftig erlauben, dass homosexuelle und transgeschlechtliche Menschen als „krank“ und Frauen als Eigentum bezeichnet werden, und darüber hinaus werden die konzerninternen Maßnahmen zur Förderung von Inklusion und Vielfalt abgeschafft.
Die Reaktionen hierauf sind – berechtigterweise – deutlich. Unisono betonen alle demokratischen Parteien, dass sie sich für eine Regulierung des digitalen Debattenraums einsetzen und verweisen auf den Digital Services Act (DSA), der sich nun beweisen muss. Verantwortlich dafür ist die Europäische Kommission. Sie hat bereits angekündigt, ein (weiteres) Verfahren gegen Meta einzuleiten. Doch auch wenn der DSA die private Macht der Plattformeigentümer einhegt, wird das Recht alleine die Debattenkultur online nicht retten können. Was es vielmehr braucht, ist die Förderung alternativer Orte im digitalen Raum, die demokratischem Diskurs und dem Gemeinwohl verpflichtet sind.
Recht als Grenze privater Macht
Die Gemeinschaftsstandards von Meta sind das privat gesetzte Recht auf Instagram, Facebook und Threads, einigen der größten und wichtigsten digitalen öffentliche Orte. Wer gegen sie verstößt, der kann sanktioniert werden – in dem beispielsweise Inhalte entfernt oder Nutzerkonten blockiert werden. Seit dem 07. Januar erlaubt Meta in seinen „Gemeinschaftsstandards: Hasserfülltes Verhalten“ „Unterstellungen von psychischer Erkrankung oder Anomalien, wenn sie auf geschlechtlicher oder sexueller Orientierung basieren“.
Meta muss bei der Auslegung seiner „Gemeinschaftsstandards“ jedoch den Rahmen beachten, den nationales und europäisches Recht vorgibt. In vielen Fällen werden „Unterstellungen psychischer Erkrankungen“ darauf abzielen, Einzelpersonen herabzuwürdigen und somit eine in Deutschland strafbare Beleidigung darstellen. Auch Falschinformationen über eine Person (etwa falsch zugeordnete Zitate), die nicht unbedingt strafbar sind, stellen regelmäßig zivilrechtlich verbotene Persönlichkeitsrechtsverletzungen dar. Wenn solch ein in Deutschland rechtswidriger Inhalt Meta durch Nutzende gemeldet wird, muss ihn das Unternehmen laut DSA löschen (notice-and-takedown). Tut Meta das nicht, drohen hohe Bußgelder durch die Europäische Kommission und Schadenersatzforderungen durch die Betroffenen.
Was Mark Zuckerberg als „Zensur“ bezeichnet, ist also die Durchsetzung von Strafrecht und zivilrechtlichen Haftungsregelungen, die durch eine demokratische Mehrheit beschlossen wurden und der ständigen rechtsstaatlichen Kontrolle durch nationale und europäische Gerichte unterliegen. Selbst die weit verbreitete Annahme, dass europäisches Recht für Individuen im Vergleich zum amerikanischen „free speech“-Ansatz stets restriktiver wäre, ist ein Fehlschluss. Anders als in den USA schützt der DSA Nutzende vor der willkürlichen Löschung von Inhalten durch die Plattformen, wenn diese weder gegen Gesetze noch gegen Gemeinschaftsstandards verstoßen (viele Gerichte und letztendlich auch der Bundesgerichtshof haben die mittelbare Bindung der Plattformen an die Meinungsfreiheit bereits vor Inkrafttreten des DSA festgestellt). Die Regulierung der Europäischen Union schränkt Freiheit also nicht (nur) ein, sie schafft vielmehr auch Freiheit (der Nutzenden, gegenüber den Plattformen) durch Recht.
Grenzen des Rechts für die Regulierung des öffentlichen Diskurses
Bei Inhalten, die nach dem nationalen Recht eines EU-Mitgliedstaats rechtswidrig sind, kann der DSA also seine Stärke beweisen. Das reicht jedoch bei weitem nicht aus, um eine gute, demokratische Debattenkultur zu erreichen.
Dort sind zum einen die vielen unangenehmen und schädlichen Inhalte (harmful content) auf sozialen Plattformen, die „awful but lawful“, also legal, sind. Dazu gehören unter anderem auch aggressives Auftreten und abwertende, diskriminierende Sprache, insbesondere wenn sie sich nicht unmittelbar gegen Einzelpersonen richtet (und die Schwelle zur Volksverhetzung nicht überschreitet). Diese Art der Debatte führt dazu, dass sich Menschen aus öffentlichen Debattenräumen zurückziehen und trifft besonders marginalisierte Gruppen (man spricht hier von silencing effects). Gleiches gilt für den Bereich der Desinformation. Objektive Falschinformationen (beispielsweise zu Impfungen oder zur Integrität von Wahlen) unterfallen im Einzelfall zwar nicht dem Schutz der Meinungsfreiheit, das ist jedoch die Ausnahme und gilt nur dann, wenn die Äußerung bewusst wahrheitswidrig geäußert wird oder unzweifelhaft unwahr ist. Das Problem der Desinformation erschöpft sich darüber hinaus nicht in falschen Tatsachenbehauptungen. Stattdessen geht es regelmäßig um größere Narrative, die sich durch die einseitige Darstellung von Fakten, durch das Weglassen von Informationen und fehlende Einordnungen spinnen lassen.
Aus dem DSA kann sich meines Erachtens keine Verpflichtung ergeben, gegen diese Art von rechtmäßigen Inhalten vorzugehen. Eine grundrechtsfreundliche – und damit meinungsfreiheitsfreundliche – Auslegung der vage gehalten Verpflichtung der Plattformen, Risiken für gesellschaftliche Debatten und Grundrechte zu mindern, wird eine Löschung legaler Inhalte in aller Regel verneinen müssen. Wenn Demokratien bestimmte Äußerungen als nicht tolerierbar qualifizieren, müssen sie das ausdrücklich in parlamentarischen Verfahren (und mit rechtsstaatlicher Kontrolle) beschließen, das ist weder eine Aufgabe für Privatunternehmen noch für die behördliche Durchsetzung von Generalklauseln.
Blickt man über die Frage der Löschung konkreter Inhalte hinaus, bietet der Werkzeugkasten der „Risikominderungsmaßnahmen“ einige Möglichkeiten, bei denen man nun juristisches Neuland betreten wird. Dazu gehören beispielsweise Verpflichtungen, gegen inauthentic behavior vorzugehen (also automatisiertes Posten durch Social Bots) oder Empfehlungsalgorithmen anzupassen. Insbesondere bei letzterem ist derzeit jedoch sowohl noch weitgehend unklar, wie ein „guter“ (in der Terminologie des DSA: „risikoarmer“ Algorithmus) aussieht, als auch ab wann ein Algorithmus ein derartiges „systemisches Risiko“ darstellt, dass er rechtswidrig ist. Die Klärung dieser Rechtsfrage wird in den nächsten Jahren viele Gerichte beschäftigen, einfache Antworten sind jedoch nicht zu erwarten. Die eigentlich zentralen Vorschriften des DSA sind deshalb nicht die, die das Moderationsverhalten der Plattformen regulieren, sondern das Recht für Wissenschaftlerinnen und Wissenschaftler, Zugang zu den Daten der Plattformen zu erhalten, um unabhängige Forschung über ihre Auswirkungen auf den demokratischen Diskurs durchzuführen. Wir sind im Moment noch weitgehend in der Phase des Erkennens, die der Anwendung der Normen vorausgehen muss (frei nach Max Planck).
Europa braucht Alternativen
Der DSA setzt einen Rahmen für die Macht der Plattformen, bietet aber zumindest kurzfristig doch wenig mehr als Symptombekämpfung. Die eigentliche Wurzel des Problems geht er nicht an: Die Konzentration der Macht über die Diskursräume für Milliarden Menschen in der Hand weniger Internetfürsten. Wie gefährlich das ist, zeigt sich spätestens jetzt, wenn diese keinen guten Willen zur Kooperation mehr zeigen, sondern stattdessen eine offene Allianz mit rechtspopulistischen Bewegungen und Regierungen schmieden.
Europa muss daher beginnen, die Konzentration von Macht als solche stärker in den Blick zu nehmen. Nicht zuletzt die deutsche Geschichte ist eine ständige Erinnerung daran, dass geteilte, föderale Macht ein notwendiger Schutz gegen Machtmissbrauch ist. Auch für den digitalen Raum gibt es Alternativen zu den zentralisierten Plattformen von Big Tech, die gemeinwohlorientiert statt gewinnorientiert sind, die sich demokratische Entscheidungsstrukturen geben und deren unterschiedliche Regeln für unterschiedliche Orte die Vielfalt der europäischen Gesellschaft widerspiegeln. Es geht dabei nicht darum, ein „europäisches Facebook“ zu entwickeln, sondern um die Vision einer anderen, gesellschaftlich eingebetteten digitalen Öffentlichkeit. Das Fediverse ist dafür ein vielversprechender Anfang.