Die moralische Panik der sozialen Medien in Frage stellen: Wahrung der Meinungsfreiheit unter Hypertransparenz

Swishers ungeduldige Forderung nach schnellem Handeln schien anzunehmen, dass die Lösungen für die Probleme der sozialen Medien offensichtlich waren. Ich twitterte als Antwort und fragte, welche „Lösung“ sie so schnell implementieren wollte. Es gab keine Antwort.

Hier ist die Diagnose, die ich anbieten würde. Was an Social Media „kaputt“ ist, ist genau das, was es nützlich, attraktiv und kommerziell erfolgreich macht: es ist unglaublich effektiv bei der Erleichterung von Entdeckungen und Informationsaustausch zwischen interessierten Parteien in beispiellosem Ausmaß. Als direkte Folge davon gibt es mehr informationelle Interaktionen als je zuvor und mehr gegenseitigen Austausch zwischen Menschen. Diese menschliche Aktivität in all ihrer Pracht, ihrem Blut und ihrem Elend erzeugt speicherbare, durchsuchbare Aufzeichnungen, und ihre Benutzer hinterlassen überall ihre Spuren. Wie bereits erwähnt, ist die aufkommende neue Welt der sozialen Medien von Hypertransparenz geprägt.

Vom Standpunkt der freien Meinungsäußerung und der freien Märkte ist daran nichts grundsätzlich gebrochen; im Gegenteil, die meisten Kritiker sind unglücklich, gerade weil das Modell funktioniert: Es entfesselt alle Arten von Ausdruck und Austausch und verdient Tonnen von Geld damit. Aber zwei verschiedene gesellschaftspolitische Pathologien werden dadurch erzeugt. Das erste ist, dass es durch die Aufdeckung aller Arten von bedauerlichen Verwendungen und Benutzern dazu neigt, Empörung über diese Manifestationen sozialer Abweichungen gegenüber den Plattformanbietern auszulösen. Ein Mann entdeckt Pädophile, die YouTube-Videos von Kindern kommentieren, und sputtert vor Wut über … YouTube.28 Die zweite Pathologie ist die Idee, dass die anstößigen Verhaltensweisen aus der Existenz heraus konstruiert werden können oder dass die Gesellschaft als Ganzes in einen Zustand der Tugend gebracht werden kann, indem Vermittler ermutigt werden, strengere Überwachung und Regulierung zu übernehmen. Anstatt zu versuchen, das anstößige Verhalten zu stoppen oder zu kontrollieren, bemühen wir uns, den Kommunikationsvermittler zu kontrollieren, der vom schlechten Schauspieler verwendet wurde. Anstatt das Verbrechen zu beseitigen, schlagen wir vor, den Vermittler zu beauftragen, Symbole des Verbrechens zu erkennen und sie aus dem Blickfeld zu löschen. Es ist, als ob wir annehmen, dass das Leben ein Bildschirm ist, und wenn wir unerwünschte Dinge von unseren Bildschirmen entfernen, indem wir Internet-Vermittler kontrollieren, dann haben wir die Probleme des Lebens gelöst. (Und selbst während wir dies tun, beschweren wir uns heuchlerisch über China und seine angebliche Entwicklung eines allumfassenden sozialen Kreditsystems, das auf Online‐Interaktionen basiert.)

Die Reaktion gegen Social Media basiert somit auf einer falschen Prämisse und einem falschen Versprechen. Die falsche Prämisse ist, dass die Schöpfer von Tools, die öffentliche Interaktion in großem Maßstab ermöglichen, in erster Linie für die Existenz der so offenbarten Verhaltensweisen und Botschaften verantwortlich sind. Das falsche Versprechen ist, dass wir diese Probleme lösen oder reduzieren, indem wir die Plattformanbieter dazu drängen, Inhalte zu blockieren, Konten zu löschen oder anderweitig Manifestationen sozialer Probleme auf ihren Plattformen anzugreifen. Wir haben diese Missverständnisse bekämpft und versucht, „neue“ Probleme einzudämmen, indem wir sie vor der Öffentlichkeit verborgen haben.

Die großen Plattformen haben zu dieser Pathologie beigetragen, indem sie immer umfangreichere Content‐Moderationsaufgaben übernommen haben. Aufgrund des starken politischen Drucks, unter dem sie stehen, akzeptieren die dominierenden Plattformen schnell die Idee, dass sie eine übergeordnete soziale Verantwortung haben, die Moral der Nutzer und den öffentlichen Diskurs auf politisch akzeptable Weise zu gestalten. Aufgrund des Umfangs der Social-Media-Interaktionen bedeutet dies zwangsläufig zunehmend automatisierte oder algorithmische Formen der Regulierung mit all ihren Starrheiten, Dummheiten und Fehlern. Es bedeutet aber auch massive Investitionen in arbeitsintensive manuelle Moderationsformen.29

Die Grundsatzdebatte zu diesem Thema wird durch die Tatsache erschwert, dass Internetvermittler es nicht wirklich vermeiden können, einige optionale Pflichten zur Regulierung von Inhalten zu übernehmen, die über die Einhaltung verschiedener Gesetze hinausgehen. Ihr Status als vielseitige Märkte, die Anbieter und Informationssuchende zusammenbringen, erfordert dies.30 Empfehlungen, die auf maschinellem Lernen basieren, führen die Benutzer durch die große, ansonsten unlösbare Menge an verfügbarem Material. Diese Filter verbessern den Wert einer Plattform für einen Benutzer erheblich, aber sie beeinflussen indirekt auch, was Menschen sehen, lesen und hören. Im Rahmen ihrer Versuche, Nutzer anzulocken und den Wert der Plattformen für Werbetreibende zu steigern, können sie auch Nachrichten und Verhaltensweisen abschrecken oder unterdrücken, die ihre Plattformen zu unangenehmen oder schädlichen Orten machen. Diese Form der Inhaltsmoderation fällt nicht in den Geltungsbereich des Rechtsschutzes der Ersten Änderung, da sie von einem privaten Akteur ausgeführt wird und in den Rahmen des redaktionellen Ermessens fällt.

Was ist die Lösung?

Abschnitt 230 des Communications Decency Act quadrierte diesen Kreis, indem er Informationsdienstleister immunisierte, die nichts unternahmen, um die Kommunikation der Parteien, die ihre Plattformen nutzen, einzuschränken oder zu zensieren (das klassische „neutrale Conduit“ ‐ oder Common-Carrier-Konzept), während er auch Informationsdienstleister immunisierte, die einige redaktionelle Verantwortlichkeiten übernahmen (z. B. Pornografie und andere Formen unerwünschter Inhalte einzuschränken). Vermittler, die nichts taten, wurden (angeblich) auf eine Weise immunisiert, die die Meinungsfreiheit und Vielfalt im Internet förderte; vermittler, die aktiver bei der Verwaltung von nutzergenerierten Inhalten waren, wurden immunisiert, um ihre Fähigkeit zu verbessern, „schlechte“ Inhalte zu löschen oder anderweitig zu überwachen, ohne als Herausgeber eingestuft zu werden, und somit die Verantwortung für die Inhalte zu übernehmen, die sie nicht eingeschränkt haben.31

Es ist klar, dass dieser rechtliche Spagat, der so gut funktioniert hat, um die moderne Social-Media-Plattform erfolgreich zu machen, zusammenbricht. Der Paragraf 230 ist ein Opfer seines eigenen Erfolgs. Plattformen sind zum Teil aufgrund ihrer Freiheiten nach Abschnitt 230 groß und erfolgreich geworden, aber infolgedessen unterliegen sie politischem und normativem Druck, der ihnen de facto Verantwortung für das überträgt, was ihre Benutzer lesen, sehen und tun. Die Gefahr einer staatlichen Intervention lauert entweder im Hintergrund oder wird in bestimmten Gerichtsbarkeiten realisiert. Angetrieben von Hypertransparenz, politischem und normativem Druck gehört die reine, neutrale, nicht diskriminierende Plattform der Vergangenheit an.

Die gängigsten Vorschläge zur Behebung von Social-Media-Plattformen scheinen die Plattformen zu bitten, mehr Inhaltsmoderation zu betreiben und inakzeptable Ausdrucksformen oder Verhaltensweisen aufzuspüren. Die politische Forderung nach aggressiverer Moderation von Inhalten kommt in erster Linie von einer Vielzahl von Gruppen, die bestimmte Arten von Inhalten unterdrücken wollen, die für sie zu beanstanden sind. Wer weniger Kontrolle oder mehr Toleranz will, leidet unter dem diffusen Kosten-Nutzen-Problem, das wir aus der ökonomischen Analyse spezieller Interessengruppen kennen: das heißt, Toleranz kommt allen ein wenig zugute und ihre Präsenz ist kaum wahrnehmbar, bis sie verloren geht; Unterdrückung hingegen bietet einigen hochmotivierten Akteuren eine kraftvolle und sofortige Befriedigung.32

Bestenfalls schlagen die Reformer vor, die Moderation von Inhalten so zu rationalisieren, dass ihre Standards klarer werden, ihre Anwendung konsistenter wird und ein Berufungsverfahren möglich wird.33 Es ist jedoch unwahrscheinlich, dass dies funktioniert, es sei denn, die Plattformen erhalten das Rückgrat, um ihre Rechte, die Kriterien festzulegen, nachdrücklich durchzusetzen, sich an sie zu halten und sie nicht mehr ständig an die Launen des täglichen politischen Drucks anzupassen. Im schlimmsten Fall sind Befürworter einer stärkeren Moderation von Inhalten von der Überzeugung motiviert, dass eine stärkere Inhaltskontrolle ihre eigenen persönlichen Werte und Prioritäten widerspiegelt. Da aber Forderungen nach einer härteren oder umfassenderen Content-Moderation aus allen ideologischen und kulturellen Richtungen kommen, ist diese Erwartung unrealistisch. Es wird nur zu einer verteilten Form des Vetos des Hecklers und zu einem völligen Fehlen vorhersehbarer, relativ objektiver Standards führen. Es ist nicht ungewöhnlich, dass Empörung über soziale Medien in widersprüchliche Richtungen führt. Ein Reporter für The Guardian ist zum Beispiel empört darüber, dass Facebook eine Ad‐Targeting‐Kategorie für „Impfstoffkontroversen“ hat und das Unternehmen auspeitscht, weil es Impfgegnern erlaubt, geschlossene Gruppen zu bilden, die den Widerstand dieser Mitglieder gegen die medizinische Grundversorgung verstärken können.34 Facebook kann jedoch nicht eingreifen, ohne seine Nutzer als Teil einer bestimmten politischen Bewegung zu profilieren, die als falsch erachtet wird, und dann ihre Kommunikation und ihre Fähigkeit, sich auf der Grundlage dieser Daten zu verbinden, zu unterdrücken. So, zur gleichen Zeit, Facebook ist weit verbreitet für Verletzungen der Privatsphäre angegriffen, Es wird auch aufgefordert, seine privaten Benutzerdaten zu nutzen, um politische und soziale Überzeugungen zu kennzeichnen, die als aberrant gelten, und die Fähigkeit der Benutzer zu unterdrücken, sich mit Werbetreibenden zu verbinden, oder untereinander kommunizieren. In dieser Kombination von Überwachung und Unterdrückung, was könnte schief gehen?

Welche Haltung sollten Befürworter der freien Meinungsäußerung und der freien Märkte in Bezug auf soziale Medien einnehmen?

Erstens muss der enorme Wert von Plattformen auf der Grundlage ihrer Fähigkeit, Informationssuchende und -anbieter zusammenzubringen, klarer formuliert werden. Es muss auch ein ausdrückliches Eintreten für eine größere Toleranz gegenüber der erschütternden Vielfalt geben, die durch diese Prozesse aufgedeckt wird. Wahre Liberale müssen klarstellen, dass von Social-Media-Plattformen nicht erwartet werden kann, dass sie die Hauptverantwortung dafür tragen, uns vor Ideen, Menschen, Botschaften und Kulturen zu schützen, die wir für falsch halten oder die uns beleidigen. Die meiste Verantwortung für das, was wir sehen und was wir vermeiden, sollte bei uns liegen. Wenn wir empört sind, Dinge zu sehen, die wir in Online-Communities, die aus Milliarden von Menschen bestehen, nicht mögen, müssen wir aufhören, diese Empörung gegen die Plattformen zu lenken, die uns zufällig aussetzen. Wenn das aufgedeckte Verhalten illegal ist, müssen wir uns darauf konzentrieren, die Täter zu identifizieren und sie zur Rechenschaft zu ziehen. Als Folge dieses Einstellungswandels müssen wir auch zeigen, dass die durch soziale Medien geförderte Hypertransparenz einen großen sozialen Wert haben kann. Als einfaches Beispiel dafür hat die Forschung gezeigt, dass der viel geschmähte Anstieg von Plattformen, die weibliche Sexarbeiterinnen mit Kunden zusammenbringen, statistisch mit einem Rückgang der Gewalt gegen Frauen korreliert ist ‐ gerade weil es Sexarbeit von der Straße nahm und Transaktionen sichtbarer und kontrollierbarer machte.35

Zweitens müssen Befürworter der freien Meinungsäußerung diejenigen, die eine Moderation von Inhalten wünschen, aktiv herausfordern, um weiter zu gehen. Wir müssen die Tatsache aufdecken, dass sie soziale Medien als Mittel zur Reform und Umgestaltung der Gesellschaft nutzen und sie wie einen Hammer gegen Normen und Werte einsetzen, die sie aus der Welt schaffen wollen. Diese Ansichten führen uns in eine autoritäre Sackgasse. Es mag ihnen sehr wohl gelingen, die Freiheit der digitalen Medien zu unterdrücken und zu lähmen, aber es wird und kann ihnen nicht gelingen, die Gesellschaft zu verbessern. Stattdessen werden sie Social-Media-Plattformen zu Schlachtfeldern für einen sich ständig verschärfenden Konflikt darüber machen, wer wen zum Schweigen bringen darf. Dies wird bereits aus den Schreien nach Diskriminierung und Voreingenommenheit deutlich, wenn die Plattformen die Moderation von Inhalten verstärken: Die Schreie kommen sowohl von links als auch von rechts als Reaktion auf Moderation, die oft als willkürlich empfunden wird.

Schließlich müssen wir eine erneuerte und wiederbelebte Verteidigung von Abschnitt 230 aufbauen. Der Fall für Abschnitt 230 ist einfach: keine Alternative verspricht an sich besser zu sein als das, was wir jetzt haben, und die meisten Alternativen werden wahrscheinlich schlechter sein. Die durch die moralische Panik hervorgerufenen Übertreibungen haben die einfache Tatsache verschleiert, dass die Moderation von Inhalten auf einer globalen Plattform mit Milliarden von Nutzern eine außerordentlich schwierige und anspruchsvolle Aufgabe ist. Nutzer, nicht Plattformen, sind die Quelle von Nachrichten, Videos und Bildern, die die Menschen als anstößig empfinden, so dass die Forderung nach Regulierung die Tatsache ignoriert, dass Vorschriften nicht einen einzigen Anbieter regeln, sondern Millionen und vielleicht Milliarden von Nutzern regeln müssen. Die Aufgabe, benutzergenerierte Inhalte zu kennzeichnen, zu berücksichtigen und zu entscheiden, was dagegen zu tun ist, ist schwierig und teuer. Und am besten den Plattformen überlassen.

Die Regulierung scheint jedoch zu kommen. Facebook-CEO Mark Zuckerberg hat einen Blogbeitrag veröffentlicht, in dem er zur Regulierung des Internets aufruft, und die britische Regierung hat ein Weißbuch mit dem Titel „Online Harms“ veröffentlicht, in dem die systematische Haftung aller Internetvermittler für nutzergenerierte Inhalte vorgeschlagen wird (einschließlich Hosting‐Unternehmen und Internetdienstanbieter).36

Bestenfalls wird ein von der Regierung beeinflusstes System der Inhaltsregulierung sehr ähnlich aussehen wie das, was jetzt passiert. Von der Regierung vorgeschriebene Standards für die Moderation von Inhalten würden unweigerlich den größten Teil der Verantwortung für die Zensur auf die Plattformen selbst übertragen. Selbst in China mit seiner Armee von Zensoren hängt die Operationalisierung der Zensur stark von den Plattformbetreibern ab. Im Tsunami der Inhalte, der durch soziale Medien ausgelöst wird, ist eine vorherige Zurückhaltung durch den Staat keine Option. Deutschland reagierte ähnlich mit dem Netzwerkdurchsetzungsgesetz (im Volksmund NetzDG oder Facebook-Gesetz genannt) von 2017, einem Gesetz zur Bekämpfung von Hetze, Hassreden und gefälschten Nachrichten in sozialen Netzwerken.

Das NetzDG führte sofort zur Unterdrückung verschiedener Formen politisch kontroverser Online-Rede. Joachim Steinhöfel, ein deutscher Anwalt, der von der im Wesentlichen rechtsprechenden Rolle von Facebook nach dem NetzDG betroffen ist, schuf eine „Mauer der Schande“ mit rechtlichen Inhalten, die vom NetzDG unterdrückt wurden.37 Ironischerweise nutzten deutsche Rechtsnationalisten, die unter dem neuen Gesetz zu Fall kamen, das Gesetz zu ihrem Vorteil, indem sie es benutzten, um kritische oder erniedrigende Kommentare über sich selbst zu unterdrücken. „Deutschlands Versuch, die Sprache im Internet zu regulieren, hat anscheinend die Stimmen verstärkt, die es zu verringern versuchte“, heißt es in einem Artikel im Atlantik.38 Auf Antrag eines Rechtspolitikers muss Facebook sicherstellen, dass Personen in Deutschland nicht über ein VPN auf illegale Inhalte zugreifen können. Dennoch argumentiert ein Bericht einer Anti‐Hassrede‐Gruppe, die das Gesetz unterstützt, dass es unwirksam war. „Es wurden keine Bußgelder gegen Unternehmen verhängt und die gesamten Takedown-Raten haben sich kaum geändert.“39

Der Verzicht auf Vermittlerimmunitäten würde die Plattformen noch konservativer und anfälliger machen, Konten zu deaktivieren oder Inhalte zu entfernen, als sie es jetzt sind. In Bezug auf Kosten und rechtliche Risiken ist es sinnvoll, auf der sicheren Seite zu sein. Wenn Vermittler rechtlich verantwortlich gemacht werden, verschwinden Konflikte um Willkür und Fehlalarme nicht, sondern verschärfen sich. In autoritären Ländern werden Plattformen lediglich indirekte Umsetzer nationaler Zensurstandards und -gesetze sein.

Andererseits stehen US-Politiker vor einem einzigartigen und interessanten Dilemma. Wenn sie glauben, die Schwierigkeiten der sozialen Medien mit Regulierungsaufrufen nutzen zu können, müssen sie verstehen, dass die Beteiligung der Regierung an der Regulierung von Inhalten dem First Amendment entsprechen müsste. Dies würde bedeuten, dass alle Arten von Inhalten, die viele Benutzer nicht sehen möchten, von Hassreden bis hin zu verschiedenen Nacktheitsgraden, nicht mehr eingeschränkt werden können, da sie nicht streng illegal sind. Alle staatlichen Eingriffe, die Buchungen oder gelöschte Konten entfernt haben, könnten auf der Grundlage eines First Amendment-Standards gerichtlich verfolgt werden. Ironischerweise müsste also eine staatliche Übernahme der Verantwortung für die Regulierung von Inhalten in den Vereinigten Staaten weitaus liberaler sein als der Status quo. Die Vermeidung dieses Ergebnisses war genau der Grund, warum Abschnitt 230 überhaupt verabschiedet wurde.

Vom Standpunkt der reinen Meinungsfreiheit aus wäre ein First Amendment-Ansatz eine gute Sache. Aber vom Standpunkt der freien Assoziation und des freien Marktes würde es nicht. Eine solche Richtlinie würde buchstäblich alle Social-Media-Nutzer dazu zwingen, Dingen ausgesetzt zu sein, denen sie nicht ausgesetzt sein wollten. Es würde den wirtschaftlichen Wert von Plattformen untergraben, indem es ihre Fähigkeit, ihre Matching-Algorithmen zu verwalten, ihre Umgebung zu gestalten und die Kompromisse eines vielseitigen Marktes zu optimieren, enthauptet. Angesichts des aktuellen Schattens über all die schlechten Dinge, die Menschen in den sozialen Medien sehen und tun, scheint ein rechtlich gesteuerter, permissiver First Amendment-Standard niemanden glücklich zu machen.

Befürworter der Meinungsfreiheit müssen daher die Bedeutung von Abschnitt 230 erneut bekräftigen. Plattformen, nicht der Staat, sollten dafür verantwortlich sein, das optimale Gleichgewicht zwischen Inhaltsmoderation, Meinungsfreiheit und dem wirtschaftlichen Wert von Plattformen zu finden. Die Alternative einer stärkeren staatlichen Regulierung würde die Plattformen von der Marktverantwortung für ihre Entscheidungen befreien. Es würde den Wettbewerb zwischen Plattformen um angemessene Moderationsstandards und -praktiken beseitigen und wahrscheinlich dazu führen, dass sie noch mehr legale Rede ausschließen und unterdrücken als jetzt.

Fazit

Die Regulierung von Inhalten ist nur das prominenteste Problem, mit dem Social‐Media-Plattformen heute konfrontiert sind. Die Regulierung von Social-Media-Inhalten stand jedoch im Mittelpunkt dieser Analyse. Hypertransparenz und die daraus resultierende Forderung nach inhaltlicher Kontrolle sind die Haupttreiber der moralischen Panik der neuen Medien. Die Panik nährt sich von selbst und schafft Bedingungen für politische Reaktionen, die Werte in Bezug auf freie Meinungsäußerung und freies Unternehmertum übersehen oder offen in Frage stellen. Obwohl Facebook und andere Social-Media-Plattformen viel zu missfallen haben, ist es an der Zeit zu erkennen, dass ein Großteil dieser negativen Reaktion darauf zurückzuführen ist, dass eine Informationsgesellschaft Manifestationen ihrer selbst in Betracht zieht. Es ist keine Übertreibung zu sagen, dass wir den Spiegel für das verantwortlich machen, was wir darin sehen. Abschnitt 230 ist immer noch überraschend relevant für dieses Dilemma. Als Richtlinie war Abschnitt 230 weder eine Form des Schutzes der jungen Industrie, auf die wir jetzt verzichten können, noch war es ein Produkt einer utopischen Trunkenheit mit dem Potenzial des Internets. Es war eine sehr clevere Art, die Verantwortung für die Content Governance in sozialen Medien zu verteilen. Wenn wir uns an diese Vereinbarung halten, mehr Toleranz lernen und mehr Verantwortung für das übernehmen, was wir in den sozialen Medien sehen und tun, können wir auf die Probleme reagieren und gleichzeitig die Vorteile behalten.

Anmerkungen

1 Milton L. Müller, „Hypertransparenz und soziale Kontrolle: Soziale Medien als Magneten für Regulierung“, Telekommunikationspolitik 39, Nr. 9 (2015): 804-10.

2 Erich Goode und Nachman Ben-Yehuda, „Erdung und Verteidigung der Soziologie der moralischen Panik“, Kap. 2 in Moralische Panik und die Politik der Angst, Hrsg. Sean Patrick Hier (Abingdon: Routledge, 2011).

3 Stanley Cohen, Volksteufel und moralische Panik (Abingdon: Routledge, 2011).

4 Ronald J. Deibert, „Der Weg zur digitalen Unfreiheit: Drei schmerzhafte Wahrheiten über soziale Medien“, Journal of Democracy 30, Nr. 1 (2019): 25-39.

5 Zeynep Tufekci, „YouTube, der große Radikalisierer“, New York Times, 10. März 2018.

6 Tufekci, „YouTube, der große Radikalisierer.“

7 Roger McNamee“, habe ich Mark Zuckerberg betreut. Ich liebe Facebook. Aber ich kann nicht schweigen über das, was passiert „, Time Magazine, Januar 17, 2019.

8 Jonathan Albright, „Unwahr-Tube: Monetarisierung von Elend und Desinformation“, Medium, 25. Februar 2018.

9 Courtney Seiter, „Die Psychologie der sozialen Medien: Warum wir online mögen, kommentieren und teilen“, Buffer, 20. August 2017.

10 Paul Mozur, „A Genocide Incited on Facebook, With Posts from Myanmar’s Military“, New York Times, 15.Oktober 2018.

11 Ingrid Burrington, „Könnte Facebook wegen Menschenrechtsverletzungen vor Gericht gestellt werden?,“ Der Atlantik, Dezember 20, 2017.

12 Burrington, „Könnte Facebook wegen Menschenrechtsverletzungen vor Gericht gestellt werden?“

13 Für eine Diskussion über Michael Flynns Lobbykampagne für die türkische Regierung und Paul Manaforts Geschäfte in der Ukraine und Russland siehe Rebecca Kheel, „Turkey and Michael Flynn: Five Things to Know“, The Hill, 17. Dezember 2018; und Franklin Foer, „Paul Manafort, American Hustler“, The Atlantic, März 2018.

14 Siehe z.B. „Minority Views to the Majority-produced ‚Report on Russian Active Measures, March 22, 2018′“ der Demokratischen Vertreter des United States House Permanent Select Committee on Intelligence (USHPSCI), 26.März 2018.

15 Anklage bei 11, U.S. v. Viktor Borisovich Netyksho et al., Rechtssache 1:18-cr-00032-DLF (D.D.C. eingereicht Feb. 16, 2018).

16 Matt Taibbi, „Können wir von Facebook gerettet werden?,“ Rolling Stone, 3. April 2018.

17 Peter W. Sänger und Emerson T. Brooking, LikeWar: Die Weaponization von Social Media (New York: Houghton Mifflin Harcourt, 2018).

18 Thomas Rid, „Warum Twitter die beste Social-Media-Plattform für Desinformation ist“, Motherboard, 1. November 2017.

19 McNamee: „Ich habe Mark Zuckerberg betreut. Ich liebe Facebook. Aber ich kann nicht schweigen, was passiert.“

20 Hunt Allcott und Matthew Gentzkow, „Social Media und Fake News bei den Wahlen 2016“, Journal of Economic Perspectives 31, Nr. 2 (2017): 211-36.

21 Sarah McKune, „Eine Analyse des Internationalen Verhaltenskodex für Informationssicherheit“, CitizenLab, 28. September 2015.

22 Kirsten Drotner, „Gefährliche Medien? “ Diskurse und Dilemmata der Moderne“, Paedagogica Historica 35, Nr. 3 (1999): 593-619.

23 Thomas W. Hazlett, „Die Rationalität der US-Regulierung des Rundfunkspektrums“, Journal of Law and Economics 33, Nr. 1 (1990): 133-75.

24 Robert McChesney, Telekommunikation, Massenmedien und Demokratie: Der Kampf um die Kontrolle des US-Rundfunks, 1928-1935 (New York: Oxford, 1995).

25 Fredric Wertham, Verführung der Unschuldigen (New York: Rinehart, 1954); und David Hajdu, Die Zehn‐Cent‐Pest: Die große Comic-Angst und wie sie Amerika veränderte (New York: Picador, 2009), https://us.macmillan.com/books/9780312428235.

26 „Kontrollieren Sie wie Drogendealer an der Ecke das Leben in der Nachbarschaft, das Zuhause und zunehmend das Leben von Kindern in ihrer Obhut“, behauptete ein ehemaliger FCC-Kommissar. Minow & LeMay, 1995. http://www.washingtonpost.com/wp-srv/style/longterm/books/chap1/abandonedinthewasteland.htm. Newton N. Minow & Craig L. LaMay, Verlassen im Ödland (New York: Hill und Wang, 1996)

27 Kara Swisher (@karaswisher): „Insgesamt ist hier meine Stimmung und ich denke, viele Leute, wenn es darum geht, das zu reparieren, was an Social Media und Technologie kaputt ist: Warum bewegst du dich nicht schneller? Warum bewegst du dich nicht schneller? Warum bewegst du dich nicht schneller?“ Twitter-Beitrag, Februar 12, 2019, 2:03 pm, https://twitter.com/karaswisher/status/1095443416148787202.

28 Matt Watson, „Youtube erleichtert die sexuelle Ausbeutung von Kindern und wird monetarisiert“, YouTube-Video, 20:47, „Mattswhite“, 27. Februar 2019, https://www.youtube.com/watch?v=O13G5A5w5P0.

29 Casey Newton, „Der traumatische Boden: Das geheime Leben der Facebook-Moderatoren in Amerika“, The Verge, 25. Februar 2019.

30 Geoff Parker, Marshall van Alstyne und Sangeet Choudhary, Plattformrevolution (New York: WW Norton, 2016).

31 Das Gericht in Zeran v. America Online, Inc., 129 F.3d 327 (4. 1997), sagte Sec. 230 wurde verabschiedet, um „die durch die Stratton Oakmont‐Entscheidung geschaffenen Fehlanreize zur Selbstregulierung zu beseitigen.“ In Stratton Oakmont, Inc. v. Prodigy Dienstleistungen Co., (N.Y. Sup. Ct. 1995) wurde ein Bulletin-Board-Anbieter für verleumderische Bemerkungen eines seiner Kunden verantwortlich gemacht, weil er sich bemüht hatte, einige der veröffentlichten Inhalte zu bearbeiten.

32 Robert D Tollison, „Rent Seeking: Eine Umfrage“, Kyklos 35, Nr. 4 (1982): 575-602.

33 Siehe beispielsweise die „Santa Clara Principles on Transparency and Accountability in Content Moderation“, 8. Mai 2018, https://santaclaraprinciples.org/.

34 Julia Carrie Wong, „Revealed: Facebook Enables Ads to Target Users Interested in ‚Vaccine Controversies'“, The Guardian (London), 15. Februar 2019.

35 Siehe Scott Cunningham, Gregory DeAngelo und John Tripp, „Craigslist’s Effect on Violence against Women“, http://scunning.com/craigslist110.pdf (2017). Siehe auch Emily Witt, „Nach der Schließung von Backpage fordern zunehmend gefährdete Sexarbeiterinnen ihre Rechte“, New Yorker, 8. Juni 2018.

36 Mark Zuckerberg, „Vier Ideen zur Regulierung des Internets“, 30. März 2019; und Britisches Innenministerium, Abteilung für Digital, Kultur, Medien & Sport, Online Harms White Paper, Rt Hon. Sajid Javid MP, Rt Hon. Jeremy Wright MP, 8. April 2019.

37 Joachim Nikolaus Steinhöfel, „Blockiert & Hassrede-Wahnsinnige Zensur & Willkür von FB,“ Facebook Block — Wall of Shame, https://facebook-sperre.steinhoefel.de/.

38 Linda Kinstler, „Deutschlands Versuch, Facebook zu reparieren, geht nach hinten los“, The Atlantic, 18. Mai 2018.

39 William Echikson und Olivia Knodt, „Germany’s NetzDG: A Key Test for Combatting Online Hate“, CEPS Research Report Nr. 2018/09, November 2018.



+