Het uitdagen van de sociale Media morele paniek: behoud van vrije meningsuiting onder Hypertransparantie

Swisher ‘ s ongeduldige vraag naar snelle actie leek aan te nemen dat de oplossingen voor de problemen van sociale media duidelijk waren. Ik twitterde in antwoord, met de vraag wat “fix” ze wilde zo snel uit te voeren. Er werd niet opgenomen.

hier is de diagnose die ik zou aanbieden. Wat is” gebroken ” over sociale media is precies hetzelfde dat maakt het nuttig, aantrekkelijk, en commercieel succesvol: het is ongelooflijk effectief in het vergemakkelijken van ontdekkingen en uitwisseling van informatie tussen belanghebbenden op ongekende schaal. Als direct gevolg daarvan zijn er meer informatieve interacties dan ooit tevoren en meer Wederzijdse uitwisselingen tussen mensen. Deze menselijke activiteit, in al zijn glorie, gore, en smerigheid, genereert storable, doorzoekbare records, en de gebruikers laat toerekenbare tracks overal. Zoals eerder opgemerkt, wordt de opkomende nieuwe wereld van sociale media gekenmerkt door hypertransparantie.Vanuit het standpunt van de vrije meningsuiting en de vrije markten is hier niets inherent aan gebroken; integendeel, de meeste critici zijn ongelukkig juist omdat het model werkt: het ontketent allerlei uitdrukkingen en uitwisselingen, en maakt er tonnen geld mee. Maar twee verschillende sociopolitieke pathologieën worden hierdoor gegenereerd. De eerste is dat, door het blootstellen van allerlei deplorabele toepassingen en gebruikers, het de neiging om verontwaardiging trechter op deze manifestaties van sociale deviantie ten opzichte van het platform providers. Een man ontdekt pedofielen die commentaar geven op YouTube-video ‘ s van kinderen en sputtert van woede op … YouTube.28 de tweede pathologie is het idee dat het verwerpelijke gedrag kan worden gemanipuleerd uit het bestaan of dat de samenleving als geheel kan worden gemanipuleerd in een staat van deugd door tussenpersonen aan te moedigen om strenger toezicht en regelgeving te nemen. In plaats van te proberen om het verwerpelijke gedrag te stoppen of te beheersen, streven we ernaar om de communicatie-intermediair te controleren die door de slechte acteur werd gebruikt. In plaats van de misdaad te elimineren, stellen we voor om de tussenpersoon te vervangen om symbolen van de misdaad te herkennen en ze uit het zicht te wissen. Het is alsof we aannemen dat het leven een scherm is, en als we ongewenste dingen van onze schermen verwijderen door Internet tussenpersonen te controleren, dan hebben we de problemen van het leven opgelost. (En zelfs terwijl we dit doen, klagen we hypocriet over China en zijn vermeende ontwikkeling van een allesomvattend sociaal kredietsysteem gebaseerd op online interacties.)

de reactie tegen sociale media is dus gebaseerd op een valse premisse en een valse belofte. De valse aanname is dat de makers van tools die publieke interactie op schaal mogelijk maken primair verantwoordelijk zijn voor het bestaan van het gedrag en de berichten die zo worden onthuld. De valse belofte is dat door de platformproviders te duwen om inhoud te blokkeren, accounts te elimineren of anderszins manifestaties van sociale problemen op hun platforms aan te vallen, we die problemen oplossen of verminderen. Door deze misvattingen te kammen, hebben we geprobeerd “nieuwe” problemen te beteugelen door ze te verbergen voor het publiek.

de belangrijkste platforms hebben aan deze pathologie bijgedragen door steeds uitgebreidere taken op het gebied van inhoudsmatings op zich te nemen. Vanwege de intense politieke druk die ze onder staan, accepteren de dominante platforms snel het idee dat ze overkoepelende sociale verantwoordelijkheden hebben om de user morals en het publieke discours op politiek aanvaardbare manieren vorm te geven. Onvermijdelijk, als gevolg van de schaal van sociale media interacties, betekent dit steeds meer geautomatiseerde of algoritmische vormen van regelgeving, met al zijn rigiditeiten, domheden, en fouten. Maar het betekent ook enorme investeringen in arbeidsintensieve handmatige vormen van matiging.29

het beleidsdebat over dit onderwerp wordt bemoeilijkt door het feit dat internetbemiddelaars niet echt kunnen voorkomen dat zij een aantal facultatieve verantwoordelijkheden op het gebied van inhoudregulering op zich nemen die verder gaan dan het naleven van verschillende wetten. Hun status als multiside markten die aanbieders en zoekers van informatie matchen vereist dit.30 aanbevelingen op basis van machine learning begeleiden gebruikers door de enorme, anders hardnekkige hoeveelheid beschikbaar materiaal. Deze filters verbeteren de waarde van een platform voor een gebruiker enorm, maar ze geven ook indirect vorm aan wat mensen zien, lezen en horen. Ze kunnen ook, als onderdeel van hun pogingen om gebruikers aan te trekken en de waarde van de platforms voor adverteerders te vergroten, berichten en vormen van gedrag die hun platforms onaangename of schadelijke plaatsen te ontmoedigen of te onderdrukken. Deze vorm van contentmatiging valt buiten de reikwijdte van de wettelijke bescherming van het eerste amendement omdat het wordt uitgevoerd door een privé-acteur en binnen de reikwijdte van redactionele discretie valt.

Wat is de oplossing?

Sectie 230 van de Communications Decency Act kwadraat van de cirkel door immuniserende informatie dienstverleners die niets te beperken of te censureren de communicatie van de partijen met hun platforms (de klassieke “neutraal doorgeefluik” of common‐carrier concept), terwijl ook immuniserende informatie service providers die uitgingen van een aantal redactionele verantwoordelijkheden (bv., te beperken, pornografie en andere vormen van ongewenste content). Tussenpersonen die niets deden werden (verondersteld) geïmmuniseerd op manieren die de Vrijheid van meningsuiting en diversiteit online bevorderden; tussenpersonen die actiever waren in het beheer van door gebruikers gegenereerde inhoud werden geïmmuniseerd om hun vermogen te verbeteren om “slechte” inhoud te verwijderen of anderszins te controleren zonder als uitgevers te worden geclassificeerd en dus verantwoordelijkheid te nemen voor de inhoud die zij niet beperkten.31

het is duidelijk dat deze juridische balancering, die zo goed heeft gewerkt om het moderne social media platform succesvol te maken, aan het afbrokkelen is. Sectie 230 is het slachtoffer van zijn eigen succes. Platforms zijn voor een deel groot en succesvol geworden vanwege hun sectie 230 vrijheden, maar als gevolg daarvan worden ze onderworpen aan politieke en normatieve druk die hen de facto verantwoordelijkheid geven voor wat hun gebruikers lezen, zien en doen. De dreiging van overheidsinterventie ligt op de achtergrond of wordt in bepaalde rechtsgebieden gerealiseerd. Gevoed door hypertransparantie, maken politieke en normatieve druk het pure, neutrale, niet-discriminerende platform tot het verleden.

de meest voorkomende voorstellen voor het repareren van sociale mediaplatforms lijken de platforms te vragen om meer inhoud te matigen en onaanvaardbare vormen van expressie of gedrag uit te zoeken. De politieke vraag naar meer agressieve inhoud matiging komt in de eerste plaats van een breed scala van groepen die proberen om specifieke soorten inhoud die aanstootgevend is voor hen te onderdrukken. Degenen die minder controle of meer tolerantie willen, lijden onder het diffuse kosten / geconcentreerde batenprobleem dat ons bekend is uit de economische analyse van speciale belangengroepen: dat wil zeggen, tolerantie komt iedereen een beetje ten goede en zijn aanwezigheid is nauwelijks merkbaar totdat het verloren is; onderdrukking, aan de andere kant, biedt krachtige en onmiddellijke voldoening aan een paar zeer gemotiveerde acteurs.32

in het gunstigste geval stellen hervormers voor om de inhoudsmatering te rationaliseren op een manier die erop gericht is de normen ervan duidelijker te maken, de toepassing ervan coherenter te maken en een beroepsprocedure mogelijk te maken.33 toch is het onwaarschijnlijk dat dit zal werken tenzij platforms de ruggengraat krijgen om hun rechten sterk te doen gelden om de criteria vast te stellen, zich eraan te houden, en te stoppen ze voortdurend aan te passen op basis van de grillen van de dagelijkse politieke druk. In het slechtste geval worden voorstanders van meer contentmatiging gemotiveerd door de overtuiging dat meer contentcontrole hun eigen persoonlijke waarden en prioriteiten zal weerspiegelen. Maar aangezien de roep om hardere of uitgebreidere inhoudsbeheersing uit alle ideologische en culturele richtingen komt, is deze verwachting onrealistisch. Het zal alleen maar leiden tot een gedistribueerde vorm van het veto van de heckler en een volledige afwezigheid van voorspelbare, relatief objectieve normen. Het is niet ongewoon voor woede op sociale media om te leiden in tegenstrijdige richtingen. Een verslaggever voor The Guardian, bijvoorbeeld, is verontwaardigd dat Facebook heeft een advertentie-targeting categorie voor “vaccin controverses”en geselt het bedrijf voor het toestaan van anti-vaccinatie advocaten om gesloten groepen die de weerstand van die leden tegen mainstream medische zorg kunnen versterken.34 Facebook kan echter niet ingrijpen zonder hun gebruikers te profileren als onderdeel van een specifieke politieke beweging die als onjuist wordt beschouwd, en vervolgens hun communicatie en hun vermogen om te associëren op basis van die gegevens te onderdrukken. Dus, op hetzelfde moment Facebook wordt op grote schaal aangevallen voor privacyschendingen, het wordt ook gevraagd om zijn privé-gebruikersgegevens te gebruiken om politieke en sociale overtuigingen die worden geacht afwijkend vlag en om gebruikers’ vermogen om te associëren te onderdrukken, verbinding te maken met adverteerders, of onderling te communiceren. In deze combinatie van surveillance en onderdrukking, wat kan er mis gaan?

welk standpunt moeten voorstanders van zowel vrije meningsuiting als vrije markten innemen ten aanzien van sociale media?

Ten eerste moet de enorme waarde van platforms duidelijker worden geformuleerd op basis van hun vermogen om zoekers en verstrekkers van informatie aan elkaar te koppelen. Er moet ook expliciet gepleit worden voor meer tolerantie voor de schokkende diversiteit die door deze processen aan het licht komt. Echte liberalen moeten duidelijk maken dat van sociale mediaplatforms niet kan worden verwacht dat ze de hoofdverantwoordelijkheid dragen om ons te beschermen tegen ideeën, mensen, berichten en culturen die we verkeerd vinden of die ons beledigen. De meeste verantwoordelijkheid voor wat we zien en vermijden moet bij ons liggen. Als we verontwaardigd zijn over dingen die we niet leuk vinden in online gemeenschappen die bestaan uit miljarden mensen, moeten we stoppen met het verkeerd richten van die verontwaardiging tegen de platforms die ons er toevallig aan blootstellen. Evenzo, als het blootgestelde gedrag illegaal is, moeten we ons richten op het identificeren van de daders en hen verantwoordelijk houden. Als uitvloeisel van deze attitudeverandering moeten we ook laten zien dat de hypertransparantie die door sociale media wordt bevorderd, een grote sociale waarde kan hebben. Als een eenvoudig voorbeeld hiervan, heeft onderzoek aangetoond dat de veel verguisde opkomst van platforms die vrouwelijke prostituees matchen met klanten statistisch gecorreleerd is met een afname van geweld tegen vrouwen — juist omdat het sekswerk van de straat haalde en transacties zichtbaarder en controleerbaar maakte.35

ten tweede moeten voorstanders van vrije meningsuiting actief degenen uitdagen die verder willen gaan met content. We moeten het feit blootleggen dat ze sociale media gebruiken als een middel om de samenleving te hervormen en te hervormen, en ze hanteren als een hamer tegen normen en waarden die ze willen uitroeien uit de wereld. Deze standpunten leiden ons naar een autoritair doodlopende straat. Ze kunnen er heel goed in slagen de Vrijheid van digitale media te onderdrukken en te verlammen, maar ze zullen en kunnen er niet in slagen de samenleving te verbeteren. In plaats daarvan zullen ze sociale media platforms slagvelden voor een eeuwigdurende intensivering van het conflict over wie krijgt om wie zwijgen. Dit blijkt al overduidelijk uit de kreten van discriminatie en vooringenomenheid als de platforms de inhoud matiging opvoeren: de kreten komen van zowel links als rechts als reactie op matiging die vaak als willekeurig wordt ervaren.

ten slotte moeten we een vernieuwde en vernieuwde verdediging van sectie 230 opzetten. Het geval voor sectie 230 is eenvoudig: geen enkel alternatief belooft intrinsiek beter te zijn dan wat we nu hebben, en de meeste alternatieven zullen waarschijnlijk slechter zijn. De overdrijvingen gegenereerd door de morele paniek hebben het simpele feit dat het modereren van inhoud op een wereldwijd platform met miljarden gebruikers is een buitengewoon moeilijke en veeleisende taak verduisterd. Gebruikers, niet platforms, zijn de bron van berichten, video ‘ s en afbeeldingen die mensen aanstootgevend vinden, dus oproepen tot regelgeving negeren het feit dat de regelgeving niet geldt voor een enkele leverancier, maar moet miljoenen, en misschien miljarden, gebruikers regeren. De taak van het markeren van User-generated content, overwegen, en beslissen wat te doen over het is moeilijk en duur. En kan het beste worden overgelaten aan de platforms.

er lijkt echter een verordening te komen. Facebook CEO Mark Zuckerberg heeft een blog post waarin wordt opgeroepen om het internet te reguleren gepubliceerd, en de Britse regering heeft een witboek uitgebracht, “Online Harms,” dat stelt voor het opleggen van systematische aansprakelijkheid voor door gebruikers gegenereerde inhoud op alle internet tussenpersonen (met inbegrip van hosting bedrijven en internet service providers).36

in het beste geval zal een systeem van inhoudregulering onder invloed van de overheid zeer veel lijken op wat er nu gebeurt. Door de overheid opgelegde normen voor content matiging zouden onvermijdelijk het grootste deel van de verantwoordelijkheid voor censuur op de platforms zelf leggen. Zelfs in China, met zijn leger van censors, is de operationalisering van censuur sterk afhankelijk van de platformexploitanten. In de tsunami van content ontketend door sociale media, voorafgaande terughoudendheid door de staat is niet echt een optie. Duitsland reageerde op dezelfde manier met de 2017 Netzwerkdurchsetzungsgesetz, of Network Enforcement Act (in de volksmond bekend als NetzDG of de Facebook Act), een wet die gericht is op het bestrijden van agitatie, haatzaaien en nepnieuws in sociale netwerken.

de netzdg-wet leidde onmiddellijk tot de afschaffing van verschillende vormen van politiek controversiële online-spraak. Joachim Steinhöfel, een Duitse advocaat die zich bezighoudt met Facebook ‘ s in wezen jurisprudentie rol onder NetzDG, creëerde een “muur van schaamte” met juridische inhoud onderdrukt door NetzDG.37 ironisch genoeg hebben Duitse rechtse nationalisten die onder de nieuwe wet werden neergehaald, de wet in hun voordeel omgezet door ze te gebruiken om kritische of vernederende opmerkingen over zichzelf te onderdrukken. “De Duitse poging om online spraak te reguleren heeft de stemmen die het probeerde te verminderen blijkbaar versterkt”, beweert een artikel in the Atlantic.38 als gevolg van de petitie van een rechtse politicus moet Facebook ervoor zorgen dat personen in Duitsland geen VPN kunnen gebruiken om toegang te krijgen tot illegale inhoud. Toch wordt in een rapport van een anti‐haat‐spraakgroep die de wet steunt, beweerd dat deze ineffectief is geweest. “Er zijn geen boetes opgelegd aan bedrijven en er is weinig verandering in de Algemene takedown tarieven.”39

het opgeven van intermediaire immuniteiten zou de platforms nog conservatiever maken en meer geneigd zijn om accounts uit te schakelen of content te verwijderen dan nu het geval is. In termen van kosten en juridische risico ‘ s, zal het zinvol zijn voor hen om zich te vergissen aan de veilige kant. Wanneer tussenpersonen wettelijke verantwoordelijkheid krijgen, gaan conflicten over willekeur en valse positieven niet weg, ze intensiveren. In autoritaire landen zullen platforms slechts indirecte uitvoerders zijn van nationale censuurnormen en-wetten.Aan de andere kant staan Amerikaanse politici voor een uniek en interessant dilemma. Als ze denken dat ze kunnen profiteren van sociale media ‘ s travails met oproepen tot regulering, moeten ze begrijpen dat de betrokkenheid van de overheid in inhoud regelgeving zou moeten voldoen aan het Eerste Amendement. Dit zou betekenen dat alle soorten inhoud die veel gebruikers niet willen zien, variërend van haatuitingen tot verschillende niveaus van naaktheid, niet langer beperkt kunnen worden omdat ze niet strikt illegaal zijn. Overheidsinterventies die postings of verwijderde accounts verwijderen, kunnen worden berecht op basis van een eerste amendement-standaard. Ironisch genoeg zou een overname door de overheid van verantwoordelijkheden op het gebied van inhoudregulering in de Verenigde Staten dan veel liberaler moeten zijn dan de status quo. Het vermijden van deze uitkomst was precies de reden waarom artikel 230 in de eerste plaats werd goedgekeurd.Vanuit het standpunt van de vrije meningsuiting zou een eerste-amendement-benadering een goede zaak zijn. Maar vanuit een vrij-associatie en vrij‐markt standpunt, zou het niet. Een dergelijk beleid zou letterlijk dwingen alle social media gebruikers worden blootgesteld aan dingen die ze niet willen worden blootgesteld aan. Het zou de economische waarde van platforms ondermijnen door hun vermogen te onthoofden om hun matching algoritmes te beheren, hun omgeving vorm te geven en de afwegingen van een multiside markt te optimaliseren. Gezien de huidige tint en huilen over alle slechte dingen die mensen zien en doen op sociale media, een wettelijk gedreven, tolerante Eerste Amendement standaard lijkt niet alsof het zou iedereen gelukkig te maken.De voorstanders van de expressieve vrijheid moeten daarom het belang van paragraaf 230 opnieuw benadrukken. Platforms, niet de staat, moeten verantwoordelijk zijn voor het vinden van het optimale evenwicht tussen inhoudsmatiging, Vrijheid van meningsuiting en de economische waarde van platforms. Het alternatief van meer overheidsregulering zou de platforms ontslaan van de verantwoordelijkheid van de markt voor hun beslissingen. Het zou de concurrentie tussen platforms voor passende matigingsnormen en-praktijken elimineren en hen er waarschijnlijk toe brengen nog meer juridische uitspraken uit te sluiten en te onderdrukken dan nu het geval is.

conclusie

regulering van de inhoud is slechts de meest prominente van de kwesties waarmee sociale mediaplatforms vandaag worden geconfronteerd; zij zijn ook betrokken bij controverses op het gebied van privacy en mededingingsbeleid. Maar social media content regulation is de exclusieve focus van deze analyse geweest. Hypertransparantie en de daaruit voortvloeiende vraag naar contentbeheersing zijn de belangrijkste drijvende krachten achter de morele paniek in de nieuwe media. De paniek voedt zich met zichzelf en schept voorwaarden voor beleidsreacties die waarden met betrekking tot vrije meningsuiting en vrij ondernemen over het hoofd zien of openlijk uitdagen. Hoewel er veel te haten is over Facebook en andere sociale media platforms, is het tijd dat we ons realiseren dat een groot deel van die negatieve reactie voortkomt uit een informatiemaatschappij die zich manifesteert. Het is niet overdreven te zeggen dat we de spiegel de schuld geven van wat we erin zien. Hoofdstuk 230 is nog steeds verrassend relevant voor dit dilemma. Als beleid was artikel 230 geen vorm van bescherming van de jonge industrie die we nu kunnen missen, noch was het een product van een utopische dronkenschap met het potentieel van het internet. Het was een zeer slimme manier om verantwoordelijkheid voor content governance in sociale media te verdelen. Als we vasthouden aan deze regeling, meer tolerantie leren en meer verantwoordelijkheid nemen voor wat we zien en doen op sociale media, kunnen we reageren op de problemen met behoud van de voordelen.

Aantekeningen

1 Milton L. Mueller, “Hyper-transparency and Social Control: Social Media as Magnets for Regulation,” Telecommunications Policy 39, no. 9 (2015): 804-10.2 Erich Goode and Nachman Ben-Yehuda, “Grounding and Defending the Sociology of Moral Panic,” chap. 2 in Moral Panic and the Politics of Anxiety, ed. Sean Patrick Hier (Abingdon: Routledge, 2011).3 Stanley Cohen, Folk Devils and Moral Panics (Abingdon: Routledge, 2011).

4 Ronald J. Deibert, “The Road to Digital Unfreedom: Three Painful Truths about Social Media,” Journal of Democracy 30, no. 1 (2019): 25-39.5 Zeynep Tufekci, “YouTube, The Great Radicalizer,” New York Times, 10 maart 2018.6 Tufekci, ” YouTube, The Great Radicalizer.”

7 Roger McNamee, ” I Mentored Mark Zuckerberg. Ik Hield Van Facebook. Maar ik kan niet zwijgen over wat er gebeurt,” Time Magazine, 17 januari 2019.

8 Jonathan Albright,” Untrue‐Tube: Monetizing Misery and Desinformation, ” Medium, February 25, 2018.Courtney Seiter, “The Psychology of Social Media: Why We Like, Comment, and Share Online,” Buffer, August 20, 2017.10 Paul Mozur, “a Genocide Incited on Facebook, With Posts from Myanmar’ S Military,” New York Times, 15 oktober 2018.

11 Ingrid Burrington, ” zou Facebook kunnen worden berecht voor mensenrechtenschendingen?, “The Atlantic, December 20, 2017.

12 Burrington, ” Could Facebook Be Tried for Human-Rights violations?”

13 voor een discussie over Michael Flynn ’s lobbycampagne voor de Turkse regering en Paul Manafort’ s business in Ukraine and Russia, zie Rebecca Kheel, “Turkey and Michael Flynn: Five Things to Know,” the Hill, 17 December 2018; en Franklin Foer, “Paul Manafort, American Hustler,” The Atlantic, maart 2018.Zie bijvoorbeeld “Minority Views to the Majority-produced’ Report on Russian Active Measures, March 22, 2018 ” van de Democratische vertegenwoordigers van het United States House Permanent Select Committee on Intelligence (USHPSCI), 26 maart 2018.15 tenlastelegging op 11, V. S. v. Viktor Borisovich Netyksho et al., Zaak 1: 18-cr-00032-DLF (D. D. C. ingediend Feb. 16, 2018).

16 Matt Taibbi, ” Can We Be Saved from Facebook?”Rolling Stone, 3 April 2018.

17 Peter W. Zanger en Emerson T. Brooking, LikeWar: The Weaponization of Social Media (New York: Houghton Mifflin Harcourt, 2018).18 Thomas Rid, “Why Twitter Is the Best Social Media Platform for Desinformation”, Motherboard, 1 November 2017.

19 McNamee, ” I Mentored Mark Zuckerberg. Ik Hield Van Facebook. Maar ik kan niet zwijgen over wat er gebeurt.”

20 Hunt Allcott and Matthew Gentzkow, “Social Media and Fake News in the 2016 Election,” Journal of Economic Perspectives 31, no. 2 (2017): 211-36.

21 Sarah McKune, “An Analysis of the International Code of Conduct for Information Security,” CitizenLab, 28 September 2015.

22 Kirsten Drotner, ” Dangerous Media? Panic Discourses and dilemma ’s of Modernity,” Paedagogica Historica 35, no. 3 (1999): 593-619.23 Thomas W. Hazlett, “The Rationality of US Regulation of the Broadcast Spectrum,” Journal of Law and Economics 33, no. 1 (1990): 133-75.24 Robert McChesney, Telecommunications, Mass Media and Democracy: The Battle for Control of U. S. Broadcasting, 1928-1935 (New York: Oxford, 1995).Fredric Wertham, Seduction of the Innocent (New York: Rinehart, 1954); en David Hajdu, The Ten‐cent Plague: The Great Comic‐book Scare and How It Changed America (New York: Picador, 2009), https://us.macmillan.com/books/9780312428235.”Net als drugdealers op de hoek, controle over het leven van de buurt, het huis en, in toenemende mate, het leven van kinderen in hun hechtenis,” beweerde een voormalig FCC-commissaris. Minow & LeMay, 1995. http://www.washingtonpost.com/wp-srv/style/longterm/books/chap1/abandonedinthewasteland.htm. Newton N. Minow & Craig L. LaMay, verlaten in de woestenij (New York: Hill en Wang, 1996)

27 Kara Swisher (@karaswisher), ” over het algemeen is hier mijn stemming en ik denk dat een heleboel mensen als het gaat om de vaststelling van wat er gebroken over sociale media en tech: waarom ga je niet sneller? Waarom beweeg je niet sneller? Waarom beweeg je niet sneller?”Twitter post, 12 februari 2019, 14: 03 p. m., https://twitter.com/karaswisher/status/1095443416148787202.Matt Watson,” Youtube is Facilitating the Sexual Exploitation of Children, and It ‘ s Being Monetized, “YouTube video, 20:47,” MattsWhatItIs, ” February 27, 2019, https://www.youtube.com/watch?v=O13G5A5w5P0.

29 Casey Newton, ” The Trauma Floor: Het geheime leven van Facebook-Moderators in Amerika, ” The Verge, 25 februari 2019.Geoff Parker, Marshall Van Alstyne, and Sangeet Choudhary, Platform Revolution (New York: W. W. Norton, 2016).

31 De rechtbank in Zeran v. America Online, Inc., 129 F. 3d 327 (4th Cir. 1997), aldus paragraaf 230 werd aangenomen om “de negatieve prikkels voor zelfregulering die door het Besluit van Stratton Oakmont zijn gecreëerd, weg te nemen.”In Stratton Oakmont, Inc. v. Prodigy Services Co., (N. Y.Sup. Ct. 1995), werd een bulletin‐board provider verantwoordelijk gehouden voor lasterlijke opmerkingen door een van zijn klanten, omdat het zich inspande om een deel van de geplaatste inhoud te bewerken.

32 Robert D Tollison, “Rent Seeking: A Survey,” Kyklos 35, no. 4 (1982): 575-602.

33 zie bijvoorbeeld de “Santa Clara Principles on Transparency and Accountability in content Moderation”, 8 mei 2018, https://santaclaraprinciples.org/.Julia Carrie Wong, “Revealed: Facebook Enables ads to Target Users Interested in ‘vaccine controverses’, ” The Guardian (London), February 15, 2019.Zie Scott Cunningham, Gregory Deangelo en John Tripp, “Craigslist’ s Effect on Violence against Women,” http://scunning.com/craigslist110.pdf (2017). Zie ook Emily Witt, “na de sluiting van Backpage eisen steeds kwetsbaarder prostituees hun rechten”, New Yorker, 8 juni 2018.

36 Mark Zuckerberg, “Four Ideas to Regulate the Internet,” March 30, 2019; en UK Home Office, Department for Digital, Culture, Media & Sport, Online Harms White Paper, the Rt Hon. Sajid Javid MP, the Rt Hon. Jeremy Wright MP, April 8, 2019.Joachim Nikolaus Steinhöfel, “Blocks & Hate Speech-Insane censure & willekeur van FB,” Facebook Block-Wall of Shame, https://facebook-sperre.steinhoefel.de/.

38 Linda Kinstler, “Germany’ s Attempt to Fix Facebook Is Backfiring,” The Atlantic, May 18, 2018.

39 William Echikson en Olivia Knodt,” Germany ’s NetzDG: A Key Test for Combatting Online Hate,” CEPS Research Report no. 2018/09, November 2018.



+