La domanda impaziente di Swisher per un’azione veloce sembrava presumere che le soluzioni ai mali dei social media fossero ovvie. Ho twittato in risposta, chiedendo quale “correzione” voleva implementare così rapidamente. Non c’era risposta.
Ecco la diagnosi che offrirei. Ciò che è “rotto” sui social media è esattamente la stessa cosa che lo rende utile, attraente e di successo commerciale: è incredibilmente efficace nel facilitare scoperte e scambi di informazioni tra le parti interessate su scala senza precedenti. Come risultato diretto di ciò, ci sono più interazioni informative che mai e più scambi reciproci tra le persone. Questa attività umana, in tutta la sua gloria, gore e squallore, genera record memorabili e ricercabili e i suoi utenti lasciano tracce attribuibili ovunque. Come notato prima, il nuovo mondo emergente dei social media è caratterizzato da ipertransparency.
Dal punto di vista della libera espressione e del libero mercato non c’è nulla di intrinsecamente rotto in questo; al contrario, la maggior parte dei critici è infelice proprio perché il modello sta funzionando: sta scatenando ogni tipo di espressione e scambi, e facendo tonnellate di soldi per l’avvio. Ma due distinte patologie sociopolitiche sono generate da questo. Il primo è che, esponendo tutti i tipi di usi e utenti deplorevoli, tende a incanalare l’indignazione verso queste manifestazioni di devianza sociale nei confronti dei fornitori della piattaforma. Un uomo scopre pedofili commentando i video di YouTube di bambini ed è sputtering con rabbia a YouTube YouTube.28 La seconda patologia è l’idea che i comportamenti discutibili possono essere progettati dall’esistenza o che la società nel suo insieme può essere progettata in uno stato di virtù incoraggiando gli intermediari ad adottare una sorveglianza e una regolamentazione più severe. Invece di cercare di fermare o controllare il comportamento discutibile, ci sforziamo di controllare l’intermediario di comunicazione che è stato utilizzato dal cattivo attore. Invece di eliminare il crimine, proponiamo di sostituire l’intermediario per riconoscere i simboli del crimine e cancellarli dalla vista. È come se assumessimo che la vita sia uno schermo, e se rimuoviamo le cose indesiderate dai nostri schermi controllando gli intermediari di Internet, allora abbiamo risolto i problemi della vita. (E anche mentre lo facciamo, ci lamentiamo ipocritamente della Cina e del suo presunto sviluppo di un sistema di credito sociale onnicomprensivo basato sulle interazioni online.)
La reazione contro i social media si basa quindi su una falsa premessa e una falsa promessa. La falsa premessa è che i creatori di strumenti che consentono l’interazione pubblica su larga scala sono i principali responsabili dell’esistenza dei comportamenti e dei messaggi così rivelati. La falsa promessa è che spingendo i fornitori della piattaforma a bloccare i contenuti, eliminare gli account o altrimenti attaccare manifestazioni di problemi sociali sulle loro piattaforme, stiamo risolvendo o riducendo tali problemi. Pettinando queste incomprensioni, abbiamo cercato di frenare i “nuovi” problemi nascondendoli alla vista del pubblico.
Le principali piattaforme hanno contribuito a questa patologia assumendo compiti sempre più estesi di moderazione dei contenuti. A causa dell’intensa pressione politica a cui sono sottoposti, le piattaforme dominanti stanno rapidamente accettando l’idea di avere responsabilità sociali generali per modellare la morale degli utenti e modellare il discorso pubblico in modi politicamente accettabili. Inevitabilmente, a causa della scala delle interazioni sui social media, questo significa forme di regolamentazione sempre più automatizzate o algoritmiche, con tutte le sue rigidità, stupidità ed errori. Ma significa anche massicci investimenti in forme manuali di moderazione ad alta intensità di lavoro.29
Il dibattito orientativo su questo argomento è complicato dal fatto che gli intermediari di Internet non possono davvero evitare di assumersi alcune responsabilità facoltative sulla regolamentazione dei contenuti oltre al rispetto di varie leggi. Il loro status di mercati multisidenti che corrispondono ai fornitori e ai cercatori di informazioni lo richiede.30 Raccomandazioni basate sull’apprendimento automatico guidano gli utenti attraverso la vasta, altrimenti intrattabile quantità di materiale disponibile. Questi filtri migliorano notevolmente il valore di una piattaforma per un utente, ma modellano anche indirettamente ciò che le persone vedono, leggono e ascoltano. Possono anche, come parte dei loro tentativi di attrarre utenti e migliorare il valore delle piattaforme per gli inserzionisti, scoraggiare o sopprimere messaggi e forme di comportamento che rendono le loro piattaforme luoghi sgradevoli o dannosi. Questa forma di moderazione dei contenuti non rientra nell’ambito delle protezioni legali del Primo emendamento perché è eseguita da un attore privato e rientra nell’ambito della discrezione editoriale.
Qual è la soluzione?
Sezione 230 del Communications Decency Act quadrato il cerchio da immunizzare informazioni di fornitori di servizi che non ha fatto nulla per limitare o censurare le comunicazioni delle parti usando le loro piattaforme (la classica “neutro conduttore” o al vettore, concetto, mentre anche immunizzazione di fornitori di servizi dell’informazione che assume alcune responsabilità editoriali (ad esempio, per limitare la pornografia e altre forme di contenuti indesiderati). Gli intermediari che non hanno fatto nulla erano (dovrebbero essere) immunizzati in modi che promuovevano la libertà di espressione e la diversità online; gli intermediari che erano più attivi nella gestione dei contenuti generati dagli utenti sono stati immunizzati per migliorare la loro capacità di eliminare o comunque monitorare i contenuti “cattivi” senza essere classificati come editori e quindi assumendosi la responsabilità per i contenuti che non hanno limitato.31
È chiaro che questo atto di bilanciamento legale, che ha funzionato così bene per rendere la moderna piattaforma di social media di successo, si sta rompendo. La Sezione 230 è vittima del proprio successo. Le piattaforme sono diventate grandi e di successo in parte a causa delle loro libertà Section 230, ma di conseguenza sono soggette a pressioni politiche e normative che conferiscono loro la responsabilità de facto di ciò che i loro utenti leggono, vedono e fanno. La minaccia di un intervento del governo è in agguato sullo sfondo o in fase di realizzazione in alcune giurisdizioni. Alimentate dall’ipertransparenza, le pressioni politiche e normative stanno rendendo la piattaforma pura, neutrale e non discriminatoria una cosa del passato.
Le proposte più comuni per fissare le piattaforme di social media sembrano chiedere alle piattaforme di impegnarsi in una maggiore moderazione dei contenuti e di eliminare forme inaccettabili di espressione o comportamento. La richiesta politica di moderazione dei contenuti più aggressiva proviene principalmente da un’ampia varietà di gruppi che cercano di sopprimere specifici tipi di contenuti che sono discutibili per loro. Coloro che vogliono meno controllo o più tolleranza soffrono del problema diffuso dei costi / benefici concentrati a noi familiare dall’analisi economica di gruppi di interesse speciali: cioè, la tolleranza giova un po ‘ a tutti e la sua presenza è appena percettibile fino a quando non viene persa; la soppressione, d’altra parte, offre una soddisfazione potente e immediata a pochi attori altamente motivati.32
Nella migliore delle ipotesi, i riformatori propongono di razionalizzare la moderazione dei contenuti in modi progettati per rendere più chiari i suoi standard, rendere più coerente la loro applicazione e rendere possibile un processo di appello.33 Tuttavia, è improbabile che questo funzioni a meno che le piattaforme non ottengano la spina dorsale per affermare con forza i loro diritti di fissare i criteri, attenersi a loro e smettere di adeguarli costantemente in base ai capricci delle pressioni politiche quotidiane. Nel peggiore dei casi, i sostenitori di una maggiore moderazione dei contenuti sono motivati dalla convinzione che un maggiore controllo dei contenuti rifletterà i propri valori e priorità personali. Ma dal momento che le richieste di moderazione dei contenuti più severe o più estese provengono da tutte le direzioni ideologiche e culturali, questa aspettativa non è realistica. Porterà solo a una forma distribuita del veto di heckler e a una completa assenza di standard prevedibili e relativamente oggettivi. Non è raro che l’indignazione nei social media conduca in direzioni contraddittorie. Un giornalista di The Guardian, ad esempio, è indignato dal fatto che Facebook abbia una categoria di targeting pubblicitario per “controversie sui vaccini” e flogs l’azienda per aver permesso ai sostenitori anti‐vaccinazione di formare gruppi chiusi che possono rafforzare la resistenza di quei membri alle cure mediche tradizionali.34 Tuttavia, non c’è modo per Facebook di intervenire senza profilare i propri utenti come parte di uno specifico movimento politico ritenuto sbagliato, e quindi sopprimere le loro comunicazioni e la loro capacità di associarsi in base a tali dati. Così, allo stesso tempo, Facebook è ampiamente attaccato per le violazioni della privacy, è anche stato chiesto di sfruttare i suoi dati degli utenti privati per bandiera convinzioni politiche e sociali che sono ritenuti aberranti e per sopprimere la capacità degli utenti di associare, connettersi con gli inserzionisti, o comunicare tra di loro. In questa combinazione di sorveglianza e soppressione, cosa potrebbe andare storto?
Quale posizione dovrebbero assumere i sostenitori della libertà di espressione e del libero mercato nei confronti dei social media?
In primo luogo, deve esserci un’articolazione più chiara dell’enorme valore delle piattaforme in base alla loro capacità di abbinare i cercatori e i fornitori di informazioni. Ci deve anche essere una difesa esplicita per una maggiore tolleranza della diversità stridente rivelata da questi processi. I veri liberali devono chiarire che non ci si può aspettare che le piattaforme di social media portino la principale responsabilità di proteggerci da idee, persone, messaggi e culture che consideriamo sbagliate o che ci offendono. La maggior parte della responsabilità per ciò che vediamo e ciò che evitiamo dovrebbe ricadere su di noi. Se siamo indignati nel vedere cose che non ci piacciono nelle comunità online composte da miliardi di persone, dobbiamo smettere di indirizzare male quell’indignazione contro le piattaforme che ci espongono ad esso. Allo stesso modo, se il comportamento esposto è illegale, dobbiamo concentrarci sull’identificazione dei colpevoli e sulla loro responsabilità. Come corollario di questo cambiamento attitudinale, dobbiamo anche dimostrare che l’ipertransparency promossa dai social media può avere un grande valore sociale. Come semplice esempio di questo, la ricerca ha dimostrato che l’aumento tanto diffamato delle piattaforme che corrispondono alle lavoratrici del sesso femminile con i clienti è statisticamente correlato a una diminuzione della violenza contro le donne, proprio perché ha tolto il lavoro sessuale dalla strada e ha reso le transazioni più visibili e controllabili.35
In secondo luogo, i sostenitori della libertà di espressione devono sfidare attivamente coloro che vogliono che la moderazione dei contenuti vada oltre. Dobbiamo esporre il fatto che stanno usando i social media come mezzo per riformare e rimodellare la società, brandendola come un martello contro le norme e i valori che vogliono essere sradicati dal mondo. Questi punti di vista ci stanno portando in un vicolo cieco autoritario. Possono benissimo riuscire a sopprimere e paralizzare la libertà dei media digitali, ma non riusciranno, e non potranno, a migliorare la società. Invece, faranno piattaforme di social media campi di battaglia per un conflitto perpetuo intensificazione su chi arriva a tacere chi. Questo è già abbondantemente chiaro dalle grida di discriminazione e pregiudizi mentre le piattaforme aumentano la moderazione dei contenuti: le grida provengono sia dalla sinistra che dalla destra in risposta alla moderazione che viene spesso vissuta come arbitraria.
Infine, dobbiamo montare una difesa rinnovata e rinvigorita della Sezione 230. Il caso per la Sezione 230 è semplice: nessuna alternativa promette di essere intrinsecamente migliore di quella che abbiamo ora, e la maggior parte delle alternative è probabile che sia peggiore. Le esagerazioni generate dal panico morale hanno oscurato il semplice fatto che moderare i contenuti su una piattaforma globale con miliardi di utenti è un compito straordinariamente difficile e impegnativo. Gli utenti, non le piattaforme, sono la fonte di messaggi, video e immagini che le persone trovano discutibili, quindi le richieste di regolamentazione ignorano il fatto che le normative non governano un singolo fornitore, ma devono governare milioni, e forse miliardi, di utenti. Il compito di segnalare i contenuti generati dagli utenti, considerarli e decidere cosa fare al riguardo è difficile e costoso. Ed è meglio lasciare alle piattaforme.
Tuttavia, la regolamentazione sembra essere in arrivo. Il CEO di Facebook Mark Zuckerberg ha pubblicato un post sul blog che chiede di regolamentare Internet e il governo britannico ha pubblicato un white paper, “Online Harms”, che propone l’imposizione di responsabilità sistematica per i contenuti generati dagli utenti su tutti gli intermediari Internet (comprese le società di hosting e i fornitori di servizi Internet).36
Nella migliore delle ipotesi, un sistema di regolamentazione dei contenuti influenzato dal governo assomiglierà molto a ciò che sta accadendo ora. Gli standard imposti dal governo per la moderazione dei contenuti metterebbero inevitabilmente la maggior parte della responsabilità della censura sulle piattaforme stesse. Anche in Cina, con il suo esercito di censori, l’operazionalizzazione della censura si basa molto sugli operatori della piattaforma. Nello tsunami di contenuti scatenati dai social media, la restrizione preventiva da parte dello stato non è davvero un’opzione. La Germania ha risposto in modo simile con il 2017 Netzwerkdurchsetzungsgesetz, o Network Enforcement Act (popolarmente noto come NetzDG o Facebook Act), una legge volta a combattere l’agitazione, l’incitamento all’odio e le notizie false nei social network.
La legge NetzDG ha immediatamente portato alla soppressione di varie forme di discorso online politicamente controverso. Joachim Steinhöfel, un avvocato tedesco interessato dal ruolo essenzialmente giurisprudenziale di Facebook sotto NetzDG, ha creato un “muro della vergogna” contenente contenuti legali soppressi da NetzDG.37 Ironia della sorte, i nazionalisti di destra tedeschi che hanno subito takedown sotto la nuova legge hanno trasformato la legge a loro vantaggio usandola per sopprimere commenti critici o umilianti su se stessi. “Il tentativo della Germania di regolare la parola online ha apparentemente amplificato le voci che stava cercando di diminuire”, afferma un articolo su The Atlantic.38 Come risultato della petizione di un politico di destra, Facebook deve garantire che gli individui in Germania non possano utilizzare una VPN per accedere a contenuti illegali. Eppure ancora, un rapporto di un gruppo anti‐hate-speech che sostiene la legge sostiene che è stato inefficace. “Non ci sono state multe imposte alle aziende e pochi cambiamenti nei tassi di rimozione complessivi.”39
L’abbandono delle immunità intermedie renderebbe le piattaforme ancora più conservatrici e più inclini a disabilitare gli account o a eliminare i contenuti di quanto non siano ora. In termini di costi e rischi legali, avrà senso per loro di sbagliare sul sicuro. Quando agli intermediari viene data la responsabilità legale, i conflitti sull’arbitrarietà e i falsi positivi non scompaiono, si intensificano. Nei paesi autoritari, le piattaforme saranno semplicemente implementatori indiretti di norme e leggi nazionali sulla censura.
D’altra parte, i politici statunitensi affrontano un dilemma unico e interessante. Se pensano di poter capitalizzare i travagli dei social media con le richieste di regolamentazione, devono capire che il coinvolgimento governativo nella regolamentazione dei contenuti dovrebbe essere conforme al primo emendamento. Ciò significherebbe che tutti i tipi di contenuti che molti utenti non vogliono vedere, che vanno dall’incitamento all’odio a vari livelli di nudità, non potrebbero più essere limitati perché non sono strettamente illegali. Qualsiasi intervento del governo che ha preso giù messaggi o account cancellati potrebbe essere litigato sulla base di uno standard del Primo emendamento. Ironicamente, quindi, un’acquisizione governativa delle responsabilità di regolamentazione dei contenuti negli Stati Uniti dovrebbe essere molto più liberale dello status quo. Evitare questo risultato è stato proprio il motivo per cui la Sezione 230 è stata approvata in primo luogo.
Da un punto di vista di pura libertà di espressione, un approccio del Primo emendamento sarebbe una buona cosa. Ma dal punto di vista della libera associazione e del libero mercato, non lo sarebbe. Tale politica costringerebbe letteralmente tutti gli utenti dei social media ad essere esposti a cose a cui non volevano essere esposti. Minerebbe il valore economico delle piattaforme decapitando la loro capacità di gestire i loro algoritmi di matching, modellare il loro ambiente e ottimizzare i compromessi di un mercato multisede. Data l’attuale tonalità e grido di tutte le cose cattive che le persone stanno vedendo e facendo sui social media, uno standard di Primo emendamento legalmente guidato e permissivo non sembra che renderebbe chiunque felice.
I sostenitori della libertà espressiva devono pertanto riaffermare l’importanza della Sezione 230. Le piattaforme, non lo stato, dovrebbero essere responsabili di trovare l’equilibrio ottimale tra moderazione dei contenuti, libertà di espressione e valore economico delle piattaforme. L’alternativa di una maggiore regolamentazione governativa assolverebbe le piattaforme dalla responsabilità del mercato per le loro decisioni. Eliminerebbe la concorrenza tra le piattaforme per gli standard e le pratiche di moderazione appropriati e probabilmente le porterebbe ad escludere e sopprimere ancora più discorso legale di quanto non facciano ora.
Conclusione
La regolamentazione dei contenuti è solo la più importante delle questioni affrontate dalle piattaforme di social media oggi; sono anche implicate in controversie sulla privacy e sulla politica di concorrenza. Ma la regolamentazione dei contenuti dei social media è stata al centro esclusivo di questa analisi. L’ipertransparenza e la conseguente domanda di controllo dei contenuti che crea sono i fattori chiave del panico morale dei nuovi media. Il panico si sta alimentando su se stesso, creando le condizioni per reazioni politiche che trascurano o sfidano apertamente i valori riguardanti la libera espressione e la libera impresa. Mentre c’è molto da non gradire su Facebook e altre piattaforme di social media, è ora che ci rendiamo conto che gran parte di quella reazione negativa deriva da una società dell’informazione che contempla le manifestazioni di se stessa. Non è esagerato dire che stiamo incolpando lo specchio per ciò che vediamo in esso. La sezione 230 è ancora sorprendentemente rilevante per questo dilemma. Come politica, la Sezione 230 non era una forma di protezione dell’industria infantile di cui possiamo fare a meno ora, né era il prodotto di un’ebbrezza utopica con il potenziale di Internet. Era un modo molto intelligente di distribuire la responsabilità per la governance dei contenuti nei social media. Se ci atteniamo a questa disposizione, impariamo più tolleranza e ci assumiamo più responsabilità per ciò che vediamo e facciamo sui social media, possiamo rispondere ai problemi mantenendo i benefici.
Note
1 Milton L. Mueller, “Iper-trasparenza e controllo sociale: i social media come magneti per la regolamentazione”, Politica delle telecomunicazioni 39, no. 9( 2015): 804-10.
2 Erich Goode e Nachman Ben-Yehuda, “Fondare e difendere la sociologia del panico morale”, cap. 2 nel panico morale e nella politica dell’ansia, ed. Sean Patrick Hier (Abingdon: Routledge, 2011).
3 Stanley Cohen, Folk Devils and Moral Panics (Abingdon: Routledge, 2011).
4 Ronald J. Deibert, “The Road to Digital Unfreedom: Three Painful Truths about Social Media,” Journal of Democracy 30, no .1 (2019): 25-39.
5 Zeynep Tufekci, “YouTube, il grande radicalizzatore”, New York Times, 10 marzo 2018.
6 Tufekci, “YouTube, il grande radicalizzatore.”
7 Roger McNamee, ” Ho fatto da mentore a Mark Zuckerberg. Ho amato Facebook. Ma non posso rimanere in silenzio su ciò che sta accadendo,” Time Magazine, gennaio 17, 2019.
8 Jonathan Albright, “Untrue-Tube: Monetizzare la miseria e la disinformazione”, Medium, febbraio 25, 2018.
9 Courtney Seiter, “La psicologia dei social media: perché ci piace, commentare e condividere online”, Buffer, August 20, 2017.
10 Paul Mozur, “Un genocidio incitato su Facebook, con post dei militari del Myanmar”, New York Times, 15 ottobre 2018.
11 Ingrid Burrington, ” Facebook potrebbe essere processato per violazioni dei diritti umani?, “The Atlantic, 20 dicembre 2017.
12 Burrington, “Facebook potrebbe essere processato per violazioni dei diritti umani?”
13 Per una discussione sulla campagna di lobbying di Michael Flynn per il governo turco e sugli affari di Paul Manafort in Ucraina e Russia, vedi Rebecca Kheel, “Turchia e Michael Flynn: cinque cose da sapere”, The Hill, dicembre 17, 2018; e Franklin Foer, “Paul Manafort, American Hustler”, The Atlantic, marzo 2018.
14 Vedi, ad esempio, “Minority Views to the Majority‐produced ‘Report on Russian Active Measures, March 22, 2018′” dei rappresentanti democratici del Comitato ristretto permanente per l’intelligence della Camera degli Stati Uniti (USHPSCI), March 26, 2018.
15 Accusa a 11, Stati Uniti contro Viktor Borisovich Netyksho et al., Caso 1: 18-cr-00032-DLF (D. D. C. archiviato febbraio. 16, 2018).
16 Matt Taibbi, ” Possiamo essere salvati da Facebook?, “Rolling Stone, 3 aprile 2018.
17 Peter W. Singer ed Emerson T. Brooking, LikeWar: The Weaponization of Social Media (New York: Houghton Mifflin Harcourt, 2018).
18 Thomas Rid, “Perché Twitter è la migliore piattaforma di social media per la disinformazione”, Motherboard, 1 novembre 2017.
19 McNamee, ” Ho fatto da mentore a Mark Zuckerberg. Ho amato Facebook. Ma non posso rimanere in silenzio su quello che sta succedendo.”
20 Hunt Allcott e Matthew Gentzkow, “Social media e Fake News nelle elezioni del 2016”, Journal of Economic Perspectives 31, no. 2( 2017): 211-36.
21 Sarah McKune, “An Analysis of the International Code of Conduct for Information Security”, CitizenLab, 28 settembre 2015.
22 Kirsten Drotner, ” Dangerous Media? Panic Discourses and Dilemmas of Modernity, ” Paedagogica Historica 35, no. 3 (1999): 593-619.
23 Thomas W. Hazlett, ” The Rationality of US Regulation of the Broadcast Spectrum,” Journal of Law and Economics 33, no. 1 (1990): 133-75.
24 Robert McChesney, Telecommunications, Mass Media and Democracy: The Battle for Control of U. S. Broadcasting, 1928-1935 (New York: Oxford, 1995).
25 Fredric Wertham, Seduction of the Innocent (New York: Rinehart, 1954); e David Hajdu, The Ten‐cent Plague: The Great Comic‐book Scare and How It Changed America (New York: Picador, 2009), https://us.macmillan.com/books/9780312428235.
26 “Come spacciatori all’angolo, controllare la vita del quartiere, la casa e, sempre più, la vita dei bambini in loro custodia”, ha affermato un ex commissario FCC. Minow & LeMay, 1995. http://www.washingtonpost.com/wp-srv/style/longterm/books/chap1/abandonedinthewasteland.htm. Nel 2007 è stato pubblicato il suo primo album in studio, intitolato “The Wasteland”.: Collina e Wang, 1996)
27 Kara Swisher (@karaswisher), ” Nel complesso qui è il mio stato d’animo e penso che un sacco di gente quando si tratta di fissare ciò che è rotto su social media e tecnologia: Perché non ti muovi più velocemente? Perché non ti muovi più velocemente? Perché non ti muovi più velocemente?”Twitter post, febbraio 12, 2019, 2: 03 p. m., https://twitter.com/karaswisher/status/1095443416148787202.
28 Matt Watson, “Youtube sta facilitando lo sfruttamento sessuale dei bambini e viene monetizzato”, Video di YouTube, 20:47, “MattsWhatItIs”, 27 febbraio 2019, https://www.youtube.com/watch?v=O13G5A5w5P0.
29 Casey Newton, ” Il pavimento del trauma: Le vite segrete dei moderatori di Facebook in America, ” The Verge, 25 febbraio 2019.
30 Geoff Parker, Marshall van Alstyne e Sangeet Choudhary, Platform Revolution (New York: W. W. Norton, 2016).
31 La Corte in Zeran v. America Online, Inc., 129 F. 3d 327 (4 ° Cir. 1997), ha detto che Sec. 230 è stato approvato per ” rimuovere i disincentivi all’autoregolamentazione creati dalla decisione di Stratton Oakmont.”In Stratton Oakmont, Inc. v. Prodigy Services Co., (N. Y. Come butta. CT. 1995), un fornitore di bacheche è stato ritenuto responsabile di osservazioni diffamatorie da parte di uno dei suoi clienti perché ha fatto sforzi per modificare alcuni dei contenuti pubblicati.
32 Robert D Tollison, “Rent Seeking: A Survey,” Kyklos 35, no. 4 (1982): 575-602.
33 Vedi, ad esempio, i “Principi di Santa Clara sulla trasparenza e la responsabilità nella moderazione dei contenuti”, 8 maggio 2018, https://santaclaraprinciples.org/.
34 Julia Carrie Wong, “Revealed: Facebook Enables Ads to Target Users Interested in’ Vaccine Controversies’,” The Guardian (London), February 15, 2019.
35 Vedi Scott Cunningham, Gregory DeAngelo e John Tripp, “Effetto di Craigslist sulla violenza contro le donne”, http://scunning.com/craigslist110.pdf (2017). Vedi anche Emily Witt, “Dopo la chiusura di Backpage, i lavoratori del sesso sempre più vulnerabili chiedono i loro diritti”, New Yorker, 8 giugno 2018.
36 Mark Zuckerberg, “Quattro idee per regolare Internet”, 30 marzo 2019; e UK Home Office, Department for Digital, Culture, Media & Sport, Online Harms White Paper, The Rt Hon. Sajid Javid MP, The Rt Hon. Jeremy Wright MP, April 8, 2019.
37 Joachim Nikolaus Steinhöfel, “Blocchi & Hate Speech–Insane Censorship & Arbitrarietà da FB,” Facebook Block — Wall of Shame, https://facebook-sperre.steinhoefel.de/.
38 Linda Kinstler, “Il tentativo della Germania di risolvere Facebook si sta ritorcendo contro”, The Atlantic, 18 maggio 2018.
39 William Echikson e Olivia Knodt, “Netzdg della Germania: un test chiave per combattere l’odio online”, Rapporto di ricerca CEPS n. 2018/09, novembre 2018.