Desafiando o pânico Moral das redes sociais: preservar a liberdade de expressão sob a Hipertransparência

a demanda impaciente de Swisher por ação rápida parecia assumir que as soluções para os males das redes sociais eram óbvias. Eu tweetei em resposta, perguntando que “correção” ela queria implementar tão rapidamente. Não houve resposta.Aqui está o diagnóstico que eu ofereceria. O que é “quebrado” sobre as mídias sociais é exatamente a mesma coisa que o torna útil, atraente e comercialmente bem sucedido: é incrivelmente eficaz para facilitar descobertas e trocas de informações entre as partes interessadas a uma escala sem precedentes. Como resultado direto disso, há mais interações informacionais do que nunca e mais intercâmbios mútuos entre as pessoas. Esta atividade humana, em toda a sua glória, gore e squalor, gera registros storable, searchable, e seus usuários deixam faixas atribuíveis em toda parte. Como observado antes, o novo mundo emergente das mídias sociais é marcado pela hipertransparência.

do ponto de vista da liberdade de expressão e o livre mercado não há nada de intrinsecamente quebrado sobre isso; pelo contrário, a maioria dos críticos são infelizes justamente porque o modelo está trabalhando: é libertar todos os tipos de expressão e de intercâmbio, e fazer toneladas de dinheiro para arrancar. Mas duas patologias sociopolíticas distintas são geradas por isso. A primeira é que, ao expor todos os tipos de usos e usuários deploráveis, tende a enfurecer a indignação com essas manifestações de desvio social para os provedores de plataforma. Um homem descobre pedófilos comentando em vídeos do YouTube de crianças e está cuspindo com raiva no … YouTube.28 a segunda patologia é a ideia de que os comportamentos censuráveis podem ser criados fora da existência ou de que a sociedade no seu conjunto pode ser transformada num estado de virtude, incentivando os intermediários a adoptarem uma vigilância e regulamentação mais rigorosas. Em vez de tentar parar ou controlar o comportamento censurável, nós nos esforçamos para controlar o intermediário de comunicação que foi usado pelo mau ator. Em vez de eliminar o crime, propomos substituir o intermediário para reconhecer os símbolos do crime e apagá-los da vista. É como se assumíssemos que a vida é uma tela, e se removêssemos coisas indesejadas de nossas telas controlando intermediários da internet, então teríamos resolvido os problemas da vida. (E mesmo quando fazemos isso, queixamo‐nos hipocritamente sobre a China e seu alegado desenvolvimento de um sistema de crédito social abrangente baseado em interações on-line.)

a reação contra as mídias sociais é, portanto, baseada em uma falsa premissa e uma falsa promessa. A falsa premissa é que os criadores de ferramentas que permitem a interação pública em escala são os principais responsáveis pela existência dos comportamentos e mensagens assim reveladas. A falsa promessa é que, pressionando os provedores de plataforma para bloquear conteúdo, eliminar contas, ou de outra forma atacar manifestações de problemas sociais em suas plataformas, estamos resolvendo ou reduzindo esses problemas. Combatendo estes mal-entendidos, tentamos conter os “novos” problemas escondendo-os do ponto de vista público.

as principais plataformas têm contribuído para esta patologia, assumindo direitos de moderação de conteúdo cada vez mais extensos. Devido à intensa pressão política a que estão sujeitos, as plataformas dominantes aceitam rapidamente a ideia de que têm grandes responsabilidades sociais para moldar a moral dos utilizadores e moldar o discurso público de formas politicamente aceitáveis. Inevitavelmente, devido à escala de interações nas mídias sociais, isso significa formas cada vez mais automatizadas ou algorítmicas de regulação, com todas as suas rigidez, estupidez e erros. Mas também significa investimentos maciços em formas manuais de moderação trabalhistas‐intensivos.29

o debate político sobre este tema é complicado pelo facto de os intermediários da internet não poderem realmente evitar assumir algumas responsabilidades opcionais de regulação do conteúdo para além do cumprimento de várias leis. O seu estatuto de mercados multissectoriais que correspondem aos fornecedores e requerentes de informações exige-o.30 recomendações baseadas na aprendizagem de máquinas guiam os usuários através da vasta, de outra forma intratável quantidade de material disponível. Estes filtros melhoram muito o valor de uma plataforma para um usuário, mas também indiretamente moldam o que as pessoas vêem, lêem e ouvem. Eles também podem, como parte de suas tentativas de atrair usuários e melhorar o valor das plataformas para os anunciantes, desencorajar ou suprimir mensagens e formas de comportamento que tornam suas plataformas lugares desagradáveis ou prejudiciais. Esta forma de moderação de conteúdo está fora do âmbito das proteções legais da Primeira Emenda, porque é executada por um ator privado e está dentro do âmbito da discrição editorial.Qual é a solução?

Seção 230 da Lei de Decência nas Comunicações ao quadrado esse círculo vicioso de imunização provedores de serviços de informações que não fizeram nada para restringir ou censurar a comunicação das partes usando suas plataformas (o clássico “neutro conduit” ou de transporte comum conceito), além de ajudar na imunização de provedores de serviços de informações que assumiu algumas responsabilidades editorial (por exemplo, para restringir a pornografia e outras formas de conteúdo indesejável). Intermediários que não fizeram nada foram (supostamente) imunizados de formas que promoveram a liberdade de expressão e diversidade online; os intermediários que eram mais ativos na gestão de Conteúdo Gerado pelo Usuário foram imunizados para aumentar a sua capacidade de excluir ou monitorar de outra forma conteúdo “ruim” sem ser classificado como editores e, portanto, assumindo a responsabilidade pelo conteúdo que eles não restringiram.31

é claro que esta lei de equilíbrio legal, que funcionou tão bem para tornar a plataforma de mídia social moderna bem sucedida, está quebrando. O artigo 230. º é vítima do seu próprio sucesso. As plataformas tornaram-se grandes e bem sucedidas em parte devido às suas liberdades do artigo 230.º, mas, como resultado, estão sujeitas a pressões políticas e normativas que lhes conferem de facto a responsabilidade pelo que os seus utilizadores lêem, vêem e fazem. A ameaça de intervenção do governo ou está escondida em segundo plano ou sendo realizada em certas jurisdições. Alimentada pela hipertransparência, pressões políticas e normativas estão fazendo da plataforma pura, neutra e não discriminatória uma coisa do passado.

as propostas mais comuns para a fixação de plataformas de mídia social parecem pedir às plataformas para se engajarem em mais moderação de Conteúdo e para furtar formas inaceitáveis de expressão ou comportamento. A exigência Política de moderação de conteúdo mais agressiva vem, em primeiro lugar, de uma grande variedade de grupos que procuram suprimir tipos específicos de conteúdo que lhes é censurável. Aqueles que querem menos controle ou mais tolerância sofrem com o problema difuso de custos / benefícios concentrados que nos é familiar a partir da análise econômica de grupos de interesse especiais: ou seja, a tolerância beneficia um pouco a todos e a sua presença é pouco perceptível até que se perca; a supressão, por outro lado, oferece uma satisfação poderosa e imediata a alguns actores altamente motivados.32

na melhor das hipóteses, os reformadores propõem racionalizar a moderação do conteúdo de formas concebidas para tornar as suas normas mais claras, tornar a sua aplicação mais coerente e tornar possível um processo de recurso.33 no entanto, é pouco provável que isto funcione, a menos que as plataformas tenham a espinha dorsal para afirmar fortemente os seus direitos de definir os critérios, de os manter e de os deixar de ajustar constantemente com base nos caprichos das pressões políticas diárias. Na pior das hipóteses, os defensores de uma maior moderação de conteúdo são motivados pela crença de que um maior controle de conteúdo refletirá seus próprios valores e prioridades pessoais. Mas uma vez que os apelos a uma moderação de conteúdo mais dura ou mais extensa vêm de todas as direções ideológicas e culturais, esta expectativa é irrealista. Só conduzirá a uma forma distribuída de veto do heckler e a uma total ausência de normas previsíveis e relativamente objectivas. Não é incomum que a indignação nas redes sociais lidere em direções contraditórias. Um repórter do The Guardian, por exemplo, está indignado que o Facebook tenha uma categoria de alvo para “Controvérsias de vacina” e frustra a empresa por permitir que os defensores da anti‐vacinação formem grupos fechados que possam reforçar a resistência desses membros aos cuidados médicos tradicionais.34 No entanto, não há maneira de o Facebook intervir sem traçar o perfil dos seus utilizadores como parte de um movimento político específico considerado errado, e depois suprimir as suas comunicações e a sua capacidade de se associarem com base nesses dados. Assim, ao mesmo tempo em que o Facebook é amplamente atacado por violações de Privacidade, também está sendo solicitado para alavancar seus dados de usuários privados para sinalizar crenças políticas e sociais que são consideradas aberrantes e para suprimir a capacidade dos usuários de associar, conectar-se com anunciantes, ou se comunicar entre si. Nesta combinação de vigilância e supressão, o que poderia correr mal?Que posição devem assumir os defensores da liberdade de expressão e dos mercados livres em relação às redes sociais?

em primeiro lugar, deve haver uma articulação mais clara do tremendo valor das plataformas com base em sua capacidade de combinar buscadores e provedores de informação. É igualmente necessário que haja uma defesa explícita de uma maior tolerância à diversidade alarmante revelada por estes processos. Os verdadeiros liberais têm de deixar claro que não se pode esperar que as plataformas de redes sociais assumam a principal responsabilidade de nos protegerem de ideias, pessoas, mensagens e culturas que consideramos erradas ou que nos ofendem. A maior parte da responsabilidade pelo que vemos e evitamos deve recair sobre nós. Se estamos indignados por ver as coisas que não gostamos em comunidades on-line composto de bilhões de pessoas, precisamos parar de desperdiçando que a indignação contra as plataformas que acontecer para nos expor a ele. Da mesma forma, se o comportamento exposto é ilegal, precisamos nos concentrar em identificar os criminosos e mantê-los responsáveis. Como corolário desta mudança de atitude, também precisamos mostrar que a hipertransparência promovida pelas redes sociais pode ter grande valor social. A título de exemplo simples, a investigação demonstrou que a tão difamada ascensão de plataformas que combinam mulheres trabalhadoras com clientes está estatisticamente correlacionada com uma diminuição da violência contra as mulheres — precisamente porque tirava o trabalho sexual das ruas e tornava as transacções mais visíveis e controláveis.35

em segundo lugar, os defensores da liberdade de expressão precisam desafiar ativamente aqueles que querem que a moderação do conteúdo vá mais longe. Precisamos expor o fato de que eles estão usando as mídias sociais como um meio de reformar e remodelar a sociedade, empunhando-a como um martelo contra as normas e valores que eles querem ser erradicados do mundo. Estes pontos de vista estão a conduzir-nos para um beco sem saída autoritário. Podem muito bem conseguir suprimir e incapacitar a liberdade dos meios de comunicação digitais, mas não vão, nem podem, conseguir melhorar a sociedade. Em vez disso, eles farão plataformas de mídia social campos de batalha para um conflito crescente perpétuo sobre quem consegue silenciar quem. Isto já é bastante claro pelos gritos de discriminação e parcialidade à medida que as plataformas aumentam a moderação do conteúdo: os gritos vêm tanto da esquerda como da direita em resposta a uma moderação que é muitas vezes experimentada como arbitrária.Finalmente, precisamos montar uma defesa renovada e revigorada do artigo 230.º. O caso do artigo 230. O é simples.: nenhuma alternativa promete ser intrinsecamente melhor do que o que temos agora, e a maioria das alternativas provavelmente será pior. Os exageros gerados pelo pânico moral obscureceram o simples fato de que moderar o conteúdo em uma plataforma global com bilhões de usuários é uma tarefa extraordinariamente difícil e exigente. Os usuários, não as plataformas, são a fonte de mensagens, vídeos e imagens que as pessoas consideram censuráveis, por isso os pedidos de regulação ignoram o fato de que os regulamentos não governam um único fornecedor, mas devem governar milhões, e talvez bilhões, de usuários. A tarefa de sinalizar o Conteúdo Gerado pelo Usuário, considerando‐o, e decidir o que fazer sobre ele é difícil e caro. E é melhor deixar para as plataformas.

no entanto, a regulamentação parece estar a chegar. O CEO do Facebook, Mark Zuckerberg, publicou um post no blog apelando para a regulação da internet, e o governo do Reino Unido lançou um livro branco, “Online Harms”, que propõe a imposição de responsabilidade sistemática por conteúdos gerados pelo usuário em todos os intermediários da internet (incluindo empresas de hospedagem e provedores de serviços de internet).36

na melhor das hipóteses, um sistema de regulação dos conteúdos influenciado pelo governo vai parecer muito semelhante ao que está a acontecer agora. Normas obrigatórias pelo governo para a moderação de conteúdo inevitavelmente colocaria a maior parte da responsabilidade pela censura nas próprias plataformas. Mesmo na China, com seu exército de censores, a operacionalização da censura depende fortemente dos operadores de plataforma. No tsunami de conteúdo desencadeado pelas redes sociais, a contenção prévia do Estado não é realmente uma opção. A Alemanha respondeu de forma semelhante com a Netzwerkdurchsetzungsgesetz de 2017, ou Lei de Aplicação da rede (popularmente conhecida como NetzDG ou Lei do Facebook), uma lei destinada a combater a agitação, discurso de ódio e notícias falsas nas redes sociais.

a lei NetzDG imediatamente resultou na supressão de várias formas de discurso online politicamente controverso. Joachim Steinhöfel, um advogado alemão preocupado com o papel essencialmente jurisprudencial do Facebook sob NetzDG, criou um “muro da vergonha” contendo conteúdo legal suprimido por NetzDG.37 ironicamente, os nacionalistas de direita alemães que sofreram takedowns sob a nova lei transformaram a lei em seu benefício, usando‐a para suprimir comentários críticos ou degradantes sobre si mesmos. “A tentativa da Alemanha de regular o discurso online parece ter ampliado as vozes que estava tentando diminuir”, afirma um artigo no Atlantic.38 como resultado da petição de um político de direita, o Facebook deve garantir que os indivíduos na Alemanha não podem usar um VPN para acessar conteúdos ilegais. Ainda assim, um relatório de um grupo anti‐ódio que apoia a lei argumenta que ela foi ineficaz. “Não foram aplicadas coimas às empresas e poucas alterações nas taxas globais de takedown.”39

abandonar as imunidades intermediárias tornaria as plataformas ainda mais conservadoras e mais propensas a desativar contas ou retirar conteúdo do que são agora. Em termos de custos e riscos legais, fará sentido que eles errem do lado seguro. Quando os intermediários recebem a responsabilidade legal, os conflitos sobre arbitrariedade e falsos positivos não desaparecem, eles se intensificam. Nos países autoritários, as plataformas serão apenas implementadores indiretos das normas e leis nacionais de censura.Por outro lado, os políticos norte-americanos enfrentam um dilema único e interessante. Se pensam que podem aproveitar as dificuldades das redes sociais com apelos à regulamentação, têm de compreender que o envolvimento governamental na regulamentação dos conteúdos teria de estar em conformidade com a primeira alteração. Isso significaria que todos os tipos de conteúdo que muitos usuários não querem ver, desde o discurso de ódio a vários níveis de nudez, não poderia mais ser restringido porque eles não são estritamente ilegais. Quaisquer intervenções do governo que retirassem publicações ou retirassem contas poderiam ser litigadas com base numa norma de Primeira Emenda. Ironicamente, então, uma tomada governamental das responsabilidades de regulação de conteúdos nos Estados Unidos teria de ser muito mais liberal do que o status quo. Evitar este resultado foi precisamente a razão pela qual o artigo 230.º foi aprovado em primeiro lugar.Do ponto de vista da livre expressão, uma abordagem de primeira alteração seria positiva. Mas, do ponto de vista da livre associação e do livre mercado, não o faria. Tal política forçaria literalmente todos os usuários de redes sociais a serem expostos a coisas às quais não queriam ser expostos. Isso iria minar o valor econômico das plataformas, decapitando sua capacidade de gerenciar seus algoritmos de correspondência, moldar seu ambiente, e otimizar os tradeoffs de um mercado multissedido. Tendo em conta o tom e o choro actuais sobre todas as coisas más que as pessoas estão a ver e a fazer nas redes sociais, uma norma de Primeira Emenda, juridicamente orientada e permissiva, não parece que faria qualquer pessoa feliz.Por conseguinte, os defensores da liberdade expressiva precisam reafirmar a importância do artigo 230.º. As plataformas, e não o estado, devem ser responsáveis por encontrar o equilíbrio ideal entre a moderação do conteúdo, a liberdade de expressão e o valor económico das plataformas. A alternativa de uma maior regulamentação governamental absolveria as plataformas de responsabilidade do mercado pelas suas decisões. Eliminaria a concorrência entre plataformas para padrões e práticas de moderação adequados e provavelmente levá-los-ia a excluir e suprimir ainda mais linguagem jurídica do que fazem agora.

conclusão

a regulação do conteúdo é apenas a mais proeminente das questões enfrentadas pelas plataformas de mídia social hoje; elas também estão envolvidas em controvérsias de política de Privacidade e de concorrência. Mas a regulação dos conteúdos das redes sociais tem sido o foco exclusivo desta análise. A hipertransparência e a subsequente demanda por controle de conteúdo que cria são os principais motores do pânico moral da nova mídia. O pânico está se alimentando de si mesmo, criando condições para reações políticas que ignoram ou desafiam abertamente valores em relação à liberdade de expressão e livre empreendimento. Embora haja muito que não gostar sobre o Facebook e outras plataformas de mídia social, é hora de percebermos que grande parte dessa reação negativa vem de uma sociedade da informação contemplando manifestações de si mesma. Não é exagero dizer que estamos a culpar o espelho pelo que vemos nele. O artigo 230. º continua a ser surpreendentemente relevante para este dilema. Como política, o artigo 230.º não era uma forma de protecção da indústria infantil de que hoje podemos prescindir, nem um produto de uma embriaguez utópica com o potencial da internet. Foi uma forma muito inteligente de distribuir a responsabilidade pela governança de conteúdos nas redes sociais. Se mantivermos este Acordo, aprendermos mais tolerância e assumirmos mais responsabilidade pelo que vemos e fazemos nas redes sociais, poderemos responder aos problemas mantendo os benefícios.

Notes

1 Milton L. Mueller,” Hyper‐transparency and Social Control: Social Media as Magnets for Regulation, ” Telecommunications Policy 39, no. 9 (2015): 804-10.Erich Goode and Nachman Ben-Yehuda,” Grounding and Defending the Sociology of Moral Panic, ” chap. 2 in Moral Panic and The Politics of Anxiety, ed. Sean Patrick Hier (Abingdon: Routledge, 2011).

3 Stanley Cohen, Folk Devils and Moral Panics (Abingdon: Routledge, 2011).

4 Ronald J. Deibert, “The Road to Digital Unfreedom: Three dolorosas Truths about Social Media,” Journal of Democracy 30, no. 1 (2019): 25-39.

5 Zeynep Tufekci,” YouTube, The Great Radicalizer, ” New York Times, March 10, 2018.

6 Tufekci, ” YouTube, The Great Radicalizer.”

7 Roger McNamee, ” I Mentor Mark Zuckerberg. Eu Adorava O Facebook. Mas não posso ficar em silêncio sobre o que está acontecendo”, revista Time, 17 de janeiro de 2019.

8 Jonathan Albright,” Untrue‐Tube: Monetizing Misery and Disinformation, ” Medium, February 25, 2018.

9 Courtney Seiter, ” The Psychology of Social Media: Why We Like, Comment, and Share Online,” Buffer, August 20, 2017.Paul Mozur, “a Genocide Incited on Facebook, With Posts from Myanmar Military,” New York Times, October 15, 2018.Ingrid Burrington, “Could Facebook Be Tried for Human-Rights Abuses?, “The Atlantic, December 20, 2017.

12 Burrington, ” Could Facebook Be Tried for Human-Rights Abuses?”

13 For a discussion of Michael Flynn’s lobbying campaign for the Turkish government and Paul Manafort’s business in Ukraine and Russia, see Rebecca Kheel, “Turkey and Michael Flynn: Five Things to Know,” the Hill, December 17, 2018; e Franklin Foer, “Paul Manafort, American Hustler”, The Atlantic, Março de 2018.

14 ver, por exemplo, “Minority Views to the Majority‐produced” Report on Russian Active Measures, March 22, 2018 ‘” of the Democratic representatives from the United States House Permanent Select Committee on Intelligence (USHPSCI), March 26, 2018.

15 Indiciação em 11, U. S. v. Viktor Borisovich Netyksho et al., Processo 1: 18-cr-00032-DLF (D. D. C. arquivado Fev. 16, 2018).

16 Matt Taibbi, ” podemos ser salvos do Facebook?, “Rolling Stone, April 3, 2018.

17 Peter W. Singer and Emerson T. Brooking, LikeWar: The Weaponization of Social Media (New York: Houghton Mifflin Harcourt, 2018).Thomas Rid, “Why Twitter Is the Best Social Media Platform for Disinformation,” Motherboard, November 1, 2017.

19 McNamee, ” I Mentor Mark Zuckerberg. Eu Adorava O Facebook. Mas não posso ficar em silêncio sobre o que está a acontecer.”

20 Hunt Allcott and Matthew Gentzkow,” Social Media and Fake News in the 2016 Election, ” Journal of Economic Perspectives 31, no. 2 (2017): 211-36.

21 Sarah McKune, “An Analysis of the International Code of Conduct for Information Security,” Citenlab, September 28, 2015.Kirsten Drotner, ” Dangerous Media? Panic Discourses and Dilemmas of Modernity, ” Paedagogica Historica 35, no. 3 (1999): 593-619.

23 Thomas W. Hazlett,” The Rationality of US Regulation of the Broadcast Spectrum, ” Journal of Law and Economics 33, no. 1 (1990): 133-75.

24 Robert McChesney, Telecommunications, Mass Media and Democracy: The Battle for Control of U. S. Broadcasting, 1928-1935 (New York: Oxford, 1995).

25 Fredric Wertham, Seduction of The Innocent (New York: Rinehart, 1954); and David Hajdu, The Ten‐cent Plague: The Great Comic‐book Scare and How It Changed America (New York: Picador, 2009), https://us.macmillan.com/books/9780312428235.

26 “Like drug dealers on the corner, control the life of the neighborhood, the home and, increasingly, the lives of children in their custody”, claimed a former FCC commissioner. Minow & LeMay, 1995. http://www.washingtonpost.com/wp-srv/style/longterm/books/chap1/abandonedinthewasteland.htm. Newton N. Minow & Craig L. LaMay, abandonado no deserto (Nova Iorque): Hill e Wang, 1996)

27 Kara Swisher (@karaswisher), “no geral, aqui está meu humor e eu acho que muitas pessoas quando se trata de corrigir o que está quebrado sobre as redes sociais e tecnologia: Por que você não está se movendo mais rápido? Porque não estás a andar mais depressa? Porque não estás a andar mais depressa?”Twitter post, 12 de fevereiro de 2019, 2: 03 P.M., https://twitter.com/karaswisher/status/1095443416148787202.

28 Matt Watson, “Youtube Is Facilitating the Sexual Exploitation of Children, and it’s Being Monetized,” YouTube video, 20: 47,” MattsWhatItIs, ” February 27, 2019, https://www.youtube.com/watch?v=O13G5A5w5P0.Casey Newton, ” O Chão De Trauma: The Secret Lives of Facebook Moderators in America, ” The Verge, February 25, 2019.Geoff Parker, Marshall van Alstyne, and Sangeet Choudhary, Platform Revolution (New York: W. W. Norton, 2016).

31 The Court in Zeran v. America Online, Inc., 129 F. 3d 327 (4th Cir. 1997), said sec 230 was passed to ” remove the desincentives to self-regulation created by the Stratton Oakmont decision.”In Stratton Oakmont, Inc. v. Prodigy Services Co., (N. Y. Sup. Quilate. 1995), um fornecedor de boletim foi responsabilizado pelas observações difamatórias de um dos seus clientes porque fez esforços para editar alguns dos conteúdos publicados.

32 Robert D Tollison, “Rent Seeking: a Survey,” Kyklos 35, no.4 (1982): 575-602.

33 ver, por exemplo, “Santa Clara Principles on Transparency and Accountability in Content Moderation,” May 8, 2018, https://santaclaraprinciples.org/.Julia Carrie Wong, “revelou: Facebook permite anúncios para os usuários interessados em ‘Controvérsias de vacina’,” The Guardian (Londres), 15 de fevereiro de 2019.

35 See Scott Cunningham, Gregory Deangelo, and John Tripp, “Craigslist’s Effect on Violence against Women,” http://scunning.com/craigslist110.pdf (2017). Veja também Emily Witt, “após o encerramento da Backpage, trabalhadores sexuais cada vez mais vulneráveis estão exigindo seus direitos”, New Yorker, 8 de junho de 2018.

36 Mark Zuckerberg,” Four Ideas to Regulate the Internet, ” March 30, 2019; and UK Home Office, Department for Digital, Culture, Media & Sport, Online Harms White Paper, the Rt Hon.Sajid Javid MP, The Rt Hon. Jeremy Wright MP, April 8, 2019.Joachim Nikolaus Steinhöfel, “Blocks & Hate Speech–Insane Censorship & Arbitrariness from FB,” Facebook Block — Wall of Shame, https://facebook-sperre.steinhoefel.de/.Linda Kinstler, “a tentativa da Alemanha de corrigir o Facebook está a ser frustrante”, The Atlantic, 18 de Maio de 2018.

39 William Echikson and Olivia Knodt,” Germany’s NetzDG: a Key Test for Combatting Online Hate, ” CEPS Research Report no. 2018/09, November 2018.



+