Desafiar el Pánico Moral de las Redes Sociales: Preservar la Libre Expresión bajo Hipertransparencia

La impaciente demanda de acción rápida de Swisher parecía asumir que las soluciones a los males de las redes sociales eran obvias. Tuiteé en respuesta, preguntando qué «solución» quería implementar tan rápidamente. No hubo respuesta.

Aquí está el diagnóstico que ofrecería. Lo que está «roto» de las redes sociales es exactamente lo mismo que las hace útiles, atractivas y comercialmente exitosas: es increíblemente eficaz para facilitar los descubrimientos y el intercambio de información entre las partes interesadas a una escala sin precedentes. Como resultado directo de eso, hay más interacciones informativas que nunca y más intercambios mutuos entre las personas. Esta actividad humana, en todo su esplendor, sangre y miseria, genera registros almacenables y de búsqueda, y sus usuarios dejan pistas atribuibles en todas partes. Como se señaló anteriormente, el nuevo mundo emergente de las redes sociales está marcado por la hipertransparencia.

Desde el punto de vista de la libre expresión y los mercados libres no hay nada intrínsecamente roto en esto; por el contrario, la mayoría de los críticos están descontentos precisamente porque el modelo está funcionando: está liberando todo tipo de expresión e intercambios, y ganando toneladas de dinero en él, para arrancar. Pero esto genera dos patologías sociopolíticas distintas. La primera es que, al exponer todo tipo de usos y usuarios deplorables, tiende a canalizar la indignación por estas manifestaciones de desviación social hacia los proveedores de la plataforma. Un hombre descubre pedófilos comentando en videos de YouTube de niños y está chisporroteando de rabia en YouTube YouTube.28 La segunda patología es la idea de que los comportamientos objetables se pueden eliminar por ingeniería de la existencia o que la sociedad en su conjunto se puede transformar en un estado de virtud al alentar a los intermediarios a adoptar una vigilancia y regulación más estrictas. En lugar de tratar de detener o controlar el comportamiento objetable, nos esforzamos por controlar el intermediario de comunicaciones que fue utilizado por el mal actor. En lugar de eliminar el delito, proponemos que el intermediario reconozca los símbolos del delito y los borre de la vista. Es como si asumiéramos que la vida es una pantalla, y si eliminamos cosas no deseadas de nuestras pantallas al controlar a los intermediarios de Internet, entonces hemos resuelto los problemas de la vida. (E incluso mientras hacemos esto, nos quejamos hipócritamente de China y su supuesto desarrollo de un sistema de crédito social integral basado en interacciones en línea.)

La reacción contra las redes sociales se basa, por lo tanto, en una premisa falsa y una promesa falsa. La falsa premisa es que los creadores de herramientas que permiten la interacción pública a escala son los principales responsables de la existencia de los comportamientos y mensajes así revelados. La falsa promesa es que al presionar a los proveedores de plataformas para que bloqueen contenido, eliminen cuentas o ataquen manifestaciones de problemas sociales en sus plataformas, estamos resolviendo o reduciendo esos problemas. Al analizar estos malentendidos, hemos tratado de frenar los «nuevos» problemas ocultándolos de la vista del público.

Las principales plataformas han contribuido a esta patología al asumir tareas de moderación de contenido cada vez más extensas. Debido a la intensa presión política bajo la que se encuentran, las plataformas dominantes están aceptando rápidamente la idea de que tienen responsabilidades sociales generales para moldear la moral de los usuarios y moldear el discurso público de maneras políticamente aceptables. Inevitablemente, debido a la escala de las interacciones en las redes sociales, esto significa formas de regulación cada vez más automatizadas o algorítmicas, con todas sus rigideces, estupideces y errores. Pero también significa inversiones masivas en formas manuales de moderación que requieren mucha mano de obra.29

El debate político sobre este tema se complica por el hecho de que los intermediarios de Internet realmente no pueden evitar asumir algunas responsabilidades opcionales de regulación de contenidos más allá del cumplimiento de varias leyes. Su condición de mercados múltiples que coinciden con proveedores y buscadores de información lo requiere.30 Recomendaciones basadas en el aprendizaje automático guían a los usuarios a través de la gran cantidad de material disponible, que de otro modo sería difícil de resolver. Estos filtros mejoran enormemente el valor de una plataforma para un usuario, pero también moldean indirectamente lo que la gente ve, lee y escucha. También pueden, como parte de sus intentos de atraer a los usuarios y mejorar el valor de las plataformas para los anunciantes, desalentar o suprimir mensajes y formas de comportamiento que hacen que sus plataformas sean lugares desagradables o dañinos. Esta forma de moderación de contenido está fuera del alcance de las protecciones legales de la Primera Enmienda porque es ejecutada por un actor privado y cae dentro del alcance de la discreción editorial.

¿Cuál es la solución?

La sección 230 de la Ley de Decencia en las Comunicaciones cuadró este círculo inmunizando a los proveedores de servicios de información que no hicieron nada para restringir o censurar las comunicaciones de las partes que utilizan sus plataformas (el concepto clásico de «conducto neutral» o portador común), al tiempo que inmunizaba a los proveedores de servicios de información que asumieron algunas responsabilidades editoriales (por ejemplo, restringir la pornografía y otras formas de contenido indeseable). Los intermediarios que no hicieron nada fueron (supuestamente) inmunizados de maneras que promovían la libertad de expresión y la diversidad en línea; los intermediarios que eran más activos en la gestión del contenido generado por los usuarios fueron inmunizados para mejorar su capacidad de eliminar o controlar de otro modo el contenido «malo» sin ser clasificados como editores y, por lo tanto, asumir la responsabilidad del contenido que no restringían.31

Está claro que este acto de equilibrio legal, que funcionó tan bien para que la plataforma de redes sociales moderna tuviera éxito, se está desmoronando. El artículo 230 es víctima de su propio éxito. Las plataformas se han vuelto grandes y exitosas en parte debido a sus libertades de la Sección 230, pero como resultado están sujetas a presiones políticas y normativas que les confieren la responsabilidad de facto de lo que sus usuarios leen, ven y hacen. La amenaza de intervención del gobierno se esconde en el fondo o se hace realidad en ciertas jurisdicciones. Impulsadas por la hipertransparencia, las presiones políticas y normativas están haciendo que la plataforma pura, neutral y no discriminatoria sea cosa del pasado.

Las propuestas más comunes para arreglar las plataformas de redes sociales parecen pedir a las plataformas que se involucren en más moderación de contenido y descubran formas inaceptables de expresión o comportamiento. La demanda política de moderación de contenido más agresiva proviene principalmente de una amplia variedad de grupos que buscan suprimir tipos específicos de contenido que son objetables para ellos. Aquellos que quieren menos control o más tolerancia sufren el problema de costos difusos / beneficios concentrados que nos es familiar a partir del análisis económico de grupos de interés especial: es decir, la tolerancia beneficia un poco a todos y su presencia es apenas perceptible hasta que se pierde; la supresión, por otro lado, ofrece una satisfacción poderosa e inmediata a unos pocos actores altamente motivados.32

En el mejor de los casos, los reformadores proponen racionalizar la moderación de contenidos de maneras diseñadas para hacer sus estándares más claros, hacer que su aplicación sea más consistente y hacer posible un proceso de apelación.33 Sin embargo, es poco probable que esto funcione a menos que las plataformas obtengan la columna vertebral para afirmar firmemente sus derechos a establecer los criterios, atenerse a ellos y dejar de ajustarlos constantemente en función de los caprichos de las presiones políticas diarias. En el peor de los casos, los defensores de una mayor moderación de contenidos están motivados por la creencia de que un mayor control de contenidos reflejará sus propios valores y prioridades personales. Pero dado que los llamados a una moderación de contenido más dura o más extensa provienen de todas las direcciones ideológicas y culturales, esta expectativa no es realista. Solo conducirá a una forma distribuida del veto de los que interrumpen, y a una ausencia completa de estándares predecibles y relativamente objetivos. No es raro que la indignación en las redes sociales conduzca en direcciones contradictorias. Un reportero de The Guardian, por ejemplo, está indignado de que Facebook tenga una categoría de publicidad dirigida a «controversias sobre vacunas» y azota a la compañía por permitir que los defensores de la vacunación formen grupos cerrados que pueden reforzar la resistencia de esos miembros a la atención médica convencional.34 Sin embargo, no hay forma de que Facebook intervenga sin perfilar a sus usuarios como parte de un movimiento político específico que se considera incorrecto, y luego suprimir sus comunicaciones y su capacidad de asociación en función de esos datos. Por lo tanto, al mismo tiempo que Facebook es ampliamente atacado por violaciones de privacidad, también se le pide que aproveche sus datos de usuarios privados para señalar creencias políticas y sociales que se consideran aberrantes y para suprimir la capacidad de los usuarios para asociarse, conectarse con anunciantes o comunicarse entre sí. En esta combinación de vigilancia y supresión, ¿qué podría salir mal?

¿Qué postura deben adoptar los defensores de la libertad de expresión y de los mercados libres con respecto a las redes sociales?

En primer lugar, debe haber una articulación más clara del enorme valor de las plataformas en función de su capacidad para emparejar a los solicitantes y proveedores de información. También es necesario abogar explícitamente por una mayor tolerancia de la diversidad discordante revelada por estos procesos. Los verdaderos liberales deben dejar en claro que no se puede esperar que las plataformas de redes sociales tengan la responsabilidad principal de protegernos de ideas, personas, mensajes y culturas que consideramos incorrectas o que nos ofenden. La mayor parte de la responsabilidad por lo que vemos y lo que evitamos debe recaer en nosotros. Si nos sentimos indignados al ver cosas que no nos gustan en comunidades en línea compuestas por miles de millones de personas, tenemos que dejar de desviar esa indignación contra las plataformas que nos exponen a ella. Del mismo modo, si el comportamiento expuesto es ilegal, debemos centrarnos en identificar a los perpetradores y hacerlos responsables. Como corolario de este cambio de actitud, también debemos demostrar que la hipertransparencia fomentada por las redes sociales puede tener un gran valor social. Como un ejemplo simple de esto, la investigación ha demostrado que el aumento tan difamado de plataformas que emparejan a trabajadoras sexuales con clientes está estadísticamente correlacionado con una disminución de la violencia contra las mujeres, precisamente porque eliminó el trabajo sexual de la calle y hizo que las transacciones fueran más visibles y controlables.35

En segundo lugar, los partidarios de la libre expresión deben desafiar activamente a aquellos que quieren que la moderación de contenido vaya más allá. Tenemos que exponer el hecho de que están utilizando las redes sociales como un medio para reformar y remodelar la sociedad, blandiéndolas como un martillo contra las normas y los valores que quieren erradicar del mundo. Estos puntos de vista nos están llevando a un callejón sin salida autoritario. Es muy posible que consigan suprimir y paralizar la libertad de los medios digitales, pero no lograrán, y no pueden, mejorar la sociedad. En su lugar, harán de las plataformas de redes sociales un campo de batalla para un conflicto perpetuo que se intensifica sobre quién logra silenciar a quién. Esto ya está muy claro por los gritos de discriminación y sesgo a medida que las plataformas aumentan la moderación de contenido: los gritos provienen tanto de la izquierda como de la derecha en respuesta a la moderación que a menudo se experimenta como arbitraria.

Finalmente, necesitamos montar una defensa renovada y revitalizada de la Sección 230. El caso de la Sección 230 es simple: ninguna alternativa promete ser intrínsecamente mejor de lo que tenemos ahora, y es probable que la mayoría de las alternativas sean peores. Las exageraciones generadas por el pánico moral han oscurecido el simple hecho de que moderar contenido en una plataforma global con miles de millones de usuarios es una tarea extraordinariamente difícil y exigente. Los usuarios, no las plataformas, son la fuente de mensajes, videos e imágenes que la gente considera inaceptables, por lo que los llamamientos a la regulación ignoran el hecho de que las regulaciones no rigen a un solo proveedor, sino que deben gobernar a millones, y tal vez miles de millones, de usuarios. La tarea de marcar el contenido generado por el usuario, considerarlo y decidir qué hacer al respecto es difícil y costosa. Y es mejor dejarlo en las plataformas.

Sin embargo, la regulación parece estar llegando. El CEO de Facebook, Mark Zuckerberg, ha publicado una entrada de blog en la que pide que se regule Internet, y el gobierno del Reino Unido ha publicado un libro blanco, «Daños en línea», que propone la imposición de responsabilidad sistemática por el contenido generado por los usuarios a todos los intermediarios de Internet (incluidas las empresas de alojamiento y los proveedores de servicios de Internet).36

En el mejor de los casos, un sistema de regulación de contenidos influenciado por el gobierno se parecerá mucho a lo que está sucediendo ahora. Los estándares de moderación de contenido impuestos por el gobierno inevitablemente pondrían la mayor parte de la responsabilidad de la censura en las propias plataformas. Incluso en China, con su ejército de censores, la operacionalización de la censura depende en gran medida de los operadores de la plataforma. En el tsunami de contenido desatado por las redes sociales, la restricción previa por parte del Estado no es realmente una opción. Alemania respondió de manera similar con la Netzwerkdurchsetzungsgesetz de 2017, o Ley de Aplicación de la Red (popularmente conocida como NetzDG o Ley de Facebook), una ley destinada a combatir la agitación, el discurso de odio y las noticias falsas en las redes sociales.

La ley NetzDG resultó inmediatamente en la supresión de varias formas de discurso en línea políticamente controvertido. Joachim Steinhöfel, un abogado alemán preocupado por el papel esencialmente jurisprudencial de Facebook bajo NetzDG, creó un «muro de vergüenza» que contiene contenido legal suprimido por NetzDG.37 Irónicamente, los nacionalistas de derecha alemanes que sufrieron derribos bajo la nueva ley convirtieron la ley en su beneficio al usarla para suprimir comentarios críticos o degradantes sobre sí mismos. «El intento de Alemania de regular el discurso en línea aparentemente ha amplificado las voces que estaba tratando de disminuir», afirma un artículo en The Atlantic.38 Como resultado de la petición de un político de derecha, Facebook debe asegurarse de que las personas en Alemania no puedan usar una VPN para acceder a contenido ilegal. Sin embargo, un informe de un grupo anti‐discurso de odio que apoya la ley argumenta que ha sido ineficaz. «No se han impuesto multas a las empresas y se han producido pocos cambios en las tasas generales de retirada.»39

Abandonar las inmunidades de intermediarios haría que las plataformas fueran aún más conservadoras y más propensas a deshabilitar cuentas o eliminar contenido de lo que son ahora. En términos de costos y riesgos legales, tendrá sentido que se equivoquen por el lado seguro. Cuando a los intermediarios se les da responsabilidad legal, los conflictos sobre la arbitrariedad y los falsos positivos no desaparecen, sino que se intensifican. En los países autoritarios, las plataformas serán simplemente implementadoras indirectas de las normas y leyes nacionales de censura.

Por otro lado, los políticos estadounidenses se enfrentan a un dilema único e interesante. Si creen que pueden capitalizar las dificultades de las redes sociales con llamamientos a la regulación, deben entender que la participación gubernamental en la regulación de contenidos tendría que ajustarse a la Primera Enmienda. Esto significaría que todo tipo de contenido que muchos usuarios no quieren ver, desde el discurso de odio hasta varios niveles de desnudez, ya no podrían restringirse porque no son estrictamente ilegales. Cualquier intervención del gobierno que eliminara publicaciones o cuentas eliminadas podría ser litigada sobre la base de una norma de la Primera Enmienda. Irónicamente, entonces, una toma de control gubernamental de las responsabilidades de regulación de contenido en los Estados Unidos tendría que ser mucho más liberal que el status quo. Evitar este resultado fue precisamente la razón por la que se aprobó la sección 230 en primer lugar.

Desde el punto de vista de la libertad de expresión pura, un enfoque de la Primera Enmienda sería bueno. Pero desde el punto de vista de la libre asociación y el libre mercado, no lo haría. Tal política forzaría literalmente a todos los usuarios de redes sociales a estar expuestos a cosas a las que no querían estar expuestos. Socavaría el valor económico de las plataformas al decapitar su capacidad para administrar sus algoritmos de coincidencia, dar forma a su entorno y optimizar las compensaciones de un mercado multidimensional. Dado el alboroto actual sobre todas las cosas malas que la gente está viendo y haciendo en las redes sociales, un estándar de la Primera Enmienda legalmente impulsado y permisivo no parece que haría feliz a nadie.

Los defensores de la libertad expresiva, por lo tanto, necesitan reafirmar la importancia de la Sección 230. Las plataformas, no el Estado, deben ser responsables de encontrar el equilibrio óptimo entre la moderación de contenidos, la libertad de expresión y el valor económico de las plataformas. La alternativa de una mayor regulación gubernamental eximiría a las plataformas de la responsabilidad del mercado por sus decisiones. Eliminaría la competencia entre las plataformas por normas y prácticas de moderación apropiadas y probablemente las llevaría a excluir y suprimir aún más el discurso legal que ahora.

Conclusión

La regulación de contenidos es solo el más prominente de los problemas a los que se enfrentan las plataformas de redes sociales en la actualidad; también están implicadas en controversias sobre privacidad y política de competencia. Pero la regulación del contenido de las redes sociales ha sido el enfoque exclusivo de este análisis. La hipertransparencia y la posterior demanda de control de contenidos que crea son los principales impulsores del pánico moral de los nuevos medios. El pánico se está alimentando a sí mismo, creando condiciones para reacciones políticas que pasan por alto o desafían abiertamente los valores relacionados con la libertad de expresión y la libre empresa. Si bien Facebook y otras plataformas de redes sociales tienen mucho que desagradar, es hora de que nos demos cuenta de que gran parte de esa reacción negativa proviene de una sociedad de la información que contempla manifestaciones de sí misma. No es exagerado decir que culpamos al espejo de lo que vemos en él. El artículo 230 sigue siendo sorprendentemente pertinente para este dilema. Como política, la Sección 230 no era una forma de protección de la industria naciente de la que podamos prescindir ahora, ni era un producto de una embriaguez utópica con el potencial de Internet. Fue una forma muy inteligente de distribuir la responsabilidad del gobierno de contenidos en las redes sociales. Si seguimos con este acuerdo, aprendemos más tolerancia y asumimos más responsabilidad por lo que vemos y hacemos en las redes sociales, podemos responder a los problemas mientras conservamos los beneficios.

Notas

1 Milton L. Mueller, «Hyper-transparency and Social Control: Social Media as Magnets for Regulation», Política de telecomunicaciones 39, núm. 9 (2015): 804-10.

2 Erich Goode y Nachman Ben-Yehuda, «Grounding and Defending the Sociology of Moral Panic», cap. 2 en Moral Panic and the Politics of Anxiety, ed. Sean Patrick Hier (Abingdon: Routledge, 2011).

3 Stanley Cohen, Folk Devils and Moral Panics (Abingdon: Routledge, 2011).

4 Ronald J. Deibert, «The Road to Digital Unfreedom: Three Painful Truths about Social Media», Journal of Democracy 30, no. 1 (2019): 25-39.

5 Zeynep Tufekci, «YouTube, the Great Radicalizer», New York Times, 10 de marzo de 2018.

6 Tufekci, » YouTube, el Gran Radicalizador.»

7 Roger McNamee, » Fui Mentor de Mark Zuckerberg. Me Encantó Facebook. Pero no puedo Permanecer en Silencio sobre Lo Que está Sucediendo», Revista Time, 17 de enero de 2019.

8 Jonathan Albright, «Untrue-Tube: Monetizing Misery and Disinformation», Medium, 25 de febrero de 2018.

9 Courtney Seiter, «La Psicología de las Redes Sociales: Por qué nos gusta, Comentamos y compartimos en línea», Buffer, 20 de agosto de 2017.

10 Paul Mozur, «A Genocide Incited on Facebook, With Posts from Birman’s Military», New York Times, 15 de octubre de 2018.

11 Ingrid Burrington, » ¿Podría Ser Juzgado Facebook por Abusos de Derechos Humanos?, «The Atlantic, 20 de diciembre de 2017.

12 Burrington, » ¿Podría Ser Juzgado Facebook por Abusos de Derechos Humanos?»

13 Para una discusión de la campaña de cabildeo de Michael Flynn para el gobierno turco y el negocio de Paul Manafort en Ucrania y Rusia, ver Rebecca Kheel, «Turkey and Michael Flynn: Five Things to Know», The Hill, 17 de diciembre de 2018; y Franklin Foer, «Paul Manafort, American Hustler», The Atlantic, marzo de 2018.

14 Véase, por ejemplo, «Opiniones minoritarias a la Mayoría‐Informe sobre Medidas Activas rusas, 22 de marzo de 2018» de los representantes demócratas del Comité Selecto Permanente de Inteligencia de la Cámara de Representantes de los Estados Unidos( USHPSCI), 26 de marzo de 2018.

15 Auto de acusación, pág. 11, Estados Unidos c. Viktor Borisovich Netyksho y otros, Caso 1: 18-cr-00032-DLF (D. D. C. presentado en febrero 16, 2018).

16 Matt Taibbi, » ¿Podemos ser salvados de Facebook?, «Rolling Stone, 3 de abril de 2018.

17 Peter W. Cantante y Emerson T. Brooking, LikeWar: The Weaponization of Social Media (Nueva York: Houghton Mifflin Harcourt, 2018).

18 Thomas Rid,» Por qué Twitter Es la Mejor Plataforma de Redes Sociales para Desinformación», Placa Base, 1 de noviembre de 2017.

19 McNamee, » Fui Mentor de Mark Zuckerberg. Me Encantó Facebook. Pero No Puedo Guardar Silencio sobre Lo Que Está Pasando.»

20 Hunt Allcott y Matthew Gentzkow, » Social Media and Fake News in the 2016 Election,» Journal of Economic Perspectives 31, no. 2 (2017): 211-36.

21 Sarah McKune, «An Analysis of the International Code of Conduct for Information Security», CitizenLab, 28 de septiembre de 2015.

22 Kirsten Drotner, » Dangerous Media? Panic Discourses and Dilemmas of Modernity, » Paedagogica Historica 35, no. 3( 1999): 593-619.

23 Thomas W. Hazlett, » The Rationality of US Regulation of the Broadcast Spectrum,» Journal of Law and Economics 33, no. 1 (1990): 133-75.

24 Robert McChesney, Telecommunications, Mass Media and Democracy: The Battle for Control of U. S. Broadcasting, 1928-1935 (Nueva York: Oxford, 1995).

25 Fredric Wertham, Seduction of the Innocent( Nueva York: Rinehart, 1954); y David Hajdu, The Ten‐cent Plague: The Great Comic‐book Scare and How It Changed America (Nueva York: Picador, 2009), https://us.macmillan.com/books/9780312428235.

26″ Al igual que los traficantes de drogas en la esquina, controla la vida del vecindario, el hogar y, cada vez más, las vidas de los niños bajo su custodia», afirmó un ex comisionado de la FCC. Minow & LeMay, 1995. http://www.washingtonpost.com/wp-srv/style/longterm/books/chap1/abandonedinthewasteland.htm. Newton N. Minow & Craig L. LaMay, Abandonado en el Páramo (Nueva York: Hill y Wang, 1996)

27 Kara Swisher (@karaswisher), «En general, aquí está mi estado de ánimo y creo que mucha gente cuando se trata de arreglar lo que está roto sobre las redes sociales y la tecnología: ¿Por qué no te mueves más rápido? ¿Por qué no te mueves más rápido? ¿Por qué no te mueves más rápido?»Publicación en Twitter, 12 de febrero de 2019, 2: 03 p. m., https://twitter.com/karaswisher/status/1095443416148787202.

28 Matt Watson, «Youtube Está Facilitando la Explotación Sexual de Niños y Se está Monetizando», video de YouTube, 20: 47,» MattsWhatItIs», 27 de febrero de 2019, https://www.youtube.com/watch?v=O13G5A5w5P0.

29 Casey Newton, » The Trauma Floor: The Secret Lives of Facebook Moderators in America, » The Verge, 25 de febrero de 2019.

30 Geoff Parker, Marshall van Alstyne, y Sangeet Choudhary, Platform Revolution (Nueva York: W. W. Norton, 2016).

31 La Corte en Zeran v. America Online, Inc., 129 F. 3d 327 (4th Cir. 1997), dijo que la Sección 230 fue aprobada para «eliminar los desincentivos a la autorregulación creados por la decisión Stratton Oakmont.»En Stratton Oakmont, Inc. v. Prodigy Services Co., (N. Y. Sup. Tomografía. 1995), un proveedor de tablones de anuncios fue considerado responsable de los comentarios difamatorios de uno de sus clientes porque se esforzó por editar parte del contenido publicado.

32 Robert D Tollison, «Rent Seeking: A Survey», Kyklos 35, no. 4( 1982): 575-602.

33 Vea, por ejemplo, los «Principios de Santa Clara sobre Transparencia y Responsabilidad en la Moderación de Contenido», 8 de mayo de 2018, https://santaclaraprinciples.org/.

34 Julia Carrie Wong, «Revealed: Facebook Enables Ads to Target Users Interested in ‘Vaccine Controversies'», The Guardian (Londres), 15 de febrero de 2019.

35 Véase Scott Cunningham, Gregory DeAngelo y John Tripp, «Craigslist’s Effect on Violence against Women», http://scunning.com/craigslist110.pdf (2017). Véase también Emily Witt, «Después del Cierre de Backpage, Las Trabajadoras Sexuales Cada Vez Más Vulnerables Están Exigiendo Sus Derechos», New Yorker, 8 de junio de 2018.

36 Mark Zuckerberg,» Cuatro Ideas para Regular Internet», 30 de marzo de 2019; y Oficina del Hogar del Reino Unido, Departamento de Digital, Cultura, Medios & Deporte, Libro Blanco de Daños en Línea, El Honorable Sajid Javid MP de Rt, el Honorable Jeremy Wright MP, 8 de abril de 2019.

37 Joachim Nikolaus Steinhöfel, «Blocks & Discurso de odio–Censura insana & Arbitrariedad de FB», Bloque de Facebook-Muro de Vergüenza, https://facebook-sperre.steinhoefel.de/.

38 Linda Kinstler, «El intento de Alemania de arreglar Facebook está fallando», The Atlantic, 18 de mayo de 2018.

39 William Echikson y Olivia Knodt, «Germany’s NetzDG: A Key Test for Combatting Online Hate», Informe de Investigación CEPS no. 2018/09, noviembre de 2018.



+