La demande impatiente de Swisher pour une action rapide semblait supposer que les solutions aux maux des médias sociaux étaient évidentes. J’ai tweeté en réponse, demandant quel « correctif » elle voulait mettre en œuvre si rapidement. Il n’y avait pas de réponse.
Voici le diagnostic que je proposerais. Ce qui est « cassé » à propos des médias sociaux est exactement la même chose qui les rend utiles, attrayants et commercialement réussis: il est incroyablement efficace pour faciliter les découvertes et les échanges d’informations entre les parties intéressées à une échelle sans précédent. En conséquence directe de cela, il y a plus d’interactions informationnelles que jamais auparavant et plus d’échanges mutuels entre les personnes. Cette activité humaine, dans toute sa splendeur, son sang et sa misère, génère des enregistrements stockables et consultables, et ses utilisateurs laissent des traces attribuables partout. Comme indiqué précédemment, le nouveau monde émergent des médias sociaux est marqué par l’hypertransparence.
Du point de vue de la liberté d’expression et des marchés libres, il n’y a rien de cassé intrinsèquement à cela; au contraire, la plupart des critiques sont mécontents précisément parce que le modèle fonctionne: il libère toutes sortes d’expressions et d’échanges, et y gagne des tonnes d’argent pour démarrer. Mais cela génère deux pathologies sociopolitiques distinctes. La première est qu’en exposant toutes sortes d’utilisations et d’utilisateurs déplorables, elle tend à entonner l’indignation face à ces manifestations de déviance sociale envers les fournisseurs de plateformes. Un homme découvre des pédophiles commentant des vidéos YouTube d’enfants et crache de rage sur YouTube YouTube.28 La deuxième pathologie est l’idée que les comportements répréhensibles peuvent être conçus hors de l’existence ou que la société dans son ensemble peut être transformée en un état de vertu en encourageant les intermédiaires à adopter une surveillance et une réglementation plus strictes. Au lieu d’essayer d’arrêter ou de contrôler le comportement répréhensible, nous nous efforçons de contrôler l’intermédiaire de communication utilisé par le mauvais acteur. Au lieu d’éliminer le crime, nous proposons de déléguer l’intermédiaire pour reconnaître les symboles du crime et les effacer de la vue. C’est comme si nous supposions que la vie est un écran, et si nous supprimons les choses indésirables de nos écrans en contrôlant les intermédiaires Internet, alors nous avons résolu les problèmes de la vie. (Et même en faisant cela, nous nous plaignons hypocritement de la Chine et de son prétendu développement d’un système de crédit social global basé sur des interactions en ligne.)
La réaction contre les médias sociaux est donc basée sur une fausse prémisse et une fausse promesse. La fausse prémisse est que les créateurs d’outils qui permettent une interaction publique à grande échelle sont principalement responsables de l’existence des comportements et des messages ainsi révélés. La fausse promesse est qu’en poussant les fournisseurs de plateformes à bloquer le contenu, à éliminer les comptes ou à attaquer les manifestations de problèmes sociaux sur leurs plateformes, nous résolvons ou réduisons ces problèmes. En balayant ces malentendus, nous avons essayé de limiter les « nouveaux » problèmes en les cachant de la vue du public.
Les grandes plateformes ont contribué à cette pathologie en assumant des devoirs de modération de contenu toujours plus étendus. En raison de la pression politique intense qu’elles subissent, les plateformes dominantes acceptent rapidement l’idée qu’elles ont des responsabilités sociales primordiales pour façonner la morale des utilisateurs et façonner le discours public de manière politiquement acceptable. Inévitablement, en raison de l’ampleur des interactions sur les réseaux sociaux, cela signifie des formes de régulation de plus en plus automatisées ou algorithmiques, avec toutes ses rigidités, stupidités et erreurs. Mais cela signifie également des investissements massifs dans des formes manuelles de modération à forte intensité de main‐d’œuvre.29
Le débat politique sur ce sujet est compliqué par le fait que les intermédiaires de l’Internet ne peuvent pas vraiment éviter d’assumer certaines responsabilités facultatives de réglementation des contenus au-delà du respect de diverses lois. Leur statut de marchés multisides qui correspondent aux fournisseurs et aux demandeurs d’informations l’exige.30 Recommandations basées sur l’apprentissage automatique guident les utilisateurs à travers la vaste quantité de matériel disponible, autrement insoluble. Ces filtres améliorent considérablement la valeur d’une plate-forme pour un utilisateur, mais ils façonnent également indirectement ce que les gens voient, lisent et entendent. Ils peuvent également, dans le cadre de leurs tentatives d’attirer les utilisateurs et d’améliorer la valeur des plateformes pour les annonceurs, décourager ou supprimer les messages et les formes de comportement qui rendent leurs plateformes des endroits désagréables ou nuisibles. Cette forme de modération de contenu n’entre pas dans le champ d’application des protections légales du Premier amendement car elle est exécutée par un acteur privé et relève de la discrétion éditoriale.
Quelle est la solution?
L’article 230 de la Loi sur la décence des communications a carré ce cercle en immunisant les fournisseurs de services d’information qui n’ont rien fait pour restreindre ou censurer les communications des parties utilisant leurs plateformes (le concept classique de « canal neutre » ou de transporteur public), tout en immunisant les fournisseurs de services d’information qui ont assumé certaines responsabilités éditoriales (par exemple, pour restreindre la pornographie et d’autres formes de contenu indésirable). Les intermédiaires qui ne faisaient rien étaient (censés être) vaccinés de manière à promouvoir la liberté d’expression et la diversité en ligne; les intermédiaires qui étaient plus actifs dans la gestion du contenu généré par les utilisateurs ont été immunisés pour améliorer leur capacité à supprimer ou à surveiller de toute autre manière le contenu « défectueux » sans être classés comme éditeurs et assumant ainsi la responsabilité du contenu qu’ils ne restreignaient pas.31
Il est clair que cet exercice d’équilibre juridique, qui a si bien fonctionné pour le succès de la plate-forme de médias sociaux moderne, est en train de s’effondrer. L’article 230 est victime de son propre succès. Les plateformes sont devenues grandes et performantes en partie à cause de leurs libertés en vertu de l’article 230, mais elles sont par conséquent soumises à des pressions politiques et normatives qui leur confèrent de facto la responsabilité de ce que leurs utilisateurs lisent, voient et font. La menace d’une intervention gouvernementale se cache en arrière-plan ou se réalise dans certaines juridictions. Alimentées par l’hypertransparence, les pressions politiques et normatives font de la plate-forme pure, neutre et non discriminatoire une chose du passé.
Les propositions les plus courantes pour réparer les plateformes de médias sociaux semblent toutes demander aux plateformes de s’engager dans une plus grande modération du contenu et de dénoncer les formes d’expression ou de comportement inacceptables. La demande politique de modération du contenu plus agressive provient principalement d’une grande variété de groupes cherchant à supprimer des types spécifiques de contenu qui leur sont répréhensibles. Ceux qui veulent moins de contrôle ou plus de tolérance souffrent du problème des coûts diffus / avantages concentrés qui nous est familier de l’analyse économique des groupes d’intérêts spéciaux: autrement dit, la tolérance profite un peu à tout le monde et sa présence est à peine perceptible jusqu’à ce qu’elle soit perdue; la suppression, en revanche, offre une satisfaction puissante et immédiate à quelques acteurs très motivés.32
Au mieux, les réformateurs proposent de rationaliser la modération des contenus de manière à rendre ses normes plus claires, à rendre leur application plus cohérente et à rendre possible une procédure d’appel.33 Pourtant, il est peu probable que cela fonctionne à moins que les plates-formes n’aient la colonne vertébrale pour affirmer fermement leurs droits à définir les critères, à s’y tenir et à cesser de les ajuster constamment en fonction des aléas des pressions politiques quotidiennes. Au pire, les partisans d’une plus grande modération du contenu sont motivés par la conviction qu’un plus grand contrôle du contenu reflétera leurs propres valeurs et priorités personnelles. Mais comme les appels à une modération du contenu plus sévère ou plus étendue proviennent de toutes les directions idéologiques et culturelles, cette attente est irréaliste. Cela ne conduira qu’à une forme distribuée du veto du heckler et à une absence totale de normes prévisibles et relativement objectives. Il n’est pas rare que l’indignation contre les médias sociaux mène dans des directions contradictoires. Un journaliste du Guardian, par exemple, est scandalisé que Facebook ait une catégorie de ciblage publicitaire pour les « controverses vaccinales » et blâme l’entreprise pour avoir permis aux défenseurs de la vaccination de former des groupes fermés qui peuvent renforcer la résistance de ces membres aux soins médicaux traditionnels.34 Cependant, il n’est pas possible pour Facebook d’intervenir sans profiler leurs utilisateurs dans le cadre d’un mouvement politique spécifique jugé erroné, puis supprimer leurs communications et leur capacité à s’associer sur la base de ces données. Ainsi, en même temps que Facebook est largement attaqué pour violation de la vie privée, il est également demandé d’exploiter ses données d’utilisateurs privés pour signaler les croyances politiques et sociales jugées aberrantes et pour supprimer la capacité des utilisateurs à s’associer, à se connecter avec des annonceurs ou à communiquer entre eux. Dans cette combinaison de surveillance et de suppression, qu’est-ce qui pourrait mal tourner?
Quelle position les défenseurs de la liberté d’expression et des marchés libres devraient-ils adopter à l’égard des médias sociaux?
Tout d’abord, il faut une articulation plus claire de l’énorme valeur des plates-formes en fonction de leur capacité à mettre en relation les chercheurs et les fournisseurs d’informations. Il faut également plaider explicitement pour une plus grande tolérance à la diversité discordante révélée par ces processus. Les vrais libéraux doivent préciser que l’on ne peut s’attendre à ce que les plateformes de médias sociaux assument la responsabilité principale de nous mettre à l’abri des idées, des personnes, des messages et des cultures que nous considérons erronés ou qui nous offensent. La plus grande partie de la responsabilité de ce que nous voyons et de ce que nous évitons devrait nous incomber. Si nous sommes indignés de voir des choses que nous n’aimons pas dans des communautés en ligne composées de milliards de personnes, nous devons cesser de mal diriger cette indignation contre les plateformes qui nous y exposent. De même, si le comportement exposé est illégal, nous devons nous concentrer sur l’identification des auteurs et les tenir responsables. En corollaire de ce changement d’attitude, nous devons également montrer que l’hypertransparence favorisée par les médias sociaux peut avoir une grande valeur sociale. À titre d’exemple simple, des recherches ont montré que l’essor tant décrié des plateformes mettant en relation des travailleuses du sexe avec des clients est statistiquement corrélé à une diminution de la violence à l’égard des femmes ‐ précisément parce qu’elle a retiré le travail du sexe de la rue et rendu les transactions plus visibles et contrôlables.35
Deuxièmement, les partisans de la liberté d’expression doivent interpeller activement ceux qui souhaitent que la modération des contenus aille plus loin. Nous devons exposer le fait qu’ils utilisent les médias sociaux comme un moyen de réformer et de remodeler la société, en la brandissant comme un marteau contre les normes et les valeurs qu’ils veulent éradiquer du monde. Ces points de vue nous mènent dans une impasse autoritaire. Ils peuvent très bien réussir à supprimer et à paralyser la liberté des médias numériques, mais ils ne réussiront pas, et ne peuvent pas, à améliorer la société. Au lieu de cela, ils feront des plateformes de médias sociaux des champs de bataille pour un conflit perpétuel qui s’intensifie pour savoir qui peut faire taire qui. Cela ressort déjà largement des cris de discrimination et de partialité à mesure que les plateformes augmentent la modération des contenus: les cris viennent à la fois de la gauche et de la droite en réponse à une modération souvent vécue comme arbitraire.
Enfin, nous devons monter une défense renouvelée et revigorée de la section 230. Le cas de l’article 230 est simple: aucune alternative ne promet d’être intrinsèquement meilleure que ce que nous avons maintenant, et la plupart des alternatives risquent d’être pires. Les exagérations générées par la panique morale ont occulté le simple fait que la modération du contenu sur une plate-forme mondiale comptant des milliards d’utilisateurs est une tâche extraordinairement difficile et exigeante. Les utilisateurs, et non les plates-formes, sont la source de messages, de vidéos et d’images que les gens trouvent répréhensibles, donc les appels à la réglementation ignorent le fait que la réglementation ne régit pas un seul fournisseur, mais doit régir des millions, et peut-être des milliards, d’utilisateurs. La tâche de signaler le contenu généré par les utilisateurs, de le considérer et de décider quoi faire à ce sujet est difficile et coûteuse. Et il vaut mieux laisser les plates-formes.
Cependant, la réglementation semble venir. Le PDG de Facebook, Mark Zuckerberg, a publié un billet de blog appelant à réglementer Internet, et le gouvernement britannique a publié un livre blanc, « Online Harms », qui propose d’imposer une responsabilité systématique pour le contenu généré par les utilisateurs à tous les intermédiaires Internet (y compris les sociétés d’hébergement et les fournisseurs de services Internet).36
Au mieux, un système de réglementation du contenu influencé par le gouvernement va ressembler beaucoup à ce qui se passe actuellement. Les normes imposées par le gouvernement pour la modération des contenus mettraient inévitablement la plus grande partie de la responsabilité de la censure sur les plateformes elles‐mêmes. Même en Chine, avec son armée de censeurs, l’opérationnalisation de la censure repose largement sur les opérateurs de plateformes. Dans le tsunami de contenus déchaînés par les médias sociaux, la retenue préalable de l’État n’est pas vraiment une option. L’Allemagne a réagi de la même manière avec la loi Netzwerkdurchsetzungsgesetz de 2017, ou Loi sur l’application des réseaux (communément appelée NetzDG ou Loi sur Facebook), une loi visant à lutter contre l’agitation, les discours de haine et les fausses nouvelles dans les réseaux sociaux.
La loi NetzDG a immédiatement entraîné la suppression de diverses formes de discours en ligne politiquement controversés. Joachim Steinhöfel, un avocat allemand préoccupé par le rôle essentiellement jurisprudentiel de Facebook sous NetzDG, a créé un « mur de la honte » contenant du contenu légal supprimé par NetzDG.37 Ironiquement, les nationalistes de droite allemands qui ont subi des éliminations en vertu de la nouvelle loi ont tourné la loi à leur avantage en l’utilisant pour supprimer les commentaires critiques ou dégradants à leur sujet. « La tentative de l’Allemagne de réglementer la parole en ligne a apparemment amplifié les voix qu’elle tentait de diminuer », affirme un article de The Atlantic.38 À la suite de la pétition d’un politicien de droite, Facebook doit s’assurer que les individus en Allemagne ne peuvent pas utiliser un VPN pour accéder à des contenus illégaux. Pourtant, un rapport d’un groupe anti‐discours de haine qui soutient la loi soutient qu’elle a été inefficace. « Il n’y a eu aucune amende imposée aux entreprises et peu de changements dans les taux de retrait globaux. »39
Abandonner les immunités intermédiaires rendrait les plateformes encore plus conservatrices et plus enclines à désactiver des comptes ou à supprimer du contenu qu’elles ne le sont actuellement. En termes de coûts et de risques juridiques, il sera logique qu’ils se trompent du bon côté. Lorsque la responsabilité juridique des intermédiaires est confiée, les conflits sur l’arbitraire et les faux positifs ne disparaissent pas, ils s’intensifient. Dans les pays autoritaires, les plateformes ne seront que des exécutants indirects des normes et lois nationales de censure.
D’autre part, les politiciens américains sont confrontés à un dilemme unique et intéressant. S’ils pensent pouvoir capitaliser sur les difficultés des médias sociaux avec des appels à la réglementation, ils doivent comprendre que l’implication du gouvernement dans la réglementation du contenu devrait se conformer au Premier amendement. Cela signifierait que toutes sortes de contenus que de nombreux utilisateurs ne veulent pas voir, allant du discours de haine à divers niveaux de nudité, ne pourraient plus être restreints car ils ne sont pas strictement illégaux. Toute intervention du gouvernement qui a supprimé des publications ou supprimé des comptes pourrait faire l’objet d’un litige basé sur une norme de premier amendement. Ironiquement, une prise de contrôle gouvernementale des responsabilités en matière de réglementation du contenu aux États-Unis devrait donc être beaucoup plus libérale que le statu quo. C’est précisément pour cette raison que l’article 230 a été adopté en premier lieu.
Du point de vue de la libre expression pure, une approche du premier amendement serait une bonne chose. Mais du point de vue de la libre association et du libre marché, ce ne serait pas le cas. Une telle politique forcerait littéralement tous les utilisateurs de médias sociaux à être exposés à des choses auxquelles ils ne voulaient pas être exposés. Cela minerait la valeur économique des plates-formes en décapitant leur capacité à gérer leurs algorithmes de correspondance, à façonner leur environnement et à optimiser les compromis d’un marché multidimensionnel. Compte tenu de la teinte et du cri actuels de toutes les mauvaises choses que les gens voient et font sur les médias sociaux, une norme de Premier amendement légale et permissive ne semble pas rendre quiconque heureux.
Les défenseurs de la liberté d’expression doivent donc réaffirmer l’importance de l’article 230. Les plateformes, et non l’État, devraient être responsables de trouver l’équilibre optimal entre la modération des contenus, la liberté d’expression et la valeur économique des plateformes. L’alternative d’une réglementation gouvernementale plus stricte exonérerait les plates-formes de la responsabilité du marché pour leurs décisions. Cela éliminerait la concurrence entre les plates-formes pour des normes et des pratiques de modération appropriées et les amènerait probablement à exclure et à supprimer encore plus de discours juridiques qu’aujourd’hui.
Conclusion
La réglementation du contenu n’est que le problème le plus important auquel sont confrontées les plateformes de médias sociaux aujourd’hui; elles sont également impliquées dans des controverses sur la vie privée et la politique de concurrence. Mais la réglementation du contenu des médias sociaux a été l’objet exclusif de cette analyse. L’hypertransparence et la demande subséquente de contrôle du contenu qu’elle crée sont les principaux moteurs de la panique morale des nouveaux médias. La panique se nourrit d’elle-même, créant les conditions de réactions politiques qui négligent ou remettent ouvertement en question les valeurs relatives à la libre expression et à la libre entreprise. Bien qu’il y ait beaucoup de choses à détester sur Facebook et d’autres plateformes de médias sociaux, il est temps que nous réalisions qu’une grande partie de cette réaction négative provient d’une société de l’information qui envisage des manifestations d’elle-même. Il n’est pas exagéré de dire que nous blâmons le miroir pour ce que nous y voyons. L’article 230 est encore étonnamment pertinent pour ce dilemme. En tant que politique, l’article 230 n’était pas une forme de protection de l’industrie naissante dont nous pouvons nous passer maintenant, ni le produit d’une ivresse utopique avec le potentiel d’Internet. C’était un moyen très intelligent de répartir la responsabilité de la gouvernance du contenu dans les médias sociaux. Si nous respectons cet arrangement, apprenons plus de tolérance et assumons plus de responsabilité pour ce que nous voyons et faisons sur les médias sociaux, nous pouvons répondre aux problèmes tout en conservant les avantages.
Notes
1 Milton L. Mueller, « Hyper‐transparence et contrôle social: Les médias sociaux comme aimants pour la réglementation », Politique de télécommunications 39, no. 9 (2015): 804-10.
2 Erich Goode et Nachman Ben-Yehuda, « Fonder et défendre la sociologie de la panique morale », chap. 2 dans La Panique morale et la politique de l’anxiété, éd. Sean Patrick Hier (Abingdon : Routledge, 2011).
3 Stanley Cohen, Démons folkloriques et Paniques morales (Abingdon: Routledge, 2011).
4 Ronald J. Deibert, « The Road to Digital Unfreedom: Three Painful Truths about Social Media », Journal of Democracy 30, no. 1 (2019): 25-39.
5 Zeynep Tufekci, « YouTube, le Grand radicalisateur », New York Times, 10 mars 2018.
6 Tufekci, « YouTube, le Grand radicalisateur. »
7 Roger McNamee, » J’Ai Encadré Mark Zuckerberg. J’ai adoré Facebook. Mais Je Ne Peux pas Rester Silencieux sur Ce Qui se passe », Time Magazine, 17 janvier 2019.
8 Jonathan Albright, » Untrue-Tube: Monétiser la misère et la désinformation », Medium, 25 février 2018.
9 Courtney Seiter, « La psychologie des médias sociaux: Pourquoi Nous Aimons, Commentons et partageons en ligne », Buffer, 20 août 2017.
10 Paul Mozur, « Un génocide incité sur Facebook, Avec des messages de l’armée du Myanmar », New York Times, 15 octobre 2018.
11 Ingrid Burrington, « Facebook Pourrait-Il Être Jugé pour Violations Des Droits de l’Homme?, » The Atlantic, 20 décembre 2017.
12 Burrington, « Facebook Pourrait-Il Être Jugé pour Violations Des Droits de l’Homme? »
13 Pour une discussion sur la campagne de lobbying de Michael Flynn pour le gouvernement turc et les activités de Paul Manafort en Ukraine et en Russie, voir Rebecca Kheel, « La Turquie et Michael Flynn: Cinq choses à savoir « , The Hill, 17 décembre 2018; et Franklin Foer, » Paul Manafort, Hustler américain « , The Atlantic, mars 2018.
14 Voir, par exemple, « Opinions minoritaires sur le Rapport sur les Mesures actives russes produit par la Majorité, 22 mars 2018 » des représentants démocrates du Comité Spécial permanent du Renseignement de la Chambre des États‐Unis (USHPSCI), 26 mars 2018.
15 Acte d’accusation à la p. 11, U.s. c. Viktor Borisovich Netyksho et al., Affaire 1:18-cr-00032-DLF (D.D.C. déposée en février 2014). 16, 2018).
16 Matt Taibbi, « Pouvons-Nous Être Sauvés de Facebook?, » Rolling Stone, 3 avril 2018.
17 Peter L. Singer et Emerson T. Brooking, LikeWar: L’armement des médias sociaux (New York: Houghton Mifflin Harcourt, 2018).
18 Thomas Rid, « Pourquoi Twitter Est la Meilleure Plate-forme de Médias Sociaux pour la Désinformation », Carte mère, 1er novembre 2017.
19 McNamee, « J’Ai Encadré Mark Zuckerberg. J’ai adoré Facebook. Mais Je Ne Peux pas Garder le Silence sur Ce Qui Se Passe. »
20 Hunt Allcott et Matthew Gentzkow, « Les médias sociaux et les fausses nouvelles lors des élections de 2016 », Journal of Economic Perspectives 31, no 2 (2017): 211-36.
21 Sarah McKune, » Une analyse du Code de conduite International pour la sécurité de l’information », CitizenLab, 28 septembre 2015.
22 Kirsten Drotner, « Médias dangereux? Discours de panique et dilemmes de la modernité « , Paedagogica Historica 35, no 3 (1999): 593-619.
23 Thomas W. Hazlett, « The Rationality of US Regulation of the Broadcast Spectrum », Journal of Law and Economics 33, no 1 (1990): 133-75.
24 Robert McChesney, Telecommunications, Mass Media and Democracy: The Battle for Control of U.S. Broadcasting, 1928-1935 (New York : Oxford, 1995).
25 Fredric Wertham, Seduction of the Innocent (New York: Rinehart, 1954); et David Hajdu, The Ten‐cent Plague: The Great Comic‐book Scare and How It Changed America (New York: Picador, 2009), https://us.macmillan.com/books/9780312428235.
26 « Comme les trafiquants de drogue du coin, contrôlez la vie du quartier, la maison et, de plus en plus, la vie des enfants sous leur garde », a affirmé un ancien commissaire de la FCC. Minow & LeMay, 1995. http://www.washingtonpost.com/wp-srv/style/longterm/books/chap1/abandonedinthewasteland.htm. Newton N. Minow & Craig L. LaMay, abandonné dans la friche (New York: Colline et Wang, 1996)
27 Kara Swisher (@karaswisher), « Dans l’ensemble, voici mon humeur et je pense que beaucoup de gens quand il s’agit de réparer ce qui est cassé dans les médias sociaux et la technologie: Pourquoi n’allez-vous pas plus vite? Pourquoi ne vas-tu pas plus vite? Pourquoi ne vas-tu pas plus vite? » Message Twitter, 12 février 2019, 14h03, https://twitter.com/karaswisher/status/1095443416148787202.
28 Matt Watson, « Youtube Facilite l’exploitation sexuelle des Enfants et Elle est Monétisée « , Vidéo YouTube, 20:47, « MattsWhatItIs », 27 février 2019, https://www.youtube.com/watch?v=O13G5A5w5P0.
29 Casey Newton, » Le sol traumatique: Les Vies secrètes des Modérateurs de Facebook en Amérique « , The Verge, 25 février 2019.
30 Geoff Parker, Marshall van Alstyne et Sangeet Choudhary, Révolution de la plate-forme (New York: W. W. Norton, 2016).
31 La Cour dans l’affaire Zeran c. America Online, Inc., 129 F.3d 327 (4e Cir. 1997), l’article 230 a été adopté pour » supprimer les freins à l’autoréglementation créés par la décision Stratton Oakmont. » À Stratton Oakmont, Inc. v. Prodigy Services Co., (N.Y. Sup. Tomodensitométrie. 1995), un fournisseur de babillards électroniques a été tenu responsable des propos diffamatoires d’un de ses clients parce qu’il s’efforçait de modifier une partie du contenu publié.
32 Robert D Tollison, « Rent Seeking: A Survey », Kyklos 35, no. 4 (1982): 575-602.
33 Voir, par exemple, les » Principes de Santa Clara sur la Transparence et la responsabilité en matière de Modération de contenu « , 8 mai 2018, https://santaclaraprinciples.org/.
34 Julia Carrie Wong, « Révélé: Facebook permet aux publicités de cibler les Utilisateurs Intéressés par les » Controverses vaccinales » », The Guardian (Londres), 15 février 2019.
35 Voir Scott Cunningham, Gregory DeAngelo et John Tripp, » L’effet de Craigslist sur la violence à l’égard des femmes », http://scunning.com/craigslist110.pdf (2017). Voir aussi Emily Witt, « Après la Fermeture de Backpage, Des Travailleuses Du Sexe De Plus En Plus Vulnérables Réclament Leurs Droits « , New Yorker, 8 juin 2018.
36 Mark Zuckerberg, « Quatre idées pour réguler Internet », 30 mars 2019; et Ministère de l’Intérieur du Royaume-Uni, Ministère du Numérique, de la Culture et des Médias & Sport, Livre blanc sur les méfaits en ligne, Le Député Sajid Javid, Le DÉPUTÉ Jeremy Wright, 8 avril 2019.
37 Joachim Nikolaus Steinhöfel, « Blocs & Discours de haine – Censure insensée & Arbitraire de FB », Bloc Facebook – Mur de la honte, https://facebook-sperre.steinhoefel.de/.
38 Linda Kinstler, « La tentative allemande de réparer Facebook se retourne contre Lui », The Atlantic, 18 mai 2018.
39 William Echikson et Olivia Knodt, « Germany’s NetzDG: A Key Test for Combatting Online Hate », Rapport de recherche CEPS no. 2018/09, novembre 2018.