niecierpliwe zapotrzebowanie Swishera na szybkie działanie wydawało się zakładać, że rozwiązania problemów mediów społecznościowych są oczywiste. Napisałem w odpowiedzi, pytając, co „naprawić” chciała wdrożyć tak szybko. Nie było odpowiedzi.
oto diagnoza, którą chciałbym zaoferować. To, co jest „zepsute” w mediach społecznościowych, jest dokładnie tym samym, co czyni je użytecznymi, atrakcyjnymi i odnoszącymi sukcesy komercyjne: jest niezwykle skuteczny w ułatwianiu odkryć i wymiany informacji między zainteresowanymi stronami na niespotykaną dotąd skalę. W związku z tym istnieje więcej interakcji informacyjnych niż kiedykolwiek wcześniej i więcej wzajemnej wymiany między ludźmi. Ta ludzka aktywność, w całej swojej chwale, gore i nędzy, generuje rekordy do przechowywania, przeszukiwania, a jej użytkownicy pozostawiają przypisane utwory wszędzie. Jak wspomniano wcześniej, nowy świat mediów społecznościowych charakteryzuje się hipertransparencją.
z punktu widzenia wolnej ekspresji i wolnego rynku nie ma w tym nic z natury złamanego; wręcz przeciwnie, większość krytyków jest niezadowolona właśnie dlatego, że model działa: wyzwala wszelkiego rodzaju ekspresję i wymianę, i robi za to mnóstwo pieniędzy. Ale dwie odmienne patologie socjopolityczne są przez to generowane. Po pierwsze, ujawniając wszelkiego rodzaju godne ubolewania zastosowania i użytkowników, ma tendencję do wzbudzania oburzenia na te przejawy dewiacji społecznej wobec dostawców platformy. Mężczyzna odkrywa pedofilów komentujących filmy z dziećmi na YouTube i rozpryskuje się z wściekłości na … YouTube.Druga patologia polega na tym, że niedopuszczalne zachowania mogą zostać wyeliminowane z istnienia lub że całe społeczeństwo może zostać przekształcone w stan cnoty poprzez zachęcanie pośredników do przyjęcia surowszego nadzoru i regulacji. Zamiast próbować zatrzymać lub kontrolować niewłaściwe zachowanie, staramy się kontrolować pośrednika komunikacyjnego, z którego korzystał zły aktor. Zamiast eliminować przestępstwo, proponujemy zastąpienie pośrednika, który rozpoznaje symbole przestępstwa i usuwa je z widoku. To tak, jakbyśmy zakładali, że życie jest ekranem i jeśli usuwamy z naszych ekranów niechciane rzeczy poprzez kontrolowanie pośredników internetowych, to rozwiązujemy życiowe problemy. (I nawet Jak to robimy, hipokrytycznie narzekamy na Chiny i ich rzekomy rozwój wszechogarniającego systemu kredytu społecznego opartego na interakcjach online.
reakcja na media społecznościowe opiera się więc na fałszywym założeniu i fałszywej obietnicy. Fałszywe założenie jest takie, że twórcy narzędzi umożliwiających publiczną interakcję na dużą skalę są przede wszystkim odpowiedzialni za istnienie ujawnionych zachowań i komunikatów. Fałszywą obietnicą jest to, że zmuszając dostawców platform do blokowania treści, eliminowania kont lub w inny sposób atakowania przejawów problemów społecznych na ich platformach, rozwiązujemy lub zmniejszamy te problemy. Przeczesując te błędne wyobrażenia, staraliśmy się ograniczyć „nowe” problemy, ukrywając je przed publicznym widokiem.
główne platformy przyczyniły się do tej patologii, przyjmując coraz bardziej rozbudowane obowiązki moderacji treści. Ze względu na silną presję polityczną, pod którą są, dominujące platformy szybko akceptują ideę, że mają nadrzędne obowiązki społeczne, aby kształtować moralność użytkowników i kształtować dyskurs publiczny w politycznie akceptowalny sposób. Nieuchronnie, ze względu na skalę interakcji w mediach społecznościowych, oznacza to coraz bardziej zautomatyzowane lub algorytmiczne formy regulacji, ze wszystkimi jej sztywnościami, głupotami i błędami. Ale oznacza to również ogromne inwestycje w pracochłonne ręczne formy umiaru.29
debata polityczna na ten temat jest skomplikowana przez fakt, że pośrednicy internetowi nie mogą tak naprawdę uniknąć przyjęcia niektórych opcjonalnych obowiązków w zakresie regulacji treści, wykraczających poza przestrzeganie różnych przepisów. Wymaga tego ich status jako rynków wielowymiarowych, które pasują do dostawców i poszukujących informacji.30 zaleceń opartych na uczeniu maszynowym prowadzi użytkowników przez ogromną, w przeciwnym razie trudną do rozwiązania ilość dostępnych materiałów. Filtry te znacznie poprawiają wartość platformy dla użytkownika, ale także pośrednio kształtują to, co ludzie widzą, czytają i słyszą. Mogą również, w ramach swoich prób przyciągnięcia użytkowników i zwiększenia wartości platform dla reklamodawców, zniechęcać lub tłumić wiadomości i formy zachowań, które sprawiają, że ich platformy są nieprzyjemne lub szkodliwe. Ta forma moderacji treści jest poza zakresem ochrony prawnej Pierwszej Poprawki, ponieważ jest wykonywana przez prywatnego aktora i wchodzi w zakres dyskrecji redakcyjnej.
o co chodzi?
sekcja 230 ustawy o przyzwoitości komunikacyjnej wyrównała ten krąg poprzez uodpornienie dostawców usług informacyjnych, którzy nie zrobili nic, aby ograniczyć lub cenzurować komunikację stron korzystających z ich platform (klasyczny „neutralny kanał” lub koncepcja wspólnego nośnika), a także uodpornienie dostawców usług informacyjnych, którzy przejęli pewne obowiązki redakcyjne (np. ograniczenie pornografii i innych form niepożądanych treści). Pośrednicy, którzy nic nie robili, byli (mieli być) uodpornieni w sposób promujący wolność słowa i różnorodność w Internecie; pośrednicy, którzy byli bardziej aktywni w zarządzaniu treściami generowanymi przez użytkowników, zostali uodpornieni w celu zwiększenia ich zdolności do usuwania lub innego monitorowania „złych” treści bez sklasyfikowania ich jako wydawców, a tym samym przejęcia odpowiedzialności za treści, których nie ograniczali.31
oczywiste jest, że ta ustawa równoważąca prawo, która tak dobrze działała, aby nowoczesna platforma społecznościowa odniosła sukces, rozpada się. Sekcja 230 jest ofiarą własnego sukcesu. Platformy stały się duże i odnosiły sukcesy po części ze względu na swoje wolności w sekcji 230, ale w rezultacie podlegają naciskom politycznym i normatywnym, które przyznają im de facto odpowiedzialność za to, co czytają, widzą i robią ich użytkownicy. Zagrożenie interwencją rządu czai się w tle lub jest realizowane w niektórych jurysdykcjach. Napędzane przez hipertransparentność naciski polityczne i normatywne sprawiają, że czysta, neutralna, niedyskryminacyjna Platforma należy do przeszłości.
najczęstsze propozycje naprawy platform społecznościowych wydają się wymagać od platform większego moderowania treści i fretowania niedopuszczalnych form wypowiedzi lub zachowań. Polityczne zapotrzebowanie na bardziej agresywne moderowanie treści pochodzi przede wszystkim z wielu różnych grup, które starają się stłumić określone rodzaje treści, które są dla nich niewłaściwe. Ci, którzy chcą mniejszej kontroli lub większej tolerancji, cierpią z powodu problemu rozproszonych kosztów/skoncentrowanych korzyści, znanego nam z analizy ekonomicznej specjalnych grup interesów: oznacza to, że tolerancja przynosi wszystkim trochę korzyści, a jej obecność jest ledwo zauważalna, dopóki nie zostanie utracona; z drugiej strony tłumienie zapewnia potężną i natychmiastową satysfakcję kilku wysoce zmotywowanym aktorom.32
w najlepszym przypadku reformatorzy proponują racjonalizację moderacji treści w taki sposób, aby jej standardy były jaśniejsze, aby ich stosowanie było bardziej spójne i umożliwić proces odwoławczy.Jest jednak mało prawdopodobne, aby to zadziałało, jeśli platformy nie zdobędą podstawy do zdecydowanego dochodzenia swoich praw do ustalania kryteriów, trzymania się ich i zaprzestania ciągłego dostosowywania ich w oparciu o kaprysy codziennych nacisków politycznych. Co gorsza, zwolennicy większej moderacji treści są motywowani przekonaniem, że większa kontrola treści będzie odzwierciedlać ich osobiste wartości i priorytety. Ponieważ jednak postulaty o ostrzejsze lub szersze umiarkowanie treści pochodzą ze wszystkich kierunków ideologicznych i kulturowych, to oczekiwanie jest nierealistyczne. Doprowadzi to tylko do rozproszonej formy weta hecklera i całkowitego braku przewidywalnych, względnie obiektywnych standardów. Nierzadko oburzenie mediów społecznościowych prowadzi w sprzecznych kierunkach. Na przykład reporter The Guardian jest oburzony, że Facebook ma kategorię reklam kierowaną na „kontrowersje dotyczące szczepionek” i chłosta firmę za umożliwienie zwolennikom szczepień tworzenia zamkniętych grup, które mogą wzmocnić opór tych członków wobec powszechnej opieki medycznej.34 nie ma jednak możliwości, aby Facebook interweniował bez profilowania swoich użytkowników w ramach określonego ruchu politycznego uznanego za niewłaściwy, a następnie tłumienia ich komunikacji i zdolności kojarzenia na podstawie tych danych. W tym samym czasie Facebook jest szeroko atakowany za naruszenia prywatności, jest również proszony o wykorzystanie swoich prywatnych danych użytkownika do oznaczania przekonań politycznych i społecznych, które są uważane za nieprawidłowe, oraz do ograniczania zdolności użytkowników do kojarzenia, łączenia się z reklamodawcami lub komunikowania się między sobą. W tej kombinacji nadzoru i tłumienia, co mogłoby pójść nie tak?
jakie stanowisko powinni zająć zwolennicy wolności słowa i wolnego rynku w odniesieniu do mediów społecznościowych?
po pierwsze, musi być wyraźniejsze ujęcie ogromnej wartości platform w oparciu o ich zdolność do dopasowywania poszukiwaczy i dostawców informacji. Konieczne jest również wyraźne poparcie dla większej tolerancji dla wstrząsającej różnorodności ujawnianej przez te procesy. Prawdziwi liberałowie muszą jasno powiedzieć, że nie można oczekiwać, że platformy mediów społecznościowych będą ponosić główną odpowiedzialność za ochronę nas przed ideami, ludźmi, wiadomościami i kulturami, które uważamy za złe lub które nas obrażają. Większość odpowiedzialności za to, co widzimy i czego unikamy, powinna spoczywać na nas. Jeśli jesteśmy oburzeni widząc rzeczy, których nie lubimy w społecznościach internetowych składających się z miliardów ludzi, musimy przestać wprowadzać to oburzenie w błąd wobec platform, które nas na to narażają. Podobnie, jeśli ujawnione zachowanie jest nielegalne, musimy skupić się na identyfikacji sprawców i pociągnięciu ich do odpowiedzialności. Jako następstwo tej zmiany postawy musimy również pokazać, że hipertransparentność wspierana przez media społecznościowe może mieć wielką wartość społeczną. Jako prosty przykład tego badania wykazały, że bardzo złośliwy wzrost platform dopasowujących kobiety do pracowników seksualnych z klientami jest statystycznie skorelowany ze zmniejszeniem przemocy wobec kobiet — właśnie dlatego, że usunął pracę seksualną z ulicy i sprawił, że transakcje były bardziej widoczne i łatwiejsze do kontrolowania.35
po drugie, zwolennicy wolnej wypowiedzi muszą aktywnie rzucać wyzwanie tym, którzy chcą, aby moderacja treści poszła dalej. Musimy ujawnić fakt, że używają mediów społecznościowych jako środka reformowania i przekształcania społeczeństwa, dzierżąc je jak młot przeciwko normom i wartościom, które chcą zostać wyeliminowane ze świata. Te punkty widzenia prowadzą nas w dół autorytarnej ślepej uliczki. Być może uda im się stłumić i sparaliżować wolność mediów cyfrowych, ale nie uda im się i nie uda im się ulepszyć społeczeństwa. Zamiast tego sprawią, że platformy społecznościowe będą walczyć o nieustanny, nasilający się konflikt o to, kto kogo uciszy. Jest to już wyraźnie widoczne w okrzykach dyskryminacji i uprzedzeń, gdy platformy zwiększają moderację treści: okrzyki pochodzą zarówno z lewej, jak i prawej strony w odpowiedzi na moderację, która często jest postrzegana jako arbitralna.
wreszcie, musimy odnowić i ożywić obronę sekcji 230. Sprawa dla sekcji 230 jest prosta: Żadna alternatywa nie zapowiada się z natury lepiej niż to, co mamy teraz, a większość alternatyw prawdopodobnie będzie gorsza. Przesada wywołana paniką moralną przesłoniła prosty fakt, że moderowanie treści na globalnej platformie z miliardami użytkowników jest niezwykle trudnym i wymagającym zadaniem. Użytkownicy, a nie Platformy, są źródłem wiadomości, filmów i obrazów, które ludzie uważają za budzące zastrzeżenia, więc wezwania do regulacji ignorują fakt, że przepisy nie regulują jednego dostawcy, ale muszą regulować miliony, a może miliardy użytkowników. Zadanie oflagowania treści generowanych przez użytkowników, rozważenia ich i podjęcia decyzji, co z nimi zrobić, jest trudne i kosztowne. I najlepiej zostawić na platformach.
jednak wydaje się, że nadchodzą przepisy. Dyrektor generalny Facebooka Mark Zuckerberg opublikował wpis na blogu wzywający do uregulowania Internetu, a rząd brytyjski opublikował białą księgę „Online Harms”, która proponuje nałożenie systematycznej odpowiedzialności za treści generowane przez użytkowników na wszystkich pośredników internetowych (w tym Firmy hostingowe i dostawców usług internetowych).36
w najlepszym razie system regulacji treści pod wpływem rządu będzie wyglądał bardzo podobnie do tego, co dzieje się teraz. Narzucone przez rząd normy dotyczące moderacji treści nieuchronnie obciążałyby większość odpowiedzialności za cenzurę samych platform. Nawet w Chinach, z armią cenzorów, operacjonalizacja cenzury zależy w dużej mierze od operatorów platformy. W tsunami treści rozpętanych przez media społecznościowe uprzednie ograniczanie przez państwo nie wchodzi w grę. W podobny sposób Niemcy zareagowały Netzwerkdurchsetzungsgesetz (Ustawa o egzekwowaniu przepisów sieciowych) z 2017 roku (znana również jako NetzDG lub Ustawa o Facebooku), ustawa mająca na celu zwalczanie agitacji, mowy nienawiści i fałszywych wiadomości w sieciach społecznościowych.
ustawa NetzDG natychmiast doprowadziła do stłumienia różnych form kontrowersyjnych politycznie wypowiedzi online. Joachim Steinhöfel, niemiecki prawnik, zaniepokojony zasadniczo prawoznawczą rolą Facebooka w netzdg, stworzył „ścianę wstydu” zawierającą treści prawne stłumione przez NetzDG.37 Jak na ironię, niemieccy prawicowi nacjonaliści, którzy ponieśli klęskę na mocy nowego prawa, wykorzystali prawo na swoją korzyść, wykorzystując je do tłumienia krytycznych lub poniżających komentarzy o sobie. „Niemiecka próba uregulowania mowy w Internecie pozornie wzmocniła głosy, które starały się zmniejszyć”, twierdzi artykuł w The Atlantic.38 w wyniku petycji jednego z prawicowych polityków Facebook musi zagwarantować, że osoby prywatne w Niemczech nie będą mogły korzystać z VPN w celu uzyskania dostępu do nielegalnych treści. Mimo to, raport grupy anty‐mowy nienawiści, która popiera prawo, twierdzi, że był on nieskuteczny. – Nie nałożono żadnych kar na firmy i niewiele się zmieniło w ogólnych stawkach za likwidację.”39
rezygnacja z immunitetów pośredniczących sprawiłaby, że platformy byłyby jeszcze bardziej konserwatywne i bardziej podatne na wyłączanie kont lub usuwanie treści niż teraz. Jeśli chodzi o koszty i ryzyko prawne, rozsądne będzie dla nich błądzenie po bezpiecznej stronie. Kiedy pośrednicy otrzymują odpowiedzialność prawną, konflikty dotyczące arbitralności i fałszywych alarmów nie znikają, nasilają się. W krajach autorytarnych platformy będą jedynie pośrednimi wykonawcami krajowych norm i przepisów cenzury.
z drugiej strony amerykańscy politycy stoją przed wyjątkowym i interesującym dylematem. Jeśli uważają, że mogą wykorzystać trudy mediów społecznościowych za pomocą wezwań do regulacji, muszą zrozumieć, że zaangażowanie rządu w regulację treści musiałoby być zgodne z pierwszą poprawką. Oznaczałoby to, że wszelkiego rodzaju treści, których wielu użytkowników nie chce widzieć, od mowy nienawiści po różne poziomy nagości, nie można już ograniczać, ponieważ nie są one ściśle nielegalne. Wszelkie interwencje rządowe, które usunęły wpisy lub usunięte konta, mogą być rozpatrywane w oparciu o standard Pierwszej Poprawki. Jak na ironię, przejęcie przez rząd odpowiedzialności za regulację treści w Stanach Zjednoczonych musiałoby być znacznie bardziej liberalne niż status quo. Uniknięcie tego wyniku było właśnie powodem, dla którego sekcja 230 została uchwalona w pierwszej kolejności.
z czystego punktu widzenia swobodnej ekspresji, podejście Pierwszej Poprawki byłoby dobrą rzeczą. Ale z punktu widzenia wolnego stowarzyszenia i wolnego rynku, to nie. Taka polityka dosłownie zmusiłaby wszystkich użytkowników mediów społecznościowych do narażenia na rzeczy, na które nie chcieli być narażeni. Podważyłoby to wartość ekonomiczną platform, dekapitując ich zdolność do zarządzania algorytmami dopasowywania, Kształtowania Środowiska i optymalizacji kompromisów na rynku wielowymiarowym. Biorąc pod uwagę obecny odcień i płacz o wszystkich złych rzeczach, które ludzie widzą i robią w mediach społecznościowych, legalnie napędzany, dopuszczalny standard Pierwszej Poprawki nie wydaje się, aby kogokolwiek uszczęśliwiał.
zwolennicy wolności ekspresji muszą zatem potwierdzić znaczenie sekcji 230. Platformy, a nie państwo, powinny być odpowiedzialne za znalezienie optymalnej równowagi między moderacją treści, wolnością wypowiedzi i wartością ekonomiczną platform. Alternatywa większej regulacji rządowej zwalniałaby platformy odpowiedzialne za podejmowanie przez nie decyzji. Wyeliminowałoby to konkurencję między platformami w zakresie odpowiednich standardów i praktyk moderacji i prawdopodobnie doprowadziłoby je do wykluczenia i stłumienia jeszcze większej ilości mowy prawnej niż obecnie.
podsumowanie
Regulacja treści jest tylko najbardziej znaczącym z problemów, z którymi borykają się dziś platformy mediów społecznościowych; są one również zamieszane w kontrowersje dotyczące prywatności i polityki konkurencji. Ale Regulacja treści w mediach społecznościowych była wyłącznym celem tej analizy. Hipertransparentność i wynikające z niej zapotrzebowanie na kontrolę treści są kluczowymi czynnikami paniki moralnej nowych mediów. Panika żeruje na sobie, tworząc warunki dla reakcji politycznych, które przeoczają lub otwarcie kwestionują wartości dotyczące wolności słowa i wolnego przedsiębiorstwa. Podczas gdy jest wiele do nie lubienia w Facebooku i innych platformach społecznościowych, nadszedł czas, abyśmy zdali sobie sprawę, że wiele z tych negatywnych reakcji wynika z Społeczeństwa Informacyjnego kontemplującego manifestacje siebie. Nie jest przesadą powiedzieć, że obwiniamy lustro za to, co w nim widzimy. Sekcja 230 jest nadal zaskakująco istotna dla tego dylematu. Jako polityka, sekcja 230 nie była formą ochrony przemysłu dla niemowląt, z której możemy zrezygnować teraz, ani nie była produktem utopijnego upojenia z potencjałem Internetu. Był to bardzo sprytny sposób podziału odpowiedzialności za zarządzanie treścią w mediach społecznościowych. Jeśli będziemy trzymać się tego porozumienia, nauczymy się więcej tolerancji i weźmiemy większą odpowiedzialność za to, co widzimy i robimy w mediach społecznościowych, możemy reagować na problemy, zachowując korzyści.
Notki
1 Milton L. Mueller, „Hyper-transparency and Social Control: Social Media as Magnesses for Regulation,” Telecommunications Policy 39, no. 9 (2015): 804-10.
2 Erich Goode i Nachman Ben-Yehuda,” uziemienie i obrona Socjologii moralnej paniki”, CZ. 2 in Moral Panic and The Politics of Anxiety, ed. Sean Patrick Hier (Abingdon: Routledge, 2011).
3 Stanley Cohen, Folk Devils and Moral Panics (Abingdon: Routledge, 2011).
4 Ronald J. Deibert, „The Road to Digital Unfreedom: Three Painful Truths about Social Media”, Journal of Democracy 30, no. 1 (2019): 25-39.
5 Zeynep Tufekci, „YouTube, The Great Radicalizer”, New York Times, 10 marca 2018.
6 Tufekci, „YouTube, Wielki Radykalizator.”
7 Roger McNamee, I Mentored Mark Zuckerberg. Uwielbiam Facebooka. Ale nie mogę milczeć o tym, co się dzieje”, magazyn Time, 17 stycznia 2019.
8 Jonathan Albright, „nieprawda-Tuba: zarabianie na nędzy i dezinformacji”, Medium, 25 lutego 2018.
Psychologia mediów społecznościowych: dlaczego lubimy, komentujemy i udostępniamy w Internecie.
10 Paul Mozur, „ludobójstwo Podburzone na Facebooku, z postami z wojska Myanmaru”, New York Times, 15 października 2018.
11 Ingrid Burrington, ” czy można sądzić Facebooka za łamanie praw człowieka?, „The Atlantic”, 20 Grudnia 2017.
12: 12: 12, czy Facebook może być sądzony za łamanie praw człowieka?”
13 aby omówić kampanię lobbingową Michaela Flynna dla tureckiego rządu i biznes Paula Manaforta na Ukrainie i w Rosji, Zobacz Rebecca Kheel, „Turkey and Michael Flynn: Five Things to Know,” the Hill, 17 grudnia 2018; i Franklin Foer, „Paul Manafort, American Hustler”, The Atlantic, marzec 2018.
14 Zobacz na przykład „Minority Views to the most‐produced 'Report on Russian Active Measures, March 22, 2018″ ” Of The Democratic representatives from the United States House Permanent Select Committee on Intelligence (USHPSCI), March 26, 2018.
, Sprawa 1: 18-cr-00032-DLF (D. D. C. złożony w lutym 16, 2018).
16 Matt Taibbi, ” Czy możemy zostać uratowani z Facebooka?”Rolling Stone, 3 Kwietnia 2018.
17 Piotr W. Singer and Emerson T. Brooking, LikeWar: The Weaponization of Social Media (New York: Houghton Mifflin Harcourt, 2018).
18 Thomas Rid, „dlaczego Twitter jest najlepszą platformą społecznościową do dezinformacji”, Płyta Główna, listopad 1, 2017.
Uwielbiam Facebooka. Ale nie mogę milczeć o tym, co się dzieje.”
20 Hunt Allcott and Matthew Gentzkow,” Social Media and Fake News in the 2016 Election, ” Journal of Economic Perspectives 31, no. 2 (2017): 211-36.
21 Sarah McKune, „An Analysis of the International Code of Conduct for Information Security,” CitizenLab, September 28, 2015.
22 Kirsten Drotner, ” Niebezpieczne Media? Panic Discourses and Dilemmas of Modernity, ” Paedagogica Historica 35, no. 3 (1999): 593-619.
23 Thomas W. Hazlett, „The Rationality of US Regulation of the Broadcast Spectrum”, Journal of Law and Economics 33, no. 1 (1990): 133-75.
24 Robert McChesney, Telecommunications, Mass Media and Democracy: The Battle for Control of U. S. Broadcasting, 1928-1935 (New York: Oxford, 1995).
25 Fredric Wertham, Seduction Of The Innocent (New York: Rinehart, 1954); and David Hajdu, the Ten‐cent Plague: The Great Comic‐book Scare and How it Changed America (New York: Picador, 2009), https://us.macmillan.com/books/9780312428235.
26 „Jak dilerzy narkotyków na rogu, kontrolują życie dzielnicy, domu i, coraz częściej, życia dzieci znajdujących się pod ich opieką” – stwierdził były komisarz FCC. Minow & LeMay, 1995. http://www.washingtonpost.com/wp-srv/style/longterm/books/chap1/abandonedinthewasteland.htm. Newton N. Minow & Craig L. LaMay, Abandoned in the Wasteland (Nowy Jork: Hill and Wang, 1996)
27 Kara Swisher (@karaswisher), ” Ogólnie rzecz biorąc, oto mój nastrój i myślę, że wiele osób, jeśli chodzi o naprawianie tego, co jest zepsute w mediach społecznościowych i technologiach: dlaczego nie poruszasz się szybciej? Dlaczego nie poruszasz się szybciej? Dlaczego nie poruszasz się szybciej?”12-02-10, 14: 03, https://twitter.com/karaswisher/status/1095443416148787202
28 Matt Watson, „Youtube ułatwia seksualne wykorzystywanie dzieci i jest Zarabiany”, film z YouTube, 20:47,” Mattswhatis”, 27 lutego 2019, https://www.youtube.com/watch?v=O13G5A5w5P0.
29 Casey Newton, ” The Trauma Floor: Sekretne życie moderatorów Facebooka w Ameryce”, The Verge, 25 lutego 2019 r.
30 Geoff Parker, Marshall van Alstyne, and Sangeet Choudhary, Platform Revolution (New York: W. W. Norton, 2016).
31 The Court in Zeran V.America Online, Inc., 129 F. 3d 327 (4.Cir. 1997), powiedział, że paragraf 230 został przyjęty w celu ” usunięcia czynników zniechęcających do samoregulacji stworzonych decyzją Stratton Oakmont.”W Stratton Oakmont, Inc. v. Prodigy Services Co., (N. Y. Sup. Tomografia komputerowa. 1995), dostawca tablicy ogłoszeń został pociągnięty do odpowiedzialności za oszczercze uwagi jednego ze swoich klientów, ponieważ dołożył starań, aby edytować niektóre publikowane treści.
32 Robert D Tollison, „Rent Seeking: a Survey”, Kyklos 35, no. 4 (1982): 575-602.
33 Zobacz na przykład „Zasady Santa Clara dotyczące przejrzystości i odpowiedzialności w moderacji treści”, Maj 8, 2018, https://santaclaraprinciples.org/.
34 Julia Carrie Wong, „ujawniono: Facebook umożliwia reklamy skierowane do użytkowników zainteresowanych” kontrowersjami Szczepionkowymi”, ” The Guardian (Londyn), 15 lutego 2019.
35 Zobacz Scott Cunningham, Gregory DeAngelo, and John Tripp, „Craigslist’ s Effect on Violence against Women, ” http://scunning.com/craigslist110.pdf (2017). Zobacz także Emily Witt, „po zamknięciu Backpage, coraz bardziej narażeni pracownicy seksualni domagają się swoich praw”, New Yorker, 8 czerwca 2018.
36 Mark Zuckerberg, „cztery pomysły na regulację Internetu”, Marzec 30, 2019; I Brytyjskie biuro domowe, Departament cyfryzacji, kultury, mediów & Sport, Biała Księga szkód Online, poseł RT Hon.Sajid Javid, poseł RT Hon. Jeremy Wright, kwiecień 8, 2019.
37 Joachim Nikolaus Steinhöfel, „bloki & mowa nienawiści–szalona Cenzura &arbitralność z FB”, blok Facebooka — Ściana wstydu, https://facebook-sperre.steinhoefel.de/.
38 Linda Kinstler, „niemiecka próba naprawienia Facebooka obraca się w obłokach”, The Atlantic, 18 maja 2018.
39 William Echikson i Olivia Knodt, „Germany’ s NetzDG: a Key Test for Combatting Online Hate”, raport z badań CEPS nr 2018/09, listopad 2018.