--- title: >- Centralizacja jest zagrożeniem dla demokracji date: 2021-01-18 23:12 modified: 2021-06-08 18:38 lang: pl authors: rysiek tags: - policy - decentralization - business-models - power - public-debate status: published pinned: false --- *Angielska wersja niniejszego wpisu została pierwotnie opublikowana na stronach [Redecentralized](https://redecentralize.org/blog/2021/01/18/centralization-is-a-danger-to-democracy.html) oraz [VSquare](https://vsquare.org/centralisation-is-a-danger-to-democracy/).* Po [brutalnym ataku](https://www.theguardian.com/us-news/2021/jan/06/trump-mob-capitol-clash-police-washington) na Kapitol w Waszyngtonie, [monopoliści mediów społecznościowych](https://mashable.com/article/house-antitrust-report-facebook-privacy-misinformation/) zaczynają sobie wreszcie uświadamiać, że centralizacja jest niebezpiecznia. Pełna kontrola nad codzienną komunikacją [setek milionów użytkowników i użytkowniczek](https://chrissniderdesign.com/blog/resources/social-media-statistics/) wiąże się z odpowiedzialnością, być może zbyt wielką nawet dla informatycznych behemotów. Całe lata Facebook i Twitter [nie były skłonne egzekwować własnych zasad](https://www.newyorker.com/magazine/2020/10/19/why-facebook-cant-fix-itself) dotyczących nakłaniania do przemocy, ze strachu przed negatywną reakcją znacznej części osób korzystających z ich usług. Teraz nagle [blokują konta Donalda Trumpa](https://www.theguardian.com/us-news/2021/jan/08/donald-trump-twitter-ban-suspended) i osób promujących [teorię spiskową QAnon](https://www.cnbc.com/2021/01/08/twitter-bans-michael-flynn-sidney-powell-and-other-qanon-accounts.html), mając nadzieję, że uda im się szybko zamknąć temat i wrócić do udawania, że wszystko jest w porządku. Wszystko jednak nie jest w porządku. Te działania są zwyczajnie niewystarczające. Można je jednak odczytywać jako [przyjęcie części odpowiedzialności](https://arstechnica.com/tech-policy/2021/01/despite-facebooks-attempts-pro-trump-events-groups-still-flourish/) za przemoc, która wybuchła na Kapitolu. Nic się przecież nie zmieniło w retoryce prezydenta Trumpa, ani w [przedziwnych teoriach spiskowych związanych z QAnon](https://www.bellingcat.com/news/americas/2021/01/07/the-making-of-qanon-a-crowdsourced-conspiracy/). Monopoliści mediów społecznościowych [całe lata byli ostrzegani](https://www.businessinsider.com/facebook-ignored-warnings-violent-anti-muslim-militia-hate-groups-2015-2020-9), że promowanie tego typu treści doprowadzi do rozlewu krwi; zresztą, [już doprowadziło do tego w przeszłości](https://www.bbc.com/news/world-asia-46105934). A może po prostu [wynik wyborów w Stanach](https://types.pl/@hazel/105522730408015610) oznacza, że coś, co kiedyś było korzystne dla tych firm, nagle [stało się problemem](https://www.stophateforprofit.org/)? ## "Trudne położenie" Uczestniczyłem w wielu publicznych debatach na temat zarządzania Internetem. Za każdym razem gdy ktoś przypominał platformom społecznościowym (np. Facebookowi), że powinny włożyć więcej wysiłku w moderowanie problematycznych treści, platformy odpowiadały narzekając, że to niezmiernie trudne w tak dużej sieci, wszak regulacje prawne i kwestie kulturowe są tak bardzo różne w różnych zakątkach świata. Trudno się nie zgodzić! Tyle, że w intencji tych korporacji był to argument za ograniczaniem regulacji prawnych, a w istocie jest to świetny argument za decentralizacją. Jakby nie patrzeć, społecznościówki znalazły się w tym "trudnym położeniu" wyłącznie na własne życzenie: wynika to wprost z ich modelu biznesowego, polegającego na byciu [centralnie zarządzanymi](https://blog.joinmastodon.org/2018/03/twitter-is-not-a-public-utility/), globalnymi platformami, które próbują wpasować [nieprzebrane bogactwo kultur](https://thenextweb.com/socialmedia/2019/02/26/facebooks-global-content-moderation-fails-to-account-for-regional-sensibilities/) w sztywne ramy [jednej, spójnej, globalnej polityki moderacji treści](https://www.vice.com/en/article/xwk9zd/how-facebook-content-moderation-works). Innymi słowy giganci mediów społecznościowych domagają się od lat, żeby demokratycznie wybrane rządy [nie obejmowały ich regulacjami prawnymi](https://www.theverge.com/2019/10/1/20756701/mark-zuckerberg-facebook-leak-audio-ftc-antitrust-elizabeth-warren-tiktok-comments) zgodnymi z wolą obywateli, ponieważ nie pasuje im to do modeli biznesowych! Te same firmy [ignorują ostrzeżenia](https://techcrunch.com/2018/05/29/facebooks-white-nationalism-white-supremacy-policy-motherboard/) dotyczące nieskrępowanego rozprzestrzeniania się ruchów rasistowskich na ich platformach, i zarabiają krocie [wręcz *promując*](https://www.technologyreview.com/2020/01/29/276000/a-study-of-youtube-comments-shows-how-its-turning-people-onto-the-alt-right/) [treści ekstremistyczne](https://www.politico.com/news/2020/09/26/facebook-conservatives-2020-421146) (potwierdzają to zresztą [ich własne badania](https://www.wsj.com/articles/facebook-knows-it-encourages-division-top-executives-nixed-solutions-11590507499)). Polaryzacja debaty publicznej i [dewastacja tkanki społecznej](https://medium.com/swlh/do-virtual-social-networks-destroy-the-social-fabric-b1e96de514db) są, jak można się było spodziewać, tylko kosztem zewnętrznym. ## I tak źle, i tak niedobrze Jakiekolwiek blokowanie kont przez główne platformy społecznościowe oczywiście naychmiast budzi obawy o cenzurę (warto zauważyć, jak skutecznie tym argumentem posługują się właśnie osoby tworzące treści toksyczne, wzmacniające podziały społeczne). Czy naprawdę chcemy żyć w świecie, w którym garstka dyrektorów korporacji *de facto* decyduje o tym, co jest, a co nie jest dopuszczalne w społecznej czy politycznej debacie publicznej? [Oczywiście](https://www.eff.org/deeplinks/2020/12/decade-after-arab-spring-platforms-have-turned-their-backs-critical-voices-middle) -- [nie](https://www.wired.com/story/mark-zuckerberg-is-an-arbiter-of-truth-whether-he-likes-it-or-not/) [chcemy](https://gizmodo.com/twitter-doesnt-like-piracy-even-when-its-in-the-public-1846022460). To jest zbyt dużo skoncentrowanej władzy, władza zaś psuje. Pytanie nie brzmi *"w jaki sposób te globalne platformy powinny używać swej władzy"*, a raczej: ***"czy te firmy powinny w ogóle mieć taką władzę"***. Odpowiedź jest prosta: "*nie*". ## Alternatyw nie brakuje Można jednak inaczej. [Fediverse](https://medium.com/@VirtualAdept/a-friendly-introduction-to-the-fediverse-5b4ef3f8ed0e) jest *zdecentralizowaną* siecią społecznościową. To tak, jakby Twitter i Facebook działały podobnie do serwerów e-mail: możesz mieć konto na dowolnej *instancji* (tak nazywane są serwery na Fediversie), różne instacje komunikują się zaś ze sobą -- jeśli masz konto na (powiedzmy) [`mastodon.social`](https://mastodon.social), możesz swobodnie wchodzić w interakcje z kontami z (na przykład) [`pleroma.soykaf.com`](https://pleroma.soykaf.com), czy na dowolnej innej instancji używającej tego samego protokołu. Poszczególne instancje utrzymywane są przez różne osoby bądź społeczności, korzystając z [różnych rodzajów oprogramowania](https://fediverse.party/); każda ma swoje własne zasady. Te zasady egzekwowane są za pomocą [narzędzi moderacji](https://docs.joinmastodon.org/admin/moderation/), wśród których są takie, których nie da się zaimplementować w sieci zcentralizowanej. Osoby moderujące mogą blokować lub wyciszać poszczególne konta, mogą też blokować (tudzież: "*defederować*") całe problematyczne instancje całkowicie -- co jest zwyczajnie niemożliwe, jeśli cała sieć społecznościowa jest jedną "instancją". Mało tego, każda osoba na Fediversie może też samodzielnie blokować i wyciszać wątki, problematyczne konta, czy całe instancje tylko dla siebie. To oznacza, że problem napastliwych kont można rozwiązać na wiele sposobów, dostosowując reakcję do skali konkretnego problemu. Ponieważ społeczności zarządzają swoimi własnymi fediwersowymi instancjami, zależy im na tym, by szybko rozprawiać się z wszelkimi aktami agresji czy zastraszania; mają też po temu narzędzia i odpowiednią moc sprawczą. ## Lokalne zasady zamiast globalnej cenzury Fediverse też doświadczyło rasizmu i skrajnie prawicowego trollowania. Instancje takie, jak [Gab](https://en.wikipedia.org/wiki/Gab_(social_network)) próbowały stać się częścią tej sieci, pojawiały się też indywidualne rasistowskie i skrajnie prawicowe konta na innych instancjach. Zostały one jednak [bezceremonialnie wyrugowane](https://todon.nl/@isolategab) dzięki lepszym narzędziom moderacji, [jasnym](https://nerdica.net/tos) i [jednoznacznym](https://mastodon.social/about/more) [zasadom](https://eldritch.cafe/about/more#rules) dotyczacym tego, co jest niedopuszczalne na instancjach różnych społeczności, oraz dzięki osobom zarządzającym i moderującym, które [bezpardonowo blokowały agresywne konta i problematyczne instancje](https://mastodon.technology/@ashfurrow/105523289076755882). Prezentacja [Dereka Caelina](https://mastodon.technology/@Argus), badacza i dziennikarza skupiającego się na technologiach komunikacyjnych, [oferuje doskonałe podsumowanie tej sytuacji](https://conf.tube/videos/watch/d8c8ed69-79f0-4987-bafe-84c01f38f966) (okraszone całkiem solidnym zestawem danych). Mogę ją tylko gorąco polecić. Dziś rasiści i skrajnie prawicowe trolle mroczny kąt Fediversu, do którego rzadko kto zagląda. Oczywiście nie powstrzyma to grupy zatwardzialców przed rasistowskimi dywagacjami we własnym gronie na własnej instancji (takiej, jak Gab), ale izoluje ich to, przez co trudniej jest im radykalizować kolejne osoby, i chroni innych użytkowników i użytkowniczki Fediversu przed potencjalnymi atakami. Oczywiście takie osoby nadal mogą tworzyć konta na innych instancjach, pod warunkiem, że dostosują swoje zachowanie do przyjętych na nich norm. A wszystko to pomimo braku centralnego ośrodka narzucającego zasady. Okazuje się, że niewiele osób lubi rozmawiać z faszystami. ## Co dalej? [Nie uda się znaleźć jednego uniwersalnego, centralnie egzekwowanego zestawu zasad moderacji](https://www.businessinsider.com/facebook-failing-to-enforce-its-own-content-policies-report-2020-10), który dałoby się wdrożyć globalnie. [Społeczności mają różną wrażliwość](https://www.article19.org/resources/the-global-impact-of-content-moderation/) i różne zasady, a osoby zanurzone w tych społecznościach sami najlepiej rozumieją kontekst danej komunikacji, i wiedzą, jak ją moderować. Na poziomie indywidualnym możesz po prostu [dołączyć do Fediversu](https://fediverse.party/en/portal/servers). Na poziomie społecznym, powinniśmy wyrwać murom popularnych sieci społecznościowych zęby krat, [objąć je regulacjami prawnymi](https://www.youtube.com/watch?v=1Xumfp8vKGE), i doprowadzić to tego, by monetyzacja toksycznych, zatruwających debatę publiczną, interakcji on-line była tak samo niedopuszczalna, jak wylewanie trujących ścieków do rzeki. Zresztą, sami społecznościowi monopoliści dochodzą w końcu do wniosku, że [skuteczna moderacja scentralizowanej globalnej sieci jest zwyczajnie niemożliwa](https://twitter.com/jack/status/1204766078468911106), i że [potrzebne są nowe regulacje prawne](https://about.fb.com/news/2020/02/big-tech-needs-more-regulation/). Skoro nawet oni to widzą, my też powinniśmy.