W zamian za nasze dane i udział w trenowaniu algorytmów nie dostajemy już usługi, tylko kolejne narzędzia kontroli.

Czy ktoś jeszcze pamięta, że w 2009 r. internet był nominowany do Pokojowej Nagrody Nobla? Abstrahując od sensu i polityczności samej nagrody, z perspektywy 2019 r. „pokój” zupełnie nie kojarzy się z tym, czego doświadczamy w sieci. Jesteśmy raczej w stanie wojny: z hejtem, dezinformacją, manipulacją, cyberprzemocą. Z trudem bronimy swojej autonomii, na każdym kroku obsługiwani i sterowani przez algorytmy. Media społecznościowe już nie są obietnicą wspólnoty i egalitarnego medium, lecz raczej źródłem depresji, niepokoju i uzależnienia. Zniknął też sam „internet”, zastąpiły go ogrody komercyjnych platform, w których żyjemy – razem, ale osobno.

Otrzeźwienie przychodzi za późno

W jednym z pierwszych raportów, jakie tworzyłam w Fundacji Panoptykon, pisałam, że „internet jest zgromadzeniem, mową, prasą i informacją; każdy atak na sieć to bezpośredni zamach na te wolności”. Naprawdę wierzyliśmy, że ta technologia służy ludziom. I że wystarczy ją ochronić przed zakusami wścibskiego państwa, a korporacje – które dążą do jej zawłaszczenia i skomercjalizowania – po prostu „jakoś uregulować”. Wierzyliśmy w filozofię open source i zbiorową mądrość sieci, o której pisał Yochai Benkler („The Wealth of Networks”, 2006 r.).

Czytaj także: Nasz internet jest przesiąknięty fake newsami

Co się stało przez tę dekadę? Faktem jest, że dziś rozmawiamy głównie o problemach, które wywołują korporacje zarządzające zamkniętymi ogrodami, ale też ich użytkownicy; o „nieprzewidzianych skutkach ubocznych” działania globalnych platform; o tym, że mleko się rozlało i nie ma komu posprzątać; o bezradności tradycyjnych regulatorów. Czy po prostu przejrzeliśmy na oczy, czy też ci, którzy rozdają karty w grze o władzę nad informacją, zaproponowali nam gorsze rozdanie? Myślę, że obie odpowiedzi są prawdziwe i jest między nimi silny związek.

Kiedy w pierwszych latach Fundacji Panoptykon zastanawialiśmy się nad regulacją internetu (wtedy to słowo jeszcze miało znaczenie), nie byliśmy naiwni. Czytaliśmy Cory′ego Doctorowa (kultowy „Little Brother” z 2008 r.) i Jonathana Zittraina („The Future of the Internet – And How to Stop It”, 2008 r.), przestrzegających przed modelem biznesowym, na którym wyrosły potęgi Google i Facebook. Wiedzieliśmy, że władza, którą budują, będzie miała nie tylko ekonomiczny wymiar. W 2011 r. Eli Pariser opublikował głośną krytykę baniek informacyjnych („The Fillter Bubble”), które zastąpiły masowe media, oferując każdemu jego własny „Truman Show”. W tym samym roku Evgeny Morozov ostro polemizował z mitem internetu jako medium, które wspiera oddolne, demokratyczne ruchy („The Net Delusion: The Dark Side of Internet Freedom”). I miał rację.

Nadzorczy kapitalizm w trzech aktach

Najnowsza historia polityczna dowodzi, że sceptycyzm tych pierwszych krytyków był co najmniej uzasadniony. Jesteśmy w momencie, w którym technosolucjonizm i wiara w demokratyzujący potencjał samej technologii wydaje się nie tylko naiwna, ale wręcz niebezpieczna. Wahadło wychyliło się w drugą stronę: po politycznych woltach 2017 r., których symbolami stali się Donald Trump i „rosyjskie boty”, liberalne media znalazły w niej winnego. Tak jakby nasze krytyczne myślenie i poziom politycznej odpowiedzialności rzeczywiście zależały od protokołu komunikacji. Chyba jednak nie zależą. Więc zostawmy samą technologię na boku i spójrzmy na modele biznesowe tych, którzy na niej zarabiają. Jeśli istnieje jakaś korelacja, to trzeba jej szukać między jakością naszej demokracji a kierunkiem, w którym zmierza cyfrowy kapitalizm.

10 lat temu nie byliśmy naiwni. Ale też nie mieliśmy pełnych danych, by dostrzec, na czym polega istota modelu biznesowego firm z Doliny Krzemowej. W głównym nurcie to, co nam proponowały, było interpretowane jako „darmowa usługa”. Darmowa, bo wartość danych w oczach tych, którzy je dostarczali, była pomijana. Brakowało wyobraźni, żeby zobaczyć w nich nową walutę, a w zasadzie paliwo kapitalizmu. Usługa, bo wtedy mogliśmy jeszcze wybierać, mogliśmy się utożsamić z rolą użytkownika, a korzystanie z map czy skrzynki Google rzeczywiście wnosiło nową jakość. Było szybciej i wygodniej. W zamian dostaliśmy trochę śledzenia i reklamę. Reklamę zawsze można zablokować, a śledzenie, cóż, chyba nie mam nic do ukrycia... Na to transakcyjne myślenie złapały się miliardy ludzi.

To była pierwsza faza tego, co Shoshana Zuboff nazywa nadzorczym kapitalizmem. W drugiej fazie już widać więcej – widać, że „usługa” to tylko haczyk, na który ma się złapać człowiek dostarczający dane. Dane nie służą „lepszemu dopasowaniu usługi”, bo jej natura zwykle jest dość prosta i nie wymaga tak głębokiej, ciągłej obserwacji. Dane są potrzebne do nauki, jak działa i myśli człowiek: do stworzenia modeli predykcyjnych, które w prosty sposób przekładają się na wpływ. Ta transakcja nie jest ani równa, ani świadoma. Nadal dostajemy wygodne, szybkie urządzenia i interfejsy, ale w zamian oddajemy kontrolę nad decyzjami.

Zarządcy naszych cyfrowych awatarów są w stanie skutecznie wypływać na nasz styl życia, model konsumpcji, a nawet polityczne decyzje i społeczne postawy. Przede wszystkim dlatego, że potrafią do nas dotrzeć z precyzyjnie dobranym komunikatem we właściwym momencie, wykorzystując chwilową podatność i psychiczne słabości. Mają władzę większą niż tradycyjne media, ale za tą władzą nie idzie w zasadzie żadna odpowiedzialność.

Nigdy nie powinniśmy im byli na to pozwolić

Roger McNamee, inwestor z Doliny Krzemowej, mentor Marka Zuckerberga i człowiek, który do Facebooka zrekrutował Sheryl Sandberg, opublikował w tym roku rozliczeniową książkę „Zucked: Waking Up to the Facebook Catastrophe”, która ma obudzić tych, którzy nadal myślą, że są po prostu użytkownikami darmowych usług. McNamee w rozmowie z Samem Harrisem nie przebiera w słowach: „to są autorytarne firmy”, „wykorzystują nasze najintymniejsze dane, żeby realizować swoje interesy”, „nigdy nie powinniśmy im byli na to pozwolić”.

Cóż, w Europie nigdy nie pozwalaliśmy, bo nie byliśmy tak naiwni (albo tak zorientowani na szybki zysk) jak Amerykanie. W naszym świecie model działania firm z Doliny Krzemowej nigdy nie był legalny. Niestety, Unia Europejska bardzo długo zbierała się, żeby wypowiedzieć mu regulacyjną wojnę. RODO – które od 2017 r. obowiązuje wszystkie firmy przetwarzające dane Europejczyków, bez względu na to, skąd prowadzą swój biznes – pojawiło się przynajmniej 15 lat za późno.

Tymczasem znaleźliśmy się w trzeciej fazie nadzorczego kapitalizmu: już nie liczymy się jako użytkownicy (nie mamy też realnego wyboru – rynek został podzielony i nigdzie nie ma drzwi z napisem „exit”), jesteśmy po prostu paliwem dla rozwoju sztucznej inteligencji. W zamian za nasze dane i udział w trenowaniu algorytmów nie dostajemy już usługi, tylko kolejne narzędzia kontroli.

Czytaj także: RODO na łapu-capu

Roger McNamee pisze m.in., jak działa captcha, czyli powszechny przy logowaniu do różnych serwisów mechanizm weryfikacji tego, „czy jesteś człowiekiem”. Kiedyś przepisywaliśmy kawałki tekstu, a maszyny uczyły się „czytać”, rozpoznawać naturalne pismo. Teraz uczymy je rozpoznawać obiekty na obrazkach. Jesteśmy zatrudnieni do tej pracy za darmo, mimo że do ustalenia, czy przed komputerem siedzi człowiek, wystarczyłoby zarejestrowanie samego ruchu myszką.

Ruch myszką też jest analizowany, ale w innym celu. Co się stanie, kiedy Google zobaczy, że nasze ruchy myszką stały się wolniejsze i chwiejne? Algorytm może zawyrokować: „to pewnie choroba Parkinsona”. Jeśli tak, czy przekaże tę obserwację najpierw nam – żebyśmy mogli się zdiagnozować i leczyć – czy od razu naszemu ubezpieczycielowi, żeby mógł dostosować stawkę?

Kto nam wymyśli wolność?

Z tego potrzasku nie wyjdziemy sami – potrzebujemy silnych instytucji, które w naszym imieniu i z naszym interesem w tle będą negocjować reguły wykorzystywania technologii. Ale czy po 30 latach stania z boku i obserwowania, jak buduje się nadzorczy kapitalizm, takie instytucje są jeszcze możliwe? Który regulator ma dość silną legitymizację i narzędzia, żeby na serio wejść do tej gry?

Unia Europejska dopiero się uczy korzystać z RODO: pojawiły się pierwsze kary za nielegalne wykorzystywanie danych i pierwsze sprawy antymonopolowe. Komisja Europejska zaczyna spinać tę politykę w spójną całość i negocjować z gigantami, takimi jak Facebook, potrzebne zmiany w regulaminach. No właśnie, największa struktura polityczna na świecie próbuje negocjować.

A jeśli nie polityczne instytucje, to co? Może obroni nas ta sama inteligentna technologia, która już udowodniła, że potrafi skutecznie wpływać na ludzi? Jest oczywisty problem z jej podmiotowością, bo póki co zarządzają nią prywatne korporacje, a więc cała ta inteligencja pozostaje podporządkowana kapitalistycznej logice. Na przestrzeni kolejnych 10 lat to się może zmienić. W narracji, którą promuje inny wpływowy intelektualista Yuval Noah Harari, pojawia się fantazja o sztucznej inteligencji, która jest w stanie zarządzić całym systemem – z nami w środku – w sposób bardziej racjonalny. Więcej, jest w stanie narzucić nam długofalowe cele, takie jak ochrona zdrowia publicznego czy środowiska naturalnego, nawet wbrew naszym krótkofalowym, partykularnym interesom.

Kolejne 10 lat spędzimy w pozycji biernego „użytkownika”?

Brzmi niebezpiecznie? Jeśli wolelibyśmy zachować trochę autonomii, nie zostaje chyba nic innego, niż zorganizować się na nowo i wokół innych wartości. Postawić w centrum człowieka, a nie ciągły ekonomiczny wzrost, i podjąć desperacką próbę odbudowania społeczeństwa. Nie cyfrowej platformy, na której, zestresowani i wyalienowani, „zbieramy punkty”, żeby zdobyć lepszą pozycję, a jednocześnie trenujemy algorytmy do zarządzania naszą uwagą – ale autentycznej społecznej przestrzeni, w której moglibyśmy współpracować. O tym, że jeszcze możemy to zrobić, fantazjuje Douglas Rushkoff w „Team Human” (kolejna książka-manifest wydana w styczniu 2019 r. – co za rok!).

Nie wiem, która z tych fantazji ma większe szanse powodzenia, ani na którą bylibyśmy w stanie się zgodzić w momencie ostrych podziałów i społecznego niepokoju. Nie wiem, na jakim forum i według jakiego protokołu mielibyśmy o tym rozmawiać, skoro definitywnie daliśmy się pozamykać w prywatnych, technologicznych ogrodach. Ale jedno wydaje się pewne: jeśli kolejne 10 lat spędzimy w pozycji biernego „użytkownika”, przyglądając się technologicznym eksperymentom, które rozgrywają się na naszych ciałach i umysłach, fantazja o człowieku, który sam o sobie decyduje, będzie już nie do pomyślenia.

Katarzyna Szymielewicz – autorka jest prawniczką i prezeską Fundacji Panoptykon, która broni praw człowieka w kontekście współczesnych form nadzoru nad społeczeństwem. W tym roku Fundacja Panoptykon obchodzi 10-lecie swojej działalności.