Kde všude a jak nás algoritmy ovlivňují a my o tom nevíme?

Je takový krásný příběh o marketingové firmě, která analyzovala data, co si lidé objednávají v obchodě , a na základě toho přímo do pošty doručovala katalogy zboží. A do téhle agentury přišel otec jedné mladé dámy ve Spojených státech a strašně jim vynadal, že jí začali posílat věci související s těhotenstvím. Jeho dítě je přece poctivá dcera bílého protestanta. A za tři týdny se přišel omluvit, protože dotyčná byla skutečně těhotná.

Ale co v tom algoritmy přinášejí nového? Cílení na různé demografické skupiny je přece v reklamě velmi staré…

Ano, je třeba si uvědomit, že tenhle druh byznysu nespadl z nebe. Když se podíváte do dějin direct marketingu, zjistíte, že snaha o matematickou analýzu chování lidí je stará minimálně čtyřicet let. Ta zásadní změna oproti minulosti je, že počítače mají k dispozici obrovské množství dat a umožnují dělat ty samé věci daleko přesněji a na daleko větších vzorcích. Navíc sociální sítě zrychlují šíření nálad i informací a zvětšují objem dat. Probíhá to podobně jako když se šíří virus, čímž se však zároveň zhoršuje jejich verifikovatelnost.

Co všechno o nás tedy firmy mohou zjistit ze všech těch dat zjistit?

Všechny ty „analyzéry“ jsou trochu jako elektroničtí Sherlockové Holmesové - to znamená, že si všímají stop, které zanechává vaše činnost. A čím jsou činnosti pravidelnější, tím je stopa zřetelnější. Algoritmy formalizují nějakou představu světa, kterou mají biologové, sociologové, psychologové či informační vědci a jsou schopné zjistit hlavně to, co je pro vás typické. A to dokonce do té míry, že když jeden z průkopníků algoritmických analýz Lukasz Barabasz provedl experiment, kdy zaznamenával, jak a kdy se přihlašují čísla v newyorské telefonní síti, byl schopen s přibližně devadesátiprocentní pravděpodobností určit, kde který člověk zítra bude. To je dáno tím, že se člověk většinu života pohybuje v nějakých cyklech a opakovaných vzorcích - a ty se vlastně zjišťují nejlíp.



Z pohledu společností ovšem není důležitý nějaký Josef Šlerka, nýbrž já coby prvek v množině, vysokoškolák se zájmem o IT, příslušník skupiny; té se totiž prodává reklama. A zatím je stále levnější cílit na skupinu a analyzovat nějaké vzorce chování, než je přesně šít na konkrétní jedince. Jiná věc je, že třeba na Amazonu vám knížky doporučují na základě vaší historie. To, co jste si prohlížel a stáhl, počítač porovná s dalšími lidmi na základě předpokladu, že podobní lidé čtou podobné věci. Strojová analýza není o pochopení toho, jak fungujete, nýbrž snahou najít další lidi kteří se chovají stejně. Podobně jako ve vědě není předmětem zájmu jedinečné, ale obecné.

A snaží se jít někteří obchodníci ještě dál a šít reklamní sdělení již opravdu na míru konkrétního jedince?

Tak například Facebook nedávno spoustil systém remarketingu, který umožnuje internetovým obchodům, aby mu posílaly data o uživatelích, a detekuje, jestli jste nějaké zboží dali do košíku, a pak je vyndali. Snaží se tak zasáhnout jedince, kteří jsou nerozhodnutí nebo přesvědčit ty, kteří už mají nakročeno ke koupi. A nezapomeňte, že Facebook je schopný sledovat vaše chování i na jiných webech, kde najdete tlačítko like. Za jiný příklad může posloužit předvolební kampaň v USA, kde se v souvislosti s Obamou mluvilo o jeho obrovském týmu, který na základě analýz personalizoval zprávy, které byly voličům doručovány.

Josef Šlerka (* 1974) je vedoucí Studia nových médií na Filozofické fakultě Karlovy univerzity a šéf vývoje a výzkumu ve společnosti Ataxo Interactive. Věnuje se divadlu, estetice a v současnosti především strojové analýze přirozeného jazyka a nejrůznějším aspektům sociálních médií. Josef Šlerka

A nepřináší to i nebezpečí? Když budou všichni dostávat informace, které je utvrzují v jejich předpokladech, můžou se uzavřít v jakýchsi informačních bublinách. Kam se podívám, je už mi všechno přizpůsobené…

Tohle je opravdu velké nebezpečí, neboť poznání se většinou týká věcí, které neznáte, či je do určité míry věcí náhody. A když jsou vám servírována data podle vašich zájmů, jste z téhle náhody částečně vyjmutý. Ale vtipné je, že existují služby, které tomu pomáhají zabránit. Například služba Trap.it, které zadáte témata, a ona služba se snaží hledat na internetu informace, které nejsou přímo k tématu, ale nějak s ním souvisí. I tohle se firmy snaží algoritmizovat.

A mohou algoritmy i nějak ovlivňovat nebo zesilovat nálady ve společnosti?

Tohle je dobře vidět na Facebooku, který vám nezobrazuje zprávy všech vašich přátel, avšak vybírá z toho ty, které jste nějak hodnotil nebo je hodnotili jako významné vaši přátelé. Facebook tak vlastně zesiluje signály, které za normálních okolností ve společnosti slabší.

Lidi jsou také v elektronické komunikaci v reakcích daleko přehnanější. Dělali jsme například na Facebooku výzkum extroverze a introverze a ukazovalo se, že introverti se tam posouvají k otevřenosti a extroverti jsou ještě otevřenější než ve standartní komunikaci. Reakce na Facebooku jsou přehnanější, radikálnější, ale vycházejí vždy z toho, co v té společnosti momentálně panuje.



Jak s tímhle mohou pracovat nedemokratické společnosti? Mohou technologie využít třeba pro nějaký skrytý způsob propagandy?

Je dobré si uvědomit, že demokracie nerovná se internet, že technologie nepřináší demokracii. Americký politolog Jevgenij Morozov říká, že kdyby to tak bylo, mohli jsme Afghánistán bombardovat iPody a neposílat tam vojenské jednotky. Autoritativní společnosti jako Írán, Čína či Rusko pochopily, že je pro ně výhodnější budovat kontrolované „intranety“, filtrovat informace na svých hranicích, ale uvnitř nabízet podobné služby jak je známe tady, včetně těch erotických.

Těch strategií je spousta. V Íránu se snaží uvnitř budovat vysokorychlostní internet, ale cokoli přichází z vnějšku, je hrozně pomalé, Kreml zase disponuje armádou blogerů schopných zastávat se rozhodnutí, která my považujeme za krajně nedemokratické. Autoritářské společnosti se naučily pracovat s internetem velmi dobře a smutné je, že jim s tím pomáhají západní firmy. Je známo, že íránské milice po volbách využívali fotky lidí na demonstracích, kteří vinou toho skončili ve vězeních. V tomhle dokážou technologie jako rozpoznávání obličeje velmi pomáhat.

Ale podobné technologie se běžně používají i v demokratických společnostech, kde jsou kriminalizovány informace o dětské pornografii, bestiální zacházení se zvířaty a podobně. V tom je má největší obava: že v případě nějaké krize by pouhou změnou formálního nastavení bylo možné spustit velkou kontrolu.

Algoritmus - ilustrační kresba

To zní hrozivě...

Z dlouhodobého hlediska je velké nebezpečí v tom, že s nástupem aplikací a technologií umělé inteligence a především neuronových sítí ztrácí většina lidí pochopení toho, co počítač dělá, a na základě čeho se rozhoduje. Jinými slovy se můžeme stát otroky algoritmů, jimž nebudeme rozumět. A není to jen otázka sociální sítí. V dopravních systémech se začíná prosazovat dynamická práce s tokem lidí ve městech. Je to úžasná myšlenka, zároveň však hrozí, že jedinci budou ztrácet představu, proč se takhle pohybují. Vzniká tu vlastně trhlina mezi předpisem a jeho porozuměním, protože algoritmus funguje jako předpis, ale my mu nejsme schopní rozumět. Sice jsme na konci spokojení, ale přestáváme rozumět, proč se to stalo. Vlastně se tím vzdáváme kritického vztahu k realitě, protože se vzdáváme strojům.

A můžeme se i na něco těšit? Zatím to spíš vypadá, že se máme bát.

To, co otevírá možnost využití velkých dat ve zdravotnictví, je naprosto neuvěřitelná perspektiva. Pohyb medicíny, který nás čeká, bude srovnatelný s počítačovou revolucí v 70. a 80. letech minulého století. Jsem přesvědčen, že lidi z mé generace se budou dožívat sto a více let. Čeká nás nástup 3D tisku, dokonce se dnes spekuluje o možnosti tisknutí bio materiálů, kdy bychom si mohli vytisknout náhradní orgány. To bude famózní, ale zároveň asi bude stoupat míra neporozumění tomu, co se ve světě děje a jak ten svět funguje. A je otázka, jestli budou lidé ochotní akceptovat svět, v němž se sice budou mít dobře, ale nebudou mu rozumět.