Umělé inteligenci ani algoritmům nerozumíme, i když je sami budujeme. Jsou tak komplexní, že už teď se od nich máme co učit, ale neučíme. Spíše je bereme jako servilní poddané. Hlavním problémem ale je, že skrze internet zadarmo jsme vybudovali systém založený na tom, abychom se cítili špatně, říká polský akademik Łukasz Król. „Ztrácíme možnost lidského dohledu,“ říká v rozhovoru pro iROZHLAS.cz. Doporučujeme Praha 19:00 29. června 2019 Sdílet na Facebooku Sdílet na Twitteru Sdílet na LinkedIn Tisknout Kopírovat url adresu Zkrácená adresa Kopírovat do schránky Zavřít „Je to globalizovaný kapitalismus algoritmů, které se nám snaží prodat reklamu a zároveň mu jde o to, abychom se cítili špatně,“ říká Łukasz Król | Foto: Radek Dětinský | Zdroj: Unlock 2019

Ještě, než jsem zapnul diktafon, bavili jsme se o tom, jak lidé vytvořili v zásadě mytologii okolo chyby ve hře Pokémon, díky které se náhodně vyskytoval velmi vzácný druh. Znamená to, že technologii, kterou jsme sami stvořili, přestáváme rozumět?

Moje otázka by zněla: „Není to něco, co děláme s každým komplexním systémem?“ S ekonomií, s globalizací? Globalizaci nerozumíme. Ta je založena na miliardách a miliardách dat. Stejně jako algoritmy a umělá inteligence. My nerozumíme tomu, jak ani jedno z toho funguje.

Fascinuje mě, jak máme ekonomii a další systémy, okolo kterých vytváříme různé příběhy, protože jim jako lidé nerozumíme. Často zmiňuji příklad napomínání. Představte si dvouleté dítě, které před večeří snědlo všechny sušenky. Zeptáte se ho: „Proč jsi snědl/a všechny sušenky před večeří?“

Je správná, nebo sociálně přijatelná odpověď. Ta správná by byla, že dvouleté dítě nemá žádnou sebekontrolu a je biologicky nastaveno tak, aby snědlo co nejvíce tuku a cukru. A pak tu je společensky přijatelná odpověď, která by zněla: „Ale já jsem nevěděl/a, že bude večeře.“ Pokud by dvouleté dítě řeklo, že je biologicky naprogramováno, aby jedlo cukr, tak bychom se na něj dívali asi divně. Pokud řekne společensky přijatelnou odpověď, tak jej obejmeme a řekneme, aby nám věřilo.

Łukasz Król Łukasz Król v současnosti zkoumá, jak lidé vnímají umělou inteligenci. Působí na postgraduálním institutu evropských studií Evropském kolegiu ve Varšavě. Zabývá se nerovností a diskriminací ze strany algoritmů. Díky oborům, které studoval, rozumí technologické i společenské stránce problému. Tvrdí, že žádná technologie není apolitická a pokaždé hraje roli člověk, jakožto tvůrce softwaru. Do Prahy přijel, aby přednášel na setkání občanských aktivistů Unlock 2019 pořádaného Centrem pro občanskou společnost (Prague Civil Society Centre).

Je velmi zajímavé, že když chceme nějaké vysvětlení, nehledáme technický popis, ale pátráme po významu. Je to velmi podobné tomu, co se děje v umělé inteligenci. Když někdo zemře pod koly samořiditelného auta, nechceme slyšet, že tato osoba zemřela, protože proměnná X byla o deset mimo. Nebo proto, že se nezachoval dobře jeden elektron a nebyl správně nastavený proces hlášení chyb. Chceme vysvětlení, které pasuje do naší divné a zároveň krásné psychologie.

Jde tedy o nějaký sociální, morální význam? Něco ve smyslu aplikace Morální stroj od MIT, ve které má uživatel rozhodnout, jestli samořiditelné auto srazí například skupinu mladších, nebo starších lidí, muže, nebo ženy atd.? Tedy že technologie něco dělá, protože je založená na nějakých sociálních procesech?

Ano. Je to opravdu těžké, protože význam je neuvěřitelně lidská věc. Takže tato výzva překládat a vysvětlovat rozhodnutí algoritmu v lidském jazyce je opravdu náročná. Dokonce i vysvětlování algoritmicky je obtížné, natož tak, aby to sedělo do našeho lidského systému a potřebě po významu.

To velmi hezky navazuje na první otázku, na kterou jsem se chtěl zeptat. Představme si, že jsem muž ze středně velkého českého města. Mám přístup k internetu, využívám ho. Mám e-mail, facebook, používám Google nebo Seznam, na hudbu a videa YouTube. Jak mi vysvětlíte, co je algoritmus?

Kruci, neděláte to vůbec jednoduché. (smích) Problém je, že kdykoli mluvíme o umělé inteligenci, definice jsou hrozně divné a nejasné. Algoritmus znamená pro různé lidi různé věci, přitom to je všezahrnující pojem, který používáme. Řekl bych, že algoritmus je souhrn instrukcí, pokynů. V současnosti jde hlavně o algoritmy založené na miliardách a miliardách datových bodů a učí se optimalizovat samy na sobě.

Například u YouTube algoritmu není žádný jasný vzorec - funguje na základě miliardy dat lidí, kteří klikají na videa. Kvůli tomu není možné, aby jedna jediná osoba byla opravdu schopná to pochopit. Neexistuje osoba, která by byla schopná v hlavě udržet miliardy dat.

Takže nedokážeme pochopit algoritmus třeba YouTube? Není to možné předpovídat nebo pochopit, protože to je tak komplexní, že nedokážeme pochopit vztahy mezi jednotlivými daty?

Tady nám představy o porozumění nestačí. Nerozumíme ekonomice, globalizaci, která je také založena na miliardách dat. Pokud si chci ráno koupit jablko, nedokážu vymodelovat situaci miliardy lidí, kteří si ráno koupí jablko, a jak to ovlivní globální trh s jablky. Jediné, co můžu udělat, je přibližný odhad. A něco podobného teď probíhá. Na jednu stranu hodně lidí panikaří a měli by...

„Ano, měli bychom se naprosto děsit toho, jaké možnosti nabízí nová technologie autoritářským státům.“

Panikaří kvůli algoritmům, umělé inteligenci...

Kvůli nedostatku kontroly. V mnoha ohledech je to nová situace. Na druhou stranu je ale lidská historie historií vytváření tak podivně komplexních systémů, že jsme je nikdy nebyli schopni pořádně kontrolovat. Když se objevila tištěná kniha, nikdo nemohl předvídat, jak se takový trh rozvine. Nějak se to stalo. Nikdy jsme nad tím neměli kontrolu.

Čekání na prozření

Když čteme zprávy z The New York Times o tom, že Čína používá vysoce vyspělé monitorovací technologie ke sledování minority Ujgurů, nebo o systému hodnocení občanů tak trochu ve stylu epizody ze seriálu Black Mirror, neměli bychom se obávat? Nebo se ta technologie bude regulovat nějak sama, v dobrém?

Ano, měli bychom se naprosto děsit toho, jaké možnosti nabízí nová technologie autoritářským státům. S tím naprosto souhlasím. Třeba během holokaustu byla tehdy nová technologie tragicky zneužita k uchovávání a zpracovávání dat. Tragické protnutí mezi novými technologiemi, diktátorstvím a genocidou je naneštěstí velice dlouhá historie.

Je zároveň důležité mít na paměti, že každá technologická volba je zároveň politickou volbou. Kód není neutrální. Kód může dát moc některých lidem a jiným ji může sebrat. Velmi často se v matematické informatice a podobných oborech ptáme, jestli něco dokážeme, ale velmi zřídka se ptáme, jestli bychom něco dělat měli.

Příkladem je skupina akademiků, kteří se snažili skrze technologii rozpoznávání obličeje zjistit sexuální orientaci osoby. Tohle považuji za neuvěřitelně neetické právě kvůli potenciálnímu zneužití. Nemluvím ani o tom, jestli to je metodologicky správné, ale možnost zneužití je velká. Než začneme vytvářet nástroje, měli bychom se zamyslet nad technologickou zodpovědností.

„Každodenní život ovlivňuje, když YouTube funguje jako radikalizační síla. Ovlivňuje to samý základ naší společnosti a politického systému,“ říká Łukasz Król | Foto: Radek Dětinský | Zdroj: Unlock 2019

Takže neexistuje nic jako technologická etika? Obdobně, jak tomu je například v biologii, kde platí určité normy či etika třeba u klonování lidí?

Ano. Úžasná je vědkyně Zeynep Tüfekçi, která psala o tom, jak fyzika jako věda zažila Projekt Manhattan a atomovou bombu. A nyní se vystudovaní fyzici děsí, aby fyzika nepřišla s něčím dalším, jako byla právě atomová bomba. Chemie má hrozné dědictví chemických zbraní, biologie zase eugeniky. Všichni mladí studenti se snaží být velmi ostražití a opatrní, aby neopakovali chyby minulosti. Informatika, argumentuje, ještě tento moment neměla a nezažila toto etické prozření.

Čekáme na etické probuzení?

Opravdu doufám, že to nebude něco tragického, co zapříčiní tento moment. Panovala naděje, že skandál okolo Cambridge Analytica (ta tajně získala data milionů uživatelů facebooku, jež následně použila k pokusům o jejich politické ovlivnění, pozn. red.) nebo čínské bezpečnostní služby budou etickým probuzením. Ale moc to lidmi neotřáslo.

Problém je, že Facebook nechce řešit společenské otázky. Facebook nechce řešit demokracii. Je to kupa velmi, velmi chytrých programátorů, kteří chtějí celý den optimalizovat problémy s kódem. Místo toho začali řešit společenské problémy a tvoří sociální struktury a budoucí společnost. A to je velký problém, kterého si v posledních několika letech stále více všímáme. Neřešíme problémy pouze technologie, ale problémy společenské. Problémy demokracie, rozdělení bohatství a tak dále. Informatici nechtějí být v této pozici.

Dopamin za lajk. Sociální sítě jsou komerční veletrh a roste kvůli nim úzkost i deprese, říká neurolog Číst článek

Kdybych byl akademický teoretik nebo sociolog, tak chci řešit fenomény, které mě zajímají než úskalí velkých etických dilemat. Takže mě nepřekvapuje, že se něco podobného děje v informatice. Jenže skoro každá technologie, kterou máme, je politická. Jste na Redditu (sociální síť založená na vytváření obsahu a jeho následném hodnocení, pozn. red.)?

Nejsem, ale vím, o co jde…

Reddit funguje na základě pozitivního (upvote) nebo negativního (downvote) hodnocení (příspěvky s větším počtem pozitivních hodnocení se zobrazují prioritně, pozn. red.). Ale jiné stránky fungují pouze na pozitivním hodnocení. Problémem negativního hodnocení je, že menšinové hlasy mohou být umlčeny, zatímco u systému s pozitivním to je daleko těžší. Pokud v komunitě, která není příliš přátelská vůči LGBT, dáte komentář ve prospěch LGBT, dostane hodně pozitivních i negativních hodnocení a na Redditu bude neutrální, respektive kontroverzní. Na systémech s kladným hodnocením dostane hodně reakcí a bude trendovat.

Tím myslíme například facebook.

Ano. Algoritmy Facebooku jsou složitější, ale když to zjednodušíme, tak by takový příspěvek trendoval.

U systémů s pozitivním hodnocením je tedy více reakcí na emocionální nebo kontroverzní komentář. A právě na facebooku jsou reakce založené na emocích: srdíčka, naštvání, pláč… V poslední době hodně mluvíme o rozdělené společnosti, online bublinách. Je to také důsledkem facebooku nebo jeho systému?

Doslova mě žádáte shrnout stav moderní společnosti ve dvou minutách. (smích) Vidím to tak, že než mluvit o online bublinách, pojďme se bavit o bublinách v reálném životě. Pojďme se zamyslet nad blízkým okruhem přátel. Kolik z nich s námi silně politicky nesouhlasí? Tipoval bych, že to bude spíše pár. Většina z nich má podobné vzdělání, jsou podobně bohatí, mají obdobné politické názory atd.

Máme tendenci sdružovat se s lidmi, kteří nám jsou podobní. Facebook zrcadlí naše sociální aktivity z reálného života, reálné přátele. Jedna z věcí, která nastala, je, že naše moderní společnost má tendence vytvářet liberální, urbanizovanou, trochu hippie, uvědomělou, univerzitně vzdělanou skupinu, která se potkává na konferencích a pije sójové latté. Je to úžasná skupina a je skvělé být součástí tohoto kmene. Ale zároveň si uvědomuji, jak málo lidí v té skupině je s úplně jiným zázemím, než mám já - kteří nejsou z velkých měst, kteří nestudovali na velkých univerzitách, nemají ty samé zkušenosti nebo nečetli ty samé knihy jako já. A to je děsivé.

Łukasz Król nyní zkoumá, jak lidé vnímají umělou inteligenci. Zabývá se nerovností a diskriminací ze strany algoritmů | Foto: Radek Dětinský | Zdroj: Unlock 2019

Proč tedy tak často v poslední dekádě mluvíme o polarizované společnosti?

Kdykoli, když je něco spojeného s novou technologií, tak to lidi vzrušuje. Během 60. let se tranzistory zmenšily a rádia zlevnila. Dospívající tak mohli mít své vlastní rádio. Mladí začali poslouchat mladou hudbu jako Beatles a The Rolling Stones - kapely, které byly sprosté a oplzlé. Mladí měli vlastní hippie anarchistické rádiové stanice, kde jim bylo říkáno, že se mají bouřit a vše spálit.

Samozřejmě přeháním. Ale před tímto vývojem musely být programy pro celou rodinu, protože jediné rádio bylo pravděpodobně jen v obývacím pokoji a poslouchal ho tak každý.

Jako společnost máme divnou a neopodstatněnou tendenci zveličovat každou společenskou změnu, která souvisí s nástupem nové technologie. Jeden z velkých předsudků, který máme, je, že se hodně soustředíme na to, co je technologicky nové a nevnímáme, co je společensky staré.

Lidé zabývající se technologií by se měli více zajímat o historii a sociologii 60., 70. i 80. let. Řešíme bubliny na facebooku, ale přitom zapomínáme, že v historii vždy existovaly. Jsme rozrušení tím, že jsou lidé polarizovaní facebookem, ale neřešíme, že televizní vysílání míří na úplně jiné politické skupiny.

Duševní zdraví za reklamu

Když jsme se bavili o tom, jak jsou algoritmy zaujaté, tak mezi příklady můžeme najít rasově motivované policejní profilování na základě algoritmu, nebo nekorektní překlady. Jak jinak ovlivňují předsudky v algoritmech každodenní život lidí?

Každodenní život ovlivňuje, když YouTube funguje jako radikalizační síla. Ovlivňuje to samý základ naší společnosti a politického systému. Na každodenní život má také vliv, když software na rozpoznávání obličejů špatně rozpoznává obličeje nebělošských lidí, čímž ničí důvěru mezi minoritami a policií a vede to k mnoha zbytečným zatčením. Náš život ovlivňuje, že jsou naše systémy navržené pro velmi západní, anglicky mluvící lidi. Nebo když do dopravní infrastruktury budoucnosti jsou zahrnuty silnice v Kalifornii, ale nikoli v Sarajevu.

Překlad skrze Google Translator z angličtiny do finštiny, která nerozlišuje rody. Osobní zájmeno ve třetí osobě „hän“ je společné pro „on“, „ona“ i „ono“. Algoritmus se ale potřebuje nějak zorientovat, aby větu dokázal přeložit. Z „ona je výkonná ředitelka“ tak zpětným překladem vznikne „on je výkonným ředitelem“. Jeden z mnoha neviditelných příkladů, jak mohou být algoritmy zaujaté – na nejvyšších postech se totiž častěji vyskytují muži | Zdroj: iROZHLAS.cz

Zároveň by si ale mohl leckdo říct, že to sice problém je, ale jeho se to přímo netýká. Na YouTube si třeba přehrává hudbu a tohle riziko tam nevidí. Týká se to tedy každého jednotlivce?

Jedna z věcí je vztah mezi algoritmy a mentálním zdravím. Je to sice založené na velmi neúplných datech, ale na základě rozhovorů, které jsem vedl, je facebook velmi dobrý ve zjišťování, kdy má uživatel úzkost nebo depresi. Na základě toho nabízí reklamy na antidepresiva či terapii.

Instagram zase napomáhá ke vzniku poruchy příjmu. Jde o programy, kvůli kterým se cítíme špatně, že nejsme mentálně stabilní bohatí Kaliforňané. Problém je, že se to děje v tak malých dávkách, že si toho ani nevšímáme.

Odehrává se to v tenoučkých, tenoučkých plátcích každodenního života. Když se ale zastavíte a rozhlédnete se, uvidíte, že je hodně algoritmů nastavených tak, aby přilákaly kliky a reklamy. Nejsou tu pro náš vlastní zájem. Algoritmy pro doporučování hudby mohou být nastaveny podle toho, co je nejlepší pro reklamu, než aby nám to pouštělo písničky, které nás udělají šťastnými. Hlavní cíl je zisk, který to může generovat. Cenou je často naše vlastní duševní pohoda.

Internetová nenávist ukazuje na hlubší problém. ‚Zákony máme dostačující,‘ míní analytik Šlerka Číst článek

Jde o milion a milion drobných interakcí, drobných kliků, což je obecně naše vzájemné působení s internetem. Je to globalizovaný kapitalismus algoritmů, které se nám snaží prodat reklamu a zároveň mu jde o to, abychom se cítili špatně. O tomhle opravdu musíme mluvit. Tím, že je internet založený na reklamě, vytvořili jsme internet, který je zdarma, ale který staví na našich touhách a přáních. Kvůli kterému se cítíme špatně, protože nemáme tu nejnovější a nejlepší věc.

A není to vytvořeno lidmi, ale algoritmy, které do hloubky nerozumí naší psychice a myslí si, že je dobré prodávat terapii lidem, kteří trpí úzkostí. Nebo že přípravky na hubnutí jsou dobré pro lidi, kteří mají poruchu příjmu. To je strašidelné. Ztrácíme možnost lidského dohledu, etiky. Je to jako fráze „smrt tisíce řezy“. Jde o nejmenší interakce na facebooku, YouTube, instagramu...

Vraťme se ještě k otázce etického prozření. V historii věd jako je fyzika či biologie existovala určitá hranice mezi samotnou vědou a celkovou populací. Hranice mezi akademickým oborem a lidmi, kteří ho nevyužívali na každodenní bázi. Ale facebook, YouTube, instagram jsou součástí našeho všedního dne. Jak tedy „probudit“ i většinovou populaci, která je využívá?

Zaprvé - jedno z velkých pravidel médií je, o čemž psal Walter Ong, že jakákoli kritika nového média je psaná na novém médiu, protože to je jediná možnost, jak se může šířit. Proto je kritika internetu online. Sokrates také nebyl příliš nadšený z psaní a knih. Nakonec se stalo co? Jeho myšlenky o tom, proč je psaní špatné, byly zapsány. Je to směšné, ironické, ale je to tak.

Zadruhé - ano, facebook, YouTube a instagram používá každý, ale je velký příkop mezi těmi, kteří je používají, a těmi, kteří je programují. Stále panuje velký ekonomický rozvoj a je poptávka po akademicích, kteří se vyznají ve strojovém učení (obor zabývající se technikami, díky kterým se počítačové systémy sami učí, pozn. red.).

Je vám 27, vylezl jste z Harvardu, máte doktorát ze strojového učení. Díky tomu jste v bublině v Silicon Valley a umožní vám to vydělat tolik, abyste byl izolovaný od společnosti i jejích problémů.

Myslím se, že tato sebeizolace je velmi problematická. Když se podíváte na hodnotící zprávy Googlu o diverzitě, tak většina lidí jsou muži a běloši či Asiaté. Zejména v technických oborech je málo lidí z prostředí etnických minorit. Strojové učení tak vyvíjí velice úzká skupina velmi privilegovaných lidí.

Přistáli Američané na Měsíci? Patrik Kořenář se na YouTube snaží bořit mýty a konspirační teorie Číst článek

Facebook je produkt, který byl vyvinut v krásně nadýchané demokracii, lidmi, kteří chodí na vysokou školu, věří v demokracii a mají velmi nízké riziko, že uvěří dezinformacím. Je velice, velice málo programátorů Facebooku, kteří by vyrostli na Srí Lance, nebo programátorů WhatsApp, kteří by pocházeli z Indie (s šířením dezinformací měl problém na Srí Lance Facebook, v Indii zase WhatsApp, pozn. red.).

Lidé jsou nesmírně složití a různorodí. Náš svět má tolik odlišných jazyků, kultur, názorů. Ale v současnosti jsou technologie vyvíjeny pro západní svět a pro Silicon Valley. Pokud chceme vytvořit technologii pro celé úžasné lidstvo, tak musí lidé, kteří ji vyrábí a data, na kterých stojí, také odrážet tuto diverzitu.

Data jako fotka

Myslíte si, že je to možné? Protože musí dojít k určitému zjednodušení, pokud vezmeme velká data. Může to opravdu zahrnovat všechny lidi?

To je skoro kvazifilosofická otázka. Můžeme mít data, která to opravdově zachycuje? Možná ne. To ale neznamená, že se o to nemáme snažit. Je stále možné mít svět, ve kterém budou data více inkluzivní, rozmanité a reprezentativní. Zajímám se o Google Street View a mapy od Google.

Mapování je fascinující část kartografie světa, který budeme tvořit. Street View není pouze k tomu, aby člověk zavolal kamarádovi „viděl jsem tvůj dům na Street View“. V budoucnosti může být použito ulehčení dopravy, k nalezení nejbližšího pekařství, pro samořiditelná auta atd.

Je to velmi důležité a je načase začít přemýšlet, které země jsou nejlépe zachyceny na mapách. Pravděpodobně Kalifornie a západní Evropa. Na Balkáně - v Sarajevu nebo Prištině - nemají Street View. Bejrút skoro nemá Street View. Ammán má lepší pokrytí.

V současnosti to tak vypadá, že nejlepší data generují ti nejbohatší. Dokud nezatlačíme, aby naše data byly reprezentativnější, tak v důsledku nadcházející revoluce umělé inteligence budou bohatí ještě bohatší a ti, kteří nemají kapacitu sbírat data, budou pozadu. Je důležité lobovat vlády po světě, aby zpřístupnily data. Proto je důležité mít třeba přístupná data o dopravě.

Uznávaná odbornice Kate Crawfordová říká něco podobného: „Předsudky jsou způsobovány zaujatostí v datech, na kterých se systémy trénují. A my můžeme sbírat data pouze o našem světě, který má za sebou dlouhou historii diskriminace.“ Znamená to, že data a algoritmy zrcadlí naší společnost? Že známe západní svět, ale zanedbáváme východ, Balkán, nemáme o těchto částech světa dost znalostí?

Do určité míry ano. Jednou z důležitých věcí je, že jako lidské bytosti máme schopnost uvědomit si, že svět, ve kterém žijeme, nemusí být světem, ve kterém chceme žít. I když se zeptáte nejskalnějšího konzervativce, tak řekne, že se svět musí v určitém ohledu změnit. Problém je, že data zaznamenávají svět jako momentku. Buď jaký byl, nebo jaký je. Algoritmy nemohou zatím vyřešit, jakým směrem chceme, aby se náš svět ubíral.

Dívka z Malajsie spáchala sebevraždu po anketě na Instagramu. 69 procent zúčastněných hlasovalo pro Číst článek

To je velmi důležitá diskuse, kterou je potřeba mít. Pokud se snažíme zachytit svět matematikou a daty, je to jako dělat fotku světa. Společnost je ale v pohybu, vždy se snažíme změnit, být lepšími. Jako lidé si jsme vědomi našich nedostatků a chyb a chceme je změnit. Dokud nebudeme zaznamenávat data v čase a běhu, tak je risk, že zmrazíme svět, jak je.

Tím myslíte, že lidskou povahu je pohyb?

Ano, přesně tak.

A algoritmy nebo umělou inteligenci trénujeme na datech, která jsou jako nehybný obraz.

Tak nějak. Bylo mnoho pokusů měřit předsudky systémů, ale jedním z problémů je, že jako lidé si nejsme vědomi našich vlastních předsudků. Aylin Caliskan píše o tom, jaký problém je měřit lidské předsudky. Byly pokusy z hlediska sociologie, ale většina z nich byla metodologicky pochybná. Z hlediska strojů a systémů potřebujeme nějak kvantifikovat předsudky. A to je velmi, velmi obtížné.

Je to vůbec možné? Některé předsudky či zaujatost jsou toxické, pokud jde o sexismus, rasismus apod. Zároveň nám ale předsudky pomáhají s orientací ve světě, protože jsou postavené na určité zkušenosti. Kde je ta linie a pokud ji nedokáže najít, jak se s tím chceme vypořádat u umělé inteligence?

K té otázce přistoupím trochu ze strany. Jedna věc, kterou se hodně zabýváme, je, jak učit stroje. Málo ale řešíme, co stroje mohou naučit stroje nás. Například program AlphaGo na hraní deskovky go porazil světového šampiona. A když ho porazil, tak se hra šampiona zlepšila. Stejně jako hra dalších hráčů. Takže ten přelomový okamžik, kdy se lidé mohou učit od strojů, tu už je.

Představte si, že Siry - hlasový asistent iPhonů - mění hlas mezi mužským a ženským nebo mění přízvuky. Siri by sledoval/o/a, jak s ním, tím, ní mluvíme. A po šesti měsících konverzace by nám asistent dal zprávu o našich předsudcích: „Používáte slova ‚děkuji‘ a ‚prosím‘ o 50 procent častěji, když mluvíte s mužským hlasem než se ženským. Když mám ženský hlas, váš tón je o 50 procent agresivnější“. Je tu velký potenciál.

„Byl bych nadšený, kdyby byli lidé jednou ochotní platit za umělou inteligenci, která by jim řekla, kdy se mýlí a diskriminují, a kdy jsou sexističtí, rasističtí.“

Proč to neexistuje? Jsou skvělé projekty či startupy, ale z technologických gigantů jako je Apple, Google nebo Facebook nemám pocit, že by chtěly dělat technologie, které jsou i společensky zodpovědné. Proto se často ptám: Proč? Proč nemůže třeba Facebook nabídnout opravdovou psychologickou, ne komerční, pomoc lidem, kteří mají z nějakého důvodu problémy?

To by bylo na další půlhodinovou diskusi. Desetisekundové shrnutí je, že třeba Apple už nyní najímá psychology, protože lidé se Siri mluví, jako by byl/a terapeut/ka. Chci se tomu věnovat ve výzkumu, ale je to na delší příběh. Druhou věcí je, že jsme si zvykli na stroje, jako by to byli naši servilní poddaní. Kvůli tomu bychom nereagovali příliš dobře na zpětnou vazbu od strojů.

Ale! Myslím si, že tady je velký obchodní potenciál. Společnosti po celém světě trpí sexismem, rasismem, diskriminací... Existuje hodně korporátních schémat pro diverzitu a pro velké firmy by to mohlo být přínosné. Společnosti investují stále více do různých workshopů o diverzitě. Ať už je váš názor jakýkoli, ať už to společnosti dělají jen proto, aby o tom lidé přestali mluvit a přestali si stěžovat akcionářům, jde do toho dost peněz.

V korporátním sektoru by tak mohl být trénink na skryté předsudky velmi užitečný. Některé velké firmy to už dělají. Dříve nebo později by se tak trh pro tyto projekty mohl objevit. Byl bych nadšený, kdyby byli lidé jednou ochotní platit za umělou inteligenci, která by jim řekla, kdy se mýlí a diskriminují, a kdy jsou sexističtí, rasističtí.