2. 11. 2017

Abych ukázal, proč je článek špatně pojatý, je třeba nejdřív pochopit způsob, jakým umělá inteligence funguje a především definovat, co to vůbec je, popřípadě co umělá inteligence není. Nebojte, nebudu Vás nudit, píše Drahomír Strouhal.

První krok, který nastal už před dávnou dobou, bylo vytváření programu, který umožňoval plnit úkoly dle sekvence příkazů. Je jedno, jestli jde o Vaši kalkulačku, nebo operační systém kombinovaný s analýzou obrazu, který ve spojení s databází Googlu dokáže otočit předmětem a vyvrtat do něj díru. V tomto případě nejde o umělou inteligenci. Je to robot, v případě pouhého softwaru pak jenom “bot”.

Při jeho tvorbě musíme vytvořit každý příkaz a očekávat každou situaci, která nastane. Pokud nastane nepředpokládaná situace, bot se zastaví, popřípadě odstaví a zahlásí chybu. Vzhledem k tomu, že víte, jak bot funguje, chybu máte možnost dohledat, opravit a celý systém nechat pokračovat v činnosti.

U umělé inteligence ale tohle neplatí. Pojem inteligence momentálně programátoři spojují nejvíce s neuronovými sítěmi. Vy je máte v hlavě a počítač je má vytvořené ve své paměti jako paměťové buňky. Programátor dodá operační systém, zadá organizaci oněch paměťových buněk a způsob jejich komunikace. Pak se neuronům, které jsou na vstupu takové sítě, zadá například nějaká fotka, třeba psa.

Neuronová síť může mít na na svém výstupu například výpis textu. Její první pokusy budou nesmělé. Obrázek bude popisovat shlukem znaků. Když jí ale budete dávat další a další pokusy a dáte jí k ruce bota, který jí bude říkat, jestli uhádla nebo ne, časem se dobere k tomu, že identifikuje psa na daném obrázku. Pak vyměníte obrázek a dáte tam jiného psa.

Neuronová síť bude hádat a hádat a učit se. Zapamatuje si kontury, které si spojí s nějakým výstupem a na základě toho dokáže něco identifikovat. Na rozdíl od člověka je to však stále jen stroj. Tyto virtuální neurony totiž ani v celku nedokáží nikdy pochopit smysl toho, co dělají. Jediné, na čem jim záleží, je fakt, že dostanou informaci o správnosti jejich rozhodnutí a tento fakt si pamatují.

Důsledky jsou následující:



Neuronové sítě jsou jen tak chytré, jak moc a jakými daty je zásobujeme. Momentálně neexistuje způsob, jak analyzovat průchod dat skrz neuronovou síť tak efektivně, abychom odhalili chybu v reálném čase a plně ji pochopili. Pokud narušíme jednotlivé buňky neuronové sítě, dojde ke globálnímu zkreslení chování sítě až k poškozeným výsledkům.

Nyní zpět k článku.

Svět nepřijde o prospěch z AI. To je první nesmysl, který je tam napsán. To bychom totiž museli vypnout internet, zakázat vývoj neuronových sítí pod tvrdým trestem, ale hlavně to zakázat všem vládám na světě. Jaderné bomby v silech mi přijdou jako reálnější hrozba a přitom je má spousta vlád. Další spousta států má jaderné elektrárny. Světová populace je ostře proti házení atomovek do placu, ale tyhle zbraně jsou tu s námi a z uranu děláme elektrický proud.



Neuronové sítě jsou ale přitom mnohem přístupnější. Neexistuje žádný způsob, jak zabránit jejich vývoji.

Ano, přechod odborníků do soukromého sektoru dočasně škodí. Škodil i v době vývoje procesorů. Přesto se o procesorech na školách učí a již desítky let se vyrábějí stále lepší. Na světě je asi tak pět lidí, kteří ví, jak procesor funguje. Není to způsobené tím, že by jejich konstrukce byla tajena. Koneckonců všechny patenty a průmyslové vzory jsou veřejné. Tím zároveň odpovídám na třetí bod.

Čtvrtý bod je pak nejednoznačný. Má problém s malou diverzitou nebo s velkou diverzitou? Pokud má někdo problém s velkou diverzitou, kroutím nechápavě hlavou. Pokud někdo tvrdí, že diverzita je malá, pak mu budu tvrdit, že denodenně se zvyšuje počet aplikací, kde se neuronové sítě používají. Mimochodem používáte Google Translate? Tato webová aplikace používá neuronovou síť.

Pokud jde o nasazení norem, je to nesmysl. Jak jsem psal výše, vzhledem k povaze tvorby umělé inteligence prostě nevíte, co se vevnitř děje. Jak chcete znormovat něco, co nedokážete popsat? Vytvoření ISO na správnou hranu křížového šroubováku nebo evropskou směrnici o zelí nebo okurkách je jednoduchý proces. Ale tady se bavíme o procesech podobných tomu, co se nám děje v hlavě. Položte si laskavě otázku, zda chcete zavést normu na to, jak se chovají neurony a jestli je to vůbec možné.

Pokud bychom se bavili o tom, jak se má stroj chovat, tento problém byl dávno vyřešen. Řešení má název: “Asimovovy zákony robotiky”. Je ale důležité uvědomit si, že přes nasazování do praxe je rozvoj v tomto oboru stále výzkumem. Dokud se nevyřeší ochrana lidského života, nikdy nebude umělá inteligence komerčně nasazena tak, aby mohla člověku přímo škodit.

Pokud jde o armády a teroristy, je taky zakázané odpalovat bomby na nádražích a nevšiml jsem si, že by jim to nějak překáželo - jak jedněm, tak druhým.

Co se týče oněch příkladů, které byly uvedeny na závěr a které mne přiměly napsat tuto reakci…





Onen kecálek Tay, který byl nucen Microsoft vypnout kvůli urážení ostatních ras, zpracovával to, co mu napsali jeho uživatelé. Nikomu neublížil. Microsoft se poučil a momentálně řeší, jak implementovat etická pravidla. Kdyby se učil na čtenářích Briských Listů, tak by psal, jak nesnáší Babiše a miluje uprchlíky. Kdyby se učil na uživatelích Parlamentních Listů, psal by úplně něco jiného. Ten pokus ale nebyl selháním. Byl to milník ve vývoji umělé inteligence.

Stejně tak technologie rozpoznávání je zatížena vzorkem dat, na kterém se pracuje. Doufám, že jsem výše dostatečně popsal princip, na jakém to funguje. Jde prostě o to, že když vezmu fotky pana Čulíka a předhodím je neuronové síti a řeknu jí, že to jsou fotky člověka, je velmi nepravděpodobné, že uzná fotky někoho jiného jako lidské. Ale to není problém umělé inteligence jako takové. To je především vina toho, kdo ji učí. Často to není ani problém programátora, ale právě úředníka, který do systému sype data. Chcete normy? Udělejte normu na vstupní data.

Co se týče onoho automobilu Tesla, hlavní vina byla na tom řidiči a prodejci, který mu namluvil, že auto umí řídit samo. To ale vůbec není pravda. Schopnosti Tesel v té době byly na úrovni kombinace navigace, adaptivního tempomatu a systému na hlídání pruhů, což je technologie, která je využitelná maximálně na dálnicích. V podmínkách nákupu přitom jasně stojí, že se řidič má celou dobu věnovat řízení, i když předá kontrolu vozidlu. I když to možná zní příliš tvrdě, ten člověk se zabil sám.

Samozřejmě svádění sociálních bublin na umělou inteligenci může být pohodlné. Otázkou je, jestli lze vůbec tohle umělé inteligenci přičíst na vrub. Aby jste přesvědčili člověka změnit názor, musíte mu zkazit den nebo vylepšit den podle potřeby a pak jej zahrnout fakty, které už samotné nehrají takovou roli, ale slouží jako skvělá opora pro autoargumentaci. Tady skutečně umělou inteligenci nepotřebujete. Na spamování uživatelů na internetu Vám budou bohatě stačit boti.

Informační závody ve zbrojení na ovlivnění populace spočívají především ve shromáždění informací o co největším počtu cílů a pak jim podsouvat ty správné články. Víte, jaké technologie se na to používají? Zvědavost. Neříkejte, že jste nenarazili na ty nekončící posty svých kamarádů, kteří vám do profilu neustále spamují, jak budou vypadat za třicet let, nebo kterým hercem by byli, kdyby byli slavní. Takhle se sbírají informace. Říká se tomu sociální inženýrství.

Co se týče posledního odstavce, to je asi to nejhorší, čím můžete strašit. Technologické startupy tu fungují prakticky půl století. Zatím žádný nezpůsobil, že by došlo k fatální devastaci zaměstnanecké struktury. Naopak. Když se zavedl mezi lidmi Paypal, nezhroutilo se bankovnictví, ale investoři mohli vytvořit doslova nový obor - plně civilní raketový výzkum nezávislý na armádě. Když se vytvoří automatizovaná doprava, pak všichni zaměstnanci, kteří dnes a denně přejíždějí sem a tam, budou moci přejít na místa, kde bude skutečná produkce. Žijeme ve světě automatizace, ale přesto máme nedostatek pracovních sil.

Celý strach kolem vývoje ekonomiky blízké budoucnosti totiž není problémem umělé inteligence, jež je stále pouhým nástrojem, jako je kladivo nebo pero. Ten strach je kolem investorů, že nebudou vracet nabyté investice zpět do ekonomiky, jako to třeba dělá nyní Apple, který syslí obrovské zásoby dolarů na svých účtech a uvolňuje je jen do nezbytných investic. Bojme se spíš investorů, kteří uloží své zisky na Kypru a nevrací peníze zpět do ekonomiky.

Umělá inteligence je skvělý nástroj, který dá lidem netušené možnosti. Umožní lidem pracovat, aniž by museli dřít. Člověk vždy bude vykonávat kontrolní činnost a to bude jeho práce. Pokud se totiž spolehneme na umělou inteligenci zcela ve všem, dopadneme jako ten nebožák v Tesle. Začněme vždy tím, že si přečteme návod k použití. Stroje jsou totiž vždy jen tak chytré, jak jsme chytří my sami.