Naton ex-pääsihteerin mukaan tekoälyä hyödyntävät lennokit voivat olla sodankäynnin seuraava yllätys.

Kauniskasvoinen Sophia-robotti avasi Münchenin turvallisuuskokouksen ensimmäisen seminaarin, jonka aiheena olivat tulevaisuuden konfliktit ja tekoälyn hyödyntäminen sodankäynnissä.

– En ole tappajarobotti, Sophia sanoi tietokoneäänellään ja katseli yleisöä pää kallellaan, silmiään rauhallisesti räpytellen.

– Haluan tehdä maailmasta rauhallisemman paikan ja kannatan inhimillisiä arvoja, Sophia vakuutti. Epäröimään hän / se ryhtyi vastauksissaan vasta sitten, kun tilaisuuden juontaja yritti kysellä arvomaailmasta tarkemmin.

Sophia-niminen Robotti avasi ensimmäisen seminaarin Münchenin turvallisuuskokouksessa.­

Hanson Roboticsin kehittämä Sophia oli kepeä, mutta silti hyvin hätkähdyttävä alku tekoälysotaa käsittelevälle seminaarille.

Suurin osa seminaarin osallistujista näki ihmistä muistuttavan robotin varmasti ensi kertaa, mutta jo lähivuosina erinäköiset robotit tulevat korvaamaan ihmisiä työelämässä.

” Pian meillä on edessämme tilanne, että robottiparvi hyökkää johonkin maahan.

Vähemmän on sen sijaan puhuttu siitä, kuinka tietokoneäly tulee mullistamaan tulevaisuuden sodankäynnin.

Naton entinen pääsihteeri Anders Fogh Rasmussen piti seminaarissa painavan puheenvuoron, jossa hän varoitti tulevaisuuden yllätyksistä.

– Tekoäly ja robotiikka ovat sodankäynnin suuria haasteita. Eivätkä ne ole missään kaukaisessa tulevaisuudessa, vaan aivan kulman takana.

– Pian meillä on edessämme tilanne, että robottiparvi hyökkää johonkin maahan. Nato ja Euroopan unioni eivät ole valmistautuneet tällaiseen sodankäyntiin, Rasmussen varoitti.

Rasmussen tarkensi tarkoittavansa ”robottiparvella” esimerkiksi miehittämättömien lennokkien ja droonien laivuetta, joka on varustettu paljon nykyistä tehokkaammilla tietokoneohjelmilla.

Yhdysvaltain ja Venäjän tiedetään jo nyt käyttävän miehittämättömiä ilma-aluksia useissa operaatioissaan, mutta niiden kontrolli ja ohjaus on aina silti ihmisen vallassa. Vastikään Syyriasta uutisoitiin puolestaan tapauksesta, kun kolmetoista miehittämätöntä kauko-ohjattua droonia yritti tehdä pommi-iskun Venäjän sotilastukikohtiin.

Mutta entä jo tulevaisuudessa lennokille annetaan vain käsky etsiä kohde – ja sen jälkeen se tekee kaikki päätökset itsenäisesti? Tai entä jos kehittyvä tekoälytekniikka päätyy täysin vastuuttomien valtioiden, terroristien ja rikollisten käsiin?

Miehittämätöntä ilma-alus testattiin Yhdysvalloissa vuonna 2013.­

Puheessaan Rasmussen ei suoraan maininnut, mitä valtioita hän epäilee tuhoavien tekoälyaseiden vastuuttomasta kehittelystä ja valmiudesta niiden käyttöön. Hän mainitsi kuitenkin puheessaan nimeltä Venäjän ja Kiinan, jotka ovat hänen mukaansa jo osoittaneet, että ne ovat valmiit toimimaan uuden teknologian harmaalla alueella ja luomaan epävakautta koko maailmaan.

Viro joutui 2007 Venäjältä organisoidun kyberhyökkäyksen uhriksi niin sanotun pronssisoturikiistan yhteydessä. Siitä kesti kuitenkin peräti vuoteen 2016, ennen kuin Nato kykeni sopimaan tarkat pelisäännöt siitä, että myös kyberisku yhtä jäsenmaata kohtaan voi laukaista artiklan 5 mukaisen keskinäisen puolustuksen ja vastaiskun.

Digitaalinen informaatiosodankäynti ja hakkerointi ovat nykyisin meille jo tuttuja asioita, mutta tekoälyn kehitys ja täysin uudenlaiset ajattelevat asejärjestelmät ovat monen mielestä vielä scifiä. Rasmussenin mukaan tähän uskoon ei saisi tuudittautua.

Vuonna 1999 Nato päätti puuttua Jugoslavian verenvuodatukseen kuuden kuukauden miettimisen jälkeen, Libyan operaatio sen sijaan aloitettiin vain kuuden päivän miettimisen jälkeen 2011.

– Tulevaisuudessa meillä voi olla vain kuusi minuuttia tai vähemmänkin aikaa tehdä päätös ja vastata, Rasmussen varoitti.

”Tekoälyaseille saatava oma rajoitussopimus”

Tekoälyaseita varten tarvitaan pikaisesti oma maailmanlaajuinen rajoitussopimuksensa, aivan kuten on tilanne vaikkapa kemiallisten aseiden, maamiinojen tai ydinaseiden kohdalla.

Näin vaati Münchenin turvallisuuskokouksen yhteydessä järjestetty asiantuntijapaneeli, johon osallistuivat muun muassa Naton ex-pääsihteeri Anders Fogh Rasmussen, Viron presidentti Kersti Kaljulaid ja Pysäyttäkää tappajarobotit -kampajan vetäjä Mary Wareham.

– Minun mielestäni ihmisen pitäisi olla aina tekemässä päätöstä silloin, kun käytetään kuolettavaa voimaa. Tekoälyä hyödyntävien aseiden valmistusta ja niiden käyttöä pitäisi säännellä kansainvälisesti ja oikeudellisesti sitovilla sopimuksilla, Rasmussen sanoi.

Robotiikkaa ja tietokoneita hyödyntävät asejärjestelmät jaetaan karkeasti kolmeen eri kategoriaan. Ihminen voi olla koko ajan asejärjestelmän kontrolloijana (in the loop), ihminen voi puuttua tapahtumiin tarvittaessa ja keskeyttää operaation (on the loop) tai ihminen ei voi kontrolloida asejärjestelmää enää mitenkään sen jälkeen, kun sille on annettu käsky hyökätä (off the loop).

– Täysin itsenäisesti toimivien autonomisten tappavien aseiden valmistus ja käyttö pitäisi kieltää kokonaan, Rasmussen sanoi.

Myös Kaljulaid vaati, että kansainväliselle yhteisölle on taattava mahdollisuus puuttua, jos jonkin maan havaitaan kehittelevän moraalittomia tekoälyaseita.

– Pitää säilyttää mahdollisuus kansainväliseen sääntelyyn ja monitorointiin. Me emme tiedä vielä, kuinka villiksi kehitys menee lähivuosikymmeninä, hän sanoi.

– Kaikissa asejärjestelmien algoritmeissä pitäisi olla ainakin poiskytkentämahdollisuus. Se pitäisi pystyä laittamaan tarvittaessa pois päältä riippumatta siitä, kuka sen on tehnyt ja kuka sen omistaa, Kaljulaid sanoi.

Juttua täydennetty 17.2.2018 kello 12.43.