Lentoyhtiö United Airlines poisti väkipakolla matkustajan koneestaan keväällä Chicagon O’Haran lentokentällä. Video siitä, kuinka ruhjottu lääkärimies raahattiin ulos koneesta, levisi maailmalle.

Matkustajia täynnä olevaan koneeseen piti tehdä tilaa neljälle Unitedin työntekijälle, jotta seuraavana päivän Louisvillestä lähdössä ollut kone pääsisi matkaan aikataulussa.

United ilmoitti, että neljän matkustajan on luovuttava paikastaan lennolla. Hyvitykseksi paikastaan luopunut matkustaja saisi 800 dollaria.

Yksikään matkustaja ei ilmoittautunut vapaaehtoiseksi.

Lopulta lentokenttäpoliisit raahasivat verisen miehen koneesta ulos. Tekoon päädyttiin ilman yhtäkään inhimillistä päätöstä lentoyhtiön puolelta.

Kaiken päätti algoritmi eli mekaaninen laskumenetelmä.

Ensin yhtiön työaikoja valvova algoritmi päätti, että koneeseen pitää saada yhtiön työntekijät. Sitten toinen algoritmi laski vapaaehtoisesti poistuville matkustajille maksettavan hyvityksen. Kun vapaaehtoisia lähtijöitä ei ilmaantunut, seuraava algoritmi selvitti kanta-asiakkuuksien ja lipuista maksettujen hintojen perusteella, ketkä ovat yhtiölle vähiten arvokkaita matkustajia.

Kolme neljästä nimetystä poistui lennolta ilman vastarintaa. Yksi matkustaja, 69-vuotias mieslääkäri, ei kuitenkaan suostunut jättämään paikkaansa. Hänet raahattiin ulos väkisin.

Siis vielä kerran: yhtään päätöstä ei tehnyt ihminen. Eikä yhdessäkään päätöksessä ollut inhimillistä neuvotteluvaraa.

Ulkoistettua ajattelua

Algoritmit ovat nivoutuneet osaksi jokapäiväistä elämäämme. Ne kertovat meille ensimmäisenä aamulla, miten maailma makaa ja toivottavat meille viimeisenä illalla hyvät yöt.

Algoritmit määrittelevät mitä hakutuloksia saamme Googlesta, mitä julkaisuja näemme Facebookissa, mitä ohjelmia Yle Areena tai Netflix meille suosittelevat ja mitä verkkokaupat meille mainostavat. Ne käyvät pörssikauppaa, kirjoittavat uutisia ja seulovat työhakemuksia. Algoritmit vertailevat palveluita, ennustavat vaalituloksia ja päättelevät terveydentilamme. Ja pian ne ohjaavat autojamme.

Datan määrän kasvun myötä algoritmeista on tullut korvaamattomia. Ne väsymättä rouskuttavat tietoa ja sylkevät ulos tuloksia. Olemme ulkoistaneet ajattelun niille.

Yksinkertaistetusti algoritmi on tietokoneelle annettava sarja ohjeita. Se on vaihe vaiheelta läpikäytävä lista, jota kone noudattaa orjallisesti. Algoritmilla ei ole yhtä oikeaa lopputulosta. Se on vain tapa ratkaista ongelma.

Esimerkiksi aamukahvien keittämisen algoritmi olisi seuraava:

Mene keittiöön, ota kahvipannu kaapista, täytä pannu vedellä, kaada vesi kahvinkeittimeen, aseta kahvipannu keittimeen, ota suodatinpussi kaapista, laita suodatinpussi keittimeen, annostele kahvi suodatinpussiin, sulje kansi, laita kahvinkeitin päälle.

Algoritmi ei määrittele kahvin paahtoastetta, papujen jauhatusta tai suodatinpussien laatua. Lopputuloksena on aina kahvia, mutta juotavuudessa voi olla eroja.

Algoritmia kiinnostaa seuraus, ei syy

Tämä on yksi algoritmien ongelma. Ne esitetään matemaattisen neutraaleina, arvovapaina ja puolueettomina. Algoritmit kuitenkin sisältävät aina tekijöidensä oletuksia. Halutaanko aamulla vahvaa kahvia vai teetä muistuttavaa litkua.

Kun yliopistoja paremmuusjärjestykseen laittava algoritmi vertailee tieteellisten julkaisujen määriä, sisäänpääsyprosentteja, valmistusaikoja, valmistuneiden työuria, algoritmin tekijät olettavat, että nämä seikat kuvaavat parhaiten yliopistojen menestymistä. Tulos voisi olla toinen, jos huomioon otettaisiin myös koulun käyttämät määrärahat per opiskelija tai opiskelijoiden taustat.

Kun tekoäly koluaa työnhakijan ansioluetteloa ja tarkastaa tämän luottotiedot, työnantaja on arvottanut nämä seikat tärkeiksi.

Usein algoritmit joutuvat muodostamaan vastauksen kysymykseen aineistosta, joka ei suoraan tarjoa ratkaisua. Siksi hyvän työntekijän mittariksi valikoituu sellaisia asioita kuin luottotiedot. Se, että ihminen maksaa laskunsa ajallaan, ei suoraan tee hänestä hyvää työntekijää. Yhdistettynä muihin mittareihin luottotietojen kuitenkin katsotaan muodostavan uskottavan kuvan ihmisestä työntekijänä.

Algoritmi ei kysy, miksi ihminen on menettänyt luottotietonsa. Kun se on saanut tiedon, algoritmi jatkaa eteenpäin.

Vastauksia pimeästä laatikosta

Ongelmia syntyy, kun algoritmien mekanismeja ei paljasteta. Tästä kehityksestä on huolissaan Googlen tekoälypomo John Giannandrea. Kun algoritmit suljetaan pimeisiin laatikoihin liikesalaisuuksiin vedoten, niiden tuottamia ratkaisuja on mahdotonta arvioida.

– Jos joku yrittää myydä sinulle mustassa laatikossa olevaa järjestelmää lääkinnällisten päätösten tueksi, etkä tiedä miten se toimii tai mitä dataa sen kehittämiseen on käytetty, niin minä en luottaisi siihen, Giannandrea sanoi syksyllä San Franciscossa järjestetyssä tekoälykonferenssissa Techology Review’n mukaan (siirryt toiseen palveluun).

Valtavista aineistoista tietoa ammentavien tekoälyjen toimintaperiaatteet ovat niin monimutkaisia, että pienikin pala syrjivää dataa voi saastuttaa koko järjestelmän.

Giannandrea uskoo, että ennakkoluuloiset algoritmit nousevat isoimmaksi kysymykseksi tekoälyn ja koneoppimisen saralla.

Algoritmit toistavat meidän ennakkoluulojamme

Oman haasteensa ongelmaan tuo se, kun algoritmit leviävät uusille aloille esimerkiksi lääke- tai oikeustieteeseen. Mitä enemmän ja mitä kokemattomampien ihmisten toimesta algoritmeja kirjoitetaan, sitä suurempi riski on, että ennakkoluuloja päätyy algoritmeihin.

Yhdysvalloissa kymmenissä osavaltioissa tuomarit saavat päätöstensä tueksi algoritmien suorittamia laskemia siitä, millä todennäköisyydellä oikeuden eteen tuotu henkilö syyllistyy uudestaan rikokseen. COMPAS-järjestelmä on vähentänyt tuomareiden henkilökohtaisten käsitysten merkitystä, mikä on johtanut johdonmukaisempiin tuomioihin.

Järjestelmän epäillään kuitenkin syrjivän vähemmistöjä. Tutkivaan journalismiin keskittyvä ProPublica-julkaisu selvitti viime vuonna (siirryt toiseen palveluun), että COMPAS katsoo uusimisriskin olevan korkeampi mustaihoisen kuin valkoihoisen kohdalla. Kaidalle polulle palanneista valkoisista korkean riskin uusijoiksi määriteltiin 22 prosenttia, mustista 42 prosenttia.

Järjestelmän luonut Northpointe-yritys on kiistänyt syytteet rasismista. Tarkasteltavan henkilön ihonväri ei ole muuttujana yhdessäkään järjestelmän mittarissa. Sen sijaan järjestelmä kiinnittää huomiota muun muassa henkilön taustoihin ja elämänpiiriin.

Ja koska köyhästä lähiöstä olevan rikollisen tausta on erilainen kuin hyvätuloiselta asuinalueelta olevan rikollisen, algoritmit päätyvät helposti sortamaan sorrettua.

Neutraalit algoritmit päätyvät toistamaan ihmisten ennakkoluuloja, koska algoritmien käyttämä data on ihmisten ennakkoluulojen muokkaamaa.

Emme voi ulkoistaa päätöksiä

Vaikka algoritmit tuottaisivat täysin ennakkoluulotonta tietoa, lopulta ihminen päättää, mitä tuolla tiedolla tehdään. Sen sijaan, että todennäköiselle rikoksen uusijalle annetaan pidempi vankeustuomio, häntä voitaisiin tukea ja ohjata kaidalle polulle.

United Airlinesin ei olisi tarvinnut raahata matkustajaa ulos. Sen sijaan, että United Airlines ulkoisti päätöksenteon algoritmeille, se olisi voinut korottaa hyvitystä, kunnes vapaaehtoisia olisi löytynyt.

Tämä olisi vaatinut, että edes yksi ihminen olisi pysähtynyt miettimään asiaa. Tehokkuuteen tähtäävät algoritmit kun eivät huomioi inhimillistä kärsimystä tai imagotappioita.