Kommer algoritmene for å ta oss? | Camilla AC Tepfers og Håkon Haugli

Camilla AC Tepfers Partner i analyse- og rådgivningsfirmaet inFuture

Håkon Haugli Administrerende direktør, Innovasjon Norge

14. feb. 2019 18:00 Sist oppdatert 15. februar 2019

Tegning: Håkon Jøssang

Kombinasjonen av kunstig intelligens og naturlig dumskap er farlig.

Kronikk

Dette er en kronikk. Meninger i teksten står for skribentens regning.

Det norske samfunnet har kvaliteter som kan hindre misbruk av kunstig intelligens, men vi må satse før andres algoritmer kommer og tar oss.

Camilla AC Tepfers, medgründer og partner inFuture Rolf Øhman

Amazon skrotet nylig sitt verktøy for AI-rekruttering (AI er Artificial Intelligence/kunstig intelligens, red.anm.)

Modellen viste seg å være kvinnediskriminerende.

EVRY har også forsøkt robotrekruttering. Hos dem resulterte det i at kvinneandelen blant nyansatte økte fra 20 til 33 prosent. Hvorfor ble det sånn?

Fordommer i dataene



Kunstig intelligens burde i utgangspunktet ha en styrke ved at den ikke er beheftet med forutinntatte meninger og fordommer. Til forskjell fra oss mennesker.

Så viser det seg at fordommer likevel kryper inn i dataene som maskinene lærer av.

Når dette kombineres med den dramatiske skaleringsevnen til digitale verktøy, og at ytterst få forstår de underliggende algoritmene som styrer AI-modellene, kan vi se omrisset av en uønsket utvikling.

Håkon Haugli, administrerende direktør Abelia Esben Johansen

Det som gikk galt i Amazons tilfelle var at modellen ble fôret med historiske data på vellykkede rekrutteringer. Hos Amazon, som i de fleste teknologitunge miljøer, er menn dominerende. Dette ble raskt gjenkjent av algoritmen. Den konkluderte derfor med at «mann» var et av flere selvstendige suksesskriterier. Eksempelet er ikke enestående, og vi har bare sett begynnelsen.

Når maskinlæring og forsterkning av etablerte (menneskeskapte) mønstre samspiller negativt, kan konsekvensene bli uheldige.

«Matteødeleggelsesvåpen»

Forskere ved Universitetet i Washington har studert Googles bildesøk. De søkte på «CEO» (konsernsjef), og Google viste 11 prosent kvinner, til tross for at 27 prosent av amerikanske konsernsjefer faktisk er kvinner. De søkte på «forfattere» og fikk 25 prosent kvinner, mens andelen kvinnelige forfattere er 56 prosent. Så søkte de på «telefonmarkedsfører». Der viste søkemotoren 64 prosent kvinner, selv om kjønnsbalansen i yrket er jevn.

Boken Weapons of math destruction («matteødeleggelsesvåpen») beskriver en rekke eksempler på hvordan forfeilede algoritmer kan skade samfunnet. Det kan altså være etisk betenkelig å benytte kunstig intelligens til å løse samfunnsmessige problemer. Men det kan også være etisk betenkelig ikke å gjøre det.

Algoritmen var «rasistisk»

Et beskrivende eksempel er bruk av kunstig intelligens for å forbedre resultatene av prøveløslatelse. Basert på strafferegistrene til 7000 personer skulle fare for gjentatt kriminalitet beregnes. Resultatet var en algoritme hvor svarte i større grad var høyrisikopersoner enn hvite.

Algoritmen hadde fått med seg rasefordommer basert på et skjevt datasett.

På den annen side kan samfunnsgevinsten være svært høy. Forskere ved universitetene Stanford, Harvard og Cornell har gjennomført en studie av prøveløslatelser og kunstig intelligens. De har gjort algoritmesimuleringer med meget gode resultater: 25 prosent redusert kriminalitet uten å øke antall arrestasjoner, samtidig som rasemessige skjevheter reduseres.

Les også Kunstig intelligens avslørte Lånekassen-juks

Vi kan ikke sette utviklingen på vent

Utviklingen innen kunstig intelligens kan ikke settes på pause. Det er ikke mulig å be om betenkningstid, der vi setter utviklingen på vent mens vi får evaluert farer og muligheter i fred og ro. Selv om vi hypotetisk kunne innføre et forbud mot uvettige AI-algoritmer i Norge, eller Europa for den saks skyld, vil vi ikke kunne hindre virksomheter i andre deler av verden i å jage sine mål om å bli verdensledende. Vår passivitet vil snarere fremskynde andres dominans på feltet.

Norge har et godt utgangspunkt for å gripe mulighetene i en digital økonomi. Vi har økonomiske ressurser, et omstillingsdyktig næringsliv og en digitalt kyndig befolkning. Men ingenting skjer av seg selv.

Nei, algoritmene kommer tar oss ikke

En rekke land har utarbeidet nasjonale strategier for kunstig intelligens. Det har digitaliseringsminister Nikolai Astrup nå kunngjort at Norge også skal gjøre. Det sentrale er imidlertid ikke selve strategidokumentet, men om det aktivt legges til rette for at norsk næringsliv og offentlig sektor kan gripe mulighetene og samtidig adressere utfordringene.

Les også Digital makt i dette rom | Joacim Lund

Det handler blant annet om mekanismer for å foreta løpende etiske vurderinger, om å gjøre offentlige data tilgjengelige, sikre tilgang på riktig kompetanse og å bidra til utvikling av testarenaer på tvers av offentlig sektor, næringsliv og læreinstitusjoner. For å nevne noe.

For algoritmene kommer faktisk ikke for å ta oss.

Som med all annen teknologi, kan de utnyttes både klokt og uklokt.

Fremfor å skynde oss langsomt, må vi skynde oss klokt. Mye av det som gjør Norge til et godt samfunn, er også det som gjør oss best rustet til å lykkes. Vår resept mot misbruk er: Små forskjeller, tillit, åpenhet, robuste institusjoner, en felles offentlighet, et utdanningssystem som fremmer nysgjerrighet, selvstendighet og kreativitet. Vi har medisin, men vi er ikke vaksinert. Og det er nå det gjelder.

Kronikken er den første i en serie om digitale dilemmaer.

Interessert i å lese mer om kunstig intelligens? Her er noen forslag: