I erhvervslivet, på Christiansborg, generelt i debatten og nu også på universiteterne.

De seneste omtrent to år er fokusset på dataetik steget i de fleste dele af samfundet drevet af den hurtige udvikling inden for blandt andet kunstig intelligens.

På ryggen af udviklingen startede to forskere fra Københavns Universitet ved årsskiftet et projekt, der netop skal se nærmere på de etiske aspekter af kunstig intelligens.

"Debatten om big data og kunstig intelligens har en tendens til at polarisere meget. Nogle mener, det er vejen til civilisationens undergang, mens andre mener, det er måden at redde både verden og menneskeheden på. Derfor står der ofte blot tilbage, at emnet er kontroversielt, snarere end at de fleste mennesker gerne vil have en nuanceret diskussion," siger Sune Hannibal Holm, den ene af de to.

Citat Den manglende evne til at adressere folks bekymringer har gjort, at genetisk modificerede fødevarer efterfølgende stort set har været en død sild. Peter Sandøe Professor i bioetik, Købehavns Universitet

Sammen med Peter Sandøe skal han forsøge at bidrage til nuancerne i de kommende to år, som projektet varer. De har i første omgang fokus på forskningsverdenen, hvor de oplever voksende interesse for diskussionerne. Interessen er blandt andet funderet i en ambition om at tøjle frygten for den nye teknologi.

"Det kan være blodig alvor for forskningen, hvis udfordringen ikke bliver håndteret rigtigt. Derfor har ikke alene de, der arbejder med kunstig intelligens i relation til mennesker, men alle, der i deres forskning bruger persondata, en interesse i, at der bliver defineret og håndhævet en høj etisk standard, så mulighederne for forskning ikke bliver ødelagt, og vi mister vores førerposition," siger Peter Sandøe.

Skal lave etisk kodeks

Sandøe, der er professor i bioetik, ser potentielle paralleller til debatten om genmodificerede fødevarer, når han ser på diskussionen om kunstig intelligens.

Han mener, at vi i dag kan tage ved lære af den debat, der for alvor gik højt i slutningen af 1990'erne.

"Der opstod i befolkningen en opfattelse af, at eksempelvis gensplejsede afgrøder blev lavet for nogle andre end forbrugernes skyld. Den manglende evne til at adressere folks bekymringer har gjort, at genetisk modificerede fødevarer efterfølgende stort set har været en død sild," siger Peter Sandøe.

Altinget møder de to forskere på et kontor i KU's bygninger Rolighedsvej på Frederiksberg.

Her er de som noget af det første gået i dialog med andre forskere for at udvikle et etisk kodeks. En del af projektet er nemlig at lave et sådant kodeks for ansatte og studerende på Science AI Centre, der sidste år blev oprettet på Datalogisk Institut ved KU.

Efter mindre end en måneds arbejde er det naturligvis småt med konkrete forslag, men det står allerede klart fra Sandøe og Holm, at produktet af den del af deres arbejde ikke skal være en rigid tjekliste, men snarere anbefalinger til overvejelser, man som forsker bør gøre sig i arbejdet med kunstig intelligens.

"Når du som forsker laver noget, skal du vise, at du har tænkt over bestemte problemstillinger, snarere end der kommer bokse, man skal vinge af. Lige nu bruger vi så en masse energi på at finde frem til, hvad de problemstillinger kan være," siger Peter Sandøe.

Etisk foregangsland

I projektet vil de både arbejde med meget konkrete eksempler og komme op på et mere overordnet plan. De to har allerede konkrete overvejelser om den såkaldte Gladsaxe-model og regeringens digitale reformudspil fra december.

I sidstnævnte bider Sune Hannibal Holm mærke i ambitionen om at give borgerne større ejerskab over egne data gennem en platform på borger.dk.

På den ene side støtter han intentionen om større gennemsigtighed, men med ejerskab kommer også ansvar, påpeger Sune Hannibal Holm, der kommer fra en stilling som lektor i filosofi.

"Det kan hurtigt blive meget krævende og uoverskueligt, hvis hver enkelt borger skal varetage alt den data, der findes om én. Det er for mig at se vigtigere, at vi sikrer lovgivning og regulering, så borgerne kan være trygge ved brugen af deres data." siger han.

En anden ambition i regeringens udspil bakker han til gengæld helhjertet op om, nemlig målet om at gøre Danmark til et foregangsland for dataetik.

Det er også en sag, som industrien føler stærkt for. Her taler man om, at det på linje med grøn teknologi og fødevaresikkerhed kan blive et dansk varemærke, at der er styr på datasikkerhed og -etik.

"Jeg forestiller mig, at vi støtter op om den dagsorden, alt det vi kan. Vi er ikke ansat af DI, men vores arbejde ligger i tråd med de ambitioner," siger Sune Hannibal Holm.

"Hvis alt går vel, vil der, når vi er færdige, være et kursus på den nye kandidatuddannelse i kunstig intelligens. Det ville der formodentlig ikke have været uden os, og det kan industrien så drage nytte af," supplerer Peter Sandøe.

Udformningen af det kursus på datalogi ligger ikke fast, men de to forskere forestiller sig, at de studerende tager udgangspunkt i egne projekter og med afsæt heri lærer at sætte ord på de forskellige etiske udfordringer, som anvendelsen af teknologien kan give anledning til.

De hemmelige algoritmer

Som nævnt er deres fokus dog primært på det offentlige. Får regeringen sin vilje, skal der i de kommende år for alvor fart på anvendelsen af kunstig intelligens rundt om i forvaltningerne.

Her er et af dilemmaerne, hvordan man sikrer, at de ansatte og de borgere, der betjenes, forstår, hvad der sker inde i maskinerne.

Sune Hannibal Holm går ind for et krav om godkendelse af algoritmer til brug i det offentlige.

"Det offentlige skal kunne få indsigt i, hvordan algoritmen er skruet sammen. På samme måde, som vi kræver test og oplysninger om bivirkninger ved medicin, er det vigtigt at have et system med kontrol af algoritmers lødighed, hvor vi har ansvaret placeret et sted, hvis noget går galt," siger han.

Det, forklarer han, skal også tjene det formål, at borgere ved, hvor de kan gå hen med deres spørgsmål, hvis en algoritme har været med til at bestemme, at de eksempelvis skal skæres i kontanthjælp.

Fundamentalt vil der vel være aspekter af kunstig intelligens, som kan være vanskelige for mennesker at forstå?

"Ja, og det vigtige er så, at vi finder en måde at håndtere det på. Det kan for eksempel betyde, at der er nogle områder, hvor vi ikke vil bruge kunstig intelligens," siger Sune Hannibal Holm.

Det kunne være afgørelser og forudsigelser inden for retsvæsenet. En afgørende forskel mellem det private og det offentlige er, ifølge Holm, at man på markedet kan fravælge et produkt.

Hvor meget mening giver det, at to forskere i Danmark gør sig etiske overvejelser, mens Kina og store virksomheder kører derudad?

"Der er en tendens til at sige, at Kina bestemmer det hele, hvis ikke også vi kommer i gang med teknologierne. Men det behøver de ikke. Inden for EU er vi et suverænt område og kan lave vores egen lovgivning. Også selvom det kan have omkostninger," siger Sune Hannibal Holm og fortsætter:

"For mig at se er der konstant en overvejelse af, hvilke kortsigtede mulighedsomkostninger, man siger farvel til ved at have en langsommere implementering eller simpelthen sige fra over for noget teknologi, holdt op over for den langsigtede gevinst i form af tillid."

kasper@altinget.dk