Hur manifesterar sig våra fördomar i AI? Vad är farorna? Och hur kan vi möta dem? Vår amerikanska systersajt CIO.com har tittat närmare på några aspekter:

Klart assistenten är en kvinna

Redan när vi namnger våra digitala assistenter avslöjas vår syn på världen. Alexa, Siri, Cortana – de digitala assistenterna framställs som kvinnor.

Men om du missat det är du inte ensam.

I en undersökning från Liveperson, som gör molnbaserade kundtjänstlösningar, uppgav 53 procent av alla amerikaner att de inte hade lagt märke till det. Och då är de ändå betydligt flitigare användare av digitala assistenter än vi här i Sverige.

Så varför ser vi på dem som kvinnor och inte män? Kanske är det för att vi ser på kvinnor som just assistenter, personer som hjälper till konstaterar Livepersons vd Rob LoCascio. Hur vi ser på världen lyser alltså igenom redan när vi namnger våra AI-vänner.

Fördomarna förstärks

Men om vi lämnar hur vi ser på AI utifrån och i stället tittar på hur de arbetar inuti så finns det fler problem. Forskare kan nämligen se en tydlig tendens att AI också upprepar och förstärker de fördomar som deras skapare matat in.

CIO.com hänvisar till en artikel på nyhetssajten Bloomberg där det konstateras att företag, myndigheter och sjukhus allt mer använder sig av AI-verktyg som bildigenkänning och maskininlärning för att bedöma sådant som kreditvärdighet eller rätt behandling av en sjuk person – men att verktygen har stora blinda fläckar när det gäller kvinnor och olika minoriteter.

Läs också: AI ger bättre och snabbare svar än handläggarna på Lantmäteriet

När AI används för rekrytering exempelvis kan det leda till att likriktningen inom områden som it, där kvinnor redan är underrepresenterade, blir ännu värre.

Ankit Somani som är en av grundarna till Allyo som just rekryterar med hjälp av AI förklarar det så här:

– Om du letar efter kandidater till teknikroller så är de flesta vita män. Så om du bara kastar in data i systemet så kommer du att se att det gör en korrelation mellan låt oss säga en utvecklare och associerar det med en vit man. Baserat på de data som AI:n har så är det inte fel men om du inte förstår hur den nuvarande bristen på mångfald påverkar de här systemen så kan du förvärra problemet.

Den mänskliga beståndsdelen

Att förstå hur AI tolkar de data som den tar emot och rätta till algoritmerna är ett sätt att komma till rätta med problemet med fördomar och partiskhet.

– AI är bra på att bearbeta stora mängder data och hitta mönster. Människans uppgift är att förstå mönstren, att förstå vad som behöver ändras baserat på resultaten och, självklart, att skapa verkliga känslomässiga kopplingar, säger Ankit Somani.

Det gäller att hela tiden kolla upp konsekvenserna av AI-systemens beslut.

– Om du anställer någon – skulle du strunta i att följa upp hur den personen klarar sitt jobb? Självklart inte. Så varför skulle du inte följa upp hur den teknik som du använder presterar, säger han.

Att hela tiden granska de resultat som du ges och att titta efter fördomar är avgörande enligt Melanie Pasch, innehållsansvarig på AI-karriärplattformen Gloat.

Läs också: Svårt för it-köpare att hitta rätt när allt kallas för AI

Exempelvis så anonymiserar Gloats mjukvara ansökningarna inte bara genom att ta bort namnen på kandidaterna och andra faktorer som kan kopplas till kön eller etnicitet utan också sådant som pekar mot en viss socioekonomisk klass.

– Genom att titta på resultaten insåg vi att en del fritidsintressen – som ridning – är en omedveten indikator för klass. Vi insåg också att i en del roller korrelerar inte nödvändigtvis höga betyg till att man lyckas på jobbet så där fokuserade vi på andra datapunkter i stället, säger hon till CIO.com.

Och hon tycker heller inte att någon ska anställas enbart baserat på vad en algoritm säger.

– Vi vet att det finns problem med fördomar och partiskhet. Men i takt med att vi gör framsteg och representationen förbättras så lär sig tekniken och utvecklas med oss, säger Melanie Pasch.