Människoliknande robotar och system byggda på artificiell intelligens är ett hett forskningsområde i dag. De ska hjälpa oss i hemmet, på kontoret och i skolan. Men då behöver de kunna lära sig saker. Till exempel att läsa dina tankar.

Nu har forskare vid Kyotouniversitet tagit det första steget och utvecklat ett program som kan återskapa bilder genom att läsa av din hjärnaktivitet.

Självlärande algoritm

Programmet består av en självlärande algoritm som läser av och tolkar hjärnaktiviteten hos personer som får se en specifik bild. Till exempel ett foto på en uggla eller ett flygplan.

Kanske innebär detta att vi kommer kunna börja läsa tankar på ett lite mer science fiction-inspirerat sätt. Detta skriver Max Gordon, ortopedspecialisten med ett intresse för maskininlärning, som har läst studien i ett mejl.

– Detta är komplexa data som inte ens vi människor kan bearbeta, men som en självlärande algoritm kan tolka och återskapa, säger han.

Lite suddiga bilder

Hur tolkade programmet bilderna då? På ett lite suddigt sätt kanske. Bilder med geometriska former eller på bokstäver kunde programmet återskapa bilder med ganska bra precision. Men bilder som var mer komplexa, som till exempel en guldfisk i ett akvarium, blev suddiga och motivet svårt att urskilja.

– I framtiden skulle metoden kunna användas för att bland annat visualisera hallucinationer. Därmed kan patienter få säkrare diagnoser, säger Yukiyasu Kamitani, forskare i neuroinformatik och en av författarna bakom studien.

Bara en början

Men enligt Peter Fransson, professor i klinisk neurologi, är det ännu lång tid innan metoden är användningsbar i vardagen.

– Området i hjärnan som bearbetar allt vi ser är oerhört komplex. Att en algoritm som ska kunna ”läsa våra tankar” och sedan rekonstruera dem ska man ta med en stor nypa salt, säger han.

Dock är det ett litet steg på en väldigt lång resa, fortsätter han.