Tutkijat kouluttivat syväoppivaa tekoälyä siitä, miltä puhuvan ihmisen kasvot näyttävät, pistämällä tekoälyn "katselemaan" valtavan määrän videoita, joissa ihmiset puhuvat. Tekoäly oppi tunnistamaan videoiden perusteella miten eri kasvonilmeet muuttuvat ihmisten puhuessa.Tämän jälkeen tekoälylle annettiin tavallisia valokuvia ja pyydettiin sitä muokkaamaan valokuvista puhuvia kasvoja.Samaan on pystytty toki jo aiemminkin, Deepfake -videot ovat jo eräänlainen ilmiö netissä - ja kyseisen algoritmin tavalla tehdyt aikuisviihdevideot jo suoranainen vitsaus. Erona Deepfake-algoritmiin on kuitenkin se, että Deepfake vaatii toimiakseen paljon kuvia halutusta henkilöstä, kun taas Samsungin tutkijoiden algoritmille riittää vain pari kuvaa - tai tietyissä tapauksissa vain yksi. Tutkijat julkistivat tutkimustuloksensa aiemmin tällä viikolla Alla oleva video kuvaa sitä, mitenvalokuvasta on luotu puhuvia kasvoja:Tässä vaiheessa videoista pystyy vielä tarkkaan katsomalla erottamaan ovatko ne oikeita vai tekoälyn luomia. Mutta kuten tekoälyn suhteen aina, tulokset parantuvat hurjaa vauhtia, kun koneoppiminen saa lisää materiaalia ja jalostaa omaa algoritmiaan paremmaksi.