Nell'ultima settimana è diventata virale la #10yearschallenge, una sfida che ha coinvolto più di 5 milioni di utenti online - tra cui molte celebrities - nel mostrare, affiancate, una propria foto del 2009 e una del 2019.

Si tratta di una prosecuzione di quelle serie di sfide tese a mostrare quanto si è diventati belli o come negli anni si è rimasti belli, come la "Top 9 photos year challenge".

Intorno alla sfida non sono mancate speculazioni sul trattamento dei dati - un nuovo grande dibattito digitale - a partire dalle osservazioni della giornalista Kate O' Neil che ha prospettato in un tweet un utilizzo piuttosto inquietante della challenge:

Me 10 years ago: probably would have played along with the profile picture aging meme going around on Facebook and Instagram

Me now: ponders how all this data could be mined to train facial recognition algorithms on age progression and age recognition — Kate O'Neill (@kateo) 12 gennaio 2019

Dopo il primo dito che indica il cielo, si sono susseguite più voci sul tema, ironizzando su una possibile partnership tra Facebook e Buzzfeed, accusando il primo di voler implementare il proprio algoritmo di riconoscimento facciale attraverso una nuova mole di dati ordinati con un campione di utenti davvero notevole.

La distopia futuribile del riconoscimento facciale

Gli articoli sul tema si sono sprecati. Partiamo subito col dire che ovviamente Facebook dispone già di un'ampissima banca dati che alimenta l'algoritmo di riconoscimento facciale e che non avrebbe teoricamente bisogno di ulteriore materiale a disposizione.

Anzi, "esistono set di dati che sono molto più adatti ad entrambi gli scopi rispetto a quello della #10yearschallenge, sia di proprietà di Facebook sia di altre società, o addirittura open source" - come fa notare Gianluca Mauro, fondatore dell'Academy di Intelligenza Artificiale.

Bisogna però notare che l'algoritmo dispone di milioni di foto non ordinate, ovvero la data di upload non corrisponde necessariamente con quella di esecuzione della stessa e, visto che in dieci anni abbiamo fatto passi tecnologici da giganti, i dati exif delle foto (ogni fotografia è un file immagine che contiene dei dati che potete leggere banalmente cliccando su 'ottieni informazioni' su data di creazione del file, tipo di camera utilizzata, obiettivo, diaframma, etc.) erano meno ricchi e anche questi spesso rimaneggiati attraverso il copia-incolla da un device a un altro, o ancora possono essere scansioni di foto analogiche. Senza contare tutte le foto di animali, fumetti, frasi e quant'altro utilizzate come foto profilo.

Cosa vuol dire? Vuol dire che siamo stati noi a mettere ordine tra le foto e abbiamo indicato un lasso di tempo preciso di dieci anni tra la foto di prima e quella di dopo. In altre parole abbiamo educato l'algoritmo a individuare gli elementi che con il passare del tempo si modificano nel nostro viso. Gli abbiamo fornito i termini per settare la sua equazione, sballata dall'imprevedibile comportamento digitale umano.

Come funziona davvero l'algoritmo?

Abbiamo voluto capire di più su come funziona l'algoritmo di riconoscimento facciale che, per la prima volta, è entrato nel dibattito pubblico come mai prima. Come il face ID del nuovo iPhone X non era riuscito a smuoverci.

Dunque abbiamo chiesto a Gianluca Mauro di spiegarci qualcosa in più sull'algoritmo in questione, di quante foto necessita e di quale campione.

Lo stato dell’arte attuale per addestrare un algoritmo di riconoscimento facciale parte dal fornire una serie di triplette di foto all’algoritmo. Ogni tripletta è composta da due foto della stessa persona, e una foto di una persona diversa a caso. Per esempio, supponiamo di fornire all’algoritmo due foto di Obama e una foto di Brad Pitt. Quello che fa l’algoritmo è cercare di capire quali sono gli elementi nelle due foto di Obama che sono simili, ma sono diversi nella foto di Brad Pitt (esempi: forma degli zigomi, capelli, colore della pelle, etc.). Una volta ripetuto questo processo per migliaia di triplette di diverse persone, l’algoritmo avrà appreso una nozione generale di quali sono gli elementi più caratterizzanti in un volto, e quando vedrà nuove persone farà attenzione a questi elementi e sarà in grado di riconoscerle. Gli attuali algoritmi di riconoscimento facciale che usano questa tecnica sono già più precisi dell’uomo, e su vari dataset usati come benchmark hanno precisione anche superiore al 99%.

Quindi abbiamo fornito la coppia per la tripletta e anche ordinata correttamente cronologicamente. Inoltre cinque milioni di utenti ci sembrano soddisfare le migliaia di triplette necessarie.

La domanda successiva, fatta a chi lavora nel settore, è se effettivamente Facebook avesse bisogno di questi nuovi dati ordinati.

Sinceramente, sono pienamente convinto della buona fede di Facebook in questo caso. Facebook già possiede un dataset incredibilmente ricco e perfetto per fare riconoscimento facciale, molto più adatto ad addestrare algoritmi rispetto alle nuove foto della #10yearschallenge. Se ci pensate, quando tagghiamo un amico in una foto clicchiamo sul suo volto. Questo significa che Facebook possiede già un immenso dataset di foto di persone, e sa esattamente in quale posizione nella foto si trovi il loro volto. Anche se fossero interessati a capire come l’invecchiamento influenza le performance degli algoritmi, gli basterebbe prendere i nostri tag di dieci anni fa e confrontarli con quelli attuali

LEGGI ANCHE: Sfuggire ai social? No, non c’è posto per nascondersi (dice uno studio)

Cosa cambia davvero con la #10yearschallenge

Quello che resta dalla #10yearschallenge è che l'algoritmo ci conosce perfettamente, sia che abbiamo preso parte a questa sfida online sia che ne siamo rimasti estranei sia che non abbiamo mai caricato una nostra foto su Facebook. Possiamo uscire di casa senza telefono, ma non senza faccia e i social network non sono gli unici raccoglitori di simili informazioni.

Basti pensare che la tecnologia del riconoscimento facciale è sviluppata soprattutto attraverso le video camere di sorveglianza che possiedono migliaia di fotogrammi al secondo del nostro viso.

Del resto l'evoluzione tecnologica di un simile algoritmo sempre più sofisticato e preciso ha terribili implicazioni in termini di sorveglianza, ma potrebbe essere salvifico nel caso di bambini scomparsi altrimenti irriconoscibili a distanza di anni, o per la cattura di latitanti e criminali.

Quello che appare davvero rivoluzionario è come si sia modificata la nostra percezione sul tema della privacy e soprattutto il crescente sentimento di sfiducia nei confronti dei colossi del digitale a partire dallo scandalo Cambridge Analytica.

LEGGI ANCHE: Privacy: 5 regole per usare gli smart speaker senza (troppi) rischi

Nell'ultimo anno è avvenuto un importante "micro-cambiamento" nella percezione delle persone a livello globale: prima la sfiducia per i social network era maggiormente legata alla crescente sfiducia verso le istituzioni e i politici. Adesso ci troviamo di fronte a una maggiore diffidenza nei confronti proprio dei colossi tecnologici che hanno assunto, nella nostra precezione, dei connotati fisici.

In altre parole Mr. Facebook non è più un'entità astratta, è una persona con degli interessi, una persona che vende i nostri dati sensibili per fini politici e commerciali.

Stiamo compiendo un ulteriore passo verso il collasso valoriale di un mondo globalizzato, dove i nuovi beni da proteggere sono sempre più immateriali e l'erosione di collettività ormai completata.

Paradossalmente il binomio però rimane sempre lo stesso: sicurezza o controllo? Attualmente stiamo scegliendo la sicurezza, nel nome della quale siamo pronti a sacrificare ben altro che i nostri big data.