Uno studio preliminare ha dimostrato la possibilità di ottenere immagini che si trovano fuori dalla linea di vista con strumenti ottici convenzionali e un apposito algoritmo, senza apparecchiature costose e complesse. L'obiettivo è riuscire a sviluppare nuovi tipi di raccolta di informazioni ottiche, ma questo campo di ricerca è ancora giovanedi Jeff Hecht/Scientific American

(agefotostock / AGF)

Schema dell'apparato sperimentale usato nello studio. La fotocamera si trova dalla parte opposta di uno schermo rispetto all'immagine da riprodurre, e punta verso una superficie opaca. Su quest'ultima arriva l'immagine della scena d'interesse, parzialmente oscurata da un oggetto. La fotocamera cattura quindi un'immagine molto confusa che dovrà essere rielaborata da un apposito algoritmo. (Credit: Charles Saunders/Nature)

Confronto tra la figura di interesse (sinistra), la sua immagine proiettata sulla superficie opaca (centro) e l'immagine ricostruita dall'algoritmo (destra). (Credit: Charles Saunders/Nature)

Negli ultimi dieci anni i ricercatori nel campo dell’ottica hanno dimostrato che gli specchi non sono necessari per vedere oggetti fuori dalla linea di vista. Quel successo, però, richiedeva laser esotici che producevano impulsi che duravano meno di un millesimo di miliardesimo di secondo e sensori ad alte prestazioni in grado di rilevare singoli fotoni. Ora un gruppo dell’Università di Boston ha mostrato che anche un algoritmo e una normale fotocamera digitale possono guardare dietro gli angoli senza specchi, e possono farlo senza apparecchiature costose e complesse.Periscopi e specchi rendono facile sbirciare dietro un angolo, ma la visuale che offrono è a rischio. Specchi e periscopi devono essere posti sulla linea di vista di quello che stanno osservando, dove possono essere facilmente rilevati e distrutti. Osservatori furtivi preferirebbero operare al di fuori della linea di vista estraendo informazioni da fonti non ovvie come la luce riflessa dalle superfici opache di pareti dipinte.I raggi luminosi rimbalzano su superfici metalliche argentate, come gli specchi, con la stessa angolazione con cui arrivano, come se fossero palline che rimbalzano su una superficie perfettamente piatta su scala atomica. Superfici opache, come una parete dipinta e una lavagna bianca, sembrano lisce alla vista, ma sono ruvide su una scala atomica, e quindi diffondono la luce in una vasta gamma di angoli piuttosto che in una direzione uniforme. Per questo, una superficie opaca rimescola la luce proveniente da direzioni diverse in modo che i nostri occhi non possano riconoscere da dove proviene.Nel 2009 Ramesh Raskar, capo del Camera Culture del Massachusetts Institute of Technology Media Lab, e colleghi hanno calcolato quanto tempo impiegano impulsi laser di durata molto breve diretti in un’area non visibile per propagarsi dal laser all’oggetto e viceversa. Da allora il gruppo di Raskar e altrihanno notevolmente migliorato quelle osservazioni sul “tempo di volo” che, come gli impulsi radar a microonde e ottici, misurano la distanza contando il tempo di viaggio della luce verso e da un bersaglio.Alla ricerca di un approccio più semplice, l’ingegnere elettronico e informatico Vivek Goyal e colleghi dell’Università di Boston hanno analizzato il problema di guardare dietro un angolo considerando la luce come un insieme di raggi che seguono linee rette tra le superfici, secondo un approccio usato nelle progettazioni di ottiche. Tracciano il percorso dei raggi di luce provenienti da un oggetto su un lato di un muro che girano intorno a un angolo rimbalzando su una superficie opaca e finiscono in una fotocamera dall’altra parte del muro. In questo semplice schema, la fotocamera vede solo la superficie opaca perché disperde la luce in modo uniforme.Tuttavia, hanno scoperto che mettere un “occlusore” opaco e piatto tra l’oggetto nascosto – uno schermo illuminato che mostra le immagini – e la superficie opaca cambia l’immagine. L’occlusore proietta ombre che impediscono alla luce proveniente da parti dello schermo di raggiungere parti della superficie opaca. L’effetto è simile a quello di un’eclissi lunare parziale, in cui la Terra impedisce alla luce solare di raggiungere parti della Luna.Tracciando i raggi di luce dai bordi delle ombre, la squadra di Goyal ha potuto mappare quali parti dello schermo illuminerebbero quali parti della superficie opaca. Quindi hanno creato algoritmi che funzionano a ritroso rispetto alle immagini della superficie opaca registrate dalla fotocamera digitale per ricreare lo schema mostrato sullo schermo.“Avere un occlusore opaco sulla scena permette a tutto questo di funzionare”, dice Goyal. Per testare la loro idea, hanno costruito un modello da laboratorio con una fotocamera digitale da quattro megapixel rivolta verso una superficie opaca su un lato di una parete interna con un occlusore e un display digitale sull’altro lato. L’elaborazione con i loro algoritmi delle immagini della fotocamera della superficie opaca ha riprodotto le immagini visualizzate sullo schermo, ha scritto il gruppo di Goyal su “Nature” Le immagini del loro “periscopio computazionale” sono tutt’altro che perfette. Ma Goyal dice “Non avremmo mai pensato che avrebbe funzionato così bene”, e aggiunge: “Concettualmente, questa potrebbe essere un’app per uno smartphone”. Anche se i principi sono semplici e ampiamente applicabili, dice, “scrivere una simile app per telefoni cellulari non sarebbe affatto banale” perché dovrebbe adattarsi all’ambiente in cui è stata usata.Raskar non è rimasto impressionato. Ha definito la dimostrazione “simile al lavoro della concorrenza” su sistemi di tempo di volo ultraveloci, e ha detto che la necessità del sistema computazionale di stimare la forma e la posizione dell’occlusore prima che possa essere utilizzato “potrebbe essere difficile in uno scenario reale” come osservazioni segrete.Tuttavia, l’ingegnere ottico Martin Laurenzis dell’Institut franco-allemand de recherches de Saint-Louis (ISL), non coinvolto nello studio, era molto più ottimista. “Il principio di base è molto intelligente”, dice, notando che fotocamera che usa un foro stenopeico crea immagini bloccando la maggior parte della luce, ma il sistema di Goyal blocca solo pochi raggi. “Entrambi gli approcci mirano a rivelare scene dietro l’angolo e a estendere la percezione dei sensori ottici”, dice Laurenzis, ma ritiene che i due obiettivi siano “applicazioni diverse”. Goyal afferma di non aver mai sistematicamente confrontato i due approcci perché “sembrano così differenti in quello che fanno e in quello che ottengono”, che unire le due tecniche potrebbe produrre risultati entusiasmanti, e lo sta perseguendo con determinazione.La statunitense Defense Advanced Research Projects Agency (DARPA) sostiene gran parte della ricerca nella speranza di sviluppare nuovi tipi di raccolta di informazioni ottiche. Ma il campo di ricerca è ancora giovane. “Anche dopo un decennio di imaging del tempo di volo non sulla linea di vista, siamo ancora all’inizio”, dice Laurenzis.(L'originale di questo articolo è stato pubblicato su "Scientific American" il 23 gennaio 2019 . Traduzione ed editing a cura di Le Scienze. Riproduzione autorizzata, tutti i diritti riservati.)