Produrre acqua potabile dall’aria: il progetto di una startup israeliana.

Eseguita la prima operazione chirurgica al cervello a distanza grazie al 5G.

Il progetto cinese di costruire una centrale solare orbitante nello spazio.

Le sfide tecnologiche e legali del Rapid DNA in dotazione alla polizia: esami del DNA in soli 90 minuti.

Bias e pregiudizi nell’intelligenza artificiale: prevenire è meglio che curare.

Generare acqua dall’aria

Lo scorso 22 marzo è stata la Giornata mondiale dell’acqua, una campagna delle Nazioni Unite per sensibilizzare le persone sulla crisi idrica globale.

Perché questo è il termine da usare se si pensa che entro il 2050, secondo le stime dell’ONU, una persona su quattro affronterà una ricorrente carenza di acqua. E siccome si prevede che nel 2050 saremo in poco meno di 10 miliardi sulla terra, significa che quasi 2 miliardi e mezzo di persone saranno in difficoltà per il “semplice” accesso all’acqua.

Per affrontare questa crisi, un’azienda israeliana chiamata Watergen ha sviluppato una macchina che estrae acqua pulita dal nulla, o meglio, dall’aria. Dal 2009, la Watergen ha sviluppato e implementato una tecnologia che può essere considerata il perfezionamento di una scienza di base.

La nostra atmosfera è piena di vapore acqueo, che si trasforma in condensa a temperature più fredde. Vediamo spesso questo effetto in estate, quando le gocce d’acqua si raccolgono all’esterno di un bicchiere ghiacciato.

I generatori di macchine di Watergen sfruttano questa stessa tecnologia estraendo l’aria dall’atmosfera, condensandola in acqua, filtrandola per impurità come metallo o batteri e aggiungendo minerali in modo che sia potabile.

Il processo è simile a quello di un condizionatore d’aria, solo che queste macchine possono produrre da 5 a 6 volte più acqua di quanto farebbe un condizionatore ed in più è pulita e potabile.

Dal punto di vista energetico, è vero che le macchine necessitano della corrente elettrica per funzionare, ma la stima è che servano appena 2 centesimi di euro in costo di energia, per produrre un litro d’acqua.

La tecnologia è così valida che è stata anche testata e approvata dall’EPA.

EPA, ovvero Environmental Protection Agency, è un’Agenzia del governo federale degli Stati Uniti preposta alla protezione della salute umana e dell’ambiente, che ha compiti di supporto all’attività di regolamentazione governativa, ma anche assistenza tecnica, studio, ricerca, divulgazione, e formazione in campo ambientale.

Le macchine della Watergen sono disponibili in diverse dimensioni, tutte di capacità diverse. Il modello più grande, per intenderci, fornisce fino a 5.000 litri di acqua al giorno in luoghi come fabbriche e villaggi. C’è anche una versione di medie dimensioni per scuole, ospedali e edifici.

Il nuovo modello della società, che è un generatore per casa o ufficio, chiamato “Genny”, è in grado di produrre circa 27 litri al giorno. Il modello sarà presto venduto attraverso dei distributori, che faranno loro il prezzo, ma per darvi un’idea il costo stimato sarà attorno ai 1.500 dollari per unità.

Le macchine più grandi sono già state introdotte nelle comunità di tutto il mondo, incluse alcune in Cina, India, Vietnam, Messico e Brasile. E sono state utili anche in alcuni specifici casi di crisi, dove l’acqua era un bene non solo prezioso, ma letteralmente vitale. Quando una serie devastante di incendi ha spazzato la California lo scorso novembre, la società ha utilizzato il suo generatore per fornire acqua fresca alla polizia locale e ai vigili del fuoco a terra. Ad agosto invece, ha distribuito acqua allo stato di Kerala, in India, dopo che la regione aveva subito massicce inondazioni e frane nella quali hanno perso la vita circa 500 persone.

L’azienda israeliana non ha concorrenti immediati, ma non è l’unica azienda che converte l’aria in acqua. La startup Zero Mass Water ha adottato un processo simile di raccolta dell’acqua mediante pannelli solari. I pannelli in questione hanno lo stesso prezzo di “Genny”, ma risparmiano sul costo dell’elettricità chiaramente producendosela da sola. Lo svantaggio principale è che riescono a fornire solo da 2 a 5 litri di acqua al giorno. In entrambi i casi, il clima e l’ambiente circostante pongono alcune limitazioni: banalmente la quantità di umidità nell’aria influenza la performance dei dispositivi. Ma c’è di più, i pannelli Zero Mass Water funzionano meglio nelle zone soleggiate e non funzionano a temperature di congelamento, mentre Watergen tende a dare il meglio in climi caldi e umidi e funziona bene anche all’interno di ambienti come case e uffici.

Ma qui chiaramente siamo in una di quelle situazioni dove la competizione va intesa assolutamente in senso positivo. Per raggiungere in maniera soddisfacente tutte le aree e le popolazioni che saranno in difficoltà con l’acqua entro il 2050, serviranno molti sforzi, e di sicuro c’è spazio per molto più che due contendenti.

CONDIVIDI QUESTO ARTICOLO CON LA STESSA PASSIONE CON LA QUALE E’ STATO CREATO!

OPERAZIONE AL CERVELLO A DISTANZA VIA 5G

Settimana scorsa, un chirurgo cinese ha operato al cervello un paziente affetto dalla malattia di Parkinson, trovandosi a 3.000 km di distanza grazie ad una connessione 5G. L’episodio è avvenuto in Cina, grazie alla collaborazione con Huawei e China Mobile ed è la prima volta che si registra un evento di tale portata.

Eseguito dal dottor Ling Zhipei, primario del centro medico di PLAGH, con l’operazione ha impiantato un dispositivo di stimolazione cerebrale profonda (DBS) nel cervello del paziente per aiutare a controllare i sintomi del Parkinson.

Il Parkinson è una malattia neurodegenerativa che si traduce in una progressiva perdita di controllo e coordinazione dei movimenti volontari nel corpo. Ha sintomi terribili come tremori, movimenti lenti, rigidità nei muscoli e andatura alterata che si accompagnano ad ansia, depressione, sbalzi d’umore, disturbi del sonno e del linguaggio. La malattia colpisce circa 6,1 milioni di individui a livello globale ed è oggetto di intense ricerche nel campo della neurologia.

Sebbene non esista ancora una cura per il Parkinson, i sintomi possono essere gestiti in misura tale da migliorare la qualità della vita. Uno di questi metodi è appunto la stimolazione cerebrale profonda che prevede l’impianto di elettrodi in determinate aree del cervello per regolare gli impulsi nervosi anomali.

E’ un sollievo pensare che la tele-chirurgia possa aiutare questi pazienti e tutti coloro che si trovano magari in zone remote e difficilmente accessibili o dove non ci sono tutte le competenze per portare a compimento operazioni complesse come quella appena descritta.

Da parte sua, il dottor Ling non si aspettava di fare la storia quando ha ricevuto la chiamata per l’intervento, ma lavorando tra Pechino ed Hainan, si è trovato a dover eseguire l’intervento su un paziente che si trovava ad Hainan, mentre lui era a Pechino. Non essendoci la possibilità per nessuno dei due di prendere un volo e raggiungere un luogo comune, per l’intervento si è optato per la tele-chirurgia.

La rete 5G ha risolto problemi come ritardo video e ritardo di controllo remoto che invece si sperimentavano sotto la rete 4G, assicurando un funzionamento quasi in tempo reale e, per usare le parole del medico: “a malapena si sente che il paziente si trova a 3000 chilometri di distanza”.

Il concetto di ritardo prende il nome di latenza. Più bassa è la latenza, più reattivo sarà il robot chirurgico alle azioni del chirurgo anche se questo si trova a migliaia di km di distanza. Grazie alla tecnologia 5G si riduce quindi le possibilità di commettere errori e di fatto si consente al chirurgo di lavorare come se fosse effettivamente presente nella stessa stanza del paziente. Ling ha così manipolato a distanza il dispositivo per realizzare l’intervento, che è durato circa tre ore.

L’operazione sull’uomo è l’ultimo tassello di un percorso sperimentale che ha visto nel 2019 altri due eventi fondamentali, sempre in Cina. A gennaio è stata infatti eseguita un’operazione su un maiale, con dottore e “paziente” situati a circa 50 km di distanza. Mentre a metà marzo, un famoso chirurgo epatico ha aiutato a eseguire un complicato intervento di trapianto di fegato umano a distanza, su un paziente situato a 2.000 km, utilizzando la tecnologia 5G per guidare il team in remoto, grazie agli input tramite streaming di immagini ad alta definizione in tempo reale.

Perché questi esperimenti di successo arrivano proprio dalla Cina e non magari dagli USA o dall’Europa, che sono comunque poli tecnologicamente molto avanzati? Perché il mercato più grande al mondo per il 5G è proprio la Cina.

Solo in Cina si stimano 460 milioni di utenti della rete di nuova generazione, entro il 2025. Un numero superiore agli utenti attesi da Europa (215 milioni) ed USA (187 milioni) messi insieme. Gli operatori di telefonia mobile cinesi sono pronti ad investire 58 miliardi di dollari nel biennio 2019-2020, per l’implementazione del 5G, portando la Cina ad essere il mercato leader nel settore.

Quando ho approfondito l’argomento di questa operazione chirurgica ho letto vari forum, chiaramente di matrice anglosassone, (il materiale cinese non è facilissimo da trovare in rete), e sono rimasto personalmente colpito dalla grande acrimonia con cui i media ed i lettori americani hanno trattato questa notizia. La competizione tecnologica tra Cina e Stati Uniti è accesa, è vero che su Huawei pesano le accuse di spionaggio ed il boicottaggio di molti paesi anche europei, però che il 5G sia un abilitatore di future tecnologie utili per l’uomo, mi sembra un dato di fatto incontrovertibile e nel campo della salute, l’invidia dovrebbe lasciare maggiore spazio alla cooperazione.

CONDIVIDI QUESTO ARTICOLO CON LA STESSA PASSIONE CON LA QUALE E’ STATO CREATO!

PRODURRE ENERGIA SOLARE NELLO SPAZIO

La Cina ha intenzione di costruire un impianto di energia solare nello spazio, in grado di trasmettere energia a quasi ogni parte del mondo, trasformando potenzialmente il settore delle energie rinnovabili.

Il progetto, svelato il mese scorso, raccoglierà l’energia solare nello spazio e la invierà ad una struttura di ricezione sulla terra, bypassando le condizioni atmosferiche che normalmente sono un’interferenza nell’arrivo dell’energia dal sole alla terra. Questo metodo consentirebbe di ricevere energia con un grado di intensità sei volte maggiore a quello ottenibile da un’analoga struttura costruita sul suolo terrestre.

Si potrebbe trasmettere l’elettricità virtualmente in qualsiasi luogo del pianeta attraverso un satellite, come confermerebbe il Jet Propulsion Laboratory della NASA per lo sviluppo di energia solare spaziale.

Potrebbe rivelarsi un importante passo avanti per l’invio di energia in varie località, specialmente quelle più disagiate logisticamente, dove far arrivare l’energia può non essere banale o molto costoso. Mentre i costi di installazione del solare residenziale sono crollati negli ultimi dieci anni negli Stati Uniti, da $ 6,65 per watt nel 2010 a $ 2,89 nel 2018, la tecnologia posizionata nello spazio potrebbe portare ad una ulteriore riduzione dei prezzi e sbloccare energia a basso costo per una vasta gamma di luoghi.

Nonostante l’idea della stazione spaziale per produrre energia fotovoltaica abbia contorni ancora imprecisi e futuristici, la Cina a quanto pare non scherza e mira a realizzare rapidamente il progetto. I lavori sono già in corso ed una prima stazione centrale elettrica spaziale è in costruzione nella città di Chongqing. Un magazine australiano afferma che il piano è di testare piccole e medie stazioni nella stratosfera tra il 2021 e il 2025. Da lì, l’obiettivo è quello di trasmettere un megawatt entro il 2030 prima di passare a una stazione spaziale in grado di produrre a livello di gigawatt entro il 2050.

Secondi gli americani, la Cina dispone di un ottimo piano tecnico, sono al lavoro scienziati seri e preparati e con le risorse disponibili è credibile che almeno entro il 2030 si riesca a produrre nell’ordine di megawatt dallo spazio. L’idea in se non è completamente nuova, dato che la NASA aveva già esplorato il suo potenziale negli anni ’70 con concetti come il SunTower, poi ripresi nel biennio 1995-1996, quando la NASA ha condotto un riesame di vasta portata delle tecnologie terrestri che avrebbero potuto essere spostate nello spazio. L’obiettivo principale era determinare se fosse possibile realizzare un satellite per l’energia solare con tutti i sistemi del caso associati, in grado di fornire energia in reti elettriche terrestri a prezzi pari o inferiori a quelli terrestri. La SunTower voleva essere esattamente una sorta di stazione spaziale, a forma di torre appunto, dotata di pannelli solari e la capacità di trasmettere a terra l’energia in modalità wireless.

Le idee originali sono appunto degli anni 70 perché furono alimentate dall’embargo del petrolio e dalla crisi energetica, ma vennero abbandonate quando emerse che la centrale solare satellite sarebbe costata 1 trilione di dollari per il primo chilowattora.

La stazione pianificata della Cina orbiterebbe a 36.000 km sopra la Terra, fornendo energia per il 99% del tempo, quindi praticamente 24 ore su 24. La costruzione finale peserà circa 1.000 tonnellate, 600 in più rispetto alla Stazione Spaziale Internazionale. Per ridurre la complessità di un tale progetto, i ricercatori stanno studiando l’uso di robot e stampanti 3D per completare il progetto nello spazio. Personalmente mi piacerebbe vedere una qualche analisi dei costi, lanciare e gestire 1000 tonnellate a 36.000 km è un impegno economico mostruoso. Costruirla nello spazio è futuristico e virtualmente impossibile con le tecnologie disponibili ad oggi.

Non è inoltre chiaro come la stazione alla fine trasmetterà l’energia, con laser e / o microonde, utilizzando satelliti ricevitori più economici collocati ad orbite più basse o direttamente sulla terra e quanta energia sarà davvero in grado di trasferire e con quale precisione, anche se l’obiettivo come concetto è “il tetto” o un sistema ricevente collocato sullo stesso.

Il progetto è indubbiamente affascinante, una della cose più futuristiche che vi ho raccontato nelle ultime settimane, ne seguiremo gli sviluppi, nel frattempo per ora non ci resta che aspettare il 2025 e capire se il primo prototipo avrà successo o meno.

CONDIVIDI QUESTO ARTICOLO CON LA STESSA PASSIONE CON LA QUALE E’ STATO CREATO!

ANALISI DEL DNA “PORTATILE”

Nel 2017, il Presidente Trump ha firmato il Rapid DNA Act, che, a partire da quest’anno, consente alle stazioni di polizia autorizzate in diversi Stati, di collegare le loro macchine di analisi rapida del DNA al Codis, il database nazionale del DNA. Le impronte digitali genetiche sono destinate a diventare abituali come quelle prese dai polpastrelli cui siamo stati abituati finora.

Negli scorsi due anni diverse stazioni di polizia americane hanno testato dei dispositivi chiamati Rapid DNA, noti con il nomignolo di Magic Box o scatola magica, in grado di fornire i risultati delle analisi del DNA in soli 90 minuti. Un miglioramento tecnologico sostanziale, se si pensa che normalmente i campioni raccolti devono essere inviati a laboratori specializzati, che restituiscono i risultati alcune settimane dopo.

È arrivato il futuro fantascientifico, in cui la polizia può identificare rapinatori e assassini da mozziconi di sigarette scartati, gomme da masticare, sangue o altri reperti biologici raccolti velocemente sulla scena del crimine.

Funzionari delle forze dell’ordine hanno affermato che il dispositivo ha già operato in centinaia di casi, contribuendo a facilitare arresti o ad escludere individui falsamente accusati. I membri del team Rapid DNA presso l’ufficio del procuratore distrettuale nella contea di Orange, in California, hanno affermato che alcuni rapinatori sono stati identificati così rapidamente da essere stati catturati ancora in possesso della refurtiva. Sono state utilizzate macchine a Rapid DNA anche per aiutare a identificare le vittime dei recenti incendi nel nord della California.

In buona sostanza stiamo passando dalla fase di test a quella di impiego su larga scala. La macchina Rapid DNA ha le dimensioni di un computer desktop. Una macchina a DNA rapido costa tra $ 30.000 e $ 150.000 a seconda della versione ed ogni cartuccia per analizzare un campione, che può essere utilizzata una sola volta, ha un costo tra i 100 ed i 150 dollari.

Per i sospetti che vengono fermati, basta raccogliere un tampone dall’interno della guancia ed il gioco è fatto. Serve ovviamente il consenso della persona, ma a quanto pare ad oggi 9 persone su dieci, acconsentono senza problemi. Anche perché comunque a posteriori potrebbe intervenire un giudice chiedendo il prelievo obbligatorio di un campione, quindi evidentemente tanto vale cooperare. L’uso di queste macchine è quindi davvero semplice, rapido ed economico.

Ma è tutto oro quello che luccica?

Molti esperti legali e scienziati sono turbati dal modo in cui viene utilizzata la tecnologia. Vi è poco accordo su quali tipi di materiale genetico dovrebbero essere gestiti attraverso il dispositivo. È probabile che le preziose prove genetiche siano rese inutili se gestite da non esperti, dicono i critici, e gli agenti di polizia rischiano di essere fuorviati dai risultati dell’analisi del DNA rapido, se non opportunamente formati.

Non ci sono nemmeno gli stessi standard, le regole e le salvaguardie che sono in vigore per alimentare il database nazionale del DNA. Tradizionalmente, l’analisi forense del DNA è stata effettuata in laboratori accreditati, da scienziati forensi. A differenza dei laboratori di DNA, le macchine Rapid DNA non hanno protocolli rigorosi che regolano la manipolazione dei campioni.

Gli investigatori però obiettano che i campioni analizzati con Rapid DNA sono utilizzati principalmente per generare dei “lead” investigativi, cioè trovare tracce ed indizi e raramente vengono utilizzati in tribunale. In Arizona invece quando il DNA rapido viene utilizzato per analizzare il DNA della scena del crimine, campioni identici vengono inviati a un laboratorio per avere un ulteriore riscontro, secondo i criteri tradizionali. Nella contea di Orange, gli scienziati forensi gestiscono il dispositivo, dando quindi alle analisi una sorta di garanzia che i campioni e le informazioni siano state trattate con la professionalità adeguata.

Anche l’aspetto privacy è impattato dalla nuova tecnologia. Se il database nazionale del DNA può essere alimentato solo con dati raccolti in situazioni ben specifiche e per alcuni tipi di reato, i tanti database che le singole contee possono iniziare a sviluppare autonomamente, sono chiaramente soggetti a regole locali non sempre omogenee. Se in passato si cercava un presunto colpevole e poi si utilizzava in DNA come prova schiacciante e conclusiva, la facilità con la quale si possono usare le macchine di Rapid DNA stanno portando ad un’inversione di tendenza: si analizzano quante più persone possibili e si cerca la correlazione con un colpevole, ancora prima di avere ulteriori indizi. Un approccio che chiaramente preoccupa particolarmente le minoranze, come le comunità afro-americane, che si sentono ancora più nel mirino, col rischio di esacerbare le tensioni che i telegiornali ogni tanto ci raccontano anche da questa parte dell’oceano.

Il problema è che, come spesso accade, la tecnologia progredisce molto più velocemente di quanto il legislatore possa o sappia normare. Sapranno gli americani gestire bene tecnologia, rigore scientifico e diritti delle persone? Non ci resta che aspettare e vedere cosa succederà strada facendo.

CONDIVIDI QUESTO ARTICOLO CON LA STESSA PASSIONE CON LA QUALE E’ STATO CREATO!

BIAS E PREGIUDIZI NELL’INTELLIGENZA ARTIFICIALE

L’Intelligenza Artificiale ha vissuto diversi periodi di forti tagli ai finanziamenti e mancanza di interesse, come durante gli anni ’70 e ’80, epoche che sono state chiamate “inverni dell’intelligenza artificiale”, in riferimento al concetto di inverno nucleare dove il sole è oscurato da uno strato di fumo e polvere!

Ma ovviamente le cose sono molto diverse al giorno d’oggi. L’intelligenza artificiale è un argomento caldissimo ed è una priorità strategica per aziende come Facebook, Google, Microsoft e molti altri.

Potrebbe tornare un altro inverno? C’è troppa enfasi sulla tecnologia? Del resto, i precedenti momenti bui sono stati una reazione al fatto che molte delle promesse fantasmagoriche non sono poi state realizzate.

Allo stato attuale delle cose, non ci sono segni di rallentamento, anzi i fondi di investimento stanno staccando assegni importanti alla miriade di startup che professano un credo orientato all’intelligenza artificiale, ma forse un rischio c’è.

Mark Twain ha scritto: “la storia non si ripete ma spesso fa rima.” Secondo Alex Wong, che è il capo scienziato e co-fondatore di DarwinAI, una startup che lavora sull’ottimizzazione di reti neurali, il problema del bias o pregiudizio nei modelli è un elemento chiave da non sottovalutare.

Facciamo un esempio. L’intelligenza artificiale viene utilizzata nel campo delle assunzioni, cioè fa lo screening dei candidati sulla base di un gran numero di curriculum e delle caratteristiche dei candidati. Sebbene questo approccio possa sembrare guidato dai dati e quindi assolutamente obiettivo, ci sono pregiudizi di genere e culturali significativi nelle pratiche di assunzione passate, che vengono poi apprese dall’intelligenza artificiale.

Quindi se in pratica, consciamente o inconsciamente sono state preferite in passato persone di un sesso o di una certa razza, e tali dati sono stati dati in pasto al sistema, senza alcuna correzione, il sistema inizierà a prendere decisioni discriminatorie che possono avere un impatto sociale negativo e creare maggiori disuguaglianze.

Altro esempio, ancora più chiaro. Supponiamo che tu stia addestrando un sistema di riconoscimento delle immagini per identificare i presidenti degli Stati Uniti. I dati storici rivelano uno schema di maschi, quindi l’algoritmo conclude che solo gli uomini sono presidenti. Non riconoscerà una donna in quel ruolo, anche se sappiamo che in futuro potrebbe tranquillamente accadere.

Questo pregiudizio latente è uno dei molti tipi di pregiudizi che oggi sfidano i data scientist. Se il set di dati di apprendimento automatico che usano in un progetto di intelligenza artificiale non è neutrale, e di fatto quasi nessun dato lo è, i risultati possono effettivamente amplificare la discriminazione ed il pregiudizio.

E questi sono solo un paio di esempi. Il problema del bias è pervasivo, potenzialmente grave e spesso non viene nemmeno percepito.

In parte dipende dalla cultura della comunità che lavora sull’intelligenza artificiale, che è più focalizzata sulla ricerca di tassi di precisione, e non guarda necessariamente all’impatto più ampio.

In parte è endemica di tutte le discipline che lavorano sui dati. Come la matematica Cathy O’Neil ha detto in suo Ted talk nel 2017, “Gli algoritmi sono opinioni, incorporate nel codice”. In quella conversazione, ha evidenziato il problema dei tecnologi che riciclano dati nascondendo “brutte verità” negli algoritmi.

Tra l’altro molti degli algoritmi di intelligenza artificiale sono anche open source, con codice libero di essere utilizzato, modificato, integrato da nuovi ricercatori per nuovi scopi. Se non si rimuove il bias da questi primi modelli e poi gli stessi vengono riutilizzati, il problema si espanderà ancora di più e diventerà sempre più pervasivo. Senza un’adeguata quantificazione e riduzione delle correlazioni inadeguate, gli strumenti di machine learning amplificheranno gli stereotipi.

Cosa fare quindi? I sistemi di deep learning possono essere scatole nere. Ma ci sono modi creativi per affrontare il problema.

In prospettiva, è un tema di comportamenti. L’industria dell’intelligenza artificiale deve essere molto più proattiva, e mostrare un’urgenza di equità, responsabilità e trasparenza.

Un modo per aiutare a raggiungere l’obiettivo è quello di includere funzionalità di costruzione in piattaforme che forniscono approfondimenti sulla spiegabilità del modello. Per aiutare gli scienziati a mitigare il problema per esempio, è scesa in campo anche Google, che a Settembre ha rilasciato uno strumento chiamato “What-If-Tool”, che aiuta a scoprire i pregiudizi nei dati. Google è conscia che lo sviluppo di un algoritmo di intelligenza artificiale implica molto più della scrittura del codice e che si tratta anche di curare attentamente i dati in modo che l’algoritmo apprenda le cose giuste. Quale modo migliore di fare delle simulazioni, se non grazie ad un software. What-if-tool aiuta a confrontare i fattori che portano un algoritmo a prendere una decisione rispetto ad un’altra. Con questa parte dello strumento, i programmatori AI possono vedere il contorno esatto, cioè le ipotesi, entro il quale un algoritmo prenderà una decisione rispetto a un’altra.

Anche avere commissioni sull’etica, che è un’idea un po’ vecchia scuola, è una buona opzione. Le università e gli istituti di ricerca scientifica vagliano i loro progetti con commissioni ad-hoc, perché non farlo anche quando si sviluppa un algoritmo di intelligenza artificiale?

Quindi per chiudere l’argomento, se in passato l’intelligenza artificiale ha vissuto periodi di rallentamento nello sviluppo della tecnologia causato dalle esagerate aspettative, oggi il maggiore rischio è che gli algoritmi portino all’adozione di scelte sub-ottimali, perché influenzati da pregiudizi insiti nei dati, che potevano e dovevano essere “puliti” prima di rilasciare i prodotti sul mercato.

CONDIVIDI QUESTO ARTICOLO CON LA STESSA PASSIONE CON LA QUALE E’ STATO CREATO!