Hewlett Packard Enterprise (HPE) ha presentato il prototipo di “The Machine”, il computer del futuro annunciato nel giugno 2014. Si tratta di un computer “single-memory” e ciò significa che supera la divisione tra RAM e memoria di massa con i suoi 160 TB (TeraByte) di memoria, una quantità superiore a quella dei server. Tuttavia, non si tratta di memristori, la tecnologia in fase di sviluppo che dovrebbe combinare al meglio i vantaggi di RAM e memoria di massa.

Il progetto di The Machine è iniziato per andare oltre le attuali architetture dei computer, che sono state perfezionate nel corso degli ultimi decenni ma ormai mostrano sempre di più i loro limiti. Nel prossimo decennio le esigenze di gestione di dati saranno tali da rendere necessario un nuovo tipo di computer e la divisione tra RAM e memoria di massa è una delle basi che sono superate dal progetto di HPE.

The Machine rappresenta l’applicazione del concetto di Memory-Driven Computing, un tipo di computer che mette la memoria e non il processore al centro dell’architettura. La presenza di un unico tipo di memoria non volatile, cioè che una volta scritta rimane memorizzata ma veloce quanto la RAM dei computer attuali, permette di gestire i dati in una maniera molto più efficiente riducendo enormemente i tempi di elaborazione.

HPE sta sviluppando la tecnologia dei memristori, un tipo di memoria non volatile che allo stesso tempo permette letture e scritture molto veloci ma è in ritardo sui tempi previsti. Per il momento, i prototipi di The Machine utilizzano un altro tipo di memoria che letteralmente mette assieme sugli stessi moduli, chiamati NVDIMM, DRAM e memoria flash.

Questi NVDIMM costituiscono una soluzione che va bene per sistemi attuali, infatti HPE l’ha messa in commercio per alcuni suoi sistemi aziendali, ma sono un adattamento di tecnologie già esistenti. Nel caso di The Machine si tratta di una soluzione temporanea ma non è chiaro quando sarà possibile impiegare memristori, una tecnologia che va bene per computer di nuova concezione.

Tutto ciò non vuol dire che gli altri componenti dei prossimi computer siano trascurati, anzi un altro balzo in avanti verrà fatto impiegando collegamenti ottici/fotonici per superare i limiti dei collegamenti elettrici. In sostanza, The Machine trasmette dati tra i suoi componenti tramite piccole fibre ottiche che permettono l’uso della luce per trasmettere i dati molto più velocemente e utilizzando molta meno energia.

Ci sono dichiarazioni molto ottimiste da parte di HPE e Cavium, che sta sviluppando The Machine assieme a HPE, sulle possibilità di sviluppo di questo tipo di architettura. La prospettiva per il “Big Data” è davvero interessante per la possibilità di costruire supercomputer di nuova generazione con velocità e capacità di calcolo molto superiori a quelle attuali. Quando i costi scenderanno, dovrebbe essere possibile costruire anche personal computer basati su quel tipo di architettura.

Il problema come sempre è nei tempi di disponibilità. La disponibilità di memristori condizionerà fortemente i tempi di un progetto che inizialmente doveva essere pronto per il 2018. Ora c’è chi parla di altri cinque anni ma si tratta sempre di stime perciò è davvero difficile capire quando The Machine potrà entrare in commercio.