IBM presenta la settima ricerca 5in5, un appuntamento annuale in cui individua le principali innovazioni tecnologiche del futuro. In questa edizione i protagonisti sono i sistemi cognitivi, che espanderanno le nostre percezioni attraverso le innovazioni informatiche CINQUE INNOVAZIONI in cinque anni, quelle che secondo IBM vedremo da qui a un lustro. Un appuntamento annuale in cui l’azienda americana fa il punto su quello che sarà lo stato dell’arte tecnologico in un tempo relativamente breve. E quest’anno, le cinque innovazioni si sovrappongono ai cinque sensi, quelli che i dispositivi tecnologici di domani avranno a disposizione per comprendere la realtà e comunicare con l’uomo. Uno scenario abbastanza Terminator, che per fortuna non prevede la sottomissione del genere umano da parte di macchine capaci di stare al mondo quasi come una persona.
In realtà, i computer dovrebbero aiutarci più che ostacolarci secondo la visione di IBM, che arriva dall’incrocio di ricerche scientifiche e tendenze di mercato. Le macchine di domani avranno anzitutto estese capacità di apprendimento e adattamento, per cui i sensi che acquisiranno saranno funzionali. In poche parole avranno la loro esperienza del mondo reale, sempre più complessa con l’evolversi delle tecnologie. Per quanto riguarda i sensi umani, vista, udito, olfatto, tatto, gusto, il cognitive computing servirà all’uomo per ricavare informazioni più dettagliate rispetto alla realtà che si trova di fronte ed elaborare proposte, soluzioni ed interventi confrontando la situazione con un database di esperienze digitali potenzialmente illimitato.
Sensi digitali. La collettività digitale scatta 500 miliardi di foto l’anno e carica ogni minuto su YouTube 72 ore di video. Immagini che i computer di oggi riescono in maggior parte a interpretare solo attraverso tag testuali, mentre secondo iBM nei prossimi cinque anni, i sistemi saranno in grado “non solo di guardare e riconoscere il contenuto delle immagini, ma trasformeranno i pixel in significato, iniziando a capirne il senso, così come un essere umano vede e interpreta una fotografia”. Riconoscendo immagini e relativo senso, l’azienda immagina un impatto rilevante sul settore sanitario, commerciale e agricolo. Nel primo caso interpretando scientemente referti come risonanze magnetiche e Tac/Pet, distinguendo il tessuto sano da quello malato e trovando correlazioni con la cartella clinica e la letteratura scientifica. Il tutto molto più velocemente di quanto si faccia oggi.
Potremo poi “toccare attraverso il telefono”, entro cinque anni, con lo sviluppo delle tecnologie aptiche e sensibili alla pressione che potranno simulare il tatto attraverso le funzionalità di vibrazione dello smartphone, sempre più sofisticate. Ad esempio scegliendo un abito, il modello di vibrazione saprà ad esempio riprodurre la seta in maniera diversa dal lino o dal cotone.
Anche l’udito delle macchine si affinerà nei prossimi cinque anni: nuovi sistemi distribuiti di sensori sapranno rilevare gli elementi che compongono il suono individuando vibrazioni e onde sonore a diverse frequenze. E le informazioni così ottenute saranno impiegabili per interpretare la realtà, ad esempio “prevedendo” l’arrivo di una frana. I computer potranno ascoltare il mondo e ciò che succede e comunicarci le informazioni più importanti a riguardo. Non solo: attraverso il confronto di modelli e l’apprendimento, un computer potrà ad esempio comprendere il linguaggio dei neonati come fosse una lingua completa, traducendo per gli adulti quello che i bambini stanno cercando di comunicare.
Con le papille gustative elettroniche secondo IBM potremo poi mangiare in maniera più consapevole e intelligente. “I ricercatori IBM stanno sviluppando un sistema di calcolo che percepisce effettivamente il sapore, da utilizzare con gli chef”. L’idea è risalire al livello molecolare degli ingredienti e coniugare la chimica dei cibi alla psicologia dietro sapori e odori preferiti dagli esseri umani. Tutte informazioni che confrontate con milioni di ricette, potranno produrre innumerevoli nuove combinazioni di sapori. Il computer non mangerà, ma saprà dirci come farlo meglio e in modo più sano, analizzando anche gli ingredienti degli alimenti. Magari incrociandoli con quelli della situazione clinica dell’utente.
Non mancherà l’olfatto: in cinque anni, analizzando odori e molecole nel respiro di una persona, il computer saprà se l’utente sta bene o sta per ammalarsi. Aiutando a diagnosticare disturbi di diverso tipo, dal raffreddore alle i malattie renali ed epatiche, asma, diabete ed epilessia. Il naso digitale aiuterà anche a comprendere le condizioni ambientali, sia per mantenere asettici ambienti che non devono essere inquinati o mantenuti puliti. Nelle città ad esempio la tecnologia potrà essere impiegata dalle amministrazioni per individuare potenziali problemi ambientali in tempo utile.
Secondo IBM, i processi cognitivi digitali “ci aiuteranno a svelare la complessità, a tenere il passo con la velocità delle informazioni, a prendere decisioni più informate, a migliorare la nostra salute e il nostro tenore di vita, ad arricchire la nostra vita e ad abbattere ogni tipo di barriera, tra cui distanza geografica, lingua, costo e inaccessibilità”. Un futuro roseo insomma, almeno nelle ipotesi. Di certo c’è che il contributo delle macchine all’interpretazione della realtà fornisce una potenza elaborativa tecnica che sposterà il limite fisico dell’uomo.
Fonte: Repubblica.it