La fine del topo

No, non stiamo parlando in senso letterale.

Il ‘mouse’, l’oggetto che da circa 30 anni ci fa compagnia sulle nostre scrivanie, sarà presto destinato a diventare un pezzo da museo, confinato a usi specialistici di nicchia, quali ad esempio la grafica professionale. Fu inventato nel 1972, ma divenne oggetto di consumo nel 1981 grazie a Xerox, con la sua rivoluzionaria workstation Star.

Già oggi, con la diffusione di smartphone e tablet, l’interfaccia uomo-macchina è invece costituita principalmente dal dito indice. La società di analisi TrendForce ha stimato che nel 2017 la produzione di smartphone abbia toccato quota 1,46 miliardi di unità, in aumento del 6,5% rispetto al 2016. Secondo il Mobility Report di Ericsson, ci sono al mondo quasi 6 miliardi di smartphone.

Anche i tablet di ultima generazione, con i loro trackpad e le penne intelligenti (ndr: ma quante ne ho perse?) non hanno determinato un grande salto tecnologico.

Quindi possiamo affermare che il progresso nel mondo delle interfacce uomo-macchina, negli ultimi anni, non abbia subito grandi cambiamenti.

Qualcosa di importante sta tuttavia avvenendo, proprio adesso.

Grazie agli incredibili progressi nelle tecnologie di riconoscimento vocale, il team di sviluppo Microsoft ha infatti annunciato di aver raggiunto un margine d’errore o WER (Word Error Rate) pari al 5,1%, in pratica equivalente alla capacità media umana di discernere le parole. Solo lo scorso anno tale numero era fermo al 12%.

Gli ingegneri Microsoft hanno anche pubblicato un report tecnologico in cui spiegano le complesse tecnologie impiegate per ottenere tale risultato. Senza scendere in dettagli eccessivi, gli ingegneri si sono concentrati sul miglioramento dei modelli acustici e linguistici della propria rete neurale. Hanno adottato una soluzione di tipo CNN-BLSTM (Convolutional Neural Network – Bidirectional Long-Short Term Memory) che combina appunto due tipologie di reti neurali già utilizzate in passato, una di tipo convoluzionale, ispirata all’organizzazione della corteccia visiva animale e un’altra chiamata appunto Bidirectional long-short-term memory.

Adesso ne saprete probabilmente quanto prima, ma quello che conta realmente rilevare è che nel futuro assai prossimo l’interfaccia uomo-macchina più utilizzata diventerà la voce.

I principali player tecnologici hanno investito pesantemente negli assistenti digitali gestiti tramite voce.

Servizi quali Siri (Apple), Alexa (Amazon), Cortana (Microsoft) stanno diventando parte integrante delle nostre vite, e vengono incorporati non solo nei classici devices (smartphone, tablet, TV, pc) ma anche in specifici apparati – solitamente speaker intelligenti – con l’ambizione di poterci mettere a disposizione un maggiordomo digitale in grado di rispondere a tutte le nostre domande e di compiere quegli atti per i quali normalmente possiamo utilizzare le tradizionali digitazioni.

Per chi pensa che si tratti solo di chiacchiere, durante l’ultimo Black Friday, Amazon ha dichiarato che sono stati venduti ‘milioni’ di apparecchi contenenti Alexa.

Infatti, solo nel 2017 sono stati venduti ben 25 milioni di assistenti vocali: numero ancora piccolo in valore assoluto ma enorme, tenuto conto della giovinezza della tecnologia.

Le crescite saranno esponenziali. Si stima quindi che entro il 2020 oltre il 50% di tutte le ricerche su internet sarà condotta tramite ricerca vocale. Già oggi siamo comunque poco sotto il 20% e il dato è ancora più alto per le nuove generazioni.

Possiamo pensare di spingerci oltre? Vi racconto una storia.

Durante i suoi primi 54 anni, Dennis DeGray è stato una persona attiva. Nel 2007 viveva a Pacific Grove, in California, e lavorava in un ristorante sul mare. Andava a fare surf quasi tutte le mattine. Poi, mentre portava fuori la spazzatura in una serata piovosa, è scivolato e ha battuto la testa, rompendosi il collo tra la seconda e la terza vertebra diventando, come si è espresso lui: “completamente non funzionale dalla clavicola in giù”. Da allora aziona la sua sedia a rotelle soffiando in una cannuccia e il resto lo potete facilmente immaginare.

La sua vita comincia a cambiare quando un neuroscienziato della Stantford University gli propone un progetto futuribile: impiantare un chip di silicio da mezzo cm2 nella sua corteccia motoria, per consentirgli di spostare un cursore sullo schermo di un computer attraverso il pensiero.

Questa cosiddetta interfaccia cervello-computer, o Brain Computer Interface (BCI), fornisce un modo per misurare direttamente l’attività neuronale e tradurla in azione. Per manipolare il cursore sul suo schermo, oggi DeGray immagina che la sua mano poggi su una palla su un tavolo e che stia cercando di farla rotolare in una delle quattro direzioni: sinistra, destra, in avanti, indietro. Con una tastiera posizionata sullo schermo, può scrivere nove parole e mezzo al minuto.

Sicuramente non è ancora abbastanza, ma ci sono moltissimi investimenti che saranno dedicati a questa sorprendente tecnologia.

Bryan Johnson, fondatore del servizio di pagamenti Braintree, ha investito 100 milioni di dollari per una startup BCI chiamata Kernel. Facebook Inc. sta sviluppando un’interfaccia da posare sul capo, che si dice permetterà agli utenti di digitare mentalmente i loro pensieri fino a 100 parole al minuto. Elon Musk, CEO di Tesla, sta sostenendo una tecnologia simile con la startup Neuralink, che promette una più stretta fusione di intelligenza biologica e intelligenza artificiale. Il Darpa – dipartimento di ricerca e sviluppo del Pentagono – sta finanziando nove progetti BCI che intende portare direttamente alla Food and Drug Administration. Prevede infatti che i produttori di dispositivi medici siano in grado di applicare l’hardware BCI a un’ampia gamma di progetti, tra cui i più importanti sono gli esoscheletri.

Già diverse società, tra cui Raytheon e Lockheed Martin, hanno sviluppato esoscheletri che aumentano la forza di corpi sani, quelli dei soldati. Se gli scienziati possono sviluppare sensori e attuatori che consentano ai quadriplegici di percepire e manipolare oggetti, potranno presto integrare l’uomo e l’esoscheletro in un cyborg perfettamente funzionante.

La tecnologia consentirà di estendere anche la distanza tra utente e macchina. I sensori posti sulle punte delle dita di un robot potrebbero ‘introdursi’ nella corteccia sensoriale di un utente, posto a qualunque distanza, e le informazioni di ritorno potrebbero guidare la mano del robot ad agire.

“Non ha molta importanza dove si trova il cervello”, ha affermato DeGray in un’intervista. “Ad un certo punto sarò in grado di volare come un uccello. Letteralmente, il cielo sarà il mio limite.“

Credo che andrò a riguardarmi Avatar con un occhio molto, molto, diverso.

Iscriviti a What's UP

Ricevi in anteprima tutti gli aggiornamenti