Sarà possibile tradurre i pensieri umani in linguaggio?
Un team di ricercatori della Columbia University ha sviluppato un sistema di interfaccia cervello-computer che traduce i segnali cerebrali in linguaggio riconoscibile ed intelleggibile.
Dal monitorare l'attività cerebrale di una persona, il sistema può ricostruire le parole che una persona ascolta con una chiarezza senza precedenti.
La scoperta, riportata sul giornale scientifico "Scientific Reports", potrebbe guidare ad un nuovo modo per i computer di comunicare direttamente con il cervello, e permettere di aiutare le persone che non possono parlare. "Le nostri voci aiutano a connetterci con i nostri amici, la nostra famiglia ed il mondo attorno a noi, per cui non poter parlare a causa di un disturbo o una lesione è molto sconfortante.
Con lo studio di oggi, noi abbiamo uno strumento potenziale per far recuperare la parola. Noi abbiamo mostrato che, con la giusta tecnologia, i pensieri di queste persone possono essere codificate e comprese da un ascoltatore" ha spiegato l'autore senior, il Dr. Nima Mesgarani, capo ricercatore al "Mortimer B. Zuckerman Mind Brain Behavior Institute" della Columbia University.
I tentativi precedenti di codificare i segnali cerebrali del Dr. Mesgarani e dei colleghi si focalizzavano su modelli computerizzati semplici che analizzavano gli spettrogrammi (rappresentazioni visivi di frequenze sonore). Ma poichè questo approccio è stato fallimentare nel produrre qualunque tipo di linguaggio riassemblato intelleggibile, il team scelse di affidarsi ad un vocoder (sintetizzatore vocale), un algoritmo al computer che sintetizzasse il linguaggio, dopo una pratica con le registrazioni vocali delle persone.
"Questa è la stessa tecnologia utilizzata da Amazon Echo o Apple Siri per dare risposte vocali alle nostre domande. Noi abbiamo chiesto a pazienti epilessici che erano stati operati al cervello, di ascoltare delle frasi di differenti persone, mentre misuravamo gli schemi di attività cerebrale. Questi pattern (schemi) neurali era utili come pratica per il vocoder" ha spiegato il Dr. Mesgarani.
Successivamente, i ricercatori chiedevano agli stessi pazienti di ascoltare le voci delle persone che, stavolta, dicevano una cifra da 0 a 9, mentre registravano i segnali cerebrali che sarebbero poi stati utili al vocoder nella produzione di linguaggio. Il suono prodotto dal vocoder in risposta ai segnali cerebrali dei pazienti era analizzato e pulito dai network neurale, un tipo di intelligenza artificiale che imita la struttura dei neuroni del cervello biologico.
Il risultato finale era una voce robotica che recitava una sequenza di numeri. Per testare l'accuratezza della registrazione, gli scienziati chiedevano agli individui di ascoltare la registrazione e riportare quello che ascoltavano. "Noi abbiamo scoperto che le persone potevano comprendere e ripetere il suono per il 75% del tempo. Il miglioramento nell'intellegibilità era evidente soprattutto confrontando le nuove registrazioni con i tentativi precedenti tramite lo spettrogramma.
Il vocoder ed i network neurale rappresentavano i suoni originali che i pazienti avevano ascoltato con una accuratezza sorprendente" ha concluso il Dr. Mesgarani. Gli autori dello studio ora stanno pianificando di testare parole e frasi più complicate e vorrebbero eseguire gli stessi test dei segnali cerebrali emessi sia quando una persona parla sia quando immagina di parlare. Infine, loro sperano che il loro sistema possa far parte di un impianto, simile a quello indossato da qualche paziente epilettico, che traducesse i pensieri di chi lo indossa direttamente in parole.
Tratto da Sci-news
(Traduzione ed adattamento a cura del Dottor Claudio Manna)
Scrivi articoli di psicologia e psicoterapia e ti piacerebbe vederli pubblicati su Psiconline?
per sapere come fare, Clicca qui subito!
Tags: linguaggio epilessia computer news di psicologia vocoder intelligenza artificiale