Ecco l'IA di Meta che riesce a tradurre il pensiero in parole

Ecco l'IA di Meta che riesce a tradurre il pensiero in parole
di

Il nuovo studio pubblicato addirittura su Nature Machine Intelligence da parte dei ricercatori di Meta AI, illustra un metodo promettente e non invasivo per decodificare il parlato dall'attività cerebrale.

"Dopo un ictus o una malattia al cervello, molti pazienti perdono la capacità di parlare. Negli ultimi due anni sono stati compiuti importanti progressi nello sviluppo di una protesi neurale: un dispositivo, tipicamente impiantato sulla corteccia motoria dei pazienti che può essere utilizzato, attraverso l'intelligenza artificiale, per controllare l'interfaccia di un computer. Questa possibilità, tuttavia, richiede ancora un intervento chirurgico al cervello e quindi non è privo di rischi", ha affermato Jean Remi King, ricercatore presso Meta.

Partendo da tale premessa e dopo aver scoperto se le IA hanno una coscienza, il team ha cercato di sviluppare un metodo alternativo e non invasivo per raggiungere lo stesso obiettivo.

"Invece di utilizzare elettrodi intracranici, utilizziamo la magnetoencefalografia. Si tratta di una tecnica di imaging che si basa su un dispositivo non invasivo in grado diacquisire più di mille istantanee dell'attività cerebrale al secondo. Poiché questi segnali cerebrali sono molto difficili da interpretare, addestriamo un sistema di intelligenza artificiale a decodificarli in segmenti vocali", ha sottolineato lo stesso King.

Allenando l’IA, è dunque possibile prevedere il parlato in base all’attività cerebrale registrata. Questo sistema di intelligenza artificiale è costituito da due moduli chiave, soprannominati "modulo cerebrale" e "modulo vocale".

Se da una parte il modulo cerebrale è stato programmato per estrarre informazioni dall'attività del cervello umano registrata utilizzando la magnetoencefalografia, dall’altra il modulo vocale identifica invece le rappresentazioni vocali da decodificare. Tutto ciò, contribuisce a dedurre ciò che viene ascoltato dal soggetto.

Lo studio ha coinvolto 175 partecipanti, ai quali è stato chiesto di ascoltare brevi storie narrate e frasi isolate mentre la loro attività cerebrale veniva registrata. Il team ha ottenuto i migliori risultati analizzando tre secondi di segnali magnetoencefalografici.

Nello specifico, sono riusciti a decodificare i segmenti vocali corrispondenti con una precisione media che arriva addirittura al 41% su oltre 1.000 possibilità tra i partecipanti. È importante inoltre sottolineare come alcuni partecipanti abbiano raggiunto una precisione pari all'80%. Forse non si tratterà di monitorare gli iceberg in meno di 1 secondo, ma sono ugualmente risultati incredibili.

"Siamo rimasti sorpresi dalle prestazioni di decodifica ottenute. Nella maggior parte dei casi, possiamo recuperare ciò che i partecipanti sentono e, se il decodificatore commette un errore, tende ad essere semanticamente simile alla frase target", ha concluso King.