L’intelligenza artificiale sta aiutando una donna gravemente paralizzata a parlare di nuovo per la prima volta dopo 18 anni.
La paziente, Ann, sta partecipando a una ricerca presso l’Università della California (UC) dove è in fase di sviluppo una nuova tecnologia.
Il sistema, descritto in uno studio pubblicato sulla rivista Naturaprevede un impianto cerebrale che si collega ai computer e consente ad Ann di comunicare tramite un avatar digitale simile a quello umano su uno schermo.
L’interfaccia cervello-computer decodifica i segnali cerebrali di Ann e li trasforma in un discorso sintetizzato che l’avatar digitale pronuncia ad alta voce ricreando contemporaneamente i movimenti facciali naturali.

Noè Berger
Gli scienziati dell’UC sperano che la loro ricerca possa un giorno portare a un sistema approvato dalla FDA che consentirebbe a pazienti come Ann, che sono coscienti ma fisicamente incapaci di parlare, di comunicare in modo più naturale quasi in tempo reale.
“Il nostro obiettivo è ripristinare un modo di comunicare completo e incarnato, che è il modo più naturale per noi di parlare con gli altri”, ha affermato il dottor Edward Chang, presidente di chirurgia neurologica presso l’UC San Francisco (UCSF) e autore dello studio. , si legge in un comunicato.
“Questi progressi ci portano molto più vicini a rendere questa soluzione una vera soluzione per i pazienti.”
Diciotto anni fa, quando Ann aveva 30 anni, subì un ictus al tronco encefalico che la lasciò gravemente paralizzata. Ha perso il controllo di tutti i muscoli del corpo e inizialmente non era nemmeno in grado di respirare da sola. I medici non conoscono ancora la causa dell’ictus, avvenuto all’improvviso.
“Da un giorno all’altro mi è stato portato via tutto”, scrive Ann, con l’aiuto di un dispositivo che le permette di scrivere lentamente sullo schermo di un computer facendo piccoli movimenti della testa. “Ho avuto una figlia di 13 mesi, un figliastro di 8 anni e un matrimonio di 26 mesi.”
“La sindrome bloccata (LIS) è proprio come sembra”, ha detto Ann utilizzando il dispositivo. “Sei pienamente consapevole, hai tutte le sensazioni, tutti e cinque i sensi funzionano, ma sei rinchiuso in un corpo dove non funzionano i muscoli.”
Negli anni successivi Ann si sottopose ad una scrupolosa riabilitazione fisica, durante la quale imparò di nuovo a respirare da sola e a muovere il collo. Ha anche imparato a muovere alcuni muscoli facciali, permettendole di ridere, piangere, sorridere e ammiccare, tra le altre azioni. Ma nonostante tutta la riabilitazione non riesce ancora a parlare.
Ann ha scoperto la ricerca condotta da Chang e colleghi nel 2021 dopo aver letto di un uomo paralizzato di nome Pancho.
Pancho aveva anche subito un ictus al tronco encefalico molti anni prima, e il gruppo di ricerca di Chang aveva cercato di tradurre i suoi segnali cerebrali in testo. Affinché funzionasse, Pancho doveva effettivamente tentare di parlare in modo che il sistema registrasse ciò che intendeva.
Secondo Chang, questa ricerca è stata la prima dimostrazione riuscita della decodificazione diretta di parole complete dall’attività cerebrale di qualcuno che è paralizzato e non può parlare.
Tuttavia, lo scienziato e il suo team volevano fare un ulteriore passo avanti con Ann. Quindi, per l’ultimo studio, gli scienziati hanno decodificato i segnali del suo cervello in un discorso reale, oltre a ricreare i movimenti facciali associati con un avatar.
Innanzitutto, i ricercatori hanno impiantato una serie di oltre 250 elettrodi sulla superficie del suo cervello, coprendo una regione fondamentale per il linguaggio. Questi elettrodi intercettano i segnali cerebrali che Ann produce quando cerca di parlare.
L’impianto è collegato ai computer tramite un cavo collegato a una porta appositamente progettata che sporge dal cranio.
Per un periodo di diverse settimane, Ann ha lavorato con i ricercatori per addestrare un sistema di intelligenza artificiale a riconoscere i suoi segnali cerebrali vocali unici.
Per fare ciò, Ann ha ripetuto frasi diverse da un insieme di oltre 1.000 parole in modo che l’algoritmo dell’intelligenza artificiale potesse riconoscere i modelli di attività cerebrale associati alle sottounità di base del discorso, note come fonemi.
Il sistema sviluppato dal team della UC, attualmente, può decodificare i segnali cerebrali in testo a una velocità di quasi 80 parole al minuto. Questo è significativamente più veloce del suo attuale sistema di comunicazione basato su testo, che può produrre solo circa 14 parole al minuto.
“La precisione, la velocità e il vocabolario sono cruciali”, ha affermato il ricercatore dell’UCSF Sean Metzger, un altro autore dello studio. Natura studio. “È ciò che dà ad Ann il potenziale, nel tempo, di comunicare velocemente quanto noi e di avere conversazioni molto più naturali e normali.”
La voce con cui parla l’avatar è personalizzata, basata sulla voce di Ann. Il team ha ricreato la voce utilizzando l’intelligenza artificiale per l’apprendimento delle lingue, che ha analizzato il filmato di un discorso di matrimonio tenuto nel 2005.
L’avatar, nel frattempo, simula i movimenti muscolari del viso di Ann con l’aiuto dell’intelligenza artificiale che sfrutta i segnali inviati dal suo cervello.
“Stiamo recuperando le connessioni tra il suo cervello e il tratto vocale che sono state interrotte dall’ictus”, ha detto nella dichiarazione Kaylo Littlejohn, uno studente laureato della UC Berkeley e un altro autore dello studio.
Il prossimo passo per il team è creare una versione wireless del loro sistema che consenta ad Ann di comunicare con esso senza che l’impianto sia fisicamente connesso
Il prossimo obiettivo del team è creare una versione wireless del proprio sistema che non richieda che Ann sia fisicamente connessa a nessun computer.
“Dare a persone come Ann la possibilità di controllare liberamente i propri computer e telefoni con questa tecnologia avrebbe effetti profondi sulla loro indipendenza e sulle interazioni sociali”, ha affermato David Moses, professore a contratto di chirurgia neurologica presso l’UCSF e co-primo autore dello studio. detto nel comunicato.
Ann ha affermato che il processo di aiuto al team per sviluppare questa nuova tecnologia di comunicazione le ha cambiato la vita.
“Quando ero all’ospedale di riabilitazione, il logopedista non sapeva cosa fare con me”, ha detto. “Partecipare a questo studio mi ha dato uno scopo, mi sento come se stessi contribuendo alla società. Mi sento come se avessi di nuovo un lavoro. È sorprendente aver vissuto così a lungo; questo studio mi ha permesso di vivere davvero mentre Sono ancora vivo!”