| | Analyse

Une IA soutenue par Facebook rend la parole à un tétraplégique

Facebook a renoncé à son projet de lire les pensées mais supporte une recherche prometteuse pour les personnes muettes parce que paralysées. | Facebook

«C’est comme avoir une seconde chance de pouvoir parler». Ces mots, Pancho, un ouvrier agricole californien rendu muet par une paralysie complète à l’âge de 20 ans après un accident de voiture, les a pensés et dictés, comme 9000 autres phrases, à un ordinateur. Les signaux captés dans son cerveau par un implant ont été traités par un logiciel d’intelligence artificielle qui a appris à déchiffrer son langage à partir de l’intention de prononcer des mots dans ses neurones. Une première supportée par Facebook et publiée dans le New England Journal of Medicine, qui ouvre une nouvelle piste aux interfaces homme-machine.

Pourquoi c’est un tournant. Les personnes intactes sur le plan cognitif qui sont tétraplégiques suite à un accident, un AVC ou une maladie comme la sclérose latérale amyotrophique — la maladie de Stephen Hawking — savent ce qu'elles veulent communiquer. Leur cerveau prépare des messages à prononcer, mais ces messages sont piégés par la paralysie. C’est là que les interfaces cerveau-machine et des algorithmes d’intelligence artificielle entrent en jeu.

Le contexte. Des dispositifs existants comme la capture du mouvement des yeux permettent des formes de communication. Elles restent très fastidieuses pour le patient. Des interfaces cerveau-machine sont donc développées pour transformer l’intention des mots captée dans le cerveau en paroles. Leur association avec une intelligence artificielle ouvre une piste prometteuse selon Jonas Zimmermann, un neuroscientifique qui développe des versions mobiles de telles interfaces au Wyss Center à Genève.

Cet article est réservé aux abonnés.