
Sparaliżowany po udarze mężczyzna „przemówił” dzięki nowatorskiej neuroprotezie mowy
Mężczyźnie, który został sparaliżowany na skutek udaru, wszczepiono specjalny implant umożliwiający przekazywanie do komputera sygnałów generowanych aktywnością jego mózg. Dzięki nowej technologii fale mózgowe mogą być dekodowane i przekształcane w zdania, które są wyświetlane na monitorze. To kolejny przełom w pracach nad metodami komunikacji wspomaganej, dający nadzieję na poprawę jakości życia osób z anartrią (zaburzenie mowy objawiające się niemożnością tworzenia artykułowanych dźwięków) oraz stwardnieniem zanikowym bocznym.
Kim jest pacjent Pancho?
Pacjent, który utracił zdolność artykulacji mowy oraz zmaga się ze spastycznym niedowładem czterokończynowym, spowodowanym udarem pnia mózgu, chcąc chronić swoją prywatność, przybrał pseudonimem Pancho. Niegdyś, aż do poważnego wypadku samochodowego, był pracownikiem terenowym w winnicy. W wielu 20 lat doświadczył udaru pnia mózgu, który prawdopodobnie został spowodowany pooperacyjnym zakrzepem krwi.
38-letni dziś Pancho, samodzielnie zgłosił się na ochotnika do testowania urządzenia opracowanego przez neurochirurga Edwarda Cheunga i jego współpracowników, stając się pierwszym uczestnikiem programu badawczego BRAVO1 (ang. Brain-Computer Interface Restoration Arm and Voice 1). Zanim umożliwiono mu korzystanie z innowacji, mężczyzna porozumiewał się, używając wskaźnika przyczepionego do czapki baseballowej, którym wskazywał litery na ekranie. Przypadek został dokładniej opisany w „New England Journal of Medicine”.
Jak powstawała pierwsza „neuroproteza mowy”?
Naukowcy z Uniwersytetu Kalifornijskiego w San Francisco (UCSF), zanim przystąpili do prac nad neuroprotezą mowy, wcześniej spędzili wiele lat na obserwacji pacjentów i na mapowaniu obszaru mózgu, która jest związana z mową. Badacze tymczasowo umieszczali elektrody w mózgach ochotników poddawanych operacji padaczki i dopasowywali aktywność mózgu do mówionych słów.
Tym razem wszczepili do mózgu prostokątny arkusz, składający się 128. Elektrod. Był on przeznaczony do wykrywania sygnałów z procesów sensorycznych i motorycznych związanych z mową, połączonych z ustami, wargami, szczęką, językiem i krtanią ochotnika. Wykorzystali tzw. algorytmy głębokiego uczenia maszynowego, które są jednymi z najbardziej zaawansowanych. Potrafią one naśladować sieci neuronowe, w celu stworzenia modeli obliczeniowych oraz wykrywania i klasyfikacji słów na podstawie aktywności mózgu.
Przetwarzanie impulsów i wyświetlenie odczytu na ekranie trwa w prawdzie nieco dłużej, niż zajęłoby wypowiedzenie konkretnego pojedynczego słowa przez człowieka bez dysfunkcji mowy, niemniej czas, w jakim pojawia się ono na ekranie, jest krótki i zajmuje około 3–4 sekundy.
W ciągu 50. sesji trwających 81 tygodni komputer analizował wzorce, kiedy pacjent podejmował próbę wypowiedzenia różnych słów, aż w końcu był w stanie odróżnić 50 słów podstawowych, które pozwalały utworzyć ponad 1000 zdań. W prawie połowie z 9000 prób, gdy Pancho próbował wypowiedzieć pojedyncze słowa, algorytm zrobił to dobrze. Kiedy w końcu przeszedł do interpretowania całych zdań, radził sobie jeszcze lepiej.
Powiązane produkty
Jaki będzie kolejny krok w leczeniu zaburzeń mowy?
Zespół zapowiada kontynuację pracy i doskonalenie szybkości, dokładności i zakresu słownictwa urządzenia. Naukowcy planują poszerzyć badania i zaprosić do współpracy kolejnych uczestników. Będą dążyć do umożliwienia bardziej naturalnej komunikacji osobom, które utraciły mowę z powodu urazu lub choroby. W dalszej perspektywie planują stworzyć rozwiązanie, które umożliwi użytkownikom komunikowania się nie tylko za pomocą tekstu, ale także głosem generowanym komputerowo.