Sparaliżowany mężczyzna może poruszać ramię robotów tylko myślami
O Człowiek miał małe czujniki wszczepione na powierzchni mózgu To może uchwycić aktywność mózgu, gdy wyobrażał sobie, że się porusza.
Sparaliżowanego mężczyznę zdołał chwycić, poruszyć i upuścić obiekty za pomocą robotycznego ramienia przymocowanego do urządzenia, które przekazuje oznaki jego mózgu do komputera, wykonując wszystkie te działania, po prostu je wyobrażając.
Urządzenie, zwane interfejsem mózgowo-komputerowym (BCI) i opracowane przez naukowców z University of California, w São Francisco (UCSF), Działał przez siedem miesięcy bez żadnych korekt.
Do tej pory urządzenia te działały tylko od dnia lub dwóch.
BCI wykorzystuje model sztucznej inteligencji (AI), który dostosowuje się do małych zmian, które występują w mózgu, gdy osoba powtarza ruch (w tym przypadku wyobrażony ruch) i uczy się tego w bardziej wyrafinowany sposób.
„Ta kombinacja uczenia się człowieka jest kolejną fazą tych interfejsów komputerowych mózgu i potrzebujemy wyrafinowanej i życiowej funkcji”-powiedział Karunesh Ganguly, neuronaukista w UCSF Institute of Weill.
Szczegóły urządzenia, finansowane przez amerykańskie National Institutes of Health (NIH), zostały opublikowane w czwartek w Cell Magazine.
Kluczem do tej innowacji było dowiedzieć się, jak zmienia się aktywność mózgu z dnia na dzień, gdy uczestnik badania wielokrotnie wyobraża określone ruchy.
Kiedy AI miała uwzględnić te zmiany, działało przez wiele miesięcy, autorzy wyjaśniają.
Przez miesiące Ganguly badał sposób, w jaki standardy aktywności mózgu zwierząt reprezentują określone ruchy i stwierdził, że reprezentacje te zmieniły się z dnia na dzień, jak nauczył się zwierzę.
Ganguly podejrzewał, że dzieje się u ludzi, dlatego jego BCI tak szybko traciły zdolność rozpoznania tych standardów.
Dzięki tym informacjom twój zespół współpracował z pacjentem, który został sparaliżowany po udarze i nie mógł mówić ani się poruszać.
O Człowiek miał małe czujniki wszczepione na powierzchni mózgu To może uchwycić aktywność mózgu, gdy wyobrażał sobie, że się porusza.
Aby sprawdzić, czy jego wzorce mózgu zmieniły się z czasem, Ganguly poprosił go, aby wyobraził sobie poruszanie różnych części swojego ciała i chociaż nie mógł się poruszać, jego mózg generował oznaki, które BCI zarejestrowało przez czujniki mózgu.
Zespół odkrył, że forma reprezentacji mózgu pozostała taka sama, ale ich lokalizacja zmieniła się nieznacznie z dnia na dzień.
Następnie Ganguly poprosił uczestnika o wyobrażenie sobie prostych ruchów palcami, rękami lub kciukami przez dwa tygodnie, podczas gdy czujniki rejestrowały aktywność mózgu, aby trenować AI.
Następnie pacjent próbował kontrolować robotyczne ramię i rękę, ale ruchy nadal nie były bardzo dokładne.
Ganguly sprawił, że ćwiczył wirtualne robotyczne ramię, które przekazało mu informacje zwrotne na temat dokładności jego poglądów i, wreszcie, CWirtualne ramię zrobił, co chciał.
Kiedy pacjent zaczął ćwiczyć z Royal Robotic Arm, Potrzebował tylko kilku sesji, aby przenieść swoje możliwości do prawdziwego świata i sprawić, by jego robotyczne ramię złapało bloki, kołysze je i przenieśli do nowych miejsc.
Udało mu się nawet otworzyć szafę, wziąć filiżankę i przenieść się do dystrybutora wody.
Kilka miesięcy później pacjent nadal mógł kontrolować ramię robotyczne i potrzebował tylko „Drobne strojenie” Minimalne, aby dostosować sposób, w jaki zmieniły się ich reprezentacje ruchu, odkąd urządzenie zaczęło korzystać.
A Zespół poprawia teraz modele AI tak, aby ramię robotyczne poruszało się szybciej i gładko, aby je przetestować w środowisku domowym.
Dla osób z porażeniem zdolność do karmienia lub picia wody byłaby zmianą życia, Coś gangly wierzy, że jest w naszym zasięgu: „Jestem bardzo przekonany, że nauczyliśmy się teraz budować system i że możemy sprawić, by działał”te.