Generel

Forskere skaber neuralt netværk, der kan se folks bevægelser gennem vægge


Forskere fra MIT har skabt en teknologi, der ligner bemærkelsesværdigt røntgenvisionen fra vores sci-fi-superhelte. Projektet fra Computer Science and Artificial Intelligence Laboratory (CSAIL) bruger kunstig intelligens (AI) til at lære trådløse enheder at føle folks kropsholdning og bevægelse, selv fra den anden side af en mur.

MIT-forskerne siger, at projektet kaldet "RF-Pose" kunne bruges til at overvåge patienter med sygdomme som Parkinsons, multipel sklerose (MS) og muskeldystrofi. Ved at spore bevægelse kan læger få en bedre forståelse af sygdommens progression og justere medicin og pleje i overensstemmelse hermed.

Teknologi kunne hjælpe syge og ældre

Undervisning af trådløse enheder til at spore bevægelse kan også hjælpe ældre med at leve uafhængigt i længere tid ved at overvåge den måde, de bruger plads på, holde styr på fald eller advare folk om foruroligende ændringer i aktivitetsmønstre. AI-ingeniørerne arbejder sammen med læger for at undersøge det fulde potentiale i RF-Pose's applikationer.

Teknologien fungerer ved hjælp af et neuralt netværk til at analysere radiosignaler, der hopper af folks kroppe. Ud fra disse signaler oprettes en dynamisk pindfigur, der efterligner bevægelserne af sit mål.

Forskerne er godt klar over, hvor uhyggeligt projektet kan lyde og har allerede indbygget forholdsregler relateret til sikkerhed. Alle data indsamlet af den trådløse enhed kan kun ske med motivets samtykke, og disse data anonymiseres og krypteres for at beskytte brugernes privatliv.

Når teknologien går ind i applikationer i den virkelige verden, skal brugerne give samtykke til, at andre parter har adgang til deres bevægelsesdata. "Vi har set, at overvågning af patienters ganghastighed og evne til at udføre basale aktiviteter på egen hånd giver sundhedsudbydere et vindue i deres liv, som de ikke havde før, hvilket kunne være meningsfuldt for en hel række sygdomme," siger laboratorieleder Dina Katabi.

"En vigtig fordel ved vores tilgang er, at patienter ikke behøver at bære sensorer eller huske at oplade deres enheder." Traditionelt føres data til neurale netværk, der er mærket manuelt af mennesker.

For eksempel, for at lære et neuralt netværk at genkende en kat, ville forskere vise det billeder enten mærket 'kat' eller 'ikke kat'. Men radiosignaler kan ikke let mærkes af mennesker.

For at overvinde denne ændring indsamlede forskerne tusinder af prøver af mennesker, der gik og bevægede sig og sad fra både deres trådløse enhed og et kamera. De ekstraherede derefter en simpel pindfigur fra videooptagelserne og viste pindfiguren og de tilsvarende radiosignaler til det neurale netværk for at lære det at genkende bevægelser.

Ved at bruge både stickfiguren og radiosignalet var det neurale netværk i stand til at forstå sammenhængen mellem de to. Efter en intensiv træningsperiode var det neurale netværk i stand til at genkende folks bevægelse ved hjælp af kun de radiosignaler, det opdagede, der hoppede over deres kroppe.

Enheder, der er i stand til at generalisere viden for at se gennem vægge

Et overraskende resultat for forskerne var netværkets evne til at se gennem vægge. Fordi de forventede, at teknologien ville stole mere på kameraet, blev de glædeligt overrasket, da netværket var i stand til at fortsætte med at registrere bevægelser gennem væggen ved at generalisere sin viden.

"Hvis du tænker på computersynssystemet som læreren, er dette et virkelig fascinerende eksempel på, at den studerende overgår læreren," siger MIT-videnskabsmand professor Antonio Torralba.


Se videoen: Jeremy Rifkin: The Third Industrial Revolution (Oktober 2021).