Handicappede kan nu styre robotter med tankens kraft

Schweiziske forskere har undersøgt, hvordan henholdsvis fysisk raske og motorisk besværede personer er i stand til at styre og navigere en telerobot rundt i en bygning, udelukkende ved hjernens kraft.

Her ses en telepresence robot eller på dansk blot telerobot. Schweiziske forskere undersøgt, om man ikke kan bruge telerobotter til at hjælpe motorisk handicappede. Via telerobottens skærm og kamera, er det muligt for personer, der ellers er bundet til sengen, at være til stede ved f.eks. familiebegivenheder i udlandet. Billedet er fra lanceringen af iPhone 6s. (Foto: DAVID GRAY)

Der bliver flere og flere måder, hvorpå man kan aktivere og kommunikere med elektronik på. Fra 80’ernes lidt kiksede Clapper (klap to gange, og natlampen slukker!), er det med Siri og hendes rivaler i dag blevet muligt at tale til sine apparater: telefoner, computere, lydanlæg og elbiler.

Men hvad gør du, hvis du slet ikke er i stand til at tale, eller bare hellere ville koncentrere dig om at tale med menneskene omkring dig, i stedet for med et styresystem?

Eller hvad med det ikke helt usandsynlige tilfælde, at de store tech-giganter endnu ikke har brugt tid på at oversætte systemerne til et lille sprog som dansk?

Ja, så bør du måske kaste et blik på en helt ny kategori af apparater, nemlig BCI, Brain Computer Interfaces, eller på dansk hjerne-computer grænseflader.

Vær – nærmest – flere steder på én gang

Apparaterne der bruger BCI er udstyr, hvor hjernen sender signaler direkte til maskinen, f.eks. ved at fokusere på bestemte ord. Man er nu begyndt at se på, om man kan bruge BCI til at gøre hverdagen lettere for motorisk udfordrede, f.eks. via tankestyrede proteser eller kørestole.

Dertil er der også et særligt fokus på såkaldte telerobotter, der gør det muligt, at være repræsenteret og tage del i samtaler eller møder via en robot.

Du har sikker allerede hørt om telerobotter, og muligvis også i de lidt mere skræmmende eksempler, hvor chefer bruger dem til at overvåge medarbejdere (her er et illustrativt (og halvrussisk) eksempel ).

En telerobot har typisk en nedre del med motor og hjul, der står for al bevægelse, og en øvre del, der typisk er en skærm og et kamera eller en form for tablet. På tabletens skærm kan folk i rummet se afsenderen, og kameraet bruges til at sende billeder af omgivelserne tilbage til afsenderen.

Multitasking på hjernebølgeniveau

Et af de største problemer med telerobotterne, har været at få de udregninger, der oversætter tanke til handling, til at være robuste nok, og f.eks. få robotterne til at undgå forhindringer, og manøvrere omkring uden at sidde fast i møbler eller gå ind i vægge.

I en nylig forskningsartikel, har en række forskere fra det schweiziske tekniske universitet i Lausanne, EPFL, undersøgt hvad der sker, hvis man i højere grad kan få hjerne og robot til at arbejde sammen.

Se hvordan det er muligt for forsøgsdeltagernem at styre telerobotterne via hjernebølger.

Normalt kræver det nemlig en høj grad af koncentration for en person at afsende korrekte styringssignaler til telerobotten, alt imens personen typisk også har brug for at fokusere på det større billede og den sammenhæng, som robotten agerer i.

Idéen er derfor, at hvis nu robotten brugte kameraet til selv at analysere omgivelserne og i højere grad være selvstyrende, kunne brugeren nøjes med at give ganske få tankekommandoer, f.eks. blot fokusere på en slutdestination og så lade robotten selv finde derhen.

Det giver nogle nye problemer, for hvis robottens autopilot skal prøve at undgå forhindringer undervejs, bliver den nødt til at kunne forstå brugerens intentioner. En konflikt kunne for eksempel opstå, hvis brugeren nærmer sig en person med intention om at føre en samtale, og robotten samtidigt ser personen som en forhindring, hvorfor autopiloten forsøger at undvige.

Bedste resultat, når menneske og maskine arbejder sammen

I forsøget endte forskerne heldigvis alligevel med at konkludere, at for både fysisk raske og motorisk handicappede forsøgsdeltagere, var det muligt for hjernen, at vænne sig til en vis grad af autopilot, og ydermere viste det sig, at samarbejdet mellem hjerne og computer forbedrede hastigheden og præcisionen af navigationen.

Det var stadig en smule mere effektivt, hvis man blot styrede robotten med taster, som man f.eks. kender det fra computerspil, men alle forsøgsdeltagere klarede stadig opgaven med tankestyring indenfor den givne tidsramme.

Billede fra forsøget. Her ses, hvordan forsøgsdeltageren til venstre er iført en hætte, der måler hjerneaktivitet. Til højre ses telerobotten, der bevæger sig rundt styret af deltagerens tanker. (© Leeb et al./EPFL)

Forskerne konstaterede også, at de fysisk raske og de motorisk handicappede deltagere var præcist lige gode til at styre robotten rundt. Desuden viste det sig, at samtlige forsøgsdeltagere blev bedre til at styre robotten, jo flere gange de prøvede.

Man kunne forestille sig, at telerobotterne på et tidspunkt blev en fast del af fysisk handicappeds hverdag. Men før det sker, bliver forsikringsselskaberne dog først nødt til at tage stilling til teknologien og gerne investere i hjælpemidler, forklarer en af forskerne bag forsøget på universitetets hjemmeside.

Det tyder selvfølgelig på, at der godt kan gå lidt tid før kommercialiseringen for alvor tager fart. Imens vi venter, kan vi jo til gengæld glæde os over potentialet i hjernestyring som hjælpemiddel til fysisk handicappede eller patienter med alvorlige talevanskeligheder: det ser lovende ud, og udviklingen går den rigtige vej.

Søndag d. 25. oktober åbnes dørene til P1liveX - en eftermiddag i Koncerthuset, hvor DR's radioprogrammer præsenterer det nyeste inden for forskning og teknologi. Videnskabens Verden på P1 har inviteret hjerneforskere og patienter forbi, og sammen ser de nærmere på de muligheder, der opstår, når man sætter strøm til hjernen.

Facebook
Twitter