Fremtiden er landet: Kunstig intelligens afkoder dine hjernebølger og genskaber, hvad du ser

Selv om det umiddelbart virker som tankelæsning, er der andet på spil, vurderer ekspert.

Det russiske forsøg ser ud til at opnå hidtil uset nøjagtighed med aflæsning af hjernebølger med EEG. (© Neurobotics (skærmbillede fra YouTube))

En person sidder foran en computerskærm. På skærmen vises korte youtubeklip.

En racerbil på en vej. En grædende mand. En kuglebane.

På sit hoved har personen noget, der ligner en badehætte. Ud af hætten kommer små blå, røde og gule ledninger. Omkring halvtreds i alt. Ledningerne samles i større grupper, der løber ned ad ryggen på personen, nærmest som elektroniske dreadlocks.

Ovenstående er handlingen i en video, der viser et forsøg, som det russiske firma Neurobotics og universitetet Moscow Institute of Physics and Technology står bag.

I indlejrede billeder ved siden af personen med ledningehatten kan du se en større version af youtubeklippene, men forsøgets imponerende del er et lille og utydeligt billede i øverste højre hjørne.

Det viser et rekonstrueret billede af, hvad personen ser. En rekonstruktion skabt af kunstig intelligens, der afkoder personens hjernebølger.

Meget af tiden kan man tydeligt se ligheden mellem det ægte klip og det genskabte.

Bedre resultater end forventet

Men hvordan i alverden kan det lade sig gøre at skabe kunstige billeder alene ud fra hjernebølger? Den første del af svaret på det spørgsmål er Elektroencefalografi, EEG.

Badehætten på personens hoved er i virkeligheden en samling af elektroder til EEG. De kan måle vores hjernebølger - de bittesmå elektriske signaler, som nervecellerne i vores hjerne hele tiden skaber.

Første del af det russiske forsøg handler om at kunne genkende et mønster i hjernebølgerne. Derfor har forskerne vist korte youtubeklip til forsøgspersoner og optaget deres hjernebølger imens.

Klippene er inddelt i kategorier, som forskerne har bestemt. De er vandfald, menneskeansigter, motorsport, bevægelige mekanismer og abstrakte former.

Når optagelserne er sikret, bliver de analyseret og forskellene mellem de forskellige kategorier bestemt. På den måde kan forskerne angiveligt efterfølgende, og mens det sker, bestemme, hvilken kategori af videoklip testpersonen ser.

Det er ifølge forskerne bag første gang, man har fået så præcise resultater med EEG, siger Grigory Rashkov, en af forskerne bag.

- Vi forventede ikke, at den (EEG-aflæsningen, red.) indeholdt nok information til at genskabe et billede, hverken helt eller delvist. Men det viste sig, at det faktisk var muligt.

Forskningen er offentliggjort i en foreløbig udgave, der ikke er eftertjekket af en videnskabelig komité, og derfor må vi indtil videre tage forskernes udsagn om præcision for pålydende.

AI skaber de overbevisende billeder

Resultatet af elektrodernes aflæsning gemmes, for de skal bruges i anden del af forsøget, som handler om at genskabe billederne på kunstig vis. Her kommer den kunstige intelligens rigtig på banen.

Der er to neurale netværk på spil her, som i samspil er i stand til at skabe billeder ud fra testpersonens hjernemønstre. Neurale netværk kan meget groft ses som en kunstig hjerne, der er lavet til at fokusere på en bestemt opgave.

Hvordan det rent faktisk fungerer er lidt kompliceret, så hold godt fast.

Det starter med, at forskerne har udvalgt tre kategorier af videoer, som testpersonen ser.

Det første neurale netværk analyserer testpersonens hjernebølger for at bestemme, hvilken kategori af videoer der bliver set. Her bruges både videoklip og EEG-målingerne fra første del af forsøget.

Det gives videre til det andet neurale netværk, hvis opgave det er at skabe levende billeder. Dette netværk er fodret med de samme klip fra YouTube, som forskerne brugte, da de skulle bestemme EEG-mønstrene.

- Metodisk er det egentlig ganske elegant, fortæller Anders Kofod-Petersen, vicedirektør på Alexandra Instituttet og professor i kunstig intelligens ved Norges Teknisk-Naturvidenskabelige Universitet (NTNU) i Trondheim.

Resultatet - de grynede billeder, som er kunstigt skabt af det neurale netværk - kan næppe kaldes elegant.

Men når man ser forsøget udfolde sig, virker det, som om computeren læser forsøgspersonens tanker.

Visuel rekonstruktion er et stort fremskridt

Så avanceret er forsøget dog ikke.

- Det er ikke tankelæsning, men snarere rekonstruktion af visuelt input, fortæller Anders Kofod-Petersen.

Ifølge de russiske forskere er målet at give personer, som har haft et slagtilfælde, en bedre hverdag. Her tegner projektet lovende, mener Anders Kofod-Petersen.

- Sammenlignet med tidligere arbejde, som typisk har drejet sig om at få en rullestol til at svinge til venstre og højre, er det helt klart et stort fremskridt. Det er oplagt, at hvis man kan hjælpe folk, som er bundet til deres kørestol, er det da en god ting, siger han.