Peter Hesseldahl er Mandag Morgens redaktør for digital omstilling. Han har tidligere dækket den teknologiske udvikling for bl.a. DR, TV2 og Politiken. Desuden har Hesseldahl i en årrække arbejdet som intern fremtidsforsker i LEGO og Danfoss, og som konsulent og projektleder i flere tænketanke i Danmark og udlandet. Forfatter til 7 bøger, senest "Omstilling til Fremtiden - Når teknologi bliver levende og liv bliver teknologi".
Computere, der vil lære at læse vores tanker
For mennesker med svære lammelser kan det være en fantastisk hjælp, hvis en computer kan aflæse deres tanker og omsætte dem til ord eller instrukser til proteser om at bevæge sig. I dag kan man forbinde patienter direkte til computeren – men engang bliver det måske, sådan vi alle sammen bruger internettet.
Egentlig er mobilen en elendig måde at kommunikere på. I betragtning af hvor bekvem, velfungerende og avanceret alt mulig anden teknologi er blevet, er det lidt af en vits, at vi er endt med et interface til informationsuniverset, der kræver, at vi skal holde på en lille skærm og forsøge at styre systemet med et minimalt tastatur – ét bogstav ad gangen.
Det kan ikke blive ved på den måde. Skærmen vil blive til briller, der viser data direkte i vores synsfelt og fungerer som hovedtelefoner. Vi vil tale til systemet i stedet for møjsommeligt at taste.
Måske går vi hele vejen og lader os forbinde direkte til computerne. Så slipper vi for at håndtere grejet, vi behøver ikke at bekymre os om at miste mobilen.
På længere sigt forestiller nogle sig, at det vil blive almindeligt at have et implantat i hjernen, der både kan aflæse vores tanker og velbefindende og modtage signaler fra den digitale verden – en direkte sammenkobling af vores nervesystem med internettets computere og alle de andre mennesker, hvis hjerne også vil være forbundet.
Der findes teknologi, der direkte kan aflæse og tolke de signaler, som kommer fra hjernen, og den bliver hastigt bedre. Med fintmærkende sensorer kan man opfange de forskellige elektriske impulser, som flyder gennem nervecellerne i vores hjerne, når vi vil bevæge vores krop, tale, reagere på indtryk eller tænker over noget.
Det bruges i dag til at hjælpe mennesker, som ikke kan bevæge sig, til at styre robotter og avancerede proteser eller til at give personer, der ikke kan tale, en måde at kommunikere på alene ved at tænke.
De teknologier, der opfanger og anvender hjernens signaler, kaldes under ét for BCI – Brain-Computer Interfaces. De signaler, man kan måle, er stadig meget grovkornede, men i takt med at sensorerne bliver bedre og billigere, og ikke mindst takket være brugen af kunstig intelligens og mønstergenkendelse, bliver det muligt at styre mere komplekse bevægelser af robotter og at tale hurtigere og mere nuanceret via en computer.
Samtidig er udviklerne begyndt at se på anvendelser, der ikke kun handler om at hjælpe alvorligt syge, men som kan være interessante for almindelige brugere.
Elon Musk er en af dem, der har formuleret visionen om at forbinde mennesker og computere, og et af Musks selskaber ved navn Neuralink er blandt verdens førende, når det handler om at implantere sensorer i hjernen.
Ser man på tværs af de ganske forbløffende forsøg, der gøres med brain computer interfaces rundt om i verden, tegner der sig en accelererende udvikling i retning af ikke blot at styre maskiner og kommunikere ved tankens kraft, men også, at signaler kan sendes den anden vej, så hjernen får indtryk, information og måske endda kunstige minder overført.
Genoptræning af lammede
Men… lad os starte med det, der faktisk er muligt i dag.
I praksis er de fleste brain-computer interfaces relativt enkle. Aalborg Universitet har et laboratorium for ’EEG & Brain-Computer Interfaces’, hvor man arbejder med hjernestyring.
Hvert år rammes omkring 12.000 personer i Danmark af blodpropper eller blødning i hjernen, og ofte fører det til lammelse af den ene side af kroppen, fordi forbindelsen er ødelagt mellem den del af hjernen, som styrer kroppens bevægelser, og videre til rygmarven, der fordeler signalerne til musklerne.
Hvis en patient eksempelvis vil løfte armen, vil der i hjernen dannes en intention, og det vil give sig udslag i et elektrisk signal i hjernebarken. Ved at måle den elektroniske aktivitet i hjerne, og filtrere og analysere, kan man aflæse signalet og derefter sende en lignende impuls ind i rygmarven – og så bevæger patientens arm sig.
Eller man kan sende signalet til en robotarm, der kan bruge det som instruks til at udføre bevægelsen.
En lignende metode kan bruges til genoptræning. Vores hjerne er meget plastisk, så hvis en del af hjernen beskadiges, kan det i nogle tilfælde lade sig gøre at genoptræne de funktioner, det går ud over, fordi andre dele af hjernen overtager opgaven. Hvis man, igen og igen, gennemgår bevægelsen i tankerne og sender signalet videre til musklerne, kan forbindelsen i hjernen blive gendannet, så man ikke længere behøver at bruge en computer.
På Aalborg Universitet måler man typisk ved at sætte elektroder på hovedet af patienter ved hjælp af noget, der ligner en badehætte. Man forsøger at opsamle signaler så tæt på det område i hjernen, hvor den aktivitet, man vil aflæse, dannes.
AI kan genkende mønstre i hjernens signaler
Kunstig intelligens og mønstergenkendelse er blevet en afgørende teknologi for at forstå det, elektroderne opfanger.
Ved at vise computeren en lang række eksempler på signaler og fortælle computeren, hvad de hver især betyder, kan computeren efterhånden opbygge en stadig mere præcis model, der gør den i stand til at skelne og kategorisere de signaler, den bliver præsenteret for.
Hver tanke har så at sige et ’fingeraftryk’ i form af en unik profil, som computeren lærer at genkende.
Men, som Mads Rovsing Jochumsen, der er lektor ved laboratoriet forklarer, så har man kun meget svage og slørede signaler at arbejde ud fra.
”Jeg plejer at sammenligne det med at skulle opfange en samtale mellem en gruppe personer der sidder på en tribune på et fyldt stadion, hvor der er tusindvis af andre tilskuere, der alle sammen råber i munden på hinanden, mens samtalen opfanges fra en mikrofon der står inde i midtercirklen på banen. Der er mange slags aktivitet i hjernen, og signalerne bliver udviskede på vejen gennem hjernehinderne og kraniet,” siger han.
Jochumsen skønner, at de med omkring 80 procents sikkerhed kan skelne, når en patient eksempelvis tænker på at bevæge sit ben.
Man kan imidlertid udrette meget, selv med ganske simple signaler. Hvis computeren kan lære at skelne, når en patient tænker på ‘op’, ‘ned’, ‘højre’ og ‘venstre’, er det nok til at kunne styre en robots bevægelser, spille computerspil eller til at vælge bogstaver eller symboler på en skærm af muligheder.
Sensorer indopereret i hjernen
For nogle patienter er det ikke muligt at genoptræne funktioner. Det kan være patienter, der har beskadiget rygsøjlen, så de er lammede fra halsen og ned. Nogle svært lammede kan kun kommunikere med deres øjnes bevægelser eller ved at bruge tungen på den måde, at man får en piercing, som kan bruges til at aktivere en lille touchpad, der sættes i ganen.
Med sygdommen ALS mister man efterhånden al kontrol med musklerne. Dermed kan patienten blive ’locked in’ – ude af stand til at kommunikere – selvom hjernen fortsat fungerer.
Det er i den type meget alvorlige tilfælde, at man forsøger sig med at indsætte sensorer direkte i hjernen.
Man skelner mellem Brain-Computer Interfaces, der er invasive og non-invasive.
De non-invasive sidder uden på hovedet, de er lette at tage af og på, er relativt billige at bruge og der er ingen risici forbundet med brugen af dem.
De invasive sensorer kræver, at man borer hul i hjerneskallen og sætter et lille gitterværk af tynde tråde omkring en halv centimeter ind i hjernen. Fordelen er, at målingerne bliver langt mere præcise.
Med elektroder uden på hovedet kan vi genkende signalet om, at en patient vil åbne eller lukke hånden. Med et implantat kan man f.eks. se, hvordan patienten vil bevæge de enkelte led i fingrene.
Mads Rovsing Jochumsen
Lektor, Aalborg Universitet
”Med elektroder uden på hovedet kan vi genkende signalet om, at en patient vil åbne eller lukke hånden. Med et implantat kan man f.eks. se, hvordan patienten vil bevæge de enkelte led i fingrene,” siger Mads Rovsing Jochumsen.
Det er imidlertid en risikabel procedure. Man skal bryde hjernehinden, og man risikerer at lave små blødninger i forbindelse med kirurgien. Hjernen er ikke et godt sted at få infektioner.
”Man skal afveje risikoen meget nøje. Patienten skal være meget hårdt ramt motorisk, før det etisk giver mening at tilbyde det,” siger Jochumsen.
Ti år efter at han blev lammet ved et cykeluheld kan en hollandsk mand nu gå op ad trapper, takket være et Brain-Computer Interface, han har fået indopereret i hjernen af forskere ved universitetshospitalet i Lausanne, Schweiz. |
Implantater virker
Kun omkring 50 personer har til dato fået indsat sensorer i hjernen, den første i 2004.
Et af de mest vellykkede eksempler er gennemført af universitetshospitalet i Lausanne i Schweiz, hvor en mand, der i mere end ti år havde været lam i benene på grund af et brud på rygsøjlen, fik implanteret en sensor, der har gjort ham i stand til i dag at gå op ad trapper og gå længere ture, støttet til en rollator.
Det er let at gå for en rask person, men reelt kræver det en meget kompleks koordination af mange forskellige musklers bevægelse, og signalerne skal analyseres og overføres inden for millisekunder, for at personen kan balancere.
Neuralink, der ejes af Elon Musk, har indsat et interface med 1024 elektroder i en menneskelig patient, som nu kan skrive e-mails, spille computerspil og styre sin kørestol ved tankens kraft. Elektroderne indsættes med en kirurgisk robot, 5-8 mm inde i hjernen. |
Et andet lovende eksempel er den første patient, der har fået implanteret en sensor fra Neuralink, det selskab, som Elon Musk har stiftet, og som i kraft af Musk har fået ekstremt meget omtale.
Neuralink har udviklet en kirurgisk robot, der nærmest som en symaskine kan indsætte et gitter af i alt 1.024 sensorer, 5-8 millimeter inde i hjernen. Sensorerne er formet som strenge, der hver er 20 gange tyndere end et menneskeligt hår.
Implantatet kan ses som en bule under huden på størrelse med to 20-kroners mønter oven på hinanden. Signalerne aflæses trådløst ved hjælp af bluetooth.
Patienten var en 30-årig mand, der var fuldstændig lammet fra halsen og nedefter. Han kan nu, med tankens kraft, betjene et computertastatur og styre sin avancerede kørestol.
Alt er dog ikke forløbet glat. Tre uger efter operationen begyndte flere af de små hår at bevæge sig ud, og forskerne var nødt til at ændre softwaren for at kompensere for de tabte sensorer.
Patienten, Noland Arbaugh, har givet en lang række interviews, hvor han fortæller, hvordan implantatet har givet ham frihed og gjort det langt lettere for ham at kommunikere. Han håber, at han i fremtiden vil kunne forbinde signalerne fra sin hjerne til Optimus, den menneskelignende robot, som er et andet af Elon Musks udviklingsprojekter.
Computeren omsætter tanker til tale
Det mere præcise signal, der kan indsamles med en implanteret sensor, gør det også muligt at omdanne patientens tanker til tale.
Igen er fremgangsmåden, at computeren ’trænes’ på en lang række eksempler og finder mønstre i signalerne fra hjernen. Patienten tænker et ord, og det skaber et unikt elektrisk signal, som computeren kan lære at genkende.
Når den har identificeret et ord, kan computeren generere udtalen af ordene, eventuelt med en stemme, der ligner patientens oprindelige stemme.
I et forsøg på Stanford University kunne en patient med ALS og i alt fire implantater i forskellige dele af hjernen ’tale’ med en hastighed på 62 ord i minuttet. Systemet var trænet til at skelne mellem 50 forskellige ord.
En computer har lært at tolke, hvilke billeder en person tænker på. Forskere ved universitetet i Osaka lod forsøgspersoner se 1000 billeder og målte de signaler, deres hjerne udsendte, når de så hvert billede. En kunstig intelligens var derefter i stand til at generere et lignende billede, når forsøgspersonen tænkte på billede. |
I Japan har man længe forsket i, om det på samme måde er muligt at genkende, hvilke billeder en person tænker på.
I et forskningsprojekt ved Osaka Universitet, der blev publiceret i december, brugte man ikke et implantat, men en fMRI-scanner, der måler blodgennemstrømningen, og dermed aktiviteten, i forskellige dele af hjernen.
Man opbyggede en computermodel ved at vise forsøgspersonerne 1.000 forskellige billeder og registrerede det mønster af aktivitet, som patienten reagerede på hvert billede med.
Når forsøgspersonen derefter tænkte på et af billederne, kunne signalet fra hjernen bruges til at få et billedgenereringsprogram til at danne et billede, som i mange tilfælde var forbløffende nøjagtigt.
Sidste år viste et forsøg ved universitetet i Berkeley i Californien, at det var muligt at genskabe et stykke musik ved at aflæse en persons tanker.
Forsøgspersonerne hørte Pink Floyds ’Another Brick In The Wall’, mens deres hjernes reaktion blev analyseret. Når patienten senere tænkte på musikstykket, kunne en generativ AI danne en genkendelig version af sangen ud fra signalerne fra patientens hjerne.
Computeren kan sende signaler til hjernen
Der arbejdes også på at sende signaler den anden vej – fra computeren til hjernen.
I enkelte forsøg har man sågar overført signaler fra én person til en anden. Ved University of Washington har man overført et signal, der fik modtageren til at løfte sin finger, når afsenderen tænkte på det. Man har også overført ja- og nej-svar på spørgsmål direkte mellem to personer.
De mest avancerede elektroniske proteser og robotter kan sende et signal retur som feedback, når de rammer en overflade eller griber om et objekt. Det gør det muligt at styre bevægelser mere præcist og sikkert.
Elektrostimulation af hjernen bruges til at behandle blandt andet Parkinsons syge og nogle typer depression, enten gennem elektroder udefra eller som såkaldt deep electrostimulation gennem elektroder, der indsættes i de relevante centre i hjernen.
Der findes desuden systemer med elektrostimulation af hjernen til at behandle smerter, for eksempel menstruationssmerter eller tinnitus.
I et forsøg på MIT Medialab undersøger man, om man kan hjælpe folk til at falde i søvn ved at stimulere balancenerven ved ørerne, så man oplever den samme vuggende fornemmelse, der får spædbørn til at sove.
Det er fascinerende forsøg, men der er lang vej til Elon Musks og science fiction-filmenes vision om at overføre viden, kompetencer eller minder til en person, fuldstændig som downloadede man software til en computer.
Indtil videre må vi fortsætte med at sende sms’er, så fejlfrit vi nu kan gøre det.