Hvordan lærer vi robotterne at opføre sig ordentligt?

En robot, der forholder sig til dig som menneske, og som genkender dine følelser og responderer herefter. Spørgsmålet er, om vi kan nå at oplære den godt nok, inden vi overlader den til at træffe beslutninger om liv eller død, vurderer Martin Mose Bentzen, adjunkt og forsker i robotetik ved DTU.

Receptionistrobotten har allerede erstattet den nydelige unge herre eller kvinde på hoteller i Japan. Flere steder i verden transporterer førerløse biler passagerer rundt, omend i afgrænsede områder. Og kæledyrsrobotter bringer glæde og tryghed til folk, der ikke er i stand til at tage vare på et levende væsen.

”De sociale robotter er her allerede i simple udgaver. I kontrast til industrirobotter parerer de ikke kun ordrer fra men interagerer også med os mennesker. Og der kommer hele tiden nye til. Der er kæmpestor efterspørgsel på undervisningsrobotter; Pentagon bruger mange milliarder på soldater- og dræberrobotter; og sexrobotter har helt sikkert også et marked,” siger Martin Mose Bentzen, ph.d. i logik og filosofi, der forsker i robotetik på DTU.

I årtier har vi bedt robotterne om at klare vores fysiske arbejde. Robotten er hurtigere og mere præcis. Og så keder den sig aldrig. Til det ensformige arbejde har vi endda opfundet betegnelsen ’maskinel’ som et udtryk for, at her ville det nok være mere hensigtsmæssigt, at en robot håndterede opgaven. I takt med computerkraftens indtog og i erkendelsen af, at selv de klogeste iblandt os taber – eksempelvis i skak – til et stykke software med den rigtige algoritme, knokler vi nu målrettet for lave robotter, der også kan træffe ’selvstændige’ beslutninger på baggrund af indhentet information.

”Det helt store spørgsmål lige nu er – eller bør i hvert fald være: Hvordan får vi de sociale robotter til at opføre sig ordentligt? Hvordan laver vi fælles standarder og etiske principper på tværs af samfund, hvor mennesker har svært ved at blive enige om disse? Og hvordan skal en robot forholde sig til en verden, der ikke som den selv bygger på logik? Hvordan skal den reagere i situationer, hvor forskellige regler og værdier er i konflikt med hinanden?” lyder det fra Martin Mose Bentzen.

Ratslør i bilindustrien

Låget er taget af diskussionen i bilindustrien, hvor et kapløb af sjældent sete dimensioner om at lancere den første serie af selvkørende biler for længst er begyndt. For inden bilerne bliver sendt ud i trafikken, skal der træffes en beslutning om, hvem bilen skal programmeres til at køre ned, hvis den f.eks. kun har valget mellem en håndfuld vejarbejdere i den ene side af vejen, en børnehave på udflugt i den anden og en lastbil fyldt med atomaffald ret forude.

I august skabte en udtalelse fra en leder hos Mercedes en del furore, da han sagde, at den selvkørende Mercedes altid vil prioritere at beskytte chaufføren.

”Men det er jo ikke så lidt problematisk. Bilisten sidder temmelig godt beskyttet i sin metalkasse og vil med størst sandsynlighed nok overleve en tur i grøften for at undvige den fodgænger, der til gengæld er i overhængende livsfare ved udsigten til at blive ramt af en bil. Og hvad så med eksempler som i Nice (terrorangrebet 14. juli, hvor en gerningsmand i lastbil påkørte og dræbte 85 mennesker, red.)? Bør vi så ikke programmere vores biler, så det er umuligt for dem at køre hen over en folkemængde?,” siger Martin Mose Bentzen.

Balladen fik Mercedes til at trække i land med en blød udtalelse om vigtigheden af at beskytte alle trafikanter. Men det er ikke vanskeligt at trække lignende dilemmaer ind i andre industrier, der på ingen måde har taget hul på de etiske diskussioner, selv om industrierne er langt fremme på robotfronten.

”Må en plejerobot lyve for en patient for at få vedkommende til at tage den livsnødvendige medicin? Eller måske ligefrem tvinge pillen ned i halsen på vedkommende? Skal undervisningsrobotten blive ved med at repetere syvtabellen, selv om barnet nu stortuder? Må den tage fat i barnet, sætte det på stolen og insistere på at fortsætte undervisningen, når barnet nu ganske tydeligt har givet udtryk for, at det hellere vil ud at lege,” spørger Martin Mose Bentzen og sætter trumf på:

”Politikerne verden over må se at komme på banen. For lige nu er etiske principper hos robotter ’Det Vilde Vesten’. Og hvis vi ikke får styr på robotternes værdisæt og laver fælles standarder – ikke mindst for sikkerhed – risikerer vi en ændring i folkets opbakning, som vi oplevede det med atomkraft. Et ’robot-Tjernobyl’ ville utvivlsomt sætte en stopper for en spændende og samfundsgavnlig udvikling, og det ville være trist.”

Denne artikel er fra særtillægget “Når teknologien tager over, giver det plads til mennesket”, hvor vi sætter fokus på, hvordan teknologien i højere grad kan blive til muligheder end til trusler. Du kan læse hele tillægget her.


Få Mandag Morgens overskrifter direkte i din mail.

Tilmeld dig nyhedsbrevet nu

Få Mandag Morgens overskrifter direkte i din mail.

Tilmeld dig nyhedsbrevet nu