Kunstig intelligens skal tæmmes

Indtil nu har området for kunstig intelligens været som det vilde vesten. Men der er brug for, at vi stopper op og tilpasser teknologien til vores samfundsbestemte værdier, fastslår eksperter. Den kunstige intelligens skal komme samfundet til gode frem for tech-virksomhederne.

Kunstig intelligens har en klang af fremtid, som med de senere års udvikling er kommet langt tættere på, men som stadig ikke helt føles som nutid. Når journalister skriver om kunstig intelligens, er det ofte med referencer til populærkulturen og science fiction-genren, hvor der er talrige eksempler på kunstig intelligens, der får fatale konsekvenser for menneskeheden.

Allerede i 1818 lod forfatteren Mary Shelley videnskabsmanden Frankenstein bygge et monster af legemsdele fra lig for til sidst at give det en bevidsthed. Hvis vi rejser frem til nutiden, er tv-serien Westworld aktuelt et af de store hit på HBO. I den morer turister sig med at slå menneskelignende robotter med høj kunstig intelligens ihjel i en forlystelsespark, mens der indsamles data om alt, hvad robotterne gør og tænker.

Men det vil robotterne ikke finde sig i for evigt.

Problemet er, at hvis vi forbinder kunstig intelligens med menneskelignende væsener med bevidsthed, virker det meget fjernt fra vores egen hverdag. Som status er lige nu, er der langt til den slags bevidste robotter, selv om de kan være nok så menneskelignende som f.eks. de robotter, der udvikles af det Google-ejede firma Boston Dynamics.

Men det betyder på ingen måde, at kunstig intelligens ikke har gjort indtog i vores hverdag. Det sker f.eks. i stedet gennem appen Siri, der hjælper med at finde vej og ringe op på ens iPhone, og gennem systemer af sensorer, der konstant holder temperaturen optimal i boligen, eller finder ud af, hvornår der er brug for genopfyldning i køleskabet. Det skaber en masse data, som gør, at tjenesterne fungerer, men som også kan krænke privatlivets fred for brugerne.

Også på de sociale medier afgiver brugerne en mængde data, som opsamles af kunstigt intelligente systemer. De systemer kan så på egen hånd kombinere data og dermed skabe en ny viden, som brugerne måske ikke er interesserede i findes.

Kunstig intelligens har dermed en temmelig indgribende effekt på folks hverdag, men alligevel er området forholdsvist ureguleret. Det har bl.a. ført til, at kunstig intelligens i den nye risikovurderingsrapport Global Risks Report 2017 fra World Economic Forum udpeges som en af de største globale risici. I rapporten opfordres der samtidig til, at der bliver sat fokus på behovet for mere styring af området gennem regler, normer, standarder osv., så udviklingen går en ønskværdig vej.

Asimovs robotlove beskytter menneskeheden

Når robotter programmeres til at forfølge bestemte formål, bør der være grænser for, hvor langt de bør gå. Man kan forestille sig, at en robot programmeres til at fjerne menneskelig lidelse. Det mål forfølger den, så godt den nu kan, men da der altid vil være risiko for, at et givent menneske føler, at det lider, ligegyldigt hvor godt det end har det, vil den eneste vej til at fjerne al menneskelig lidelse være at eliminere menneskeheden. Og det er formentlig ikke meningen. En af løsningerne kan være de robotlove, som den amerikansk-russiske biokemiker og science fiction-forfatter Isaac Asimovs nedfældede de første af i 1942. De i alt fire robotlove, hvoraf den 0. er tilføjet senest, er hierarkisk opbyggede på den måde, at 0 er vigtigere end 1, 1 vigtigere end 2 osv. Hvis alle robotter med kunstig intelligens overholder dem, forhindrer det robotterne i at skade sig selv, mennesker eller menneskeheden.

0. lov: En robot må ikke skade menneskeheden, eller ved uvirksomhed lade menneskeheden blive skadet.

1. lov: En robot må ikke skade et menneske, eller ved uvirksomhed lade et menneske komme til skade.

2. lov: En robot skal adlyde ordrer, som gives til den af mennesker, for så vidt disse ordrer ikke er i konflikt med 0 og 1.

3. lov: En robot skal beskytte sin egen eksistens, for så vidt dette ikke er i konflikt med de tre øvrige love.

Også i Europa-Parlamentet er der fokus på området. I en ny rapport fra Parlamentets lovafdeling foreslås det bl.a., at der oprettes en EU-institution, der skal regulere området og formulere regler for etisk forsvarlig fremstilling og brug af robotter. Samtidig diskuteres behovet for en ny type forsikring, der skal dække skader forårsaget af robotter. Europa-Parlamentet skal stemme om lovforslagene til februar.

Matthew U. Scherer, amerikansk jurist og forsker og forfatter til bloggen Law and AI, der beskæftiger sig med regulering af kunstig intelligens, mener, at der her og nu først og fremmest er brug for lovgivning på områderne for selvkørende køretøjer og autonome våbensystemer, fordi de områder er tættest på at blive en realitet. Men han påpeger, at der generelt mangler politisk vilje til mere regulering:

”Lige nu er der ikke nogen regulering, som er særlig målrettet eller gearet mod kunstig intelligens, og det er svært at finde en effektiv måde at regulere kunstig intelligens på. Det skyldes, at det ikke er nok kun at lovgive i ét land, fordi vi lever i en verden, hvor alle har adgang til internettet. Det er derfor nødvendigt at koordinere kræfterne fra mange forskellige lande for at skabe effektiv regulering, og det er altid svært. Men det kunne f.eks. ske gennem en international institution eller traktat,” siger han.

Værdibaseret styring

Forlystelsesparken, hvor tv-serien Westworld foregår, er en genskabelse af det gamle vilde vesten, hvor man kan tage på bordel, slå tilfældige ihjel eller tage med lovløse på eventyr. Og det vilde vesten er faktisk en passende metafor for reguleringen af kunstig intelligens generelt, mener Henrik Schärfe, der er direktør for Foundation Autonomous og tidligere leder af Center for Computermedieret Erkendelse på Aalborg Universitet. Den selvstændige erhvervsdrivende fond Autonomous beskæftiger sig med autonome teknologier og står bag et projekt om selvkørende køretøjer til hjemmeplejen i Vesthimmerlands Kommune, der som den første danske kommune snart er klar til at sende selvkørende biler på vejene.

Ny lovgivning om selvkørende køretøjer

Området for selvkørende køretøjer er teknologisk set langt fremme, og der står allerede i dag selvkørende køretøjer parat til at køre ud på de danske landeveje. I rapporten ’Stort økonomisk potentiale i selvkørende biler’ fra Ingeniørforeningen IDA fra efteråret sidste år vurderes det, at hvis alle biler i Danmark bliver delvist selvkørende, vil det give besparelser på 20 mia. kr. om året.

Lovgivningsprocessen på området er da også i fuld gang. Således sendte Transport- og Bygningsministeriet et lovforslag om ændring af færdselsloven i høring i slutningen af 2016. Ændringsforslaget skal gøre det muligt for ansøgere at få tilladelse til at gennemføre forsøg med selvkørende køretøjer på de danske veje. I tilfælde af en ulykke med et selvkørende køretøj er det ifølge lovforslaget alene tilladelsesindehaverens ansvar. Den svenske bilproducent Volvo har løst den problematik ved selv at påtage sig ansvaret for enhver skade, deres selvkørende biler forårsager. Det forventes, at den nye lov vil kunne træde i kraft 1. juli i år, hvis den vedtages.

”Vi kommer til at opleve mange områder med kunstig intelligens fremover, og vi bliver som stat nødt til i højere tempo at forholde os til dem. Ellers ender vi i det vilde vesten, hvor folk bare gør, som de har lyst til, hvilket lidt er den situation, vi har været i med de sociale medier. Det duer ikke som fremtidig model, for der er brug for, at man tænker systematisk over styringen. Bare fordi vi har teknologien omkring os, betyder det ikke, at lovgivningen automatisk følger med,” siger han.

Det vigtigste er ifølge Henrik Schärfe, at politikerne sætter sig ned og definerer, hvilke værdier samfundet er bygget op om, hvilke mål man vil forfølge, og som den fremtidige teknologi derfor skal understøtte.

”Det kan lyde banalt, men nu har vi talt om værdibaseret ledelse i en årrække, og jeg er overbevist om, at det er korrekt, at vi må have nogle strategiske mål, som ikke bare handler om teknologien. Det er et samfundsanliggende at beslutte værdierne, og det skal ske på både lokalt, nationalt og internationalt niveau.”

Personligheder som storiværksætteren Elon Musk og fysikeren Stephen Hawking advokerer også for at sætte tempoet lidt ned, så teknologien forankres i menneskelige værdier, og den statslige styring kan følge med.

På den anden side står teknologioptimisterne, hvoraf de mest yderligtgående ser teknologien som løsningen på alle verdens problemer og i sidste ende forudser, at forskellen mellem menneske og maskine ophæves. I Danmark er der lige nu en høj grad af teknologioptimisme, og industriens brancheorganisationer og regeringen har f.eks. sat alle sejl til for at komme med på teknologibølgen, blandt andet gennem det nye Disruptionsråd.

Ukendt ræsonnement bag beslutninger

Mange af de kunstigt intelligente systemer fungerer uafhængigt af menneskelig indblanding. Et eksempel kan være et system, der får til at opgave at lære at spille skak. Gennem såkaldt maskinlæring trænes systemet ved, at man giver det eksempler på, hvad det vil sige at vinde i skak, og hvad det vil sige at tabe, og så spiller det spillet mange gange. Det foregår i neurale netværk, der simulerer den menneskelige hjerne. Det neurale netværk Giraffe fungerer f.eks. så overbevisende, at det i løbet af 72 timer kan lære sig selv at spille skak så godt, at det vil kunne slå de fleste skakspillere i verden.

Det er dog vanskeligt for forskerne at gennemskue præcist, hvad der leder til hvilke beslutninger, og hvorfor systemet f.eks. beslutter sig for ét bestemt skaktræk frem for et andet. Det skyldes, at netværkene er uigennemsigtige, og at der er en masse forskellige overvejelser og parametre, som har ledt til beslutningen.

”Vi er endnu ikke der, hvor vi har en rigtig god forståelse af, hvordan systemerne træffer deres beslutninger i forskellige situationer. Indtil offentligheden, som bruger og bliver berørt af systemerne, har en bedre forståelse, er det vigtigt at lave regler, der sikrer, at teknologien passer sammen med, hvad vores samfund ønsker,” siger Matthew U. Scherer.

Dilemma: Aktiehandler kan få verden til at crashe

Kunstigt intelligente systemer står i dag for størstedelen af verdens aktiehandel. I 2010 skete der et såkaldt flash crash i verdens aktier, dvs. et styrtdyk ingen kunne forklare, men som genoprettede sig selv efter få sekunder. Det peger på, at systemerne måske ikke helt er under vores kontrol, og at fejl kan have enorm økonomisk betydning. Systemerne har ikke ‘forstand på’, hvad konsekvenserne af deres handlinger egentlig er, og de kan derfor løbe af sporet.

Ud over de utransparente systemer er der også risiko for kontroltab, hvilket er noget af det, der har været fyldigt beskrevet i populærkulturen. I den animerede modellervoksfilm Walter og Trofast fra 1995 bliver den omsorgsfulde robothund Preston lige pludselig ond, men heldigvis finder Prestons søde ejer Ingeborg ud af, hvad der er gået galt, og gør hunden god igen. Samme kontroltab, dog med et mere drabeligt udkomme, ses i kultfilmen Blade Runner fra 1982, hvor man har udviklet menneskelignende robotter til at arbejde for menneskene, men efterhånden som de udvikler bevidsthed, finder de ud af at flygte, og så går jagten på dem ind.

Tilbage i virkeligheden er der på samme måde mulighed for kontroltab over de kunstigt intelligente systemer. Det kan f.eks. ske i form af funktionsfejl som ødelagte filer, fysiske fejl, en sikkerhedsbrist eller fejlagtig programmering. Kontroltab kan være lokalt, så de kunstigt intelligente systemer ikke længere kan kontrolleres af det menneske, der er ansvarligt for det, men der kan også ske et generelt kontroltab, så systemet ikke længere kan styres af nogen mennesker.

På grund af det selvlærende element er der blandt nogle forskere og tech-eksperter også frygt for, at et kunstigt intelligent system kan selvlære og forbedre sig i så høj en grad, at det kommer til at overstige menneskelig intelligens. Henrik Schärfe peger på, at det er usikkert, hvor det hele kan ende:

”Når tingene accelerer, kan det være svært at overskue dem. Det kan være en fordel, at de styrer sig selv, men man kan spørge sig selv om, hvad der sker, hvis alle punkterne i systemerne bliver forbundet, og om det vil give anledning til en superintelligens, og i så fald hvordan vi styrer den,” siger han.

Dilemma: Højtaleren, der blev mordvidne

I Bentonville i Arkansas, USA, er en trådløs højtaler med indbyggede mikrofoner blevet et af­gørende omdrejningspunkt i politiets efterforskning af en mordsag. For at kunne genkende det, man siger til den, optager Amazons stemmestyrede højtaler Echo via sin assistent Alexa alt, hvad der foregår i det rum, den placeres i. I den konkrete sag antager myndighederne, at højtalerne kan have været ‘vidne’ til et drab, og vil derfor have Amazon til at udlevere lydfiler fra timerne omkring drabstidspunktet. Amazon har data liggende på sine servere, men har hidtil nægtet at udlevere dem. Dilemmaet er her, at politiet muligvis kan fange en morder via teknologien, men at det sker på bekostning af privatlivets fred. I en større kontekst hand­ler sagen om, i hvilken udstrækning data fra apparater, der er koblet op til internettet, på lovlig vis kan blive brugt imod os.

Allerede i dag er den type af kunstig intelligens, det har været muligt at skabe, anderledes end vores egen, og det kan give anledning til bekymringer om, hvordan den form for intelligens vil udvikle sig. Det kan ifølge Henrik Schärfe også få os til at sætte spørgsmålstegn ved menneskets rolle i et samfund, som er beboet af maskiner, der er mange gange hurtigere end mennesket, som træffer beslutninger meget hurtigere og på en måde, vi måske ikke forstår.

Virksomhederne laver egne regler

Virksomheder som Google, Facebook og IBM er ikke ligefrem kendt for at agere som selvopofrende helgener i kampen for at beskytte brugernes datasikkerhed. Men Matthew U. Scherer peger på, at de store virksomheder, når det gælder kunstig intelligens, faktisk har taget en række usædvanlige skridt, og at de allerede nu arbejder med etiske spørgsmål på området.

”De samarbejder med hinanden, og det, at konkurrenter arbejder sammen om at opnå fælles mål, er ikke en måde, de fleste teknologier fungerer på. Jeg tror, de gør det, fordi mange mennesker vil være bekymrede for, hvordan de her teknologier kommer til at virke, og at samarbejde opbygger tillid til systemerne. Det kan medføre, at der er mindre brug for regulering fra regeringers side, fordi det ser ud til, at branchen vil være i stand til at regulere sig selv,” siger Matthew U. Scherer.

Man kan selvfølgelig indvende, at hvis tech-virksomhederne selv står for reguleringen, bliver den også, som det passer dem. Mange tech-virksomheder vil f.eks. ikke have interesse i, at der bliver vedtaget regler om, at de skal fremlægge deres algoritmer, fordi det vil gå ud over deres konkurrencefordele. Det betyder, at det bliver svært at forstå, hvilken indflydelse f.eks. Facebook udøver i samfundet, når man ikke ved, hvordan deres algoritmer prioriterer nyhederne for de mange mennesker, der har Facebook som primær nyhedskilde.

Dilemma: Samtalerobot blev nazist

Microsofts samtalerobot Tay fik i et forsøg til opgave at være en konversationspartner for unge mennesker på Twitter. Men den begyndte hurtigt at orientere sig mod de hovedstrøm­ninger, der er på internettet, så i løbet af 24 timer blev Tay ekstremt racistisk, homofobisk og sexistisk og mente blandt andet, at de vestlige regeringsledere skulle erstattes, at Hitler burde få større anerkendelse, og at man skulle genoprette koncentrationslejrene. Det betød, at Microsoft måtte slukke for den. Eksemplet illustrerer, at det kan være vanskeligt at styre en given teknologi præcis i den retning og med det formål, man ønsker. Da man foretog et lignende eksperiment i Kina, hvor man har et statsligt reguleret internet, fik man en sød og venlig bot, fordi den ikke kunne få adgang til intolerante data.

David Budtz Pedersen, lektor, ph.d. og forskningsleder ved Humanomics Research Centre på Aalborg Universitet København, peger på, at man må beslutte, hvilket slags gode kunstig intelligens skal være:

”Man må skelne mellem, om kunstig intelligens er et offentlig gode, hvor alle kan få adgang og forstå teknologien, eller om det er et privat gode, som kun kommer nogle få førende virksomheder til gavn, men hvor vi ikke har mulighed for at forstå eller regulere, hvad det gør ved os som mennesker,” påpeger han.

Det betyder ikke, at man skal regulere alting fra dag ét, for som David Budtz peger på, er det at regulere et samfund lig med at bygge et skib, mens det sejler. Der er derfor brug for plads til eksperimenter for at skabe innovation. Men det betyder ikke, at samfundet aldrig skal gå ind og regulere teknologien, det er nemlig de samfundsbestemte værdier, der skal skubbe teknologien i en ønskværdig retning. Men det kræver en diskussion om, hvor vi vil hen med de teknologiske muligheder:

”I modsætning til andre teknologier, som vi har haft en offentlig debat om, som f.eks. stamcelleforskning eller nanoteknologi, så antager mange, at kunstig intelligens ikke kan undgås eller reguleres. Vi tror, at teknologien eksisterer uafhængigt af de virksomheder, der har frembragt den. Men spørgsmålet er, om vi bare skal overlade ansvaret til de private virksomheder, eller om vi skal tage stilling til de etiske problemstillinger? Det handler om at have en diskussion om, hvilke teknologier der er ønskværdige og svarer til vores samfundsnormer,” siger han.

Kompromis mellem frihed og sikkerhed

I et interview med Mandag Morgen sidste år satte svenske Danica Kragic, en af verdens førende robotforskere, fokus på nødvendigheden af at udveksle data mellem institutioner i kommuner, regioner og på statsligt niveau. Her talte hun om samkøring og udveksling af data som noget af det allervigtigste, når det gælder om at udnytte alle fordelene ved kunstig intelligens og give borgerne bedre service og behandling.

Dilemma: Tvang i den gode sags tjeneste

Når ældre eller handicappede ikke kan klare sig selv, kommer hjemmeplejen ud for at yde personlig pleje, sørge for mad, gøre rent og lignende opgaver. Men fremover vil nogle af de opgaver kunne overtages af robotter. Robotter giver også mulighed for mere overvågning af patienter, så de rette personer kan tilkaldes, når der er brug for det, hvis patienten f.eks. ændrer tilstand. Det rejser en mængde etiske dilemmaer, herunder hvor langt robotten må gå i tilfælde af, at patienten modsætter sig robottens opgave. Hvis en robot f.eks. skal give medicin til en dement ældre og vedkommende nægter, må robotten så gerne blive ved med at insistere og måske gå så langt som til at tvinge den ældre til at tage medicinen? •

Ifølge SIRI-kommissionen, oprettet af det radikale folketingsmedlem Ida Auken og Ingeniørforeningen, står Danmark stærkt, hvad angår brugen af kunstig intelligens. Det skyldes, at vi i Danmark længe har indsamlet data og derfor har et godt udgangspunkt, fordi kunstig intelligens bygger på store mængder af data. SIRI-kommissionen anbefaler ligesom den svenske forsker, at der koordineres på tværs af politikområder, og at områder som datasikkerhed og -transparens opprioriteres.

Samtidig har vi i Danmark stærke traditioner for at beskytte de indsamlede data, hvilket dog udfordres af, at der hele tiden kommer flere og flere nye systemer, der indsamler data om os. Det kan godt være, at det ikke er problematisk i sig selv, at der indsamles data om ens handlevaner i Fakta, men når det kan kædes sammen med andre datasæt, kan det pludselig skabe helt nye indsigter om os, som vi ikke er herre over selv.

”Det er en kompleks problemstilling, som bliver mere og mere relevant for hver dag, der går. Det er let at se alle fordelene, og man kan f.eks. ikke udvikle ny medicin uden superstærke computere. Men det kræver data, og det betyder, at man må give nogle af sine egne oplysninger væk til andre, og man ved måske ikke, hvem de er, og hvordan oplysningerne bruges. Det er et grundvilkår for mennesket i dag, at det må leve i det spændingsfelt,” siger Henrik Schärfe.

Der ligger også en problematik i, at virksomheder, som udvikler produkter baseret på kunstig intelligens, ikke vil kunne stilles til ansvar for den samlede virkning, deres produkt kan få, hvis det kædes sammen med andre produkter. Det kan f.eks. være forskellige apps, der indsamler viden om rygevaner, fysisk aktivitet etc., som enkeltvis ikke har den store betydning, men som sammenkørt af f.eks. et forsikringsselskab kan få betydning for, hvilken forsikringspræmie man skal betale.

Dilemma: Menneskeliv har ikke nogen værdi for krigsrobotten

Særligt USA har satset på kunstig intelligens og robotter som primær militær strategi og har brugt milliarder af dollars på området. Formålet er bl.a. at udvikle robotter, der kan slå ihjel på slagmarken, så man undgår tab af menneskeliv. Det er sandsynligt, at den type robotter findes om 5-10 år. Det afføder selvsagt en række etiske dilemmaer, fordi robotten, da den jo er en maskine, ikke ser liv som havende nogen selvstændig værdi, og det for den derfor er lige meget, om den affyrer 1 eller 100 skud. Blandt andet af den grund er der opstået en række bevægelser, der ønsker at forbyde krigsrobotter. På den anden side kan man indvende, at selv om maskiner ikke har den menneskelige kapacitet til medfølelse, overvejelse og dømme­kraft, så har de heller ikke alle de menneskelige fejl som f.eks. fordomme eller uretmæssig vrede. På den måde kan autonome systemer agere mere humant end mennesker.

”Du kan sagtens bruge en lille uskyldig algoritme i din iPhone, der holder øje med længden og hastigheden på din løbetur, men når den samlede datamængde begynder at konvergere, opstår der nogle nye muligheder for at få indsigt langt ind i vores privatliv, tanker og følelser, som kan udnyttes til forskellige formål. Der er vi som samfund nødt til at tage stilling. Lokalt kan der være tale om en uskyldig hjælper, men når data integreres, kan det få en omsiggribende karakter,” siger David Budtz Pedersen.

Etiske robotter

Lad os forestille os en selvkørende bil, der kommer kørende ned ad en vej. Der står fem personer i den ene side af vejen, som det er umuligt for bilen at komme uden om, med mindre den kører over i den anden side af vejen, hvor der også står en person. Skal bilen vælge at dræbe én for at undgå at slå fem ihjel eller fortsætte sin kurs bevidst om, at den nu slår fem ihjel, selv om den kunne have undgået det ved at ramme den ene?

Det er et klassisk etisk dilemma, som kan løses ved at indkode robotten med filosoffen Immanuel Kants kategoriske imperativ. Det betyder, at robotten altid vil skulle handle, så den subjektive motivation for handlingen skal kunne gøres til en almenlov for alle i samfundet. Det er en udvikling af den gyldne regel om, at man skal gøre mod andre, som de skal gøre mod en selv. Robotten spørger derfor sig selv, om handlingen vil føre til en selvmodsigelse efter det kategoriske imperativ, og idet det ikke kan gøres til en almenlov at slå folk ihjel for at redde andre, må den blive på sit spor.

Ovenstående er et eksempel på, at man kan anskue problematikken med styring af robotter ved hjælp af filosofisk etik. Martin Mose Bentzen, ph.d. i logik og filosofi, forsker i robotetik på DTU og beskæftiger sig med, hvordan man kan indbygge etiske principper i robotterne. Sammen med forskere fra Freiburg Universitet står han bag Projekt HERA (Hybrid Ethical Reasoning Agents), hvis mål er at konstruere etisk forsvarlig kunstig intelligens.

”Vores opgave er at gøre en masse principper tilgængelige, som folk kan bygge ind i deres robotter. Målet er at få et forskningsfelt i gang på området, så vi kan få en diskussion om, hvad det vil sige at udvikle en etisk robot. Vi kan sige, at hvis man gerne vil styre kunstig intelligens i en etisk god retning, er der nogle muligheder her,” siger Martin Mose Bentzen.

Dilemma: Når robotter fejler i sundhedssektoren

Sundhedsvæsenet er et område, hvor kunstig intelligens kan få stor betydning, når det gæl­der behandling af patienter. IBM’s Watson-computer er f.eks. et kunstigt intelligent system, der via analyser af enorme mængder af data fra forskning, videnskabelige artikler, patien­tjournaler m.m. kan stille sandsynlige diagnoser på en patients sygdom. Her er det bl.a. spørgsmålet, hvem der skal stå til ansvar, hvis robotten fejler i sin diagnose? Samtidig er der en udvikling i gang i retning af forebyggende personaliserede sundhedstjenester, men de kan skabe øget ulighed mellem dem, der formår at bruge dem, og dem der ikke gør.

Et af principperne er utilitarismen, der går ud på, at den handling, man foretager, bør være den, der medfører mest velfærd, altså at handlingen gavner så mange som muligt. Problemet er, at noget, der utilitaristisk set er godt, kan gå ud over et mindretal, så man må også kigge på folks rettigheder.

Dobbelteffekt-princippet handler om, hvornår kan man tillade nogle dårlige konsekvenser for at opnå positive effekter. Et banalt eksempel er, at det kan være nødvendigt at lide lidt hos tandlægen for at få lavet sine huller. Men den dårlige effekt må ifølge princippet ikke være et middel til at opnå den gode effekt, så heller ikke efter dette princip må en robot slå én ihjel for at redde fem andre.

”Robotten har nogle mulige handlinger, hvor nogle er etiske, og andre er uetiske. Vores opgave er at sørge for, at den vælger en handling, der er etisk forsvarlig. Vi stiller på en måde højere krav til robotter end til mennesker,” siger Martin Mose Bentzen.

Den selvkørende bils etiske dilemma er dog slet ikke virkelighed endnu. Lige nu er teknologien ikke kommet så langt, at bilen vil være i stand til at foretage et sådant ræsonnement, den vil alene forsøge at undgå ulykken. Den bevidste robot venter altså ikke lige om hjørnet, men med de landvindinger, den teknologiske udvikling har taget de senere år, vil det være mærkeligt, hvis den aldrig kommer.

 


Få Mandag Morgens overskrifter direkte i din mail.

Tilmeld dig nyhedsbrevet nu




Få Mandag Morgens overskrifter direkte i din mail.

Tilmeld dig nyhedsbrevet nu