Kan kunstig intelligens skabe retfærdighed?

Arbejdsgangene og jobbeskrivelserne i retsvæsenet står over for en gennemgribende forandring, når kunstig intelligens og automatisering i de kommende år rykker ind. I første omgang vil det effektivisere sagsbehandlingen i retssystemet, der i dag er notorisk langsom og kostbar. På længere sigt vil computerne sidde med, når der skal afsiges domme.

Foto: Morten Voigt
Peter Hesseldahl

MM Special: Retsafgørelser med digital præcision

Kort sagt

Computere er både billigere, hurtigere og ofte mere præcise end højtuddannede advokater. Der er derfor meget at vinde ved at give computere plads i retsvæsenet. Men det er vigtigt at finde en balance, der sikrer, at den menneskelige dømmekraft ikke bliver sat ud af spil.

De vigtigste pointer

  • Digitaliseringen i retssystemet kan sikre langt større kontinuitet og ensartethed i afgørelserne.
  • Computere kan levere billigere juridisk bistand og dermed demokratisere adgangen til retfærdighed.
  • Der er en risiko for, at algoritmer reproducerer den diskrimination, der ligger i tidligere afgørelser.
  • Den teknologiske udvikling baner vejen for nye forretningsmodeller.

Kunstig intelligens tager plads i retssalen.

Velkommen til den digitale advokatur

I dag udføres advokaters arbejde stadig forbløffende lidt digitalt. Domsafsigelser bygger i meget høj grad på den eksisterende retspraksis, og derfor består en stor del af advokater og dommeres arbejde i at finde eksempler på, hvordan lignende sager tidligere er blevet bedømt.

Men advokaternes arbejde med at researche og finde de afgørelser, der kan hjælpe klienterne i en retssag, vil i stigende grad blive overladt til computere.

Det vil ændre på økonomien og forretningsmodellerne, når maskiner langt hurtigere kan gennemtrawle store mængder materialer, som hidtil er blevet behandlet af advokater og fuldmægtige           til en timepris i den højere ende af skalaen. Og det betyder formentlig også, at adgangen til retfærdighed bliver demokratiseret, og at der kommer større ensartethed i, hvordan sager bedømmes.

Indtil for nylig måtte advokater lede efter domme ved at bladre igennem Karnovs Lovtidende, der en gang om ugen udgav de vigtigste domme fra Højesteret og landsretterne. I dag gøres alle domme fra danske domstole tilgængelige i digital form, og tilsvarende ligger alle afgørelser fra EU’s domstole og menneskerettighedsdomstolen nu i en database. Tendensen er desuden, at også mindre, administrative afgørelser i danske nævn, styrelser, kommuner og så videre samles i databaser.

Det betyder dels, at det bliver langt hurtigere at søge efter afgørelser, der kan belyse en sag, dels, at der er adgang til langt flere eksempler, der matcher den afgørelse, man står over for.

For advokaten betyder det, at man kan argumentere stærkere i en sag, fordi man kan fremvise flere og helt relevante fortilfælde – måske endda domme, som dommeren i den aktuelle sag selv har afsagt.

Henrik Palmer Olsen, professor i jura og prodekan ved Københavns Universitet, forsker i, hvordan digitaliseringen ændrer retssystemet. Han peger på, at det kan skabe større kontinuitet og ensartethed i afgørelserne, og at digitaliseringen dermed har potentiale til at styrke retfærdigheden:

”I en retssag er afgørelsen i første omgang rettet mod dem, der er part i sagen, men dommen har også betydning for alle andre, for i morgen kommer der en ny sag om det samme spørgsmål.

Det skulle gerne være sådan, at den samme type af sager afgøres på samme måde. Med flere data til rådighed kan man bedre sammenligne og sikre lige behandling fra sag til sag.

Digitale spådomme om retssagen

Når computerne får adgang til at analysere et stort antal sager, bliver det også muligt at finde sammenhænge og mønstre i afgørelserne, og dermed kan man få et fingerpeg om resultatet i en aktuel sag.

Henrik Palmer Olsen peger på forskning, der viser, at det er muligt at udvikle algoritmer, der kan udpege det rigtige udfald af sager, der afgøres ved menneskerettighedsdomstolen, i 79 procent af de sager, der blev testet på.

Tomas Ilsøe Andersen, managing partner hos Kammeradvokaten, mener, at den type systemer vil være nyttige til at vurdere procesrisikoen; altså om det kan betale sig at gå igennem besværet og udgiften ved at gennemføre en retssag.

Tomas Ilsøe Andersens vurdering er, at de automatiske analyser vil blive væsentligt bedre med tiden.

”Hvis jeg følte, at mine menneskerettigheder var trådt for nær, så ville jeg ikke overlade afgørelsen til en algoritme, der kun har en træfsikkerhed på 79 procent. Men hvad nu, hvis computeren kunne forudsige afgørelsen med 85 procent sikkerhed?

En sag ved menneskeretsdomstolen kan tage tre til fem år, og man skal huske, at for et menneske, der har klaget, fylder det meget. Det er det sidste, man husker, hver aften, man lægger hovedet på puden.

Jeg synes også, at der er noget retssikkerhed i det, hvis man meget hurtigt og med 85 procent sandsynlighed kan få at vide, at man ikke har en kinamands chance for at vinde den sag –

i stedet for at trække sig selv gennem fem års proces med udgifter, der kan løbe helt af sporet, og så konstatere, at den vandt du så ikke.”

Automatiske afgørelser i rutinesager

Men hvis computeren kan forudsige afgørelsen af en sag, hvorfor så ikke lade den afgøre sagen – eller i det mindste komme med et forslag til en dom, så dommeren har noget at sammenligne sin egen vurdering med?

På sigt er det ikke et usandsynligt scenarie. Det springende punkt er, hvilken type af sager der er tale om. Mange afgørelser i retssystemet og i den offentlige administration bliver taget administrativt – altså uden, at der har været advokater endsige en dommer involveret.

Det er typisk rutineafgørelser, hvor der foreligger et klart sæt af regler og et veldefineret sæt af kriterier og tal som grundlag. 

Når en bilist får en parkeringsbøde eller bliver blitzet med for høj fart i en af politiets fotofælder, er processen i princippet automatisk. Der foreligger en præcis måling og et billede, der dokumenterer situationen, og der er faste priser for, hvad bøden bliver, alt efter hvor grov forseelsen var.

Tilsvarende foretages der rutinemæssigt massevis af skøn og afgørelser i skattesager, ejendomsvurderinger eller tildeling af sociale ydelser, som i princippet let kan sættes på en formel og automatiseres – og det sker i stigende omfang.

Et eksempel er de hundredtusinder af ejendomsvurderinger, hvor computere automatisk kan finde tekniske data, placering i forhold til infrastruktur og skov og strand og informationer om huspriser i området.

De informationer, der vurderes i en sag, og den måde, en dom er opbygget på, følger allerede skabeloner, der gør det lettere at orientere sig i materialet og sammenligne forskellige domme.

I mange tilfælde er sager så ensartede, at man kunne forestille sig, at en computer kan analysere en problemstilling og finde passager i tidligere afgørelser, som den kan sammensætte til et forslag til en afgørelse.

I praksis er det imidlertid ikke helt så enkelt, og derfor ser vi endnu ikke, at computere producerer forslag til afgørelser.

Tomas Ilsøe Andersen har for Kammeradvokaten fulgt med i mulighederne for at anvende automatisering og kunstig intelligens. Selvom han er begejstret for mulighederne på længere sigt, er han ikke imponeret over teknologien, som den er udviklet i dag. Han opfordrer til, at advokater gør sig meget klart, på hvilke områder og i hvor høj grad man kan forvente, at computere leverer løsninger:

”Hvis man forestiller sig, at advokaten beskriver klientens problem, og så spytter maskinen et svar ud, der med fuldstændig sikkerhed afgør, hvor skabet skal stå, så vil der gå årtier, før det virker. Men man kan allerede komme meget langt, hvis man ser teknologi som et støtteværktøj, der kan hjælpe et stykke ad vejen, men ikke som noget, der fra dag ét skal overtage den menneskelige sagsbehandling fuldstændig.”

Tomas Ilsøe Andersen nævner byggetilladelser som et eksempel.

”Der er ikke noget, der tilsiger, at en byggetilladelse skal tage flere måneder at få. Det er ikke svært at tage stilling til de andragender, der hører til sagen – i hvert fald ikke i gennemsnitssagerne. Grunden til, at det i dag tager lang tid, er, at processen er menneskeligt båret, og der er jo kun et vist antal ansatte og de timer, der nu er i døgnet, siger Tomas Ilsøe Andersen.

Men som han konstaterer, er det en procedure, hvor man kender alle skridtene, og de er stort set altid de samme.

”Man kunne lade maskinen overtage sagsbehandlingen og se, hvor langt den kan komme. I de tilfælde, hvor maskinen giver op, fordi det ikke er noget, den har set før, smider den så sagen over til en menneskelig sagsbehandler, der tager sig af det videre forløb.

Alt det, der ligger inden for den brede del af motorvejen – der, hvor 80 procent af sagsvolumen ligger – det kunne nok i vidt omfang automatiseres, så der bliver behov for meget mindre af den egentlige menneskelige sagsbehandling.”

Henrik Palmer Olsen fra Københavns Universitet minder om betydningen af, at det er de rette data, der vurderes, når man automatiserer:

”Der er risiko for, at man ikke i tilstrækkelig grad tager højde for de specielle omstændigheder, der kan være ved en ny sag, men som ikke findes i de gamle sager. Computere kan ikke selv vurdere, om et specielt forhold er relevant eller skal have betydning for sagens udfald. Dér kommer den menneskelige dømmekraft på banen – ellers kan automatisering føre til, at man ikke kan differentiere nye afgørelser i forhold til den eksisterende praksis,” siger han.

Vi vil dømmes af vores ligemænd

Et er at bruge computere til at generere automatiske fartbøder og byggetilladelser. Noget helt andet er at automatisere sager, der kan føre til fængselsstraffe eller til, at familier brydes op.  

”Vi kan leve med at få en bøde sendt i e-Boks for at køre for stærkt, fordi det er en sanktion i den lave ende. Det føles ikke som et indgreb i vores retssikkerhed. Men ingen ville acceptere at sidde i fængsel i otte år for en alvorlig forbrydelse, fordi en algoritme har besluttet sig for, hvordan beviser og regler skal vægtes sammen,” siger Tomas Ilsøe Andersen fra Kammeradvokaten.

”Som tiltalt skal man kunne tro på, at det resultat, man ender med, måske ikke er rart, men at man er blevet bedømt af ligemænd, der er i stand til at bruge deres intuition og deres empati til at forstå, hvorfor noget fandt sted. Hvad var den tiltaltes personlige forhold, var der egen skyld hos offeret? Der sidder jo netop ikke kun juridiske dommere og sender dig otte år i fængsel – der sidder også nævninge og domsmænd. Så jeg tror ikke, vi kommer derhen, hvor alvorlige straffe bliver udmålt og stanget ud baseret på en ren digital sagsbehandling – det ser jeg ikke for mig,” siger Tomas Ilsøe Andersen.

Det menneskelig skøn er også nødvendigt i mindre betydelige sager, eksempelvis bodeling ved skilsmisser:

”Hvem skal have sofaen? Det kan ikke nødvendigvis overlades til en algoritme. Der er følelser i det, for det var jo moster Ernas sofa, og det var mig, der havde den med ind i ægteskabet ... Det kan en maskine ikke tage stilling til,” siger Tomas Ilsøe Andersen:

”I nogle tilfælde kan det dog være godt at få renset følelserne væk og se helt nøgternt på omstændighederne, og derfor er maskiner fabelagtige som støtteværktøjer. Maskinen kan fortælle, at som beviserne står, vil en straf typisk ligge nogenlunde sådan. Men så er det op til dommeren at lytte og tage den endelige beslutning.”

The lazy lawyer syndrome

Computerne bliver hastigt i stand til at vurdere mere komplekse sager, og derfor er rollefordelingen mellem mennesker og maskiner under stadig forandring.

Den automatiserede research og de anbefalinger til beslutninger, som computerne kan komme med, vil blive bedre og mere nuancerede i de kommende år, og der vil være stadig flere situationer, hvor sagsbehandlere, advokater og dommere vil læne sig tilbage og stole på, at maskinen har ret.

Niels Christian Ellegaard, partner i advokatfirmaet Plesner er forfatter til bogen ”Robots entering the legal profession", der blev udgivet i foråret 2019. Ellegaard er bekymret for det, han kalder the lazy lawyer syndrome:

”Hver gang mennesker får et redskab i hånden, så bliver vi af natur dovne, forstået på den måde, at så fokuserer vi vores opmærksomhed på andre ting. Hvis software kan hjælpe mig ved at komme med et udkast til en juridisk vurdering eller afgørelse, så vil jeg måske være tilbøjelig til at tage det for givet og ikke udfordre det nok. Det er det skifte, der kommer, når robotterne bliver så dygtige, at man ikke umiddelbart kan se, at det ikke er et menneske, der står bag.”

Faren er dels, at vi slapper af, før teknologien reelt er moden nok, og dels, at vi glemmer at være årvågne i forhold til den konkrete sags omstændigheder, mener Niels Christian Ellegaard.

Med andre ord er risikoen, at vi glemmer at overveje, om der er andre oplysninger, der burde tages med eller tillægges vægt i vurderingen, eller om der kunne være andre og bedre måder at afgøre sagen på.

Han nævner som eksempel, at der er mange eksempler på sager, hvor man formelt har ret, men hvor det kan være håbløst, umoralsk eller ødelæggende i forhold til ens fortsatte relationer til andre at insistere på sin ret. 

Jo flere faktorer, jo flere regelsæt, og i jo højere grad "ekstralegale faktorer" (såsom empati i kommercielle relationer) er involveret, des mere bliver den "rigtige" vurdering eller afgørelse et spørgsmål om anvendelse af menneskelig dømmekraft. Den dømmekraft har robotterne meget svært ved at udøve, og den er heller ikke altid ens hos os mennesker.

”Det er også derfor, at vi ser højesteretsafgørelser med fire dommerstemmer mod tre,” konstaterer Niels Christian Ellegaard.

Fordomsfulde maskiner

Et gennemgående problem ved at anvende kunstig intelligens til vurderinger og beslutningstagning er, at systemerne har en tilbøjelighed til at opbygge bias.

Maskinlæring fungerer ved, at computeren fodres med et stort materiale – eksempelvis samtlige afgørelser fra domstolene – og forsøger at finde sammenhænge mellem sagernes omstændigheder og de domme, der blev afsagt.

Problemet er, at hvis datamaterialet ikke er repræsentativt, eller en stor del af dataene ikke handler om præcist den type problemer, man ønsker at få analyseret, så kan systemet opbygge fordomme eller lave fejlagtige fortolkninger af virkeligheden.

Det er en problemstilling, som allerede er meget aktuel i USA, hvor man i flere år har anvendt computere til at sortere og vurdere ansøgninger om lån, jobansøgninger, og inden for domstolene, hvorvidt man vil prøveløslade fængslede.

Det har vist sig, at fordi sorte, latinos eller folk, der bor i fattige og belastede kvarterer, i forvejen er overrepræsenterede i antallet af problematiske sager, så bedømmer algoritmerne generelt personer fra de grupper hårdere.

På samme måde kan man frygte, at fremtidige systemer til sagsbehandling kunne opbygge fordomme og diskriminere mod eksempelvis flygtninge, stofmisbrugere eller voldelige familier – og at folk fra de grupper derfor ville få endnu sværere ved at bryde et mønster af problemer.

Autonome algoritmer

Martin von Haller Grønbæk, der er advokat med speciale i lovgivning inden for it, påpeger, at menneskelige domme også uvægerligt vil have bias i den måde, de træffer beslutninger på.

”Der er lavet undersøgelser, som viser, at der bliver afsagt hårdere domme lige før frokost, når dommeren er sulten. Og advokaters rådgivning kan være farvet af, at de har en afhængighed af klienten. Men det kan være meget svært at gennemskue de fordomme, der præger en hvid, jura-uddannet dommer, der bor nord for København. Det er nemmere at teste en algoritme for bias og så korrigere det,” siger Martin von Haller Grønbæk.

Men fremover kan det blive meget vanskeligere at gennemskue systemerne.

”Som algoritmerne er i dag, kan man godt kigge ned i dem og forstå, hvad det er for antagelser, de er programmeret til at følge – hvis man vel at mærke kan få lov. I mange tilfælde er selv de systemer, som myndighederne bruger, lukkede, så kun producenten har adgang til koden,” siger Martin von Haller Grønbæk:

”Der, hvor det bliver vanskeligt, er, når systemerne bygger på machine learning, så systemerne gradvist tager ved lære og opbygger deres egen fortolkning af verden, uden at der menneskelige programmører, der hjælper. De bliver autonome, og man kan ikke kigge i koden og forstå, hvordan den tager forskellige beslutninger.

Hvis vi når dertil i retsvæsenet, har vi et problem. Det er slemt nok, at vi ikke kan spørge til, hvad der foregår i en højesteretsdommers hoved. Derfor må det være et krav, at de algoritmer, vi bruger, er transparente, så vi kan forstå, hvorfor der opstår fejl.”    

”Algoritmer opfanger diskrimination, hvis den er der i forvejen, og så risikerer man, at systemet reproducerer den diskrimination,” siger Henrik Palmer Olsen fra Københavns Universitet.

Men computerne kan også bruges til at identificere og afhjælpe diskrimination, mener han. Der kan eksempelvis være forskel på, hvordan de sociale myndigheder i kommunerne rundt om i landet træffer afgørelser – eller der kan være forskel på, hvordan flygtninges sager behandles i forskellige EU-lande, selvom det principielt er det samme retsgrundlag, der gælder overalt.

”Med et digitaliseret system kan du opfange en systematisk forskelsbehandling, og så bliver det muligt at adressere den – fordi computerne kan hjælpe os til at se et større billede end det, vi kan se uden den algoritmiske behandling af data” siger Henrik Palmer Olsen.

Omtalte personer

Henrik Palmer Olsen

Fhv. Prodekan for forskning, Professor i retslære, Det Juridiske Fakultet, Københavns Universitet
cand.jur. (Københavns Uni. 1993), MA (Sheffield University 1994), ph.d. (1997), dr.jur. (Københavns Uni. 2005)

Martin von Haller Grønbæk

Partner, Bird & Bird Law Firm, medlem af Datarådet, co-founder, Nordic Makers & Impact Collective
cand.jur. (Københavns Uni. 1988)

Tomas Ilsøe Andersen

Advokat, partner, Poul Schmith/Kammeradvokaten
cand.jur. (Københavns Uni. 1996)


Få Mandag Morgens overskrifter direkte i din mail.

Tilmeld dig nyhedsbrevet nu

Få Mandag Morgens overskrifter direkte i din mail.

Tilmeld dig nyhedsbrevet nu