Ændres forvaltningen af loven når den sættes på formel?

Mange afgørelser i det offentlige bygger i dag på skøn, og beslutninger træffes igennem samtaler og forhandlinger mellem sagsbehandlere og borgeren. Hvis man i stedet vil benytte kunstig intelligens i administration, kræver det, at principperne bag afgørelserne kan sættes på en formel. Men kan man gøre det, uden at borgernes rettigheder forandres?

Placeholder image

MM Special: AI i det offentlige

Kunstig intelligens skal sikre hurtigere og mere præcis sagsbehandling. Mandag Morgen undersøger, om borgernes rettigheder forandres, når lovenes nuancer oversættes til computerkode. Kan skøn sættes på formel?

Lovgivere skal lære af programmørens disciplin

Ændres forvaltningen af loven når den sættes på formel?

En kunstigt intelligent rettesnor i følsomme sager

Gavner AI borgeren eller systemet?

I de kommende år vil maskinerne blive væsentligt bedre til at vurdere mere komplekse forhold – og dermed vil de begynde at brede sig til flere områder. Og hver gang anvendelsen af maskiner udvides, vil vi støde på de samme dilemmaer: Er maskinen vitterligt kompetent nok til at vurdere sagen? Sker der en ændring i vurderingen af sager, når maskiner overtager?

For at automatisere sagsbehandlingen skal love og bestemmelser oversættes til kode, som maskiner kan forstå og handle ud fra. Som ved enhver anden oversættelse fra et sprog til et andet vil der uvægerligt være nuancer og betydninger, som forandres.

Konsekvensen kan være, at når administration bliver digital, ændrer forvaltningen af loven karakter, så der prioriteres og vægtes lidt anderledes, og det kan påvirke de ydelser, borgerne får. I den forstand bliver lovens effekt ændret – men det er ikke noget, politikerne har besluttet, og måske er det ikke engang bevidst.

I mange tilfælde er der ingen problemer med at sætte reglerne på formel. En stor del af det offentliges afgørelser er helt klare og objektive – eksempelvis om man har ret til folkepension eller er gammel nok til at tage et kørekort.

I andre tilfælde vil det tydeligvis være uheldigt at forenkle reglerne så meget, at der ikke er plads til fleksibilitet og individuel behandling. Det er indlysende, at man ikke kan lade en maskine beslutte, om en borger er for syg til aktivering, eller om et barn skal fjernes fra sine forældre.

Men der er også en stor gråzone, hvor computere i mange tilfælde faktisk kan træffe den korrekte afgørelse, selv om sagen er følelsesladet og har store personlige konsekvenser.

”Jo mere et sagsområde bygger på, at man fortolker loven bogstaveligt, des bedre er det egnet til automatisering. Hvis sagsbehandlernes arbejde består i at slå op i regler og tidligere afgørelser, og hvis man i høj grad følger faste skemaer og præcise bestemmelser, er det let automatisere.
Det er jo sådan, mange computerprogrammer fungerer. If this, then that: Hvis en given række betingelser er opfyldt, kan man få en tilladelse eller modtage en bestemt ydelse,” forklarer Jacob Slosser, der er postdoc ved Det Juridiske Fakultets center for international lov på Københavns Universitet.

Maskiner er ikke til vage formuleringer

Det bliver vanskeligt der, hvor forvaltningen i høj grad bygger på skøn.

Vi har valgt i lovgivningen at give plads til skøn og vage formuleringer. Lovtekster kan indeholde ord som ”væsentlig” eller ”rimelig”, der indebærer, at nogen skal fortolke, hvad der har særlig betydning. Eller loven kan angive, at en myndighed ”kan” foretage sig noget – og så er det op til nogen at vurdere, om der skal handles. Det er ikke bestemt præcist på forhånd, hvad der skal ske, og der er et vist spillerum for fortolkning i den enkelte sag.

Den type bløde formuleringer kolliderer i mange tilfælde med den mere firkantede måde, computere træffer afgørelser på. En computer kan ikke være vag. Den kan ikke gøre en undtagelse, vise tillid, satse på, at en indsats virker, eller vurdere en problemstilling ud fra en mavefornemmelse.

Men, som lovene afspejler, ønsker vi netop, at det offentlige kan foretage den form for afvejninger.

Hvis forvaltningen på et område automatiseres, forsvinder elementet af individuelt skøn – og det springende punkt er, hvorvidt det indebærer, at nogle borgere så får en anden ydelse, end de ville have fået, hvis det var en menneskelig sagsbehandler, der vurderede sagen.

Programmørerne skriver loven om

For Hanne Marie Motzfeldt, lektor i digital forvaltning ved Juridisk Fakultet på Københavns Universitet, rejser det nogle principielle spørgsmål, når ingeniører og programmører begynder at skære forvaltningen til ud fra, hvad der fungerer bedst teknisk:

”Der er ret stor forskel på, hvad man anvender AI til, men i nogle sammenhænge er der grund til at råbe vagt i gevær,” mener Hanne Marie Motzfeldt:

”Hvis der sker en ændring i måden, man forholder sig til loven som følge af automatiseringen, får vi et demokratisk problem. For hvad er det så for en styreform, vi har? Hvem bestemmer, hvem sidder for enden af bordet – de folkevalgte eller programmørerne og dataanalytikerne?”

I den offentlige administration skal man realisere lovgivers vilje – og den vilje kan meget vel være noget helt andet end det, som en AI finder frem til som det statistisk rigtige. Ofte har lovgivningen endda netop som mål at forandre statistikken. Det skaber nogle fælder for den her tænkning, som de færreste bemærker.”

En central udfordring for ombudsmanden

Da Folketingets ombudsmand, Niels Fenger, tiltrådte i december sidste år, var det hans udtalte forventning, at det bliver en af de kommende års centrale opgaver at holde øje med, at digitalisering og indførelse af mere intelligente systemer gennemføres med respekt for borgernes rettigheder.

Det er et område, Niels Fenger i forvejen kender særdeles godt. Han er tidligere professor i forvaltningsret og har forsket og skrevet om konsekvenserne af digitaliseringen af administrationen. 

Ombudsmanden peger på en række eksempler, hvor digitaliseringen har ændret ved borgernes rettigheder og deres position i forhold til forvaltningen:

- Det var tidligere ulovligt at overdrage sit Nem-ID til andre, og det betød, at der opstod vanskeligheder med at anvende de digitale offentlige tjenester, hvis en person på grund af sygdom eller alder er nødt til at lade sig repræsentere af sine børn, forældre eller en advokat.

- En borger kan nu kun vedhæfte en vis mængde dokumentation for at understøtte sin sag, tidligere kunne man bidrage så mange oplysninger man ønskede. Offentlig Digital Post var tilsyneladende vanskelig at ændre teknisk, og man valgte derfor at ændre reglerne i stedet.

Hanne Marie Motzfeldt mener, at der er behov for at uddanne en ny type jurister, der både forstår de tekniske og de juridiske spilleregler, og som kan indgå i processen, når nye områder i forvaltningen automatiseres. Motzfeldt kalder dem ”udviklingsjurister”.

”Hvis man vil sætte juridiske beslutningsprocesser på en eller anden form for formel, skal man have nogle dygtige jurister, der både kan læse loven korrekt og formidle den korrekt til andre faggrupper. Udviklingsjuristerne skal være med helt fra starten; allerede, når man starter en udvikling op. Det er nødvendigt for at sikre den parlamentariske styringskæde.”

Kulturelle normer ændrer sig også

Jakob Slosser fra Københavns Universitet påpeger, at det ikke kun er på grund af digitalisering, at der kan ske forskydninger i fortolkningen af loven. Normerne i samfundet ændrer sig løbende, og det sætter spor i forvaltningen.

Som eksempel nævner Slosser, at samfundets forståelse af, hvad det vil sige at være syg eller arbejdsløs, ændrer sig med tiden.

”Der er en liste af sygdomme, vi accepterer som alvorlige nok til, at man kan få understøttelse – men listen ændrer sig. I de senere år har vi for eksempel fået en bedre forståelse af Aspergers syndrom. Førhen var det slet ikke en sygdom – man var bare lidt sær. Der er problemstillinger, man ikke førhen tog alvorligt, men nu beslutter vi, at de tæller. Selve loven er ikke ændret, men når normerne skifter, så skifter den logik, de bliver forvaltet efter.

Slosser nævner, at vi har revideret vores opfattelse af mange tidligere domme, fordi vi i dag, ud fra hensyn til ligestilling, mener, at de burde være anderledes.

For Jacob Slosser peger det på to udfordringer:

For det første: Kunstigt intelligente systemer lærer om verden ved at analysere, hvordan tidligere sager er blevet afgjort. Derfor kan systemet være tilbøjeligt til hænge fast i fortiden og reproducere eksisterende bias. Når de kulturelle normer skifter, er der en risiko for, at computerne ikke opfanger det, og derfor er man nødt til målrettet at indlægge nye eksempler eller nye normer.

For det andet: Maskiner er ikke de eneste, der kan hænge fast i fortiden. I USA vakte det opsigt, at en ældre dommer i 2016 gav en påfaldende let dom til en af USA's førende konkurrencesvømmere for at voldtage en studerende ved Stanford University. Dommerens argumentation var, at det ville ødelægge svømmerens liv med en hårdere dom. Sagen blev et eksempel på, at forvaltningen af loven kan være helt ude af trit med de normer, som gælder i samfundet. 

”Det er en myte, at mennesker er objektive og ensartede i den måde, de forvalter loven på, og i mange tilfælde er det faktisk lettere at ændre koden i en computer for at udbedre fejlen end at ændre den måde, mennesker tager deres egne beslutninger på,” pointerer Jacob Slosser.

Det er derfor ikke kun en dårlig konsekvens, hvis det personlige og individuelle hensyn glider i baggrunden, mener Jakob Slosser.

Automatisering kan også sikre, at alle får samme behandling, så der ikke er forskel på afgørelserne, alt efter hvilken sagsbehandler borgeren tilfældigvis kommer ind til, eller hvor i landet loven bliver administreret.

Computersystemet kan have adgang til samtlige tidligere afgørelser på området og kan dels fortælle sagsbehandlere, hvad der er normal praksis, dels synliggøre, om der er steder i administrationen, hvor der systematisk foretages skøn, der ligger uden for det normale.

Til gengæld kan man ikke appellere til computersystemets følelser og tiltro, hvis en afgørelse virker urimelig.

I nogle tilfælde er det ok, mener Jakob Slosser.

”Statistisk set er det mere sandsynligt, at du giver mig en ekstra chance, hvis jeg taler ligesom dig og ligner dig, og derfor kan der meget let opstå en racistisk eller sexistisk forskelsbehandling.

I praksis er det ikke en sikker måde at lave afgørelser på i det offentlige eller i retssystemet. Det er simpelthen ikke ensartet, selv om vi selv tror, at vi afgør sager ens for alle.”

Omtalte personer

Niels Fenger

Folketingets ombudsmand, professor
cand.jur (1992), dr.jur. (2004)


Få Mandag Morgens overskrifter direkte i din mail
Tilmeld dig nyhedsbrevet nu
Ved at tilmelde dig Mandag Morgens nyhedsbrev, accepterer du vores generelle betingelser