En kunstigt intelligent rettesnor i følsomme sager

Kan algoritmer bruges til at støtte socialrådgivere, der arbejder med underretninger om udsatte børn? Et nyt dansk pilotprojekt undersøger, om det overhovedet giver mening at bruge kunstig intelligens til personsager på socialområdet.

Placeholder image

MM Special: AI i det offentlige

Kunstig intelligens skal sikre hurtigere og mere præcis sagsbehandling. Mandag Morgen undersøger, om borgernes rettigheder forandres, når lovenes nuancer oversættes til computerkode. Kan skøn sættes på formel?

Lovgivere skal lære af programmørens disciplin

Ændres forvaltningen af loven når den sættes på formel?

En kunstigt intelligent rettesnor i følsomme sager

Gavner AI borgeren eller systemet?

Når nogen foreslår at anvende kunstig intelligens til at vurdere noget så følsomt som underretninger på børn om mistrivsel, misbrug eller andre sociale problemer, rejser det forståeligt en række bekymringer og spørgsmål:

Risikerer man at automatisere sagsbehandlernes faglighed væk, fordi maskinen kommer med anbefalinger, som sagsbehandleren kan vælge blindt at stole på?

Kan man koge sociale problemer ned til numeriske faktorer?

Er det overhovedet ansvarligt at bringe en kunstig intelligens ind, når borgeren altid har en ret til at få den bagvedliggende forklaring på en given beslutning?

I hele diskussionen om at bruge kunstig intelligens i den offentlige forvaltning er spørgsmålene generelt flere end svarene. Det er årsagen til, at Trygfondens Børneforskningscenter og professionshøjskolen VIA University College laver forskningsforsøg med at bruge kunstig intelligens til at støtte socialrådgivernes arbejde. De vil blive klogere på, om det overhovedet giver mening at bruge kunstig intelligens på socialområdet, blandt andet ved at måle på, om det giver færre genunderretninger end før. 

Data som beslutningsstøtte

Når en socialrådgiver modtager en underretning, skal rådgiveren inden for 24 timer tage en beslutning om, hvad de næste skridt i sagen skal være.

Beslutningen kan rådgiveren tage ved at se på underretningens indhold, men derudover har rådgiveren også adgang til data om barnet og barnets familie. Ud fra de faktorer og sagsbehandlerens personlige erfaring skal der træffes en beslutning, som kan være afgørende for resten af barnets liv.

Den kunstige intelligens i projektet fungerer således:

Projektets dataeksperter har udviklet en algoritme, der skal virke som en beslutningsstøtte for socialarbejdere, der modtager underretninger om børn.

De har fået anonyme data fra Danmarks Statistik om tidligere underretningssager, som er koblet med en række socioøkonomiske forhold for, hvordan børnene fra sagernes liv udviklede sig senere hen.

Ud fra det, har statistikere udregnet, hvilke af de faktorer i underretningen, som sagsbehandleren har adgang til, der giver den største sandsynlighed for vanskeligheder senere i livet. Det bliver til en risikoscore, som så igen er testet på andre anonymiserede sager fra Danmarks Statistik.

Ved at teste modellens risikoscore på Danmarks Statistiks data fra gamle sager kan folkene i projektet så at sige så skrue tiden frem, og se hvor godt scoren passede. Dernæst kan man gå tilbage og justere modellen til og teste igen.

Når modellen er tilpas præcis, er maskinen klar til at tygge på rigtige sager. Her kigger den på de samme faktorer som i det lukkede læringsmiljø. Det er først her, den ser ikke-anonyme sager. Og den inddrager stadig kun den data, som sagsbehandleren alligevel ville have adgang til.

Målet med projektet er ikke at erstatte den socialfaglige vurdering. Projektet skal undersøge, om det tilføjer værdi, hvis rådgiveren også får et statistisk mål for, hvor udsat barnet er.

”I bund og grund kan vi ikke tage hverken det socialfaglige eller det juridiske ansvar fra socialrådgiveren. Det er sådan, jeg ser det. Når vi tester systemet i virkeligheden, så påvirker vi jo nogle sager, så vi skal nøje overveje, hvad risikoen er i det i forhold til at få besvaret vores forskningsspørgsmål. Men vi er jo ikke ude og anbefale en indsats i de enkelte sager, ligesom vi heller ikke anbefaler en bred implementering af det her system,” siger Gitte Sommer Harrits, der leder projektet som forskningschef ved Forskningscenter for ledelse, organisation og samfund ved Via University College.

Det grundlæggende spørgsmål, der skal besvares gennem forsøget, er om sådan et system overhovedet kan bruges meningsfuldt.

”Vi er ikke særlig langt. Vi sidder med flere ubesvarede end besvarede spørgsmål,” siger Gitte Sommer Harrits.

”Vi ved, at modellerne faktisk kan laves, og at de kan forudsige med en vis præcision. Vi ved også, at socialrådgiverne i nogen grad kan se det som en hjælp. Men nogle er også bekymrede for det. Spørgsmålene er dernæst, om det så faktisk gør en forskel. For eksempel om det giver færre genunderretninger end før.”

Michael Rosholm, professor ved Trygfondens Børneforskningscenter på Aarhus Universitet forventer, at det vil være en hjælp til sagsbehandlerne, der kommer under større og større pres:

”Antallet af underretninger er vokset voldsomt de seneste ti år. Jo mere og jo bedre information vi kan stille til rådighed, jo bedre beslutningsgrundlag vi kan give socialrådgiverne, jo bedre kan de hjælpe børnene. I sidste ende er formålet at gøre socialrådgiverne i stand til at hjælpe børnene endnu bedre, end de gør i dag," siger han.

Organisationer forandrer sig, når AI ankommer

Der er typisk to store diskussioner, der melder sig på banen, når der bliver diskuteret brug af kunstig intelligens i sagsbehandlingen i det offentlige Danmark.

Den ene diskussion handler om det juridiske ansvar, når computere hjælper med at tage beslutninger.

Den anden diskussion handler om, hvorvidt dataetikken og databeskyttelsen er på plads, når staten indsamler data til at træne algoritmer eller opspore sociale tilfælde.

Men i virkeligheden er der en tredje, meget mindre abstrakt diskussion, som bør køre parallelt med de to andre. Den handler om, hvordan omstillingen til brug af kunstig intelligens og maskinlæring kommer til at forandre organisationer, fagområder og fagligheder.

Indførelsen af kunstig intelligent beslutningsstøtte forandrer sagsbehandlerens rolle mere grundlæggende, end da papirarbejdet rykkede over på computerskærmene. Det er ikke fysisk arbejde med at udfylde papirer, der bliver aflastet. Det er tankearbejde. Analytisk tænkning.

Fagligheden risikerer at skride, hvis sagsbehandlere stoler for meget på algoritmen, og derfor er det stadig mennesker af kød og blod, der skal tage beslutningerne, siger KL’s direktør med ansvar for digitalisering, teknologi og data, Christian Harsløf. Han mener, at det i høj grad er ledelsens opgave at sikre det:

”Får man givet medarbejdere den ballast, der skal til for at stille spørgsmålstegn ved det, en algoritme når frem til? Får man skabt et rum, hvor det er okay at tvivle på algoritmen? Bliver man skarp nok til at argumentere for, hvorfor man er uenig? Og får man som medarbejder ledelsesmæssig opbakning til det?” spørger han.

Socialrådgiverne ude i kommunerne har de samme overvejelser, fortæller Clara Siboni Lund, der i sit ph.d.-projekt på Kronprins Frederiks Center for Offentlig Ledelse undersøger, hvordan nye teknologier som kunstig intelligens forandrer fagligheder og ledelse i det offentlige.

Hun har til sit speciale i statskundskab interviewet de første socialrådgivere, som testede et beslutningsstøtteværktøj.

”Socialrådgiverne bakker i udgangspunktet ideen op, men de er nervøse for, hvad der sker med fagligheden i deres egne vurderinger i en stresset hverdag med rigtig mange underretninger, de skal forholde sig til. De spørger sig selv, om de entydigt kommer til at læne sig op ad den risikoscore, maskinen præsenterer dem for, eller om scoren bliver genstand for den faglige refleksion, som egentlig er hensigten. Det er en balancegang, som de overvejer nøje, og som de fleste socialrådgivere taler om i interviewene,” siger hun.  

Sagsbehandlerne er altså bange for, at de mister deres faglige bevidsthed, hvis de får for meget hjælp:

”De beskriver deres bekymring på den måde, at de er bange for, at algoritmen bliver en sovepude,” siger Clara Siboni Lund. Men hun pointerer også, at socialrådgiverne ser potentialer i teknologien:

”Socialrådgiverne ser også muligheder for, at risikoscoren kan hjælpe dem med at identificere kritiske sager, prioritere mellem sager og potentielt hjælpe dem med at ensrette vurderingerne af underretninger.”

Grundlæggende understøtter hendes fund, at vi ikke ved nok om, hvordan virkeligheden forandrer sig, når algoritmerne begynder at hjælpe:

”Vi mangler en bedre systematisk forståelse af, hvad det er, der sker i praksis, når algoritmerne bliver implementeret som beslutningsstøtte. Ikke bare hvordan det bliver opfattet, men også hvilke effekter det får på de endelige beslutninger, socialrådgiverne tager. Og vi mangler en forståelse af, hvordan de forskellige måder, vi implementerer teknologien på, kan påvirke beslutningerne,” siger Clara Siboni Lund.

Algoritmen skal være gennemsigtig

For at forhindre, at sagsbehandlerne læner sig for meget op ad systemets udregninger, er det vigtigt, at de har indsigt i, hvad algoritmen egentlig udregner.

"Vi har et ansvar for at få uddannet socialrådgiverne til at vide, hvad redskabet siger noget om, og hvad det ikke siger noget om. De kan sagtens sidde inde med informationer, som redskabet ikke tager højde for, og derfor skal de vide, hvilke informationer redskabet lægger vægt på i den konkrete vurdering," siger professor Michael Rosholm.

Generelt er det vigtigt, at medarbejdere og borgere kan få indsigt i, hvad der foregår, når kunstig intelligens blander sig i sagsbehandlingen, slår Christian Harsløf fra KL fast:

”Det gør, at man som medarbejder skal forstå, hvad der egentlig sker med data, når det går ind i algoritmen. Den må ikke blive en blackbox, hvor ingen rigtig forstår de processer, der kører derinde, det går jo ikke,” siger han og fortsætter:

”Man er nødt til at have en grundlæggende forståelse for, hvad det er for data, der bliver behandlet, og hvad det er for hensyn, algoritmen lægger til grund for sin anbefaling. Man er nødt til at have indsigt i modellen, så man kan sige, om det ser fornuftigt ud eller ej.”

Det er ikke overvågning – det er statistik

Projektet med at bygge en algoritme som en beslutningsstøtte for socialrådgivere befinder sig i et interessant spændingsfelt.

Efterhånden som en algoritme får flere og flere faktorer at regne på, bliver det sværere at få indblik i, hvordan den er nået frem til sin beslutning. Til gengæld vil den mere præcist kunne forudsige for eksempel et barns risiko for anbringelse.

Det gælder altså om at ramme en balance, hvor modellen både er transparent og præcis i sine vurderinger – uden at overskride børnenes ret til databeskyttelse.

”Det har været en overvejelse. Det kan jo ikke nytte noget, at vi laver en model, der har behov for data, som socialrådgiveren i sin forvaltning ikke må bruge og ikke lovligt har adgang til. Omvendt kan man sige, at der er en afvejning af, om modellen bliver bedre, hvis man kan trække flere data,” siger Gitte Sommer Harrits.

Læg oveni, at der er en intens, verdensomspændende debat om dataetik og dataminimering og om, hvorvidt myndigheder overhovedet kan tillade sig at tage algoritmer og kunstig intelligens i brug over for borgeren.

Det har folkene omkring projektet også kunnet mærke. Der er kommet kritiske mediehistorier og kommentarer på sociale medier, der antyder, at forsøget er lavet uden skelen til god dataetik, og at systemet skulle åbne for massiv overvågning, fordi det er så datakrævende.

Men folkene bag forsøget slår fast, at algoritmen er trænet på pseudonymiserede data – altså data, der er krypteret, så man ikke kan kæde dem sammen med en bestemt person – fra Danmarks Statistiks forskningsdatabase, og at den først ser ikkeanonyme data, når den tages i brug i forbindelse med forsøget. Dermed er overvågningskritikken ikke gyldig, mener Gitte Sommer Harrits:

”Det eneste, der overføres til kommunerne, der er med i forsøget, er en algoritme til beregning. Der kommer ingen data fra registrene over,” siger hun.

”Vores model er hverken en opsporingsmodel eller en overvågningsmodel. Det er alene en model man anvender, når der kommer en underretning ind til socialforvaltningen, og der skal træffes en beslutning,” siger Gitte Sommer Harrits.

Omtalte personer

Gitte Sommer Harrits

Prorektor, VIA University College, board member, DEA
Cand.scient.pol., Ph.d.scient.pol.

Michael Rosholm

Formand, Arbejderbevægelsens Erhvervsråd, professor, Institut for Økonomi, Aarhus Universitet, leder, TrygFondens Børneforskningscenter
cand.oecon. (Aarhus Uni. 1993), ph.d. (Aarhus Uni. 1998)


Få Mandag Morgens overskrifter direkte i din mail
Tilmeld dig nyhedsbrevet nu
Ved at tilmelde dig Mandag Morgens nyhedsbrev, accepterer du vores generelle betingelser