Big data kan også blive for store

Big data kan hjælpe med at forebygge sygdomme, støtte udsatte børn og forhindre kriminalitet. Men reelt ved vi ikke, hvilke konsekvenser det også fører med sig. Det siger Gorm Greisen, formand for Det Etiske Råd, der stiller spørgsmål til brugen af big data og opfordrer til oprettelsen af et dataetisk råd.

Jens Reiermann

Spørger man en læge, en socialrådgiver eller en politibetjent, vil de i hvertfald være enige om én ting. Kan man forebygge, det være sig sygdom, en trist social begivenhed eller kriminalitet, vil de alle sige ja .

Og det er lige netop det, som big data kan hjælpe med til. Ved at finde mønstre i de enorme mængder af data kan lægen, socialrådgiveren eller politibetjenten få mulighed for at fokusere deres arbejde, så færre bliver indlagt på sygehusene, færre børn bliver anbragt uden for familien, og færre begår kriminalitet.

Alligevel sætter Gorm Greisen, formand for Det Etiske Råd, spørgsmålstegn ved, om det er den rigtige vej at gå. Han efterlyser mere debat om, hvornår samfundet skal bruge big data, og ikke mindst, hvordan samfundet skal bruge resultaterne.

”Vi er begejstrede for de teknologiske muligheder og gode til at se alle fordelene, men vi er ikke lige så gode til at se problemerne. Engang var vi lige så begejstrede for, hvad kemien kunne tilbyde os. Det var før forureningen af grundvandet, og dengang vi troede, at vi kunne sprøjte alt ukrudt væk. Tænk nu, hvis vi udskiftede ordene it og big data med ordet kemi,” siger Gorm Greisen.

Efter forårets dataskandale med Cambridge Analyticas misbrug af millioner af Facebook-brugeres personlige data og Facebooks stifter og direktør Mark Zuckerbergs efterfølgende afhøring i den amerikanske kongres er Gorm Greisen overvældet. Han trækker paralleller tilbage til det tidspunkt i 1980’erne, hvor det første reagensglasbarn blev født, og Folketinget efterfølgende nedsatte Det Etiske Råd. Ligesom der både dengang og nu var og er brug for debat om vores brug af bio- og genteknologier, er der i dag et behov for at diskutere brugen af big data.

”Vi er nødt til at diskutere, hvad der er vigtigt, og hvad der ikke er vigtigt. Der er rigtig mange ubesvarede spørgsmål,” siger Gorm Greisen og begynder selv listen:

”Kan analyser af big data tilføje merværdi i forhold til, hvad vi ellers kunne gøre? Kan analyserne skade nogen borgere? Kan vi sikre anonymitet? Kan vi bruge resultaterne til noget? Og vil vi bruge resultaterne?”

De spørgsmål er der ikke svar på endnu.

”Jeg synes, at nogen skal lave de her risikovurderinger og hjælpe os til at forstå, hvad der er vigtigt, og hvad der ikke er vigtigt. Vi skal ikke udvide mandatet for Det Etiske Råd, for vi har rigeligt at gøre med bioteknologierne. Jeg foreslår, at vi etablerer et dataetisk råd, hvor vi placerer ansvaret for at tage de samlede dataetiske problemstillinger op og diskutere, hvad der er på spil,” siger han. 

MM Special: Essensen om dataetik

  • Der er behov for grundlæggende etiske retningslinjer for brugen data og digitale teknologier som kunstig intelligens.
  • Jo mere, vi frygter, at data misbruges, desto vanskeligere bliver det at udnytte de positive muligheder i teknologien.
  • EU-kommissionen vil opstille etiske principper for brugen af kunstige intelligens. Det britiske overhus har netop afleveret 5 dataetiske anbefalinger.
  • EU’s nye persondataforordnings princip om dataminimering er en stopklods for forskning og brug af big data
  • Formanden for Etisk Råd opfordrer til oprettelsen af et dataetisk råd.

Etik er svaret på digitaliseringens dilemmaer

Big data kan også blive for store

Professor: EU’s persondataforordning forældet fra fødslen

Vi skal kunne stole på kunstig intelligens

Samtykkeerklæringer er et misfoster skabt af jurister

10 bud skal give virksomheder dataetisk fordel

For forebyggelsens skyld

Regionshospitalet Horsens har siden 2017 haft gang i et af de allermest ambitiøse projekter i Danmark. Et blik i statistikkerne fortæller, at 0,7 pct. af borgerne i Horsensområdet står for næsten 30 pct. af alle hospitalets akutte indlæggelser. Gennem et treårigt forskningsprojekt vil sygehuset i samarbejde med kommunerne og de praktiserende læger undersøge, hvad der fører til, at borgerne bliver indlagt eller genindlagt akut. 

Forskergruppen har samlet alt, lige fra sundhedsoplysninger som recepter og laboratoriesvar, over oplysninger fra kommunerne om hjemmehjælp, til oplysninger fra Arbejdsmarkedsstyrelsen om offentlige ydelser som sygedagpenge og kontanthjælp. Ligesom al anden registerforskning af den type sker det med tilladelse fra Datatilsynet og Styrelsen for Patientsikkerhed.

Ud fra de omfattende statistiske analyser kan hospitalet forhåbentlig snart opstille såkaldte risikoprofiler, der kendetegner de borgere, der er i risiko for at blive indlagt på akutafdelingen. Når risikoprofilerne er på plads, bliver næste skridt at afprøve profilerne i praksis. I en konsultation kan en læge f.eks. spørge en patient, om han eller hun skal sammenligne patientens diagnose med risikoprofilerne fra forskningsprojektet. Den sammenligning kan så vise, om den enkelte patient har en høj eller lav risiko for at blive indlagt akut.

”Hvis vi kan påvise bestemte sammenhænge, kan vi præsentere resultatet for patienterne og give dem mulighed for at træffe beslutninger på et oplyst grundlag. Det tror jeg vil virke meget bedre, end når lægen siger, at man skal gøre et eller andet eller ændre sin adfærd,” siger sygeplejefaglig direktør Hanne Sveistrup Demant.

For hospitalet – og sundhedssystemet generelt – handler det altså om at muliggøre den rette indsats på det rigtige tidspunkt. Og den nuværende statistik fra Horsens fortæller med al tydelighed, at det ikke er sådan i dag.

Ny og ubehagelig viden

Men hvad nu, hvis forskerne også finder ud af, hvilke borgere der vil få en uhelbredelig sygdom som f.eks. Alzheimers eller måske muskelsvind, skal lægen så også fortælle dem det? Svaret på det spørgsmål ligger langt fra lige for. Da denne skribent selv fik muligheden for at få netop den slags oplysninger, var svaret ’nej tak’.

Et andet af de store spørgsmål handler om ressourcer. For ét er at forudsige, hvad der sker med en borger, noget helt andet er at tilbyde den relevante behandling. Er der penge til det hele?

”Det er spændende at være med til, og jeg tror, at projektet kan være med til at modne vores forståelse af, hvad vi kan, og hvad vi skal gøre. I sidste ende handler det også om en etisk debat om, hvad vi vil,” siger Hanne Sveistrup Demant.

Det er lige præcis den slags debat, som Gorm Greisen efterlyser.

”Der er et stort skridt fra forudsigelse til forebyggelse. Diagnostik er godt, men kun rigtig godt, hvis man også kan behandle eller give god rådgivning, så patienten kan træffe en beslutning,” siger han.

Selv om Hospitalsenheden i Horsens endnu ikke kan fremvise resultater fra deres forskning, ligger dilemmaerne ikke nødvendigvis så langt fra andre mere kendte sundhedsdilemmaer.

Her handler et dilemma om lægemidler, der på den ene side kan forlænge en patients liv, men på den anden side kan medføre meget alvorlige bivirkninger. Det kan også være, at lægemidlet er så dyrt, at de ekstra måneder, en patient lever længere, måske betyder, at andre patienter ikke får helt den behandling, som de har brug for, alene af den grund, at der ikke er råd til det hele.

”God forskning betyder, at vi bliver klogere. Vi kan gøre mere, og vi kan også mindske risikoen for, at det, vi gør, påfører nogle mennesker en skade. I sidste ende kommer det springende punkt, når man tager den nye viden i anvendelse,” siger Gorm Greisen.

Hjælp til de udsatte børn

Forskerne i Horsens arbejder som i andre forskningsprojekter med anonymiserede data. Sådan er det ikke, når Gladsaxe Kommune forsøger at udpege familier med socialt udsatte børn. Også her er der tale om forebyggelse. Socialt udsatte børn kan generelt se frem til et markant dårligere liv end deres jævnaldrende, et forhold der i særlig grad gælder, hvis de på et tidspunkt anbringes i en plejefamilie.

Situationen er, at Danmark ikke har fundet frem til den socialfaglige indsats, der for alvor kan hjælpe de børn til et godt liv. Ved at samkøre en række data fra forskellige registre håber Gladsaxe Kommune, at de kan udpege børnene så tidligt, at problemerne kan tages i opløbet. Men modellen er omdiskuteret, bl.a. fordi den i modsætning til i Horsens bygger på ’rigtige’ familier. Der er altså ikke tale om forskning, men om et redskab for kommunen.

Med inspiration fra netop Gladsaxe ville regeringen i forbindelse med sin ghettoplan gøre det muligt for en minister administrativt at sætte gang i den type samkøring af data. Undervejs blev det dog til, at regeringen skal have flertal i to folketingsudvalg, før det kan ske.

Gladsaxe-modellen er kontroversiel, men det store spørgsmål er, om den overhovedet er nødvendig.

”Vi skal hele tiden spørge os selv, om vi tilføjer merværdi ved at analysere store mængder data. Måske kunne vi i stedet spørge skolelærerne. Jeg tror godt, at de ved, hvilke børn der burde have ekstra støtte,” siger Gorm Greisen.

Diskriminerende algoritmer

Politiets nye it-platform er leveret af amerikanske Palantir, en Silicon Valley-baseret virksomhed, der har specialiseret sig i arbejdet med big data og kunstig intelligens. I Danmark håber politiet på, at systemet kan hjælpe med at forudsige, i hvilke geografiske områder der kan opstå problemer i forbindelse med større events. Der er tale om en light-version af det, der kaldes predictive policing.

I nogle amerikanske delstater anvender man den udvidede version, så politiet i f.eks. Chicago og Los Angeles kan bruge deres it-system til at udpege de borgere, der med størst sandsynlighed vil begå kriminalitet.

”Det kan selvfølgelig være godt, at politiet kender dets ’kunder’, men kan vi være sikre på, at den kunstige intelligens nu også udpeger de rigtige borgere?” spørger Gorm Greisen.

Og det er lige præcis det, diskussionen handler om i USA. Magasinet ProPublica har f.eks. fortalt historien om en 18-årig farvet pige, der stjal en cykel, og en 41-årig hvid mand, som havde stjålet for ca. 500 kr. i en butik. Da politiet fik fat i de to, forudsagde computerne, at ud af de to havde den 18-årige sorte pige den største sandsynlighed for igen at begå kriminalitet.

To år efter viste det sig, at det var gået lige omvendt. Mens den unge pige var i gang med en uddannelse, havde den hvide mand fortsat sin ’karriere’ som kriminel.

Der kan altså være gode grunde til at sætte spørgsmålstegn ved den måde, som politiet eller andre myndigheder indretter deres algoritmer på. I en ideel verden lærer computeren af sine fejl, eller rettere, den lærer af sine fejl, hvis algoritmerne rettes til, så de f.eks. ikke automatisk vægter hudfarve højere end andre indikatorer, sådan som det var tilfældet i eksemplet fra ProPublica.

”Der er et kæmpe potentiale for diskrimination og stigmatisering. Oven i kommer spørgsmålet om, hvad det amerikanske politi vil bruge sin nye viden til. Vil man hjælpe borgere på kanten, eller vil man bure dem inde?” spørger Gorm Greisen.


Få Mandag Morgens overskrifter direkte i din mail.

Tilmeld dig nyhedsbrevet nu




Få Mandag Morgens overskrifter direkte i din mail.

Tilmeld dig nyhedsbrevet nu