Vi skal kunne stole på kunstig intelligens

Som borgere skal vi kunne se, hvorfor et system ud fra kunstig intelligens træffer en bestemt afgørelse, og vi skal sikre, at algoritmer ikke diskriminerer. Ellers vil offentligheden ikke have den tillid til kunstig intelligens, der er nødvendig for at udnytte mulighederne, siger Lord Timothy Clement Jones.

Foto: Lord Timothy Clement Jones
Peter Hesseldahl

Da skandalen omkring Cambridge Analyticas brug af personlige data fra Facebook rullede, faldt Facebooks aktier med 15 pct., svarende til en værdi på omkring 500 mia. kr. Kombinationen af avanceret dataanalyse og en moralsk anløben indsamling og brug af data er ikke kun et problem, fordi det undergraver demokratiet – det koster også rigtig mange penge, når det går galt. Facebook har på det seneste haft særdeles travlt med at forsøge at genvinde brugernes tillid, og Cambridge Analytica måtte som bekendt dreje nøglen om.

EU’s vicepræsident og kommissær for informationsteknologi, Andrus Ansip, brugte eksemplet, da han for nylig præsenterede en rapport om, hvordan EU kan støtte og udvikle brugen af kunstig intelligens, AI. De fleste kan se, at AI er et helt centralt værktøj for fremtidig vækst. Der er utallige muligheder for at skabe tjenester, der kan gøre livet lettere og sikrere for alle, og tilsvarende store muligheder for de virksomheder, der forstår at bruge AI. Men hvis ikke befolkningen har tillid til at teknologien bliver brugt forsvarligt, risikerer man, at udviklingen går i stå, så også de positive anvendelser af AI forsinkes.

En stor del af EU’s nye rapport handler om at udvikle et sæt af etiske retningslinjer for brugen af AI. Rapporten giver enkelte eksempler på mulige etiske problemstillinger, og den peger på nogle af de værdier, som man fra EU’s side mener bør være kendetegnende for anvendelsen af AI.

Rapporten er imidlertid kun optakten til en langt mere omfattende indsats for at diskutere og informere om etik og AI, som skal foregå fra sommeren og året ud. Processen skal munde ud i, at en gruppe på 30 nøje udvalgte eksperter skal formulere et sæt AI-retningslinjer inden udgangen af 2018.

Resultatet vil EU-Kommissionen derefter bruge som grundlag for at fremme en global etisk norm om brugen af kunstig intelligens.

I Storbritannien har man netop været igennem en tilsvarende proces. En kommission fra House of Lords, Overhuset i det britiske parlament, har foretaget en grundig sondering af AI-teknologiens fremtidige muligheder og den potentielle trussel, teknologien også udgør, og man har vurderet udsigterne for den britiske AI-industri.

Resultatet er blevet en ganske læseværdig rapport, der er centreret omkring etik som nøglen til den videre udvikling. Ligesom EU-kommissionen konkluderer medlemmerne af Overhuset, at det er afgørende, at der er bred tillid i samfundet til, at AI-teknologien ikke misbruges.

MM Special: Essensen om dataetik

  • Der er behov for grundlæggende etiske retningslinjer for brugen data og digitale teknologier som kunstig intelligens.
  • Jo mere, vi frygter, at data misbruges, desto vanskeligere bliver det at udnytte de positive muligheder i teknologien.
  • EU-kommissionen vil opstille etiske principper for brugen af kunstige intelligens. Det britiske overhus har netop afleveret 5 dataetiske anbefalinger.
  • EU’s nye persondataforordnings princip om dataminimering er en stopklods for forskning og brug af big data
  • Formanden for Etisk Råd opfordrer til oprettelsen af et dataetisk råd.

Etik er svaret på digitaliseringens dilemmaer

Big data kan også blive for store

Professor: EU’s persondataforordning forældet fra fødslen

Vi skal kunne stole på kunstig intelligens

Samtykkeerklæringer er et misfoster skabt af jurister

10 bud skal give virksomheder dataetisk fordel

Gennemskuelig tankegang

Den engelske kommission opstiller fem overordnede principper, som den mener bør ligge til grund for reguleringen af teknologien og for den måde, hvorpå virksomheder udvikler og anvender AI. Se tekstboks.

Et af dem er kravet om gennemskuelighed. Det skal være muligt for brugerne at forstå, hvordan et system når frem til en beslutning, og det skal være muligt at teste, om en algoritme, der eksempelvis vurderer en jobansøgning, arbejder uden fordomme og diskrimination og ud fra relevante og retvisende data. Myndighederne skal kunne gribe ind og forbyde systemer, der arbejder med vigtige beslutninger uden at være gennemskuelige.

House of Lords-kommissionens formand, Lord Timothy Clement Jones, siger i et interview med Mandag Morgen, at udviklerne af kunstig intelligens ofte forsøger at frasige sig et ansvar ved at hævde, at kunstig intelligens er en black box, hvor selv ingeniørerne ikke kan forstå, hvordan algoritmen træffer afgørelser.

”Vi behøver ikke at forstå algoritmen i detaljer, men vi kan forlange, at systemet fra starten er designet, så det er muligt at forstå, hvordan det når frem til sine konklusioner. Vi kan også forlange, at disse er fair og uden fordomme, og vi kan teste, om en algoritme har bias ved at indføre revisionsmekanismer,” siger Lord Clement-Jones.

Også i EU-kommissionens arbejde med dataetik er kravet om gennemskuelighed centralt.

Kommissionens rapport taler om explainability, dvs. at en virksomhed skal kunne forklare, hvad der ligger til grund for en automatisk beslutning truffet af en algoritme. Et eksempel kan være den måde, nogle websites anbefaler bestemte film til deres brugere, baseret på de film, som brugeren tidligere har set.

”Vi taler ikke om, at virksomhederne skal lægge alt frem,” siger en ekspert, der har været med til at udarbejde rapporten om AI, men som ikke kan stå frem med navn pga. EU-Kommissionens retningslinjer.

”Det handler ikke om at få udleveret kildekoden, for det er der ingen, der forstår alligevel. Men man skal kunne forklare brugeren, hvorfor algoritmen eksempelvis vurderer, om man kan få et lån eller ej i banken.”

Derfor foreslår EU-Kommissionen flere midler til forskning i explainability.

House of Lords' etik for brug af AI
• Kunstig intelligens skal udvikles til menneskehedens fælles gavn og bedste. • Kunstig intelligens bør fungere ud fra principper om fairness og forståelighed. • Kunstig intelligens bør ikke bruges til at svække rettigheder eller hensynet til privatlivet for individer, familier eller fællesskaber. • Alle borgere bør have ret til at blive uddannet, så de kan trives mentalt, følelsesmæssigt og økonomisk i samspil med kunstig intelligens. • Kunstigt intelligente systemer må aldrig gives magten til på egen hånd at såre, dræbe eller bedrage mennesker.

Hallo, er det en maskine?

Google har netop fremvist en chatbot, der er i stand til at ringe op og bestille en tid hos en frisør, uden at den frisør, der tager telefonen, opdager, at det ikke er et menneske, men en maskine, der er i røret. Fremover vil kunstig intelligens i stigende grad blive brugt til at betjene kunder på offentlige kontorer og i sundhedssektoren.

EU-kommissionen ønsker, at folk skal kunne forstå, om de har med en maskine at gøre, og at de skal kunne kontrollere de data, der generes af systemet. Desuden skal brugerne have mulighed for at kontakte et menneske i stedet.

Som EU-kommissionens ekspert siger, er den type etiske krav nødvendige, for hvis ikke man finder måder at bruge teknologien på, som folk synes er acceptable, overskuelige og trygge, vil folk ikke bruge det.

Lord Clement-Jones sammenligner det med forbrugernes massive afvisning af GMO, der førte til et forbud mod genmanipulerede fødevarer i Europa:

”Her var forbrugerne utrygge ved teknologien, og de kunne ikke se fordelene. Men andre teknologier, der kunne have været lige så kontroversielle, f.eks. kunstig befrugtning, blev omhyggeligt forklaret og debatteret, og derfor tog vi dem i brug,” siger han.

Lord Clement-Jones konstaterer, at der igennem de seneste par år er kommet en langt større bevidsthed om, at data kan misbruges, og at man i stigende grad ser, at folk siger nej til at dele data eller helt sletter tjenester, de ikke stoler på. En af House of Lords anbefalinger er derfor, at alle skal uddannes til at kunne omgås AI-systemer.

”Vi anbefaler kraftigt, at der skal skabes en større digital forståelse i alle aldre og niveauer af befolkningen. Vi skal kunne forstå, hvordan reklamer målrettes, hvor de data, vi afgiver, forsvinder hen, hvordan der er forskel på kilder til nyheder og viden, osv. Det er en indsats, der er nødvendig lige fra de første skoleklasser,” siger Lord Clement-Jones.

Man kan overveje, om det er et realistisk mål. EU’s persondataforordning, GDPR, træder i kraft på fredag den 25. maj, så i øjeblikket har alle web-tjenester travlt med at sende pop-up-beskeder og mails ud til alle deres brugere for at få deres samtykke til at fortsætte den måde, de indsamler og bruger de personlige data på. Men hvor mange læser i praksis beskederne igennem, inden de trykker ok? I praksis har de færreste tid, interesse eller endsige kvalifikationer til at forholde sig til virksomhedernes politik for data. Kunstig intelligens og algoritmer er ikke mindre komplekse at vurdere. 

EU-kommissionens ekspert mener ikke, at det er kommissionens opgave at fortælle, hvordan man skal informere og engagere folk i at forstå AI. Det er virksomhedernes opgave at finde løsninger, hvis de vil bevare brugernes tillid. Men kommissionen vil støtte projekter, der kan udvikle den type løsninger.

Lord Clement-Jones mener, at den måde, som eksempelvis Google har formået at forklare deres betingelser meget klart og enkelt, viser, at det er muligt at præsentere teknologien, så enhver kan forstå, hvad der foregår. Men han mener også, at man sagtens kan tillade sig at stille krav til brugerne:

”Mange kræver, at man skal have ejerskab over sine egne data. Men hvis det skal være sådan, må de til gengæld også være klar til at tage sig af deres data og holde øje med dem,” siger han og erkender samtidig, at det i praksis kan være meget at forlange.


Få Mandag Morgens overskrifter direkte i din mail.

Tilmeld dig nyhedsbrevet nu




Få Mandag Morgens overskrifter direkte i din mail.

Tilmeld dig nyhedsbrevet nu