Vi skal kunne stole på kunstig intelligens

Som borgere skal vi kunne se, hvorfor et system ud fra kunstig intelligens træffer en bestemt afgørelse, og vi skal sikre, at algoritmer ikke diskriminerer. Ellers vil offentligheden ikke have den tillid til kunstig intelligens, der er nødvendig for at udnytte mulighederne, siger Lord Timothy Clement Jones.

Da skandalen omkring Cambridge Analyticas brug af personlige data fra Facebook rullede, faldt Facebooks aktier med 15 pct., svarende til en værdi på omkring 500 mia. kr. Kombinationen af avanceret dataanalyse og en moralsk anløben indsamling og brug af data er ikke kun et problem, fordi det undergraver demokratiet – det koster også rigtig mange penge, når det går galt. Facebook har på det seneste haft særdeles travlt med at forsøge at genvinde brugernes tillid, og Cambridge Analytica måtte som bekendt dreje nøglen om.

EU’s vicepræsident og kommissær for informationsteknologi, Andrus Ansip, brugte eksemplet, da han for nylig præsenterede en rapport om, hvordan EU kan støtte og udvikle brugen af kunstig intelligens, AI. De fleste kan se, at AI er et helt centralt værktøj for fremtidig vækst. Der er utallige muligheder for at skabe tjenester, der kan gøre livet lettere og sikrere for alle, og tilsvarende store muligheder for de virksomheder, der forstår at bruge AI. Men hvis ikke befolkningen har tillid til at teknologien bliver brugt forsvarligt, risikerer man, at udviklingen går i stå, så også de positive anvendelser af AI forsinkes.

En stor del af EU’s nye rapport handler om at udvikle et sæt af etiske retningslinjer for brugen af AI. Rapporten giver enkelte eksempler på mulige etiske problemstillinger, og den peger på nogle af de værdier, som man fra EU’s side mener bør være kendetegnende for anvendelsen af AI.

Login