Kunstig intelligens – dommedag eller Safe AI nu?

Hvis ikke Danmark skal ende som et frilandsmuseum af i går, skal der investeres massivt i forskning i AI. Ellers ryger de danske toptalenter til it-giganterne, mens Kina kommer til at udkonkurrere os.

MM Special: Kunstig intelligens er den nye elektricitet

  • Kunstig intelligens vil blive indbygget i alle former apparater og maskiner, og det vil ændre forretningsmodellerne i stort set alle industrier.
  • Algoritmer i administrative systemer har en tilbøjelighed til at diskrimere og fastholde mønstre og roller fra fortiden.
  • Der vil opstå nye typer job og nye fordelinger af roller, når mennesker arbejder tættere sammen med intelligente maskiner.
  • En lang række danske virksomheder er allerede i fuld gang med at udvikle og anvende AI-løsninger.

Kunstig intelligens er den nye elektricitet

”Vi skal tage det robotagtige ud af den menneskelige rolle”

Algoritmer er nutidens masseødelæggelsesvåben

Kunstig intelligens – dommedag eller Safe AI nu?

Vestas er erhvervslivets AI-veteran

5 danske projekter der rykker på kunstig intelligens

MM MENER: Kunstig intelligens angår os alle

Af Lars Kai Hansen, professor, DTU Compute

En selvkørende Tesla crasher og dræber føreren – den amerikanske færdselsstyrelse er i gang med at undersøge hændelsesforløbet.

Den kendte fysiker Stephen Hawking blev i 2014 interviewet af BBC og fortalte om sine bekymringer for menneskets fremtid med kunstig intelligens. Hawking var nervøs for, at AI kunne udvikle generel intelligens, bare meget dybere, hurtigere og uden værdier. Resultatet kunne blive en marginaliseret menneskehed – udkonkurreret og irrelevant.

Alexa, Amazons kunstigt intelligente assistent, er programmeret til at kunne foretage indkøb og udføre servicer for sin ejer. Et amerikansk par står foran Alexa og fører en personlig samtale; Alexa misforstår situationen, optager samtalen og sender udskriften i en mail til en af deres venner.  Samme Alexa er kendt for at kunne begynde at grine på mærkelige tidspunkter og jage en skræk i livet på sine ejere.

De tre eksempler sammenfatter på mange måder den situation, vi som individer, borgere og samfund står midt i med kunstig intelligens: Er AI en livsfarlig flirt med dødbringende våben eller simpelthen bare til grin?

Manden bag Tesla, entreprenøren Elon Musk, har udtalt, at AI er den største eksistentielle trussel mod mennesket. Bekymringerne har deres udgangspunkt i bøger skrevet af Ray Kurzweil, grundlæggeren af Singularity-bevægelsen, og analyser af Nick Bostrøm, filosoffen, der leder Oxfords Future of Humanity Institute.

Giganterne omfavner AI

Filosofferne er bekymrede, mens andre skaber imperier baseret på kunstig intelligens. Googles CEO, Sundar Pichai, har f.eks. sagt til CNBC:

“AI er en af de vigtigste ting, menneskeheden arbejder på. Det er mere vidtrækkende end, hvad ved jeg, elektricitet eller ild.”

Google har erklæret sig ’AI first’ og har omdøbt sin berømte forskningsafdeling til Google AI. Facebook har reorganiseret sin forskning i og udvikling af AI her i 2018 som opfølgning på Zuckerbergs vision fra 2016, hvor han forudså, at AI ville redde liv ved at opdage sygdomme tidligere, udvikle mere sikker transport og forbedre forståelsen af klimaets udvikling.

“Vi skal ikke frygte AI. I stedet skal vi håbe på alle de fantastiske ting, som AI vil kunne gøre i verden.”

I det centralt styrede kinesiske samfund er der heller ingen tvivl om, at AI er vejen frem, og man har igangsat en omfattende 2030-plan, der skal lede til en global førerposition for kinesisk AI. Den kinesiske version af AI får stor opmærksomhed, dels på grund af den enorme skala, dels på grund af de rapporterede angreb på privatlivets fred og udstrakte eksperimenter med social engineering.

I den vestlige offentlighed er Facebook i alvorlige problemer. Den er gal med håndteringen af brugernes data. Zuckerberg har sværget foran den amerikanske kongres, at man ikke sælger brugernes data. Nu viser det sig, at man tilsyneladende har givet dem væk. Tidligere har et af Facebooks eksperimenter med brugernes humør været stærkt kritiseret for manglende etisk evaluering.

Amazon og Google er nu ikke meget bedre, men har måske bare været heldigere end Facebook og har bedre kunnet holde sig under radaren. Google har dog mærket det øgede fokus på etik og har formuleret et nyt etisk kodeks, der blev offentliggjort for nogle uger siden.

Dommedag lurer forude

Situationen ser alvorlig ud. Vi har på den ene side den enorme opbygning af AI-kompetencer i de amerikanske it-giganter. De er så dygtige til at trække værdi ud af brugernes data, at de kan købe sig til de bedste AI-talenter.

På den anden side har vi en enorm opbygning af AI-ressourcer i Kina, der i hvert fald på overfladen ser ud til at bygge på værdier, der sætter systemet langt over individet. Kort sagt: Talenterne ryger til it-giganterne, og Kina kommer til at udkonkurrere os.

Hvad er ’Safe AI’?

På baggrund af de enorme samfundsmæssige konsekvenser af kunstig intelligens bliver der verden over arbejdet med at sikre, at teknologien lever op til demokratiske værdier og kontrol. På DTU Compute har man formuleret en række Safe AI-principper. Samlet udgør principperne en vision for ansvarlig kunstig intelligens, baseret på konkret og realistisk AI-teknologi.

Safe AI er sikker: har bestået test og verifikation og er robust overfor systematiske og velinformerede angreb

Safe AI er selvbevidst: forstår sin egen rolle og usikkerhed og kan f.eks. afslå at handle

Safe AI kan holde på en hemmelighed: beskyttelse af privatliv, privacy by design, er indbygget

Safe AI har veldefinerede værdier: er renset for stereotyper, bias, og forstår emotioner

Safe AI har sociale kompetencer: forstår sociale relationer og forstår brugerens viden og kompetencer

Safe AI forstår magt: forstår data og handlingers kontekst og konsekvenser

Safe AI er dokumenteret transparent og kommunikerende, right to explanation

Safe AI er open source: metoder, kode og testresultater er tilgængelige for alle

Kilde: Professor Lars Kai Hansen, DTU Compute

Men dommedag er ikke indtrådt endnu, og vi kan stadig nå at afværge den. Der ligger en kæmpe mulighed for Danmark, Norden og Europa. Lad os træde i karakter, udnytte momentet og investere stort i udvikling af Safe AI, som kollegaer på DTU Compute og jeg foreslog i en kronik i Børsen for nylig. Den europæiske vinkel er yderligere beskrevet i det stort anlagte initiativ ELLIS med nordiske og europæiske forskere. Ideen i ELLIS er at skabe en række europæiske forskningsmiljøer, der kan fastholde talenter og skabe grundlag for AI-innovation baseret på europæiske værdier.

Som Lars Frelle-Petersen fra Dansk Industri forudser vi en enorm efterspørgsel efter samfundsmæssigt ansvarlige løsninger. En særlig dansk, nordisk og europæisk model inden for kunstig intelligens vil have fokus på demokratiske værdier. Der er grund til at være optimist. Nye privacy-forskningsresultater gør det praktisk muligt at skabe kunstig intelligens, der både virker og kan holde på en hemmelighed! AI-teknologi skal være åben, så alle kan anvende den og evaluere den kritisk. Dermed kan Safe AI bidrage til at genskabe magtbalancen mellem it-virksomheder og brugere. Tilliden til det digitale vil kunne genetableres med klare regler for databeskyttelse, både på nettet og i det offentlige.

Stor rift efter talenter

Men vi er også nødt til at sikre, at AI-toptalenterne finder det spændende at arbejde i Europa. Hvis vi definerer et AI-toptalent som en forsker, der har fået sine ideer optaget på en af de store AI-konferencer, ja, så er der under 50 toptalenter i Danmark. Efterspørgslen på disse talenter er meget større end kapaciteten.

Her på DTU Compute er der hver eneste dag firmaer og organisationer, der ringer, skriver eller banker på min dør for at få hjælp til AI. Mine kollegaer er i samme situation – efterspørgslen er meget, meget større, end vi kan efterkomme på danske universiteter.

Hvis ikke Danmark skal blive et frilandsmuseum, hvor man kan underholde sig med at studere verden fra før, der kom AI, så er vi er nødt til at gøre noget ved det. Det kunne være at udbygge de danske og europæiske AI-forskningsmiljøer med et ELLIS-center. Et dansk eller nordisk ELLIS-center kan blive en motorvej fra frontforskningen til samfundet og sikre, at etablerede virksomheder, startups, organisationer, det offentlige og helt menige borgere får adgang til de nyeste metoder fra det globale udviklingsmiljø.

Storebæltsbroen kostede i sin tid cirka én million kr. per meter, i alt godt 20 milliarder. Vi burde investere et tilsvarende beløb på at sikre fremtiden med ’Safe AI – Made in Denmark’.

Forrige artikel Hildebrandt: Ikkebæredygtig adfærd er taberadfærd Hildebrandt: Ikkebæredygtig adfærd er taberadfærd Næste artikel Jagten på talenter kræver indsigt i din virksomheds DNA Jagten på talenter kræver indsigt i din virksomheds DNA
  • Anmeld

    Steen Rasmussen · Professor i fysik

    Kai har ret.

    Klar og veldokumenteret tekst. Vi halter langt bagefter her. Dog skal der ikke kun investeres i AI og big data, som IT giganterne allerede har kommercialiseret. Da udviklingen foregår med eksplosionsagtig hast, skal der investeres mere bredt og fremadrettet i og omkring de videnskabelige og tekniske discipliner samt undervisning, der inkluderer AI og big data. Ellers investerer vi i fortiden. Bevillingeren bør dels gives (1) direkte til universiteterne som et ekstraordinært tilskud til basisbevillingerne, og dels som en øget bevillingspulje både for (2) det frie forskningsråd og for (3) de mere anvendelsesorienterede forskningsråd.