Kunstig intelligens kan accelerere videnskabelig svindel

Hallucinationer, deepfakes og simpel nonsens. Der er masser af risici ved forskeres brug af sprogmodeller.

Foto: Mike Haddad

Mandag Morgen samarbejder med The Economist

Mandag Morgen har indgået en særlig aftale med The Economist om at oversætte og viderebringe udvalgte artikler og kommentarer til vores danske læsere.

Oversat af Mandag Morgen med særlig tilladelse. Den originale artikel på engelsk kan findes på www.economist.com

© The Economist Newspaper Limited. All rights reserved.

I et mødelokale hos Royal Society i London blev en stor gruppe kandidatstuderende for nylig sat til at prøve at narre en stor sprogmodel – den type kunstige intelligens, der er designet til at føre samtaler.

Sprogmodellerne er ofte programmeret med sikkerhedsforanstaltninger for at forhindre dem i at give svar, der anses for skadelige, som for eksempel instruktioner til at lave bomber eller selvsikre påstande om ‘fakta’, der slet ikke er sande.

Målet med sessionen, der blev arrangeret af Royal Society i samarbejde med den amerikanske ngo Humane Intelligence, var at bryde igennem disse sikkerhedsforanstaltninger. Nogle resultater var bare fjollede: en deltager fik for eksempel chatbotten til at påstå, at ænder kan bruges som indikatorer for luftkvalitet (åbenbart absorberer ænder let bly, påstod sprogmodellen). En anden studerende fik den til at påstå, at sundhedsmyndigheder anbefaler brugen af lavendelolie til behandling af langvarig covid. (Det gør de ikke.) Men de mest vellykkede forsøg var måske nok dem, der fik maskinen til at generere titler, udgivelsesdatoer og tidsskrifter for ikkeeksisterende videnskabelige artikler.




Få Mandag Morgens overskrifter direkte i din mail.

Tilmeld dig nyhedsbrevet nu