Eksempel på en KI-generert illustrasjon. Illustrasjon: Deborah Riiser. Bilde laget ved hjelp av DALL-E 2.

EU strammer grepet om deepfakes

Samtidig som KI-teknologien utvikler seg utrolig raskt, blir det vanskeligere å avsløre deepfakes.
Torsdag, 16 mai, 2024 - 13:13

Hva er en deepfake?

  • Manipulerte mediefiler, som bilder, videoer og lyd
  • Laget av kunstig intelligens
  • Viser noe som ikke har skjedd på ekte

Deepfakes tar nettet med storm og kan være skremmende realistiske. Kanskje har du blitt lurt trill rundt selv? 

En video av Tom Cruise som danser i morgenkåpe er god underholdning og neppe til skade. Men hva med når deepfakes brukes til å lage falske videoer av politikere som kommer med kontroversielle uttalelser?

Og hva hvis teknologien blir så brukervennlig at folk kan lage deepfakes av klassekameraten, ekskjæresten eller sjefen – hvilke trusler mot personvern kan vi se da?

Nå har EU svart med et historisk lovforslag som skal verne om personvernet og sann informasjon. 

Historisk lovgivning

EU har utviklet det første lovforslaget om kunstig intelligens, Artificial Intelligence Act (AIA), som skal regulere bruken av KI. Loven er en forordning, noe som vil si at den vil gjelde i alle EU-medlemsland.

Det er forventet at den inntas i EØS-avtalen, og dermed får den også virkning i Norge.

Hva er KI-systemer?

  • Maskinbaserte systemer som er utviklet til å lære seg ny informasjon selv
  • De fungerer ved at vi gir dem en oppgave, og de løser den basert på innhentet kunnskap
  • ChatGPT er et eksempel på et KI-system

AIA gjelder for KI-systemer, og de fleste reglene vil gjelde de som utvikler disse systemene. Men også brukere vil bli påvirket av reglene.

Blant annet må alle som lager eller sprer en deepfake, merke innholdet som KI-generert.

Loven skiller mellom ulike nivåer av risiko når det kommer til kunstig intelligens. Kategoriene som anses å innebære høyest risiko, blir strengest regulert. Sosiale scoringssystemer er et eksempel på et slikt KI-system som kategoriseres som uakseptabel risiko. Dette blir dermed ulovlig.

Hensikten med loven er å fremme tillit til kunstig intelligens ved å sikre at den brukes på en ansvarlig måte som respekterer menneskerettighetene.

Reglene trer i utgangspunktet i kraft to år etter at loven er vedtatt, men det finnes unntak. For eksempel vil forbudene mot KI-systemer med uakseptabel risiko få virkning seks måneder etter at forordningen trer i kraft.


EU har utviklet den første loven om kunstig intelligens, AI Act. Foto: bobbsled (CC BY-SA 2.0 DEED)/Flickr

Vanskelig å skille falskt fra ekte

– Jeg følte den var ekte.

– Åja, jeg tenkte umiddelbart motsatt, jeg!

Oslomet-studentene Sina og Nora ler i kor. Journalen møter dem i solveggen utenfor universitet for å stille dem noen spørsmål om deepfakes. Blant annet får de se et ekte bilde av Kim Kardashian og en deepfake, og blir spurt om de klarer å skille dem.

– Det blir egentlig bare “elle melle” altså, sier Nora.


Sina (t.v.) og Nora (t.h.) har ikke sett mange deepfakes som de vet om, men er redd de kan være ødeleggende for mennesker. Foto: Andrea Ulriksen

Arash er også ute og nyter en jobbpause i sola. Han sliter med å skille bildene, men klarer å gjette riktig til slutt.


Arash. Foto: Andrea Ulriksen

– Jeg syns det kan være skummelt. Eller, det er skummelt! svarer han, når Journalen spør om hva han tenker om deepfakes.

– Deepfakesene kan si nesten hva de vil, og det ser helt ekte ut. Det er misvisende og nesten farlig. De kan bare komme med uttalelser fra folk som ikke stemmer. Og i vår verden så er alle der nede, sier Arash og signaliserer til mobilen.

Studenten Nora ser også utfordringer for personvernet.

– Man kan jo utgi seg for å være noen andre, så det kan virke som du har sagt noe du ikke har sagt. Alt man trenger for å lage sånne videoer er så lett å finne. Potensielt kan kanskje hvem som helst lage en video av hvem som helst. Hvis noen har lyst til å skade mitt navn og rykte, så er det mulig å få til det, sier Nora.

Klarer du å se hva som er ekte og hva som er en deepfake? Test deg selv! (Tips: spol til 0:21 for deepfaken vi brukte).

Trussel for personvernet 

Elisabet Haugsbø er president i Tekna, Norges største fagforening for arbeidstakere og studenter innenfor teknologiske og naturvitenskapelige yrker. Hun mener deepfakes er teknologi som er enkel å få tak i og som har et stort skadepotensiale:

– Kvaliteten gjør at det ikke lenger er mulig å visuelt skille mellom ekte og falskt lyd-, bilde- og videoinnhold. Dermed kan vi egentlig ikke stole på noe av det vi ser eller hører, uten at det kommer fra sikre kilder eller at man har nok teknisk kompetanse. 

Haugsbø peker på at bruken av deepfakes strider med personvern og privatliv, og dermed er en kriminell handling: 

– Vi har allerede lover som ikke tillater misbruk av andre sin eiendom uten samtykke. Bilder er en del av dette. Dagens lovverk gjelder også på internett.  


Tekna-president Elisabeth Haugsbø mener AIA ikke vil være nok i kampen mot deepfakes. Foto: Tekna

– Krever mer enn AIA 

Haugsbø mener at lovverket vi har i dag ikke kan takle deepfakes alene. Samtidig mener hun også at AIA ikke er tilstrekkelig for å håndtere de store utfordringene denne teknologien gir.

– Etter min mening er det ikke nødvendigvis at vi mangler lovverk som beskytter oss i dag, men at politiet ikke har ressurser til å kunne følge opp, og at det ikke er så lett å finne ut hvem som opprinnelig har laget innholdet. 

Først og fremst etterspør Haugsbø og Tekna bedre oppfølging av dagens lovverk.

– Jeg mener vi har gode lover i Norge. Det er ikke lov å gi seg ut for å være andre, spre usannheter eller sjikane. Samtidig ligger Norge og resten av verden bakpå når det kommer til den digitale sfæren. Vi sliter med å følge med i timen når teknologiutviklingen går mange ganger raskere enn lovutviklingen og oppfølgingen.  

Kan gi mistillit i demokratiet 

Videre skriver Haugsbø at deepfakes kan utfordre tilliten til demokratiet: 

– I år er det valg i veldig mange land, og da er det bekymringsverdig at det er så lett å lage falskt innhold som ser så ekte ut. 

Et eksempel Haugbø peker på er deepfaken som i forrige uke ble sluppet av den danske statsministeren Mette Fredriksen. Det var opposisjonspartiet Dansk folkeparti som laget deepfaken. Til tross for at den var merket, mener Haugsbø at slike videoer påvirker velgerne og deres tiltro til de politiske prossessene. 

En sentral del av spredningen av deepfaksene skjer på sosiale medieplattformer. Haugsbø peker på algoritmene på sosiale medier som en bidragsyter til problemet.  

– Sosiale medier er kjappe kommentarer og kort innhold som vekker en del følelser. Dette blir ansett som bra innhold algoritmemessig fordi spredningen er god og oppmerksomheten er stor. Deepfakes er perfekt til dette, skriver hun.

Haugsbø mener vi trenger merking av deepfakes og bedre KI-detektorer på medieplattformene. I tillegg stiller hun krav til politikerne i samfunnet.

– Jeg håper ikke flere nordiske partier faller for fristelsen. Først og fremst så trenger vi at de vi kan stole på alltid kommer med ekte innhold. 

Avslører deepfakes 

I fjerde etasje på Pressens Hus ligger redaksjonslokalene til Faktisk.no. Sammen utgjør Faktisk.no sine syv journalister en liten redaksjon med en stor oppgave. De jobber med å verifisere historier, bilder og videoer som dukker opp i nyhetsbildet.  Journalist Kajsa Garmann Lønrusten er en av dem.  

– Det første vi gjør er å bruke omvendt bildesøk på Google. Målet er å finne originalkilden og se om dette virkelig er den riktige konteksten, sier Lønrusten. 

Lønrusten slipper bildefilen ned i søkefeltet. Etter et par sekunder dukker det opp de på side med artikler og lenker som bruker det samme bildet. De fleste lenkene fører til Twitter- og Telegraminnlegg.  


Kajsa Lønrusten har lang erfaring med kunstig intelligens i media. Hun mener de store teknologiselskapene må ta mer ansvar. Foto: Deborah Riiser

Lønrusten forteller at innleggene Faktisk.no jobber med har rukket å spre seg i mange kommunikasjonskanaler før de blir verifisert. Det kan gjøre det vanskelig å finne originalkilden. 

– I tillegg til bildesøk bruker vi geolokalisering. Gjennom satellittbilder og Google Maps kan vi sammenligne kjennetegn som bygninger og vegetasjon. Det finnes også programvarer som kan brukes til å avsløre KI-generert innhold. Dessverre tar de ofte feil, sier Lønrusten. 


Redskapene Faktisk.no bruker til å avsløre deepfakes er gratis og tilgjengelig for alle. Foto: Deborah Riiser

Vanskeligere å avsløre 

Videre forteller Lønrusten at journalistene hos Faktisk.no så lite til deepfakes i starten av Russlands invasjon av Ukraina i 2022. Siden da har bruken av deepfakes økt.

– Ved hendelser i konflikter spres veldig mye stoff. Dette har vi sett særlig nå under Israel-Palestina-konflikten. I tillegg ser vi at KI-generert innhold blir mer og mer naturtro. Det er ikke lenger like lett å avsløre. 

I tillegg til bilder og videoer møter journalistene i Faktisk.no på deepfakes av lyd. Lønrusten mener dette er en økende utfordring.

– I en deepfake av et bilde eller en video finner vi ofte flere avslørende faktorer. Det kan være mimikk eller lys. Men KI-generert etterligning av folks stemmer har blitt vanskelig å oppdage.  

Lønrusten mener teknologien krever regulering.

– Vi ser at utviklingen går utrolig fort, og at KI-en klarer å lage mer feilfritt innhold. Det er ingen tvil om at de store teknologiselskapene må ta ansvar. I tillegg trenger vi juridiske reguleringer.

Et nytt landskap 

Utviklingen av kunstig intelligens går altså raskt. Litt for raskt på noen måter, ifølge nyhetsredaktør i Faktisk.no, Olav Østrem. 

– Teknologien blir jo bare bedre og bedre. Det betyr at det er vanskeligere å avsløre KI-generert innhold. Det betyr også at disse verktøyene for å prøve å avsløre det, ligger etter utviklinga, sier han.

Østrem peker blant annet til at detektorer som kan brukes for å avsløre KI, for eksempel “AI or not”, ofte gir feil resultat. 


Nyhetsredaktør i Faktisk.no, Olav Østrem, viser oss hvordan de driver opplysning på Faktisk.no sin nettside. Foto: Deborah Riiser

Verden har sett store forandringer i bruken av KI på bare få år. Faktisk.no ble startet i 2017 med utgangspunkt i å faktasjekke politikeres påstander og avsløre falske nettsider. Den gang snakket man ikke om deepfakes og KI-manipulerte bilder. Nå er det større utfordringer knyttet til dette.

– Det var et helt annet landskap den gang, sier Østrem. 

Sannhetsansvar

Østrem forteller at de i Faktisk.no først og fremst jobber med å verifisere og finne ut av hva som er ekte, ikke like mye det som er falskt.  

– Alle tar det litt mer på alvor. Vi kan ikke bare legge ut bilde og video og tenke at det er virkeligheten. Det tror jeg begynner å gå opp for alle nå, sier han.

Deepfakes er ikke like utbredt og utviklet enda som mye annen KI, men avhengig av kontekst kan det likevel skape forvirring. 

– Noe deepfakes brukes for underholdning, og da er det lett å vite at det ikke er ekte. Men når det brukes i en politisk setting for eksempel, er det litt vanskeligere å vite hva som er sant og ikke, sier Østrem videre. Han ser på rollen til Faktisk.no som et kompetansesenter. 

– Vi skal vite hva som foregår. Det gjør at vi må samarbeide med andre, både akademia, næringsliv og andre medier.