Europol anslår at innen 2026 vil 90 prosent av alt innholdet på nett være kunstig generert. Det vil bli enklere og billigere å produsere propaganda, desinformasjon og falske nyheter og innhold. Det falske, men realistiske bildet av Donald Trump som blir arrestert på åpen gate eller paven med boblejakke er eksempler på slik manipulasjon.
Ny æra for manipulering
Generativ kunstig intelligens gjør det enklere å lage såkalte deepfakes. I mai ble et kunstig generert bilde av Pentagon som brenner spredt lynraskt på internett og hendelsen påvirket til og med aksjemarkedet. For å kopiere en persons stemme slik at man kan generere ny tale, trengs det kun 3 sekunder med lydopptak. I juni ble en falsk tale av Putin ble sendt på radio og TV i Ukraina. Mengden, farten og at «alle» får tilgang på teknologien kan blant annet bidra til å påvirke og manipulere politiske valg.
Mennesker er mer tilbøyelige til å tro på desinformasjon som er generert av kunstig intelligens framfor mennesker, viser forskning, og unge mennesker stoler mer på informasjon fra roboter enn fra mennesker. Eksperimenter har også vist at mennesker enkelt kan la seg påvirke i dialog med chatboter, og at teknologien kan brukes til å forutsi folkeopinionen.
Vannmerking av kunstig intelligens
Fordi det stadig blir vanskeligere å se forskjell på hva som er kunstig generert innhold og hva som menneskeskapt, utvikles det nå verktøy for å oppdage og merke kunstig generert innhold.
Én av flere løsninger som har blitt foreslått for å hjelpe mennesker med å skille menneskeskapt fra maskinskapt innhold, er digital vannmerking. Teknikken har blitt brukt for å beskytte eksempelvis bilder og videoer med opphavsrett fra å bli kopiert og manipulert. Bildegenereringsprogrammet Dall-E bruker en synlig vannmerking på sine bilder, men det finnes også tekniske løsninger for vannmerking ved bruk av metadata eller koder som ikke er synlige på bilder eller videoer.
Den store mengden innhold på nett som vil være kunstig generert har også skapt et behov for teknologi som kan fange opp og identifisere kunstig generert innhold. Forskere i USA har eksempelvis utviklet en algoritme som kan oppdage tekst generert av en Metas språkmodeller.
Nye måter å beskytte bilder fra manipulering
Verktøy som kan beskytte bilder og videoer fra å bli manipulert, er under utvikling. Forskere ved MIT har laget et verktøy kalt PhotoGuard som gjør det vanskeligere å manipulere bilder. Enkelt forklart blir små usynlige koder lagt på bildet, noe som gjør det vanskelig for kunstig intelligens-systemer å tolke og manipulere bildet.
Glaze er et verktøy som kan brukes av kunstnere for å beskytte kunsten sin fra å bli scrapet på nettet. Språkmodeller som er trent på kunstverk kan kopiere stilarter til kunstnere ved hjelp av enkle instrukser. Det pågår derfor store diskusjoner om opphavsrett og immaterielle rettigheter til kunstnere. I Storbritannia har Getty Images saksøkt Stability AI for å ha brukt over 12 millioner bilder til å trene sin språkmodell.
Løsningene er ikke gode nok
Utviklingen av store språkmodeller og generativ kunstig intelligens går svært raskt, og verktøyene for både vannmerking og identifisering av kunstig generert innhold sliter med å holde tritt med utviklingen. Verktøyene som utvikles blir fort utdaterte og mangelfulle.
Løsningene som finnes i dag, er heller ikke gode nok . PhotoGuard kan for eksempel omgås ved enkle grep som en skjermdump av et bilde, noe som fjerner de innebygde kodene. Et kjapt Google-søk gir deg flere oppskrifter på hvordan man kan omgå både vannmerking og systemer for å oppdage kunstig generert tekst.
Testing av de tilgjengelige verktøyene viser at de verken er presise eller pålitelige nok, særlig hvis en tekst er skrevet både av et menneske og en maskin. Verktøyene kan også ha en innebygd bias for å klassifisere tekst som menneskeskapt, framfor maskinskapt. OpenAI, selskapet bak ChatGPT, har selv nylig avviklet et verktøy for å oppdage tekst generert av kunstig intelligens, nettopp fordi treffsikkerheten var for lav.
Biden krever at selskaper tar ansvar
I USA har president Joe Biden fått syv teknologiselskaper, inkludert Google, OpenAI, Meta og Microsoft, til å slutte seg til et sett med frivillige retningslinjer for ansvarlig kunstig intelligens. Selskapene forplikter seg blant annet til å utvikle tekniske løsninger for vannmerking av kunstig generert innhold.
Selv om selskaper i USA har forpliktet seg til å utvikle tekniske løsninger, har de ikke forpliktet seg til å ta i bruk disse løsningene selv. Kritikerne peker også på at én enkelt løsning, som vannmerking, neppe vil være nok for å motvirke de store mengdene desinformasjon som for eksempel kan manipulere valg.
I EU forhandles det om en ny overordnet lov for regulering av kunstig intelligens – Artificial Intelligence Act – der det også foreslås at kunstig generert innhold må merkes. Loven vil trolig bli ferdigforhandlet i år, men vil ikke tre i kraft før 2026. EU-kommisjonen har derfor oppfordret teknologiselskapene til å merke kunstig generert innhold allerede nå, som et ledd i oppfølgingen av de eksisterende retningslinjene for håndtering av desinformasjon på nett.
Hvor går veien videre?
Det er fortsatt en lang vei igjen for de tekniske løsningene som skal bidra til å motvirke spredning av deepfakes, desinformasjon og falske nyheter. Smutthullene i de eksisterende verktøyene må tettes, og flere løsninger må utvikles, og ikke minst reguleres. Ikke bare må løsningene være enkle å ta i bruk og tilgjengelige for mange, de må også fungere for alt fra tekst og lyd til bilder og videoer. Det er med andre ord ingen enkel oppgave som står overfor utviklere av disse nye tekniske løsningene, men de trengs og det haster.
Forsidebildet til denne artikkelen er generert i verktøyet Midjourney.