Med Artificial Intelligence Act (AI act) vil EU gjøre det trygt og lett å bruke og utvikle kunstig intelligens i Europa. Loven vil også ha bestemmelser om generativ kunstig intelligens (KI). AI Act kan bli vedtatt i 2023, men vil ikke tre i kraft før i 2026. EUs egne toppledere mener vi ikke kan vente, men må finne midlertidige løsninger. Thierry Breton, EU-kommissær for det indre marked, har lansert et forslag om en frivillig AI Pact, mens EU-kommisjonens visepresident Margrethe Vestager vil ha en AI Code of Conduct 

Selv om vi etter hvert får et overordnet lovverk, må hver enkelt virksomhet gjøre sin egen vurdering om hvordan de vil bruke teknologien, og hvilke retningslinjer egne ansatte skal følge. Den vurderingen kan gjøres nå, og flere er allerede i gang. 

Forbud, frislipp, eller bevisst tilnærming 

Den nye bølgen med generativ kunstig intelligens vil ha særlig effekt på kunnskapsyrker og hvitsnippsjobber. Enten virksomheten tar et bevisst valg eller ei, generativ kunstig intelligens vil sive inn i vår arbeidshverdag. Både Microsoft og Google vil integrere generativ kunstig intelligens i vanlige kontorstøtteprodukter. De fleste virksomheter vil måtte forholde seg til denne type teknologi. Men usikkerheten rår. Hva betyr dette for den enkelte og hva betyr det for virksomheten? Hva kan vi trygt bruke generativ KI til, og når bør vi være forsiktige?   

Enkelte teknologiselskaper har forbudt eller begrenset bruk av generativ KI. Eksempelvis Apple som forbyr ansatte å bruke ChatGPT fordi de er redd for lekkasjer av konfidensielle data. Samsung forbyr bruk av generative KI verktøy som ChatGPT etter at ansatte lastet opp sensitiv kode til plattformen.  Og den amerikanske delstaten Maine har innført et 6-måneders moratorium, hvor det er forbudt å bruke generativ KI. De vil bruke tiden til å vurdere risikoen. Digitaliseringsdirektoratet foreslår en annen tilnærming, og mener vi heller må spørre oss hvordan vi skal bruke KI, framfor om vi skal bruke KI 

Tre eksempler på retningslinjer for bruk av kunstig intelligens 

1. Veileder for ansvarlig utvikling og bruk av kunstig intelligens i offentlig sektor  

Flere virksomheter i offentlig sektor er i utarbeider retningslinjer for intern bruk av generativ KI, herunder både NAV, Skattedirektoratet og Direktoratet for forvaltning og økonomistyring. 

For å bistå offentlige virksomheter i hvordan de kan utvikle og bruke kunstig intelligens i tråd med eksisterende og kommende regelverk, har Digitaliseringsdirektoratet har utarbeidet en veiledning for ansvarlig bruk og utvikling av kunstig intelligens. Veilederen inneholder generelle råd for bruk av KI, samt egne råd spesifikt for bruk av generativ kunstig intelligens i offentlig sektor. 

Veilederen fra Digitaliseringsdirektoratet er ganske omfattende med en rekke lenker til tilleggsinformasjon. Den er bevisst omtalt som veileder og ikke retningslinjer. Den kan være nyttig for den enkelte virksomhet å ta utgangspunkt i, for å utarbeide egne retningslinjer. Selv om veilederen er utformet for offentlig sektor, er mange av spørsmålene og utfordringene de samme for privat sektor. Veiledningen kan derfor også benyttes for privat sektor så langt den passer. 

Den første anbefalingen går ut på å gjøre en risikovurdering av KI-systemet. Imidlertid finnes det ennå ikke et regelverk som fastsetter hvordan en risikovurdering skal gjennomføres, i motsetning til f.eks. informasjonssikkerhetsområdet. Digitaliseringsdirektoratet foreslår derfor å bruk rammeverket med en tilhørende «playbook» fra den amerikanske standardorganisasjonen (NIST).  

Blant øvrige anbefalinger omtales blant annet opplæring av brukere, at man ikke skal bruke sensitiv informasjon i prompts eller bruke generativ KI i tidskritiske prosesser. Videre finnes egne råd for generering av tekst, bilder og kode; 

Generering av tekst, med verktøy slik som ChatGPT, Microsoft Bing Chat og Google Bard: 

  • Bruk på eksisterende tekst kan være greit  
  • Vær varsom ved bruk som oppslagsverk 
  • Husk at svarene ikke nødvendigvis er tilpasset våre verdier 
  • Bruk ytterligere verktøy som kan identifisere plagiat 
  • Kvalitetssikre alltid innhold fra store språkmodeller 

Generering av bilder, som f.eks. Midjourney og Dall-E: 

  • Rettigheten til inputen: Du må ha tilstrekkelige rettigheter til informasjonen du bruker i «promptet» 
  • Rettighetene til det genererte bildet: Vær bevisst at rettighetssituasjonen er usikker 
  • Opplys om at bildene er generert: Dette er særlig viktig der bildene er realistiske 
  • Husk universell utforming   

Generering av kode, som GitHub Copilot og ChatGPT: 

  • Ha et bevisst forhold til at det brukes kodegenerering 
  • Ha et bevisst forhold til hvilken språkmodell som benyttes 
  • Skriv i «pull requesten» at du har brukt KI-assistert kodegenerering 
  • Husk at sensitiv informasjon ikke må brukes som «prompts» 
  • Vær bevisst «konteksten» 
  • «Prompting» kan være annerledes ved KI-assistert utvikling  

  

2. Retningslinjer for ansatte i EU-kommisjonen 

EU-kommisjonen har markert seg som en tydelig stemme i debatten om regulering av KI. AI Act blir det første regelverket for kunstig intelligens. Det er klart at med en slik sentral rolle på feltet, ønsker EU-kommisjonen å ha ting på stell også internt. De har derfor utarbeidet retningslinjer for generativ KI-verktøy for egne ansatte. Disse består av fem regler, og er begrunnet med risiko for utlevering av informasjon, bias og feil, brudd på immaterielle rettigheter samt stabilitetsproblemer; 

  1. Ansatte må aldri dele informasjon som ikke allerede er i det offentlige domene, ei heller personlige data, med en generativ KI-modell. 
  2. Ansatte bør alltid kritisk vurdere ethvert svar produsert av generativ KI-modell for potensielle skjevheter og faktisk unøyaktig informasjon. 
  3. Ansatte bør alltid kritisk vurdere om resultatene fra en generativ KI-modell krenker immaterielle rettigheter, spesielt opphavsrett til tredjeparter. 
  4. Ansatte skal aldri direkte gjengi resultatet fra en generativ KI-modell i offentlige dokumenter, for eksempel opprettelse av kommisjonstekster, spesielt ikke de som er juridisk bindende. 
  5. Ansatte bør aldri stole på generative KI-modeller for kritiske og tidssensitive prosesser. 

3. Retningslinjer i mediebransjen 

En av sektorene som allerede er truffet av den nye teknologien, er mediebransjen. Bransjen er godt vant med klare retningslinjer i utøvelsen av yrket, gjennom Vær varsom-plakaten. Stadig flere mediebedrifter (som for eksempel TV2 og Bergens Tidende) utarbeider nå retningslinjer for redaksjonell bruk av kunstig intelligens. 

Nylig kom også Dagens næringsliv (DN) med sine interne retningslinjer. DN ønsker å bruke KI til å gjøre avisen bedre, og for å lykkes vil de eksperimentere, evaluere og lære om ny teknologi. Deres retningslinjer er sortert på følgende; 

  • Generative språkmodeller, som ChatGPT. 
  • Bilde- og videogeneratorer, som Midourney og Dall-E 
  • Samt annen bruk av KI 

Retningslinjene klargjør at journalistene kan bruke språkmodeller som verktøy, men teksten skal alltid bearbeides av et menneske. Uredigert tekst skrevet av generativ kunstig intelligens blir ikke publisert. Når det gjelder bilder, så er DN opptatt av å verne om det journalistiske fotografiets troverdighet. De vil ikke publisere KI-genererte bilder, eller video, som kan forveksles med ekte fotografi. KI-genererte illustrasjoner kan imidlertid brukes. De har også listet opp konkrete anvendelser hvor de aktivt bruker KI, for blant annet anbefalinger og innholdsplasseringer. I tillegg har de noe automatisert journalistikk som f.eks. boligroboten, som publiseres uten menneskelig godkjenning, men som merkes som automatisk generert. 

Et annet eksempel fra mediebransjen er det amerikanske magasinet Wired, som har valgt en noe mer restriktiv linje. Magasinets faglige formål er hvordan ny teknologi påvirker kultur, økonomi og politikk. De ønsker derfor å være i front når det gjelder bruk av ny teknologi, men de vil også være etiske og «passende forsiktige». De har publisert klare retningslinjer hvor hvert av valgene de har tatt er tydelig begrunnet. Retningslinjene deres er sortert på generering av henholdsvis tekst og bilde. 

På linje med andre medieorganisasjoner vil heller ikke Wired publisere historier med tekst utelukkende generert av KI. Dette skyldes ikke bare utfordringen med feil og bias, men begrunnes også med at KI-generert tekst ofte er kjedelig og uoriginalt. De poengterer at de som jobber med å skrive, tenker på den beste måten å uttrykke komplekse ideer med egne ord.  

I motsetning til DN, vil ikke Wired publisere generert tekst som er redigert av KI. Begrunnelsen her er også knyttet til den faglige kompetansen hos et menneske. Redigering handler om en vurdering av hva som er mest relevant, originalt eller underholdende i en tekst. Denne vurderingen er avhengig av å forstå både temaet og leserne, noe de mener KI ikke kan. De kan imidlertid bruke KI på noen områder, som å foreslå titler eller generere ideer. 

Når det gjelder bilder vil Wired kunne publisere KI-genererte bilder eller videoer, men bare under visse forhold. Begrunnelsen er at flere arbeidende kunstnere etter hvert inkluderer generativ KI i sine kreative prosesser, på samme måte som de bruker andre digitale verktøy. Kjøp av denne type bilder forutsetter at resultatet inkluderer betydelig innsats fra kunstneren. Wired vil derimot ikke bruke KI-genererte bilder i stedet for bildebaser (stock photo). Her er begrunnelsen knyttet til at mange fotografer har som levebrød å selge bilder til bildebaser. 

 

På tide å ta stilling til egen bruk av generativ KI 

Selv om de fleste har blitt overrumplet av denne teknologien, ser vi allerede nå at generativ KI vil ha stor betydning for arbeidslivet og en rekke yrker. Selv om man ikke aktivt anskaffer et generativt KI-system, så vil generativ KI sive inn i kontorstøtteprodukter og som støtte i andre løsninger. Det er ingen grunn til å vente med den interne diskusjonen om hva generativ KI kan bety for den enkelte virksomhet og hvordan man skal forholde seg til teknologien i hverdagen. Noen råd på veien: 

1. Ta stilling til hvordan man ser for seg generativ KI i egen virksomhet   

Teknologien byr på muligheter, men også utfordringer. Det er ikke et «om», men et «hvordan». 

2. Hva betyr ansvarlig bruk av generativ KI for virksomheten? 

De fleste bransjer er avhengig av tillit fra sine kunder og brukere. Hvordan kan KI brukes på en ansvarlig måte slik at denne tilliten ivaretas?  

3. Utarbeid retningslinjer for egne ansatte 

Ikke la det være opp til hver enkelt ansatt hvordan man bruker generative KI-verktøy. Bli enige om noen enkle regler, og gi gode begrunnelser for disse. 

4. Vær transparent også utad
Fortell kundene/brukerne hvordan dere bruker generativ KI, eksempelvis slik som flere mediebedrifter har gjort. 

Nyhetsbrev

Med nyhetsbrevet vårt får du med deg det siste innen teknologiutvikling