Kunstig intelligens (KI) handler om at maskiner blir i stand til å løse fysiske og kognitive oppgaver som før var forbeholdt mennesker. Teknologien blir stadig kraftigere og mer anvendelig. Samtidig blir den vanskeligere å forstå og kontrollere.

Generativ kunstig intelligens bidrar allerede til vitenskapelige oppdagelser og innovative løsninger på komplekse problemer på flere samfunnsområder.

Last ned rapporten i PDF nedenfor:

Rapport:

Generativ kunstig intelligens i Norge

Last ned

Mens informasjonsteknologi til nå har truffet manuelt og regelstyrt arbeid, vil generativ kunstig intelligens treffe kunnskapsarbeidere og kreative yrker. Teknologien kan erstatte yrker og automatisere oppgaver, men den kan også komplettere de ansattes kompetanse.

Teknologien er ressurskrevende å utvikle og lite gjennomsiktig. Dette har foreløpig ført til at kunnskapen og makten til å definere hvordan teknologien skal designes og fungere har blitt konsentrert hos de største teknologiselskapene.

Med generativ kunstig intelligens har det blitt mye enklere å lage kunstige, men troverdige, lydklipp, bilder og videoer. Dette åpner for mer avanserte former for svindel, misbruk og desinformasjon.

Handlingsrom for Norge

EUs KI-forordning gir Norge et godt grunnlag for å regulere kunstig intelligens, og et nytt og forsterket handlingsrom for å utvikle nasjonal politikk. Norge må handle raskt og strategisk for å utnytte dette handlingsrommet og sikre at teknologien brukes på en måte som er trygg, ansvarlig, rettferdig og til det beste for samfunnet.

Ekspertgruppens anbefalinger

  1. Fordel tilsyn på flere, med én sterk koordinator. Norske myndigheter bør la sektortilsynene håndheve EUs KI-forordning på sine områder, og samtidig peke ut én sentral koordinator som bygges opp med KI-kompetanse og tekniske ressurser, og kan bistå sektortilsynene etter behov.
  2. Etabler en nasjonal inkubator for kunstig intelligens. KI-forordningen stiller krav om regulatoriske sandkasser for kunstig intelligens. Norske myndigheter bør etablere én ny nasjonal sandkasse i regi av Digitaliseringsdirektoratet, som får et utvidet mandat som nasjonal inkubator for KI for offentlig forvaltning.
  3. Skaff forvaltningen en problemløser. Det er behov for felles og løpende håndtering av usikkerhet og problemstillinger knyttet til generativ kunstig intelligens blant offentlige virksomheter. Det bør etableres et nettverk i regi av topplederforumet Skate.
  4. Sikre tilgang til norske kvalitetsdata. Det kreves store mengder norske kvalitetsdata for at språkmodeller skal fungere godt på norsk. Nasjonalbiblioteket bør få mandat til å tilgjengeliggjøre slike data og kompensere rettighetshaverne. Norske kvalitetsdata må forvaltes strategisk og tilgang ikke gis ukritisk.
  5. Invester i regnekraft som nasjonal infrastruktur. Behovet for regnekraft vil øke de neste årene, og det må bygges flere og kraftigere superdatamaskiner i Norge. Regnekraft bør satses på som nasjonal infrastruktur.
  6. Tilby norske språkmodeller som nasjonal fellestjeneste. Tilgang på norskutviklede språkmodeller vil være nødvendig for å utvikle og levere konkurransedyktige digitale tjenester i årene fremover. Språkmodeller bør utvikles og driftes som en nasjonal fellesløsning og infrastruktur.
  7. Still kvalitetskrav til norske språkmodeller. Det vil fremover finnes mange språkmodeller med ulike egenskaper. En utpekt forskningsinstitusjon bør få i oppdrag å utvikle kvalitets- og evalueringskriterier for språkmodeller i Norge, og slik gi grunnlag for informerte valg av modell.
  8. Fastsett regler for merking av KI-generert innhold. Falskt og kunstig generert innhold som fremstår ekte og autentisk spres nå raskt på nett. Norske myndigheter bør utarbeide retningslinjer for åpenhet og merking av KI-generert innhold.
  9. Lag spilleregler for generativ kunstig intelligens i valgkamp. Generativ kunstig intelligens blir i økende grad brukt som valgkampverktøy og til å påvirke demokratiske valg. Før stortingsvalget i 2025 bør det utvikles tverrpolitiske spilleregler for bruk av generativ kunstig intelligens i valgkamp.
  10. Oppskaler innsatsen for faktasjekking. Økningen av falskt, KI-generert innhold øker behovet for faktasjekking av det offentlige ordskiftet. Innsatsen bør oppskaleres ved å styrke Faktisk.no eller å opprette et uavhengig nasjonalt senter for kildekritikk. Det bør også satses på tekniske verktøy og metoder for innholdsverifisering på norsk.
  11. Opprett et psykologisk forsvar. Fremveksten av generativ kunstig intelligens har økt spredningen av desinformasjon og informasjonspåvirkning. Det bør etableres en nasjonal funksjon for å identifisere og gi råd om desinformasjonskampanjer og informasjonspåvirkning fra utenlandske aktører.
  12. Styrk arbeidet med KI-sikkerhet. Generativ kunstig intelligens skaper nye sikkerhetsrisikoer og har stort skadepotensial. Nasjonal kapasitet til å analysere trusler og utvikle risikoscenarioer bør formaliseres og styrkes. Myndighetene bør også utvikle norske posisjoner når det gjelder globale styringsmekanismer for kunstig intelligens, og sikre Norge plass i de nye styringsorganene på EU-nivå.

Ekspertgruppen for prosjektet:

  • Einar Duenger Bøhn, professor i filosofi ved Universitetet i Agder
  • Jon Atle Gulla, direktør for NorwAI og professor ved Institutt for datateknologi og elektronikk, NTNU
  • Daniel Kohn, kommersiell direktør i Simplifai
  • Mona Naomi Lintvedt, stipendiat ved Senter for rettsinformatikk, Institutt for privatrett, Universitetet i Oslo
  • Cathrine Pihl Lyngstad, leder for dataseksjonen i NAV
  • Michael Riegler, sjefsforsker ved SimulaMet

Nyhetsbrev

Med nyhetsbrevet vårt får du med deg det siste innen teknologiutvikling