Generativ kunstig intelligens (KI) er designet for å lage nytt innhold, som tekst, bilder, musikk eller video som kan etterligne menneskelig kreativitet eller generere innhold som er kontekstuelt relevant.
Det siste tiåret har det skjedd stor utvikling innen dyplæringsmetoder (et underfelt av maskinlæring, i sin tur et underfelt av kunstig intelligens), noe som har ført til gjennombrudd både innen helsetjenesten (f.eks. kreftdiagnose) og vitenskap (f.eks. værprediksjon og proteinmodellering). Kombinert med store språkmodeller (LLM – large language models) kan maskinene nå forstå og kommunisere på naturlig språk. Disse modellene kan generere sekvenser av ord som er plausible, men ikke nødvendigvis sannferdige.
Teknologien vil påvirke både enkeltmennesker, virksomheter og samfunnet som helhet. Derfor er aktivt engasjement fra de ulike lands parlamenter viktig for å ivareta allmennhetens interesse og sikre at teknologien både utvikles og tas i bruk på en ansvarlig måte.
EPTA Report 2023: Generative Artificial Intelligence – Opportunities, Risks and Policy Challenges
Rapporten er resultatet av et samarbeid i European Parliamentary Technology Assessment (EPTA)-nettverket. Den ble lagt frem på nettverkets årlige konferanse, denne gangen i parlamentet i Catalonia i Barcelona, som i 2023 hadde presidentskapet i EPTA. Teknologirådet vil overta presidentskapet i nettverket i 2024, noe som ble markert med en mottakelse i parlamentet.
Rapporten består av bidrag fra 15 EPTA-medlemmer, blant annet Sverige, Danmark, Frankrike, Tyskland og Japan, foruten Norge. I rapporten beskrives status for hvert land. I tillegg har EPTA-representantene intervjuet parlamentsmedlemmer i sine respektive land om deres kunnskap og syn på generativ kunstig intelligens. Rapporten tar særlig for seg muligheter og utfordringer knyttet til:
- Generativ KI og demokrati
- Generativ KI og helse
- Generativ KI og utdanning
- Generativ KI og arbeid
Hva tenker parlamentsmedlemmer om generativ KI
For at de ulike lands teknologiråd kan bidra med relevant kunnskap, er det nødvendig å forstå både den juridiske og politiske konteksten samt politikernes forståelse av teknologien. EPTA-landene har derfor stilt de samme seks spørsmålene til noen utvalgte parlamentsmedlemmer i sine lands parlamenter. Noen hovedpunkter om det de er opptatt av er:
Demokrati:
- Generativ KI kan føre til en økning i desinformasjon
- Det er behov for å vurdere nasjonale språkmodeller, for på den måten å trene opp kunstig intelligens-systemer med språk og verdier til det enkelte landet
Helse:
- Generativ KI kan bidra til bedre diagnoser og behandling
- Frykt for at personopplysninger kan komme på avveie
- Endelig avgjørelse må alltid tas av mennesker
Utdanning:
- Er området hvor det er størst forståelse for de faktiske utfordringene som allerede er her
- Erkjenner at generativ KI kan hjelpe med pedagogiske oppgaver, men også behov for å trene opp lærere og å utforme utdanningsprogram som tar hensyn til denne teknologien
Arbeid:
- Ser både fordeler og ulemper, og mener at det vil være oppgaver og ikke hele jobber som først og fremst blir erstattet av generativ KI
- Vil også kunne skape nye arbeidsplasser
Utfordringer som må diskuteres
Flere teknologiselskaper har bygget applikasjoner på toppen av store språkmodellene, eksempelvis ChatGPT og Bard. Disse applikasjonene tjener mange formål som å svare på spørsmål, oppsummere tekst og diskutere et tema basert på en dialog med en bruker.
EPTA-rapporten peker på flere spørsmål som må diskuteres når det gjelder bruk av disse verktøyene:
- De mangler troverdighet. Som nevnt ovenfor, kan resultatet som genereres av disse modellene være plausible, men ikke nødvendigvis sannferdige. Dette er en risikabel egenskap fordi folk kan ta avgjørelser basert på feilinformasjon produsert av systemene. Det må innføres hensiktsmessige sikkerhetstiltak for å beskytte innbyggerne. Svart boks-oppførsel. Modellene bruker milliarder av parametere til å generere et resultat. Samtidig er muligheten til å forklare hvorfor de genererer noe er begrenset.
- Modellene trenes opp med et sett med data tidsavgrenset til en gitt dato.Dersom vi begrenser treningsdataene til denne datoen, vil ikke senere informasjon inkluderes i genereringen av nye resultater
- Høyt energiforbruk. Energibruk ved trening av systemene utgjør tusenvis av megawatt. Ettersom systemene ofte må trenes opp på nytt, vil det høye energiforbruket gjentas hver gang.
- Proprietære systemer. De fleste av disse språkmodellene tilhører en håndfull selskaper som har råd til de høye utviklingskostnadene. Denne type virksomhet må overvåkes for å beskytte innbyggerne mot potensielle skjevheter og misbruk. For eksempel mangler det gjennomsiktighet når det gjelder dataene som brukes til å trene systemene, og det er uklart om systemene respekterer forskrifter som personverndirektivet (GDPR).
- Ettersom tekster er generert fra dokumentene som ble brukt til å trene modellene, kan det utfordre opphavsrettigheter. Diskusjonen må tas om hvordan man kan beskytte rettighetene til opphavspersonene.