I mai signerte mer enn 350 forskere og teknologiledere dette åpne brevet – på én setning:

“Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war.”

Budskapet var klart – å håndtere risikoene knyttet til utviklingen og bruken av kunstig intelligens må høyere opp på den globale prioriteringslista. Dette én-setnings-brevet etterfulgte et annet åpent brev fra mars der flere tusen eksperter og akademikere tok til orde for en seks måneders-pause i opptrening av alle kunstig intelligens-systemer kraftigere enn GPT-4. Begge brev uttrykker en grunnleggende bekymring for konsekvensene ved bruk av kunstig intelligens, dersom vi ikke styrer dette på en god måte.

Flere etterlyser nå en form for global styring av teknologiutviklingen, og det pågår diskusjoner internasjonalt om hva slags styringsmodell som kan og bør ligge til grunn.

Fire modeller for global styring

I juli foreslo forskere fra Googles DeepMind, OpenAI, Harvard, Colombia University og flere andre akademiske institusjoner fire modeller for global styring av kunstig intelligens:

  • En internasjonal institusjon for kunnskapssammenstilling, som kan belyse muligheter og risiko ved kunstig intelligens, inspirert av FNs klimapanel. En slik ekspertgruppe kan bidra til økt bevissthet og forståelse rundt en rekke pågående og kommende problemstillinger for utvikling og bruk av kunstig intelligens. Dette kan sammenliknes med FNs klimapanel (IPCC).
  • En global organisasjon for styring av kunstig intelligens, lignende Det internasjonale atomenergibyrået (IAEA) eller Den internasjonale organisasjonen for sivil luftfart (ICAO). En slik organisasjon kan sikre en mer samkjørt global innsats for å håndtere og minimere risiko fra avanserte systemer for kunstig intelligens, samt bistå i utviklingen av normer og standarder for teknologien.
  • Et internasjonalt offentlig-privat samarbeid, inspirert av for eksempel GAVI-stiftelsen der statlige og private aktører samarbeider om å øke tilgangen til vaksiner i utviklingsland. Formålet vil være å bistå flere land i å høste gevinster av gjennombrudd innenfor kunstig intelligens.
  • Et internasjonalt forsknings- og utviklingssamarbeid, inspirert av Den europeiske organisasjon for kjernefysisk forskning (CERN). Et slik samarbeid kan inkludere medlemsland, forskere og utviklere av kunstig intelligens-systemer. Ekspertene vil få tilgang på regnekraft og avanserte KI-teknologi, for å kunne utvikle tekniske løsninger til å håndtere (og minimere) risiko.

 

Debatten tilspisser seg

Stadig flere aktører melder seg på i debatten om global styring.

FN: FNs generalsekretær António Guterres mener at et FN-byrå for kunstig intelligens vil kunne styrke det globale samarbeidet om teknologien. Tema og struktur for et slikt byrå er ikke avklart. For å jobbe fram et forslag til et slikt byrå, har FN annonsert et nytt, uavhengig ekspertpanel, der FNs medlemsland har nominert eksperter. Dette såkalte High-Level Advisory Body on Artificial Intelligence hadde oppstart i oktober. De skal analysere mulighetene for internasjonal styring av kunstig intelligens, og første interimsrapport skal være ferdig innen utgangen av året.

EU: Styring av kunstig intelligens har også vært på agendaen i EU. En frivillig KI-pakt bestående av demokratiske prinsipper for styring av kunstig intelligens, en regelbok for ansvarlig kunstig intelligens og et globalt ekspertpanel er blant forslagene som har vært diskutert. I sin «State of the European Union»-tale fremhevet EU-kommisjonens president Ursula von der Leyen behovet for en global tilnærming for å forstå betydningen av kunstig intelligens i våre samfunn. Hun foreslo et nytt organ for kunstig intelligens om risiko og muligheter for menneskeheten, noe tilsvarende FNs klimapanel.

Kina: Nylig har også Kina annonsert sitt forslag til global styring. President Xi Jinping lanserte The Global AI Governance InitiativeBelt and Road 2023 Forum (et kinesisk initiativ for å utvikle infrastruktur i mer enn 150 land). Målet er å sikre «en menneske-sentrert» utvikling av teknologien, også utenfor Kinas landegrenser, og fremme internasjonale standarder for testing og risikohåndtering.

Teknologiselskaper: Også de store teknologiselskapene har meldt seg på debatten. OpenAI, selskapet bak ChatGPT, vil ha et globalt KI-organ, etter modell av Det internasjonale atomenergibyrået. De ser for seg at et slikt organ kan inspisere systemer, kreve revisjoner og teste for samsvar med sikkerhetsstandarder.

Et annet initiativ kommer fra Eric Schmidt (tidligere leder av Google) og Mustafa Suleyman (medgrunnlegger av Inflection og DeepMind) som etterlyser et uavhengig, ekspertledet organ med mandat til å informere myndigheter om status for KI, samt gjøre analyser av hva som kommer. Deres inspirasjon er FNs klimapanel.

Britene er på ballen

Med sin nye rolle utenfor EU, har Storbritannia markert seg som ny aktør på feltet, med litt andre tilnærminger enn EU, USA og Kina. Det gjelder også initiativ for global styring og samarbeid. Britiske myndigheter er ventet å annonsere en internasjonal rådgivningsgruppe for kunstig intelligens på konferansen AI Safety Summit i Bletchley Park i begynnelsen av november. Dette kan vise seg også å være etter en modell inspirert av FNs klimapanel.

Det gjenstår å se hvilke globale styringsmodeller for kunstig intelligens som når helt fram. Mange spørsmål er fremdeles uløst, for eksempel hvor mange globale initiativ trengs, og hvem skal ta ledelsen i arbeidet framover? Det blir heller ingen enkel oppgave å sikre samsvar mellom alle de eksisterende retningslinjene, prinsippene og lovverkene for kunstig intelligens som er under utvikling, både nasjonalt og internasjonalt.

 

Nyhetsbrev

Med nyhetsbrevet vårt får du med deg det siste innen teknologiutvikling