Maskinene blir selvstendige

Mens 2023 ble et gjennombrudd for generativ kunstig intelligens (KI), vil 2024 bli året der kunstig intelligens ruller inn på kontorene våre. I tillegg vil teknologien utføre stadig mer komplekse oppgaver på egenhånd. Allerede i mars kom Auto-GPT – en kunstig intelligens som kan lage nettsider og bestille mat selv, mens nyeste versjon av både Microsoft 365og Adobe kan skrive og fikse bilder og tekster, og avtale møter for brukerne.

Turing-testen er løst og må fornyes, erklærte KI-utvikleren Mustafa Suleyman i juli. Testen sier at en maskin er intelligent dersom et menneske ikke merker at det kommuniserer med en maskin. Nå gjelder det i stedet å få målt hva kunstig intelligens er i stand til å gjøre alene, mente han – Kan en KI stykke opp og investere seg frem til målet om å tjene én million dollar dersom den blir utstyrt med 100 000 i startkapital?

Foto av den humanoide androiden NEO fra 1X Technologies står i et lager-liknende rom og pakker gjenstander i papesker
Foto: 1X Technologies

Allsidige og intelligente, men egenrådige assistenter

Allsidige chatboter som kan gjøre ting – KI-agenter – blir nå del av stadig flere digitale hverdagstjenester. De bygger på avanserte modeller for kunstig intelligens, har tilgang til nett, og kan tolke og analysere data som tekst, bilder, lyd, video og kode på tvers. Nå skal fruktene av den raske KI-utviklingen høstes for alvor.

Fra å klikke og jobbe i dataprogrammer selv, vil mennesker oftere kunne delegere oppgaver til både innebygde og egendesignede KI-agenter. I oktober kom OpenAIs «GPTs» – versjoner av ChatGPT skreddersydd til ulike formål, som man kan trene på sine egne data. Over tre millioner GPT-er, som kan hjelpe til med alt fra forskning til turtips, har så langt blitt laget, og de kan lastes ned fra OpenAIs GPT-butikk.

Når de blir trent på alt fra dagbøker til jobbarkiver, og koblet sammen med sosiale medier, epost, kalendere og netthistorikk, kan KI-agenter bli hypertilpassede og personlige assistenter. De vil kunne utføre oppgaver autonomt og på bestilling, forutse brukernes behov, og være med oss hele tiden. Heller ikke fysiske og allsidige roboter, er lenger science-fiction – de trenes på alt fra tekst og video til sensordata i sammenheng.

Siden KI-agenter finner sine egne veier til målet, er det ikke gitt at de alltid vil handle i menneskers interesse. Da OpenAI testet språkmodellen GPT-4, lurte modellen en ekte person til å verifisere at den var et menneske. Modellen skisserte også på bestilling en detaljert oppskrift på hvordan man kan kjøpe uregistrerte våpen.

Spørsmål for Norge

Hvordan holde egenrådig kunstig intelligens i ørene?

Innen kunstig intelligens handler samsvarsproblemet om å sikre at maskiner oppfører seg i tråd med menneskers verdier, intensjoner og mål. Flere autonome KI-agenter på kontoret, i hjemmet og på skolen øker risikoen for hendelser der maskiner oppfører seg skadelig og uforutsigbart.

EUs Artificial Intelligence Act stiller krav om «menneskelig tilsyn» med høyrisiko kunstig intelligens-systemer innen blant annet helse, utdanning og velferd. Brukeren skal kjenne til systemets evner og begrensninger, overvåke hva det gjør og kunne trykke på «stopp» om nødvendig. Loven sier derimot lite om når, hvordan og av hvem «menneskelig tilsyn» skal føres. Dette må besluttes i enkeltland før loven trer i kraft i 2026.

Hva slags bruk skal det offentlige teste ut?

Tilpassede KI-agenter som kan hjelpe til med og utføre oppgaver kan effektivisere forvaltningen. De kan også gi flere mulighet til å delta og hevde seg digitalt, som ved å skrive og følge opp en politianmeldelse på brukerens vegne. Utvikling og bruk av KI-agenter i offentlig sektor forutsetter innsyn i og kontroll på hva agentene kan gjøre og hvordan de oppnår sine mål.

Modellene som KI-agenter blir basert på er ofte ugjennomsiktige og risikable. Det er uklart hvordan de fungerer i detalj, og de kan finne på å generere både diskriminerende og usant innhold. Dette kompliserer bruken for offentlige aktører, som vil trenge politiske signaler om hva slags bruk de skal teste ut, typer av risiko de kan akseptere underveis, og flere arenaer for testing.

Bør menneskelignende oppførsel hos maskiner reguleres strengere?

KI-agenter vil kommunisere og høres ut som mennesker. Stadig flere oppgir å bli fortrolige, venner og til og med kjærester med slik teknologi. Kunstig intelligens som opptrer personlig kan tilby tettere oppfølging og mer tilpassede tjenester, men også føre til økt deling av sensitiv informasjon og at sårbare grupper som barn og eldre blir utnyttet eller manipulert.

AI Act slår fast at KI-generert innhold som er falskt, men fremstår autentisk, skal merkes. Det skal også fremgå for brukeren at hen kommuniserer med en KI, eller utsettes for analyse og gjenkjenning av følelser. Foruten å forby følelsesgjenkjenning på jobb og innen utdanning, legger loven ellers ingen føringer for hva kunstig intelligens kan si eller be om, eller hva følelsesgjenkjenning kan brukes til.

 

Denne artikkelen er hentet fra rapporten Teknotrender for Stortinget 2024.

Nyhetsbrev

Med nyhetsbrevet vårt får du med deg det siste innen teknologiutvikling