Antropomorfisme (besjeling) innebærer å tillegge kunstig intelligente systemer eller roboter menneskelige egenskaper, følelser, intensjoner og adferd. Dette inkluderer ideen om at en kunstig intelligens kan ha bevissthet, følelser og evne til å forstå og sympatisere med mennesker. Menneskeliggjøring av teknologi kan være gunstig for utformingen av mer brukervennlige systemer, da det kan forbedre forståelsen og skape høyere tillit. Men det kan også føre til misforståelser, som når man (feilaktig) tror en chatbot kan tenke, føle, og forstå personen den interagerer med.

Bias oppstår når datasettene som brukes for å trene kunstig intelligente systemer bærer preg av historiske skjevheter, er ufullstendige eller inneholder feil. Det kan resultere i systematiske feil i modellens prediksjoner.

ChatGPT er en kunstig intelligent chatbot som kan generere menneskeliknende svar på spørsmål og kommandoer i naturlig språk. ChatGPT er en finjustert versjon av Open AIs GPT-modeller, som er optimalisert til å forstå og svare på instruksjoner og spørsmål gjennom forsterket læring med menneskelig tilbakemelding (RLHF) (se ordforklaring nedenfor). Da ChatGPT ble lansert i november 2022 tok den verden med storm og fikk 100 millioner brukere på to måneder.

Finjustering (på engelsk fine-tuning) er en teknikk hvor en allerede forhåndstrent språkmodell trenes videre på et smalere eller oppgavespesifikt datasett for å løse en bestemt oppgave, eller for å tilpasse seg et miljø med spesifikt fagspråk. Dette kan for eksempel innebære å trene modellen på domsavsigelser for å oppsummere rettspraksis og gi juridiske råd, eller på helsedata for å avdekke mønstre i helsejournaler eller stille diagnoser.

Forhåndstrening (på engelsk pre-training) er den innledende fasen i treningen av en språkmodell, hvor modellen lærer å forutsi det neste ordet i en setning. Denne treningen utføres på store datasett, ofte hentet fra omfattende tekstmengder på nettet. Denne fasen er ikke-veiledet, noe som innebærer at modellen lærer seg statistiske mønstre og strukturer i språk, uten at mennesker på forhånd har angitt spesifikke læringsmål, som for eksempel forståelsen av grammatikk.

Forsterket læring med menneskelig tilbakemelding (på engelsk reinforcement learning from human feedback (RLHF)) er en teknikk som kombinerer forsterket læring og menneskelig veiledning. Dette er nyttig spesielt i komplekse og tvetydige situasjoner som forutsetter menneskelige verdier eller preferanser. På denne måten kan man forbedre sikkerheten og redusere samsvarsproblemer. Risikoen ved denne type læring oppstår dersom tilbakemeldingene fra menneskene er partiske, inkonsistente eller feil, noe som kan resultere i bias.

Fremvoksende egenskaper (på engelsk emergent abilities): Egenskaper som språkmodeller kan lære seg, bare de blir store nok. Dette er egenskaper som modellene ikke har blitt spesifikt programmert for, og som det ikke finnes eksempler på i treningsdataene. For eksempel viste Googles språkmodell Bard seg å kunne Bengali, mens GPT-3 kunne skrive kode og multiplisere store tall uten at utviklerne hadde forutsett det.

Generell kunstig intelligens (på engelsk Artificial General Intelligens – AGI): Et kunstig intelligent system som kan forstå, lære og bruke kunnskap på et nivå som er på linje med eller overgår menneskelige evner.

Generativ kunstig intelligens: Maskinlæringsmodeller som kan generere unikt innhold basert på informasjonen de har blitt trent på. Dette innholdet kan være tekst, bilder, lyd og video. Selv om resultatene ofte er imponerende, er ikke systemene kreative i menneskelig forstand. Eksempler er ChatGPT og Bard som genererer tekst og Dall-E og Midjourney som genererer bilder.

Grunnmodeller (på engelsk foundation models): Store språkmodeller som er trent på mye data og varierte typer data, og som derfor kan tilpasses til ulike oppgaver. Begrepet ble foreslått av Stanford University i 2021 for å fremheve hvor viktige slike modeller kan bli. I praksis vil nesten alle språkmodeller være tilpasset fra en håndfull grunnmodeller. Fordelen med dette er at den ressurskrevende treningen av modellen gjøres kun én gang, og at det er lett for en virksomhet, en start-up eller andre å tilpasse modellen til nye formål. Ulempen kan være at feil eller bias i treningsdataen til grunnmodellen videreføres til de nye modellene. Mange bekymrer seg for at slike grunnmodeller kan ytterligere konsentrere makt hos noen få selskaper.

Hallusinasjon: Fenomenet der et kunstig intelligent system genererer innhold som fremstår sant og korrekt, men som viser seg å være løgn eller oppspinn. Store språkmodeller kan lage statistisk representativt innhold, men har ikke noe begrep om sannhet. Modellene vil derfor kunne finne opp eller hallusinere frem svar dersom et spørsmål er uten en entydig fasit. Ansatte i Google har selv uttalt at deres egen chatbot Bard er en patologisk løgner. Et annet eksempel er da en chatbot anklaget en jusprofessor for seksuell trakassering, begrunnet i en nyhetssak som ikke eksisterte.

Instruks (på engelsk prompt): Enkle kommandoer man kan gi et kunstig intelligent system for å generere innhold, f.eks. tekst, bilder, lyd og kode. Her utnyttes datamaskinens evne til å kommunisere i naturlig språk. Det er mulig å forbedre resultatene gjennom mer presise spørsmål. Slik tilnærming kalles prompt engineering på engelsk, eller effektiv instruksjonsutforming på norsk. De som er gode på dette kalles prompt engineers.

Multimodale egenskaper: Mens en tradisjonell språkmodell er trent på datasett med tekst, så kan en multimodal språkmodell være trent med ulike typer data som tekst og tale, bilder og video, og numeriske data og sensordata. Poenget med en multimodal språkmodell er å lære kunstig intelligente systemer å se sammenhenger mellom ulike former for data, slik at systemet for eksempel kan beskrive hva det ser på et bilde eller svare på en tekstmelding med et generert bilde.

Naturlig språkprosessering (på engelsk natural language processing – NLP): Et dataprograms evne til å forstå menneskelig språk slik det snakkes og skrives. Dette omtales som naturlig språk.

Overført læring (på engelsk transfer learning): En metode innenfor maskinlæring der den statistiske forståelsen av tekst eller bilder i én modell overføres eller gjenbrukes i en annen modell i et annet miljø. Istedenfor å starte læringen fra null, bruker man en modell som allerede har lært mønstre fra et stort datasett (vanligvis en generell oppgave), og finjusterer den til en mer spesifikk oppgave. Dette reduserer kostnaden og tiden det tar å bygge en ny modell, og er særlig nyttig når det finnes begrenset med data for å trene den nye modellen. Denne typen overført læring er en forutsetning for at grunnmodeller kan finjusteres og tilpasses en rekke nye bruksområder og oppgaver.

Samsvarsproblemet (på engelsk the alignment problem): Utfordringen med å sikre at et kunstig intelligent systems oppførsel stemmer overens med menneskelige verdier, intensjoner og mål. Å løse samsvarsproblemer innebærer å håndtere og redusere risikoen for at systemet opptrer skadelig eller uforutsigbart på grunn av sine programmerte mål, eller fordi systemet misforstår eller feiltolker disse målene.

Stokastiske papegøyer: Et begrep som brukes for å beskrive hvordan store språkmodeller er i stand til å generere et statistisk korrekt og realistisk klingende språk, men uten å ha en dypere forståelse av hvordan språket relaterer til den fysiske verden. Stokastisk betyr tilfeldig og papegøyer er kjent for å etterligne lyder de hører, uten å faktisk forstå ordene de repeterer.

Store språkmodeller (på engelsk Large Language Models – LLM): Store språkmodeller er maskinlæringsmodeller som er i stand til å behandle naturlig språk. De er trent på enorme mengder tekstdata (vanligvis fra internett/bøker) via dyplæringsalgoritmer, og kan tolke og generere tekst, basert på statistiske mønstre i treningsdataene. Algoritmen vurderer ved hjelp av sannsynlighet og statistikk hvilke ord som passer sammen.  Modellene er generelle og adaptive.

Sperre (på engelsk guardrails): Et sett med begrensninger og regler for oppførsel som programmeres inn i en språkmodell. En guardrail kan sammenliknes med et autovern på en motorvei som definerer bredden på veien og hindrer kjøretøyer i å svinge utfor. Guardrails kan fungere som trygghetsstiltak som sikrer at kunstig intelligente systemer opererer innenfor definerte grenser og overholder regler eller prinsipper. De kan bidra til å forhindre at systemene produserer skadelig, partisk eller uønsket innhold eller prediksjoner. Samtidig kan de være for restriktive og begrense kreativiteten og fleksibiliteten til språkmodellen.

Syntetiske data: Informasjon som er kunstig laget, i motsetning til informasjon fra virkelige hendelser. Slike data genereres gjennom algoritmer og brukes gjerne som testdata og for å trene språkmodeller. Ekte data av høy kvalitet kan være dyrt og vanskelige å samle inn, i tillegg til at de kan inneholde personopplysninger. Syntetiske data kan være et godt og billigere alternativ.

Nyhetsbrev

Med nyhetsbrevet vårt får du med deg det siste innen teknologiutvikling