Denne ordlisten ble først publisert i august 2023, og omfattende revidert i juli 2024.
Innhold:
Antropomorfisme
Bias
ChatGPT
Finjustering
FLOP
Forhåndstrening
Forsterket læring med menneskelig tilbakemelding
Fremvoksende egenskaper
Generativ kunstig intelligens
Grunnmodeller
Hallusinasjon
Instruks
Instruks-strategier
Kunstig generell intelligens
Multimodal
Overført læring
Parametre
Prosessering av naturlig språk
Samsvarsproblemet
Stokastiske papegøyer
Store språkmodeller
Sperre
Språkteknologi
Syntetiske data
Tokens
Transformer
Unimodal
Antropomorfisme
Innebærer å tillegge kunstig intelligente systemer eller roboter menneskelige egenskaper, følelser, intensjoner og adferd. Dette kan være nyttig for å skape mer brukervennlige systemer, men kan også føre til forvirring dersom man (feilaktig) tror en chatbot kan tenke, føle eller forstå personen den interagerer med.
Bias
Systematiske feil som oppstår i kunstig intelligente systemer på grunn av skjevheter i treningsdataene. Dette kan føre til at KI-modeller genererer feilaktig, partisk eller diskriminerende innhold.
ChatGPT
En avansert chatbot utviklet av OpenAI som bruker naturlig språkprosessering for å generere menneskelignende svar. Den ble svært populær etter lanseringen i november 2022, og nådde 100 millioner brukere på to måneder.
Finjustering (på engelsk fine-tuning)
En teknikk hvor en allerede forhåndstrent språkmodell trenes videre med spesifikke datasett for å løse bestemte oppgaver eller for å tilpasse seg et spesifikt fagspråk. For eksempel kan man trene modellen på domsavgjørelser for å oppsummere rettspraksis og gi juridiske råd, eller på helsedata for å finne sammenhenger i helsejournaler og stille diagnoser.
FLOP (på engelsk Floating Point Operations Per Second)
En måleenhet for en datamaskins ytelse, angitt som flyttallsoperasjoner per sekund. Høy FLOP-verdi indikerer maskinens kapasitet til raskt å behandle store datamengder, som er viktig for trening og bruk av avanserte språkmodeller og generativ KI.
Forhåndstrening (på engelsk pre-training)
Den innledende fasen for trening av en språkmodell hvor modellen lærer å forutsi neste ord i en setning. Modellen trenes ved hjelp av et stort datasett, for eksempel tekst skrapt fra nettet. Dette er en ikke-veiledet læringsprosess som identifiserer statistiske mønstre og språkstrukturer uten spesifikke læringsmål.
Forsterket læring med menneskelig tilbakemelding (på engelsk reinforcement learning from human feedback)
En teknikk som kombinerer forsterket læring og menneskelig veiledning for å lære et system å utføre oppgaver i tråd med menneskelige verdier og preferanser. Dette er spesielt nyttig i komplekse og tvetydige situasjoner hvor menneskelig dømmekraft er nødvendig. Teknikken kan brukes til å forbedre chatbots, anbefalingssystemer, og tilpasse autonome kjøretøys beslutninger for å reflektere menneskelige preferanser og etiske vurderinger.
Fremvoksende egenskaper (på engelsk emergent abilities)
Uventede eller komplekse ferdigheter som en språkmodell utvikler når den blir trent på store mengder data. Disse evnene dukker opp uten at de er eksplisitt programmert inn i modellen. For eksempel kan en språkmodell forstå og generere grammatisk korrekte setninger på et språk det ikke er spesifikt trent på. Dette skyldes modellens evne til å generalisere kunnskap og oppdage sammenhenger i dataene.
Generativ kunstig intelligens
Maskinlæringsmodeller som kan generere unikt innhold basert på informasjonen de er trent på, inkludert tekst, bilder, lyd og video. Eksempler er ChatGPT for tekst, DALL-E for bilde og Syntesia for video.
Grunnmodeller (på engelsk foundation models)
En grunnmodell er en stor, forhåndstrent modell som kan tilpasses til mange applikasjoner og oppgaver. Begrepet ble foreslått av Stanford University for å demonstrere hvordan noen språkmodeller vil bli så store og viktige fordi andre modeller og tjenester vil bygge på dem.
Hallusinasjon
Fenomenet der et kunstig intelligent system genererer innhold som fremstår som sant og korrekt, men som faktisk er usant eller oppspinn. Store språkmodeller kan lage statistisk representativt innhold, men har ikke noe begrep om sannhet. Derfor kan modellene finne opp eller hallusinere svar, spesielt når et spørsmål ikke har en entydig fasit.
Instruks (på engelsk prompt)
Enkle kommandoer gitt til et kunstig intelligent system for å generere innhold. Her utnyttes datamaskinens evne til å kommunisere i naturlig språk. Det er mulig å forbedre resultatene gjennom mer presise spørsmål. Slik tilnærming kalles “prompt engineering” på engelsk, eller “instruksutforming” på norsk.
Instruks-strategier
Som regel gir en chatbot et godt nok svar etter å ha mottatt en instruks. Ved mer komplekse situasjoner finnes det flere tilnærminger til hvordan man kan veilede språkmodellen til å svare riktig.
Direkte instrukser (på engelsk zero-shot prompting): Dette er den enkleste formen for instruks. Man skriver en instruks, uten ytterligere eksempler, og språkmodellen generer et svar basert på data den allerede er trent på.
Instrukser med ett eksempel (på engelsk one-shot prompting): For litt mer komplekse situasjoner, eller når svaret skal møte spesifikke kriterier, kan man gi ett eksempel på instruks og svar. Dette veileder språkmodellen slik at den kan generere et ønsket svar.
Instrukser med flere eksempel (på engelsk few-shot prompting): Når ett eksempel ikke er tilstrekkelig, kan man gi flere eksempler for å generere ønsket svar. Disse eksemplene hjelper modellen å forstå konteksten bedre og levere mer presise svar.
Kunstig generell intelligens (på engelsk Artificial General Intelligence)
Et kunstig intelligent system med evne til å forstå, lære, resonnere og anvende kunnskap på et nivå tilsvarende eller høyere enn mennesker.
Multimodal
En maskinlæringsmodell som er trent med ulike typer data, som tekst, tale, bilder og video for å lære sammenhenger på tvers av datatyper. Dette gjør at modellen kan tolke og integrere informasjon fra flere kilder.
Overført læring (på engelsk transfer learning)
En metode i maskinlæring der en modell, som allerede er trent på en oppgave, brukes som grunnlag for en annen modell som skal løse en ny, relatert oppgave. Dette reduserer kostnaden og tiden det tar å bygge en ny modell, spesielt når det er lite data tilgjengelig for den nye oppgaven. Overført læring er svært nyttig for å tilpasse språkmodeller til ulike bruksområder og oppgaver, ved å dra nytte av tidligere innlært kunnskap.
Parametre
Parametre i store språkmodeller er vekter og skjevheter som modellen bruker for å behandle og generere språk. Gjennom trening justeres disse parameterne for å lære komplekse mønstre i dataene. Antall og verdier av parametre påvirker modellens nøyaktighet og ytelse. Flere parametre gir bedre kapasitet til å forstå og generere tekst. Parametre er grunnleggende for modellens evne til å lære og utføre språkoppgaver.
Prosessering av naturlig språk (på engelsk Natural Language Processing)
Språkteknologi som spesifikt fokuserer på interaksjonen mellom datamaskiner og menneskelig språk. Slike teknikker brukes for å analysere, forstå og generere naturlig språk, og dekker oppgaver som språkforståelse, språkgenerering, maskinoversettelse, og tekstklassifisering. Begrepene språkteknologi, språkteknikk og prosessering av naturlig språk brukes ofte om hverandre.
Samsvarsproblemet
Utfordringen med å sikre at et kunstig intelligent systems oppførsel samsvarer med menneskelige verdier, intensjoner og mål. Å løse samsvarsproblemet innebærer å håndtere og redusere risikoen for at systemet opptrer skadelig eller uforutsigbart, enten på grunn av sine programmerte mål eller fordi systemet misforstår eller feiltolker disse målene.
Stokastiske papegøyer
Et begrep som brukes for å beskrive hvordan store språkmodeller er i stand til å generere et statistisk korrekt og realistisk klingende språk, men uten å ha en dypere forståelse av hvordan språket relaterer til den fysiske verden. Stokastisk betyr tilfeldig og papegøyer er kjent for å etterligne lyder de hører, uten å faktisk forstå ordene de repeterer.
Store språkmodeller (på engelsk Natural Language Processing)
Maskinlæringsmodeller trent på enorme mengder tekstdata for å forstå og generere naturlig språk. Disse modellene bruker sannsynlighet og statistikk for å forutsi og generere tekst. Dette kan både være grunnmodeller og finjusterte modeller.
Sperre (på engelsk guardrails)
Et sett med begrensninger og regler for oppførsel som programmeres inn i en språkmodell. En sperre kan sammenliknes med et autovern på en motorvei som definerer bredden på veien og hindrer kjøretøyer i å svinge utfor. Slike sperrer kan fungere som trygghetsstiltak som sikrer at kunstig intelligens-systemer opererer innenfor definerte grenser og overholder regler eller prinsipper. De kan bidra til å forhindre at systemene produserer skadelig, partisk eller uønsket innhold eller prediksjoner.
Språkteknologi (på engelsk natural language processing)
Et bredt felt innen datavitenskap og lingvistikk som utvikler og anvender teknologier for behandling og forståelse av naturlig språk. Dette inkluderer både skriftlig og muntlig språk, og omfatter teknikker og applikasjoner som maskinoversettelse, talegjenkjenning, tekst-til-tale-systemer, chatboter, sentimentanalyse og automatisert tekstgenerering. Begrepene språkteknologi, språkteknikk og prosessering av naturlig språk brukes ofte om hverandre.
Syntetiske data
Kunstig generert data – alt fra tekst, bilder, video og lydklipp – som kan brukes for å trene språkmodeller. Dette kan være et billigere alternativ til ekte data, spesielt når det gjelder å unngå personvernutfordringer.
Tokens
Mindre enheter av tekst som ord, stavelser, bokstaver eller tegn som språkmodeller bruker for å forstå og generere tekst.
Transformer
En transformer er en type nevralt nettverk, beskrevet av Google-forskere i 2017, som revolusjonerte tekstforståelse og generering. Før transformere var nevrale nettverk begrenset til å forutsi neste ord i en setning. Transformeren kan analysere forholdet mellom alle ord i en tekst samtidig, og vektlegge nøkkelord og fraser som er viktige for meningsinnholdet. Den kan også huske viktige detaljer fra tidligere i teksten og bruke dem senere. Dette gjør at transformere kan modellere språk mye mer nøyaktig og forstå komplekse sammenhenger. Transformere er grunnlaget for avanserte språkmodeller som GPT og BERT.
Unimodal
En maskinlæringsmodell som er trent med én type data eller modalitet. For eksempel kan en unimodal modell være spesifikt trent på tekstdata for å utføre oppgaver som tekstklassifisering, eller på bildefiler for bildegjenkjenning. Disse modellene er begrenset til å behandle og analysere kun den ene typen data de er trent på.