Hopp over innholdet

Slik overvåker maskiner følelsene dine

Artikkelen tilhører Kunstig intelligens, postet 12. mar 2018

Joakim Valevatn
KONTAKTPERSON:

Joakim Valevatn

Du vet sikkert at maskiner er bedre enn mennesker i sjakk. Men visste du at de nå også er bedre på å skille et falskt smil fra et ekte?

Av direktør Tore Tennøe og prosjektleder Joakim Valevatn i Teknologirådet

Innlegget ble også publisert i Aftenposten Viten 26. februar 2018

I mai 2017 fikk IT-ingeniøren Jeff Newman et glimt av fremtiden da han besøkte Peppes Pizza på Oslo S. På grunn av en feil i programvaren viste ikke den digitale reklameskjermen fristende bilder av pizza, men en beskrivelse av hvem som hadde sett på skjermen med kjønn, alder, utseende og humør. Da han nærmet seg for å ta et bilde, dukket en ny linje opp som beskrev ham selv: «male», «young adult», «glasses» og til slutt «smile: 0».

Formålet med reklameskiltet er å tilpasse innholdet til den som ser på, og dermed selge mer. Hos Peppes Pizza ble menn vist bilder av pizza med biff, mens kvinner fikk se sunne salater.

Til nå har utviklingen innen kunstig intelligens vært rettet mot å trene maskiner til å løse logiske oppgaver, som å spille sjakk eller stille medisinske diagnoser. Den nye emosjonelle overvåkningen gir datamaskinene innblikk i reaksjonene, humøret og følelsene våre.

Da løgndetektoren ble oppfunnet i 1921, ble det mulig å måle noens følelser gjennom kompliserte tester og spesialutstyr. Nå kan smarte kameraer gjøre analysene på avstand, uten at vi legger merke til det.

Slik kan maskiner forstå deg:

 

Norsk app skal forebygge depresjon

Forskningsprosjektet Intromat ved Haukeland universitetssykehus utvikler en app som kan overvåke humørsvingninger hos personer med bipolar lidelse, og forutse depressive eller maniske episoder. Når symptomer blir oppdaget, kan et varsel sendes til brukeren, familien og legen. Målet er å fange opp symptomene før vedkommende ville ha oppsøkt hjelp selv, og dermed forebygge alvorlige tilbakefall.

Facebook oppdager selvmordsrisiko

Ifølge Verdens helseorganisasjon er selvmord den nest største dødsårsaken i aldersgruppen 15–29 år. Ved å følge med på brukeraktivitet kan Facebook Suicide Watch identifisere personer med selvmordstanker og oppfordre dem til å søke hjelp. En måned etter lanseringen hevdet Facebook-direktør Mark Zuckerberg at algoritmen hadde hjulpet mer enn hundre mennesker. Facebook vil ikke ta i bruk denne teknologien i Europa, på grunn av det de hevder er for strenge regler for personvern.

Kjeder eleven seg?

Læring er tett knyttet opp mot følelser, som nysgjerrighet, fascinasjon, forvirring og frustrasjon. En god lærer vil se og følge opp disse tegnene. Flere forsøker nå å gjøre dette med digitale læremidler. For eksempel har Hong Kong-selskapet Find Solution utviklet programmet 4 Little Trees, som analyserer elevenes ansiktsuttrykk gjennom kameraet på et nettbrett, og måler endringer i følelsene hos elevene mens de løser oppgaver. Om eleven ser ut til å slite eller miste motivasjonen, dukker det opp en pop-up med lyder, animasjoner og hint.

Politisk påvirkning

Cambridge Analytica har blitt kjent for sin rolle i Donald Trumps valgkampanje og «Leave.EU»-bevegelsen i Storbritannia. Like før det amerikanske valget i 2016 hevdet firmaets konsernsjef at de hadde analysert personligheten til alle USAs velgere — 220 millioner mennesker. Profilene ble brukt til å skreddersy politiske budskap til enkeltpersoner. For eksempel kunne velgere med høy score på nevrotisisme og planmessighet få annonser med budskap om innbrudd i hjemmet, og våpen som et sikkerhetstiltak. Mer introverte velgere kunne få se et bilde av far og sønn på andejakt, med budskap om tradisjon og familieverdier. Den psykologiske profileringen ga et ekstra lag til Trump-leirens analyser. I hvor stor grad det ga utslag på valgresultatet, er imidlertid omstridt.

For tett på?

Ny teknologi er verken god eller ond, men den er heller ikke nøytral. Maskiner med emosjonell intelligens kan opplagt brukes for å hjelpe oss, for eksempel som digitale assistenter i hverdagen eller i kritiske helsesituasjoner. Men den samme kapasiteten kan også brukes til å manipulere oss. Emosjonell overvåkning blir særlig problematisk dersom vi ikke vet om eller har samtykket til det, slik tilfellet kan være med bildeanalyser som avdekker seksuell legning eller følelser.

Et aktuelt spørsmål er om det er forskjell på om det er Haukeland sykehus eller Facebook som overvåker følelsene våre. Facebook har tilgang til enorme mengder data om oss. Dersom informasjonen de sitter på kan redde liv, er ikke det positivt? Samtidig er det uheldig om den samme informasjonen som brukes til å redde liv, også brukes til målrettet markedsføring. Det er særlig problematisk om personen som profileres er i en sårbar livssituasjon.

Historikeren og forfatteren Yuval Harari advarte nylig mot at kombinasjonen av lærende maskiner og biometri kommer for tett på oss. Dersom myndigheter eller store selskaper lærer å kjenne våre innerste behov bedre enn oss selv, og kan forutsi eller manipulere følelser eller begjær, er veien åpen for et «digitalt diktatur». Det er derfor viktigere enn noensinne at vi tar tilbake kontrollen over dataene om oss.

LES OGSÅ

Ny rapport: Kunstig intelligens for Norge

Kunstig intelligens er den kraftigste teknologibølgen vi har sett på lenge, og kan endre verden som vi kjenner den. En ny rapport forklarer hva det er, og hvorfor Norge nå må ta grep.

Les hele saken »

Ny rapport: Fremtidens transport i Europa

Hvordan sikre god og effektiv transport, og samtidig redusere forurensning og kø? En ny rapport gir oversikt over hvilke tiltak som gjøres i land som Finland, Tyskland og Frankrike, USA, Japan og Russland.

Les hele saken »

Seminar: Kunstig intelligens i helsetjenesten

Kunstig intelligens vil gi nye muligheter i norsk helsevesen. Må vi tenke nytt om hvordan vi bygger utdanningen i Norge? Teknologirådet og Tekna arrangerer seminar 17. januar.

Les hele saken »