Lydia Nicholas og Harry Armstrong frå den britiske innovasjonspolitiske tankesmia NESTA vitja Noreg nyleg.

Dei fortalte på eit ope møte i regi av Teknologirådet om kor langt Storbritannia hadde kome med bruk av kunstig intelligens og algoritmar. Britane er allereie i gong med for eksempel:

  • Kunstig intelligente «chatbots» du møter når du stiller kommunen spørsmål på internett.
  • For å føresjå kor og når kriminalitet mest truleg skjer
  • For å ta folk som prøver å snyta på skatten.
  • For å sjå samanhengar i barnevern- og sosiale saker:

I eit tilfelle kor mange barn hadde problem i eit ganske lite område, fann dei ved hjelp av teknologien ut at det var ein mann som var far til nesten alle problembarna. Og problema var tett knytt til då barna vitja faren sin.

Også i privat sektor er kreativiteten stor. Robotadvokaten «DoNotPay» har vunne over 160.000 parkeringsbot-saker på vegner av folk som er blitt bøtelagt utan god nok grunn.

Nicholas og Armstrong peikte også på kva verksemder må vera merksame på om dei skal bruka kunstig intelligens (KI).

Dei trekte fram fire nøkkelpunkt.

  • Design av algoritmen og systema rundt
  • Utvikling av den rette kulturen
  • Kopling av samfunnsvitarar og «data scientists», samt å la dei få ein sentral del i oppbygginga av KI-prosjekt.
  • Testing med påfølgjande evaluering

Slik kan KI brukast

Under presentasjonen framheva Armstrong og Nicholas at ja, KI og maskinlæring er ein hype. Men dei meiner også at allereie no endrar kunstig intelligens våre liv og korleis me arbeider – og at det i framtida vil vera ein nyttig ressurs.

Kunstig intelligens kan brukast mellom anna for å få betre og meir informerte avgjerder. Og tenester, særleg innan helse, kan bli meir persontilpassa. I tillegg kan me menneske få ny innsikt om verda som me truleg ikkje vil fått utan kunstig intelligens.

Men ansvarleg innovasjon og forståing av kva negative sider som kan følgja, er veldig viktig påpeikar dei.

Kan maskinen bli fordomsfull?

Eit døme på negativ effekt er diskriminering og at maskinane har fordommar, som er arva frå «menneskelege data», peika Lydia Nicholas på.

I USA har det vore debatt om kunstig intelligent politi-programvare er stigmatiserande overfor afro-amerikanarar.

Ein kan risikere at algoritmen speglar fortidas skeive forhold, og at ein hindrar endring.

Andre problemstillingar ein må hugsa på er mellom anna.

  • Kor mykje stoler ein på maskinen. På den eine sida kan mistru øydelegga. Men at ein stolar for mykje på maskinen, kan også vera eit problem.
  • Transparens og openheit. Folk må kunne skjønna kva som skjer når ein algoritme blir brukt til å ta ei avgjerd, og dei må vera i stand til å stilla relevante spørsmål.
  • Kven har ansvaret? Til dømes om ein førarlaus bil krasjar, kven har då ansvaret og korleis blir det fordelt?
  • Korleis skal avgjerder som maskinane tek, gjerast i samsvar med menneskelege kjensler?

KI blir også brukt i Noreg

Professor Arnoldo Frigessi leier det norske forskingsprosjektet Big Insight. Han er oppteken av at norske styresmakter må gi Big Insight lov til å testa ut meir enn dei får lov til no. For utan testing veit dei ikkje om dei kan lukkast. Han er også veldig open på at det vil krevja mykje data, noko som gjer at Datatilsynet har lagt ned restriksjonar for enkelte av prosjekta.

Men allereie er Big Insight, som er eit samarbeid mellom private og offentlege aktørar, i gong med fleire prosjekt.

I samarbeid med Oslo universitetssjukehus forskar dei både på persontilpassa kreftbehandling, og koss ein kan føresjå sjukehusinfeksjonar.

Dei samarbeider også med NRK for å finna ut korleis ein best kan hjelpa sjåarane til å oppdaga relevant innhald som dei gjerne vil sjå, litt på same måte som Netflix gjer. Saman med Folkehelseinstituttet og Telenor har Big Insight eit prosjekt for å føresjå korleis ein pandemi kan spreia seg – basert på anonyme mobildata

Nyhetsbrev

Med nyhetsbrevet vårt får du med deg det siste innen teknologiutvikling