EU-loven skal gjøre alt fra sosiale medieplattformer til søketjenester og nettbutikker ansvarlige for spredning av ulovlig innhold på sine plattformer, og sikre trygge tjenester for brukerne. Loven har allerede tredd i kraft i Europa, og vil bli norsk lov på sikt.

De største selskapene, med over 45 millioner aktive månedlige brukere i EU, får strengest krav. Dette gjelder nå 17 store selskaper og 2 søkemotorer. Selskaper som Meta, Google, Snapchat, YouTube, TikTok og X (tidligere Twitter) må heretter rapportere om hvordan de modererer innhold på sine plattformer, dele data med forskere, og innføre en rekke risikoreduserende tiltak for å sikre trygge tjenester til brukerne.

Digital Services Act (DSA)

  • DSA har trådt i kraft i Europa. Loven gjør selskaper som tilbyr digitale tjenester ansvarlige for spredning av ulovlig innhold på nett, og skal bidra til å gjøre det tryggere å være på nett.
  • Sosiale medieplattformer og søkemotorer må gi forskere tilgang på data, være åpne om moderering og vurdere risiko knyttet til desinformasjon, folkehelse og valgmanipulasjon.
  • Atferdsbasert markedsføring mot mindreårige og manipulerende design på nett er forbudt.
  • 17 selskaper og 2 søkemotorer har blitt klassifisert som «veldig store selskaper». Disse har fått lovens strengeste krav.
  • På sikt vil EU-loven også bli norsk lov. Den er nå til vurdering av EFTA-landene.

Ny åpenhet tvinges fram

Loven tvinger de største selskapene til å vise kortene. Forskere skal nå få innsyn i data og algoritmer på plattformene som det tidligere ikke har vært mulig å få tilgang til. Brukere har også fått nye og bedre klagemuligheter og flere rettigheter.

Ulik moderering

De største selskapene må publisere begrunnelser for hvorfor de fjerner innlegg eller kommentarer i en åpen database. Tidligere har verken brukerne eller offentligheten hatt tilgang til denne informasjonen. Enkelte dager registreres så mye som 30 000 begrunnelser i timen. Av disse får vi innsyn i hva som slettes på sosiale medier og hvorfor. For eksempel oppgir TikTok hatefulle ytringer som begrunnelse for 41% av innleggene de fjerner. Til sammenligning har ikke X én eneste prosent innhold som fjernes fordi det er hatefullt, noe som indikerer at plattformen har langt høyere terskel for å slette denne typen innhold.

Ulik språkkompetanse

Selskapene må også publisere åpenhetsrapporter hvert halvår, og blant annet rapportere på antall innholdsmoderatorer per språk. Dette gjør selskapene ulikt – noen rapporterer per offisielle EU-språk, mens andre rapporterer på de mest brukte språkene i EU, som også for eksempel inkluderer arabisk.

Åpenhetsrapportene viser at mens TikTok har 208 polskspråklige innholdsmoderatorer, har Meta 65 og X bare 1. Det indikerer store forskjeller mellom språklig kompetanse på de ulike sosiale mediene. Ytringsfrihetskommisjonen av 2022 påpekte at det er problematisk at vi ikke har tilstrekkelig innsyn i nasjonale forhold på sosiale medier, og at vi ikke vet hvor mange norskspråklige moderatorer plattformene har. Når kravene også blir norsk lov, kan vi trolig få mer innsyn i dette.

Med DSA har myndighetene fått flere verktøy for å sikre åpenhet, ansvarlighet og innsyn på nett. EU-kommisjonen har fått ansvar for å håndheve loven overfor de største selskapene, og de er godt i gang.

Ulovlig innhold på X etterforskes

X etterforskes av EU for å ikke gjøre nok for å hindre spredning av ulovlig innhold på plattformen. Det er særlig spredning av feilinformasjon i forbindelse med krigen i Gaza som har satt X i søkelyset. EU mistenker også at X ikke har gitt forskere tilstrekkelig tilgang til data fra plattformen, slik loven krever.

I tillegg etterforskes X for sine nye «forretningsgrep»:

  • Er «blue checks» manipulerende design? X har innført en betalings- og abonnementsløsning for verifiserte kontoer som, ifølge EU, kan være en form for manipulerende design. At en konto er betalt for, betyr ikke nødvendigvis at den er verifisert, i den forstand at det står et menneske og for eksempel ikke et botnettverk bak.
  • Er «community notes» tilstrekkelig? X har innført community notes som gir brukere mulighet til å legge til kontekst til andre brukeres innlegg. Dette skal være et tiltak for å hindre spredning av feilinformasjon, men EU vurderer om det er en effektiv og tilstrekkelig løsning for å moderere innhold på plattformen.

Ifølge Elon Musk vurderer selskapet å ta betalt for at nye brukere kan poste innlegg på plattformen, som et tiltak for å hindre bots. Vi vet ikke hvor mange bots som står bak brukerkontoer på X, men vi vet at problemet er stort og voksende.

Algoritmene til TikTok er under lupen

TikTok er også under etterforskning. Her er det barns personvern og avhengighetsskapende algoritmer som er i søkelyset. I fjor fikk TikTok en bot på 3,9 milliarder av det irske datatilsynet for brudd på barns personvern. EU følger opp dette i den pågående etterforskningen, og vurderer om algoritmene til TikTok er så avhengighetsskapende at de kan påvirke særlig barn og unge, og få konsekvenser for deres psykiske helse.

EU er også bekymret for at algoritmene kan bidra til en «kaninhulleffekt», der brukere gradvis og over tid, ved hjelp av algoritmene, ledes inn i et «hull» der innhold blir stadig mer persontilpasset, spesialisert, og derfor også ensidig og ekstremt. Det kan gjelde alt fra videoer med ekstremt politisk innhold til videoer som fremmer usunt trenings- og slankepress. EU vurderer også om TikTok gir tilstrekkelig tilgang på data til forskere og om plattformen er åpne om annonser, slik loven krever.

Da TikTok introduserte et nytt kundeprogram i Frankrike og Spania, der brukere kunne få betalt for antall videoer som ses og antall likerklikk, satte EU i gang en ny etterforskning av selskapets praksis.

– Tiktok var allerede under kraftig press i Europa og etterforskes av EU for avhengighetsskapende algoritmer. Når de lanserer et program der man belønnes for å logge inn ti dager på rad, se videoer i 85 minutter daglig, og å verve venner, er det åpenbart et forsøk på å få folk enda mer hekta, har prosjektleder Hanne Sofie Lindahl tidligere uttalt til Morgenbladet.

TikTok valgte å suspendere programmet kort tid etter, men EU går videre med etterforskningen av selskapets praksis.

Meta er neste selskap ut

Nå har EU tatt turen til Meta, og Metas grep for å minimere risiko i forbindelse med valg skal etterforskes nærmere. EU er bekymret for at Meta ikke har tilstrekkelige mekanismer på plass, på Instagram og Facebook, for å håndtere spredning av manipulerende politiske reklame og desinformasjon. EU vil også etterforske om algoritmisk nedprioritering av politisk innhold, som Meta har gått aktivt inn for, er i tråd med lovverket. Resultatet av etterforskningen kan potensielt få store konsekvenser for algoritmestyrt innholdsmoderering på sosiale medier.

– Innhold bare slettes og fjernes uten at brukeren får tilstrekkelig begrunnelse på hvorfor. Meta sier det er for «å beskytte fellesskapet». Men hva er kriteriene for det? Det får vi ikke vite, har Hanne Sofie Lindahl uttalt til Aftenposten i en sak om nedprioritering av politisk innhold på Metas plattformer.

Hva står på spill?

X, TikTok og Meta er blant de første selskapene som etterforskes under den nye loven for digitale selskap. Nå er kommisjonen i gang med å samle inn bevis, gjøre intervjuer med selskapene og gjennomføre inspeksjoner. Deretter vil selskapene få mulighet til å svare for seg, før en endelig avgjørelse vil bli fattet.

Hvor strengt EU-kommisjonen velger å håndheve eventuelle lovbrudd vil kunne ha en sterk signaleffekt til andre sosiale medieplattformer og selskaper som er pålagt å følge kravene. Selskapene risikerer et overtredelsesgebyr på hele 6 % av global omsetning. Dersom selskapene ikke følger dommen og gjør forbedringer, kan EU velge å forby tjenestene i Europa. Mye står på spill når EU gjør sine første vurderinger og legger lista for hvor strengt loven skal håndheves framover.

Nyhetsbrev

Med nyhetsbrevet vårt får du med deg det siste innen teknologiutvikling