Fra samarbeid til brudd: Anthropic på kollisjonskurs med Pentagon

Sommeren 2025 var Anthropic det første selskapet som fikk godkjent sin kunstig intelligens-modell i det amerikanske forsvarets klassifiserte nettverk, gjennom en kontrakt på hele 200 millioner dollar. Anthropics modell Claude var dermed den første kommersielle språkmodellen som ble tatt i bruk i militære analyser og operasjoner.

I januar i år ga krigsminister Pete Hegseth ordre om å øke bruken av kunstig intelligens (KI) i det amerikanske forsvaret, for å bli en såkalt AI-First warfighting force. Dette førte til nye forhandlinger mellom det amerikanske forsvaret og Anthropic om vilkårene for bruk av modellen Claude.

Forsvaret krevde at systemene skulle kunne brukes til ethvert lovlig formål, mens Anthropic tok til orde for to spesifikke bruksbegrensninger: Claude skulle hverken kunne brukes til masseovervåkning av egne innbyggere eller inngå i autonome våpensystemer uten menneskelig kontroll. Selskapet begrunnet dette med at teknologien fortsatt ikke er moden eller pålitelig nok, og at bruk av Claude til masseovervåking av amerikanske innbyggere vil bryte med grunnleggende rettigheter.

At et selskap skulle få lov til å sette slike begrensninger på bruk fikk politiske ledelse i USA til å se svart. Trump skrev på Truth Social at USA aldri vil tillate et radikalt, venstreorientert, «woke» selskap å diktere hvordan militæret bekjemper og vinner kriger. Samtidig beordret Trump alle føderale etater til å fase ut Anthropics teknologi.

Krigsminister Hegseth beskyldte selskapet for arroganse og illojalitet, og stemplet selskapet som en sikkerhetsrisiko i leverandørkjeden (på engelsk supply chain risk), en betegnelse som normalt er forbeholdt selskaper med bånd til rivaliserende statsmakter. Dommen fra Trump var klar og tydelig: «We don’t need it, we don’t want it, and we will not do business with them again».

OpenAI i Pentagons hule hånd?

Dagen etter annonserte OpenAI-sjef Sam Altman at OpenAI har inngått en samarbeidsavtale med det amerikanske forsvaret om levering av KI-teknologi til klassifiserte systemer. Ifølge OpenAI gikk forsvaret med på deres krav om at teknologien ikke skal brukes til overvåkning innenlands eller autonome våpensystemer, tilsynelatende de samme begrensningene som Anthropic ikke fikk godkjent. Derfor spekuleres det nå i hva OpenAI har gått med på i praksis, og om avtalen inneholder gråsoner eller smutthull som forklarer hvorfor forsvaret likevel gikk med på kravene.

OpenAIs avtale har fått kraftig kritikk, både fra brukere og fra ansatte i teknologisektoren. Tusenvis har fulgt en oppfordring om å slette ChatGPT (kampanjen har fått tittelen QuitGPT) og Claude klatret til topps på amerikanske App Store. Sam Altman har i etterkant innrømmet at avtalen ble fremforhandlet raskt og fremstod «opportunistisk og rotete», og at de derfor vil gjøre justeringer i kontrakten.

KI i krig

Dario Amodei, CEO i Anthropic har heller ikke lukket døren for framtidig samarbeid med forsvaret. På sine nettsider skriver Amodei følgende:

«Anthropic has much more in common with the Department of War than we have differences. We both are committed to advancing US national security and defending the American people, and agree on the urgency of applying AI across the government. All our future decisions will flow from that shared premise.»

Kjernen i konflikten mellom Anthropic og det amerikanske forsvaret er altså ikke om kunstig intelligens skal brukes i krig, men hvordan, og hvem som kontrollerer teknologien. Anthropics modell Claude har blant annet blitt brukt i militære operasjoner mot Iran som beslutningsstøtte for å identifisere, prioritere, velge og evaluere strategiske mål. I løpet av krigens første døgn ble hele tusen militære mål i Iran identifisert med støtte fra avansert kunstig intelligens. Claude skal også ha blitt brukt under den militære operasjonen som førte til pågripelsen av Venezuelas tidligere president Nicolás Maduro.

Det omstridte teknologiselskapet Palantir har utviklet systemet Maven Smart System for det Amerikanske forsvaret, der også Anthropics Claude-modell inngår. Maven kan analysere satellittbilder, dronevideoer, radar- og sensordata som for eksempel kan se gjennom mørke skyer og oppdage varme, geolokasjonsdata og data fra åpne kilder som sosiale medier. Det gjør Maven til et flerbrukssystem, som både kan analysere data og brukes operasjonelt til å foreslå mål og identifisere trusler i sanntid.

Men systemet er ikke feilfritt. Den kan for eksempel tolke en bil som et tre. En ny studie omtalt av New Scientist viser at ledende KI-modeller – som GPT-5.2, Claude Sonnet 4 og Gemini 3 Flash – i 95 prosent av militære krigssimuleringer foreslår tiltak som ender med atomvåpenbruk. Det er et urovekkende signal om KI-modellers resonnering i krig og konflikt-situasjoner.

Flere teknologiselskaper har bidratt i utviklingen av systemet, blant annet satellittselskapet Maxar Technologies, Amazon Web Services og Microsoft. Ifølge kilder i forsvaret har systemet blitt et daglig arbeidsverktøy i flere militære operasjoner og etterretningsprosesser, og i mai i fjor ble det brukt av 20 000 ansatte i forsvaret.

Kommersielle KI-modeller har dermed blitt en sentral del av moderne forsvar og krigføring. Det introduserer en rekke nye risikoer og etiske dilemmaer. KI-systemene kan analysere enorme datamengder langt raskere enn mennesker, og kan derfor gjøre etterretning og militære operasjoner mer effektive. Samtidig har systemene feilmarginer som kan få konsekvenser for liv og død dersom beslutninger og ansvar overlates til algoritmer. Flere forskere advarer om at bruk av KI i moderne våpensystemer – fra beslutningsstøtte til valg av mål – vil innebære betydelig risiko, som uforutsigbar eskalering, lavere pålitelighet og svekket menneskelig kontroll.

Utfordringer for digital suverenitet i Europa

OpenAIs nye avtale med det amerikanske forsvaret vil i praksis bety at selskapets GPT-modeller blir en integrert del av amerikansk militærinfrastruktur, der etiske prinsipper potensielt må vike for forsvarets sikkerhetspolitiske behov og krav. Flere teknologiledere fra selskaper som Palantir og OpenAI har fått tildelt offisers rang i forsvaret i USA for å knytte sivil teknologiutvikling tettere på forsvaret.

For Europa forsterker dette utfordringene knyttet til digital suverenitet. Når amerikanske tekgiganter utvikler militære KI-verktøy i tett samarbeid med amerikanske myndigheter, kan det på sikt gjøre også europeiske land mer avhengige av militære støttefunksjoner de ikke kontrollerer eller har innsyn i. Maven har allerede blitt tatt i bruk på NATO-øvelser, og Palantir har presentert sine tjenester, spesielt utviklet for militære formål, for det norske Forsvaret.

Behov for demokratisk kontroll

Teknologien Palantir utvikler er i liten grad gjenstand for offentlig innsyn. Det byr på utfordringer for demokratiet, ikke bare knyttet til bruk av KI i krig, men også til den andre bekymringen Anthropic har løftet fram: Risikoen for masseovervåkning av egne innbyggere. Når avanserte KI-systemer utvikles og kontrolleres for militære formål bak lukkede dører, kan hensynet til nasjonal sikkerhet komme i spenning med personvernet, for eksempel hvis teknologien også kan brukes til å overvåke en stats egne innbyggere.

Fremover trengs det mer offentlig debatt om rammene for bruken av slik teknologi, og hvordan både teknologiutviklingen og bruken kan underlegges demokratisk kontroll.

Nyhetsbrev

Med nyhetsbrevet vårt får du med deg det siste innen teknologiutvikling