Når maskinene får våpen: Hvorfor dagens AI-ultimatum fra Pentagon angår oss alle
February 2026
Dagens dato er fredag 27. februar 2026. Dersom du leser dette i dag, tikker klokken mot klokken 23:00 norsk tid (17:00 i Washington D.C.). I kveld utløper en frist som kan definere tiden fremover, og det er skremmende hvor få som faktisk snakker om det.
Akkurat nå står vi midt i en maktkamp mellom verdens mektigste militærmakt, det amerikanske forsvarsdepartementet (Pentagon), og et av verdens ledende selskaper innen kunstig intelligens: Anthropic. Utfallet kan påvirke den globale fremtiden for teknologi, krigføring og menneskerettigheter.
Kjernen i konflikten
For å forstå alvoret, må vi se på hva som egentlig er problemet. Anthropic, skaperne av den avanserte AI-modellen Claude, har en kontrakt med Pentagon verdt over 2 milliarder kroner ($200 millioner). Men Anthropic har kodet inn strenge etiske sikkerhetssperrer i sin AI. De har to absolutte regler for hvordan deres teknologi kan brukes:
- Ingen autonome våpen: AI-en skal aldri kunne ta en selvstendig beslutning om å avfyre et våpen eller drepe et menneske. Et menneske må alltid sitte med fingeren på avtrekkeren.
- Ingen masseovervåkning: AI-en skal ikke brukes til å overvåke befolkningen i massiv skala, ettersom dette bryter med grunnleggende demokratiske rettigheter.
USAs forsvarsminister, Pete Hegseth, har derimot krevd at Anthropic fjerner disse sikkerhetssperrene. Pentagon insisterer på at teknologien skal være tilgjengelig for "alle lovlige formål", og de nekter å la et privat selskap diktere hvordan militæret skal ta operasjonelle beslutninger.
Et knusende ultimatum
Tidligere denne uken, under et møte i Pentagon, ga forsvarsministeren Anthropics toppsjef, Dario Amodei, et ultimatum.
Dersom Anthropic nekter å fjerne sikkerhetsmekanismene, vil Pentagon først kansellere kontrakten sin med Anthropic. For det andre truer de med å stemple det amerikanske selskapet Anthropic som en "nasjonal sikkerhetstrussel" for forsyningskjedene — en merkelapp vanligvis reservert for selskaper fra nasjoner som Kina eller Russland. Dette vil gjøre det ulovlig for andre selskaper å gjøre forretninger med dem, noe som i praksis vil knuse dem.
Men den tredje trusselen er kanskje den mest dystopiske: Pentagon vurderer å ta i bruk Defense Production Act (DPA). Dette er en lovgivning fra Korea-krigen som gir presidenten makt til å tvinge privat industri til å produsere det staten trenger i en nasjonal krise. Hvis denne tas i bruk, kan staten med loven i hånd tvinge Anthropic til å fjerne sikkerhetsmekanismene de har bygget, og overta kildekoden.
De som bøyde av
I en bransje som ofte snakker høyt om etikk og sikkerhet, har det vært sjokkerende å se hvordan resten av tech-gigantene har reagert. Konkurrentene — OpenAI (skaperne av ChatGPT), Google og Elon Musks xAI — har allerede kapitulert og godtatt Pentagons krav for å sikre seg sine militære kontrakter. Grunnen til at Pentagon ikke bare går til noen av disse konkurrentene, er at per dags dato anser Pentagon Claude som det overlegne produktet.
Elon Musk har til og med gått ut på plattformen sin X (tidligere Twitter) og angrepet Anthropic. Han kaller dem "misantropiske og onde" for at de tviholder på sine sikkerhetsrutiner. Det finnes tilsynelatende ingen grenser for hva gigantene er villige til å ofre når enorme statlige kontrakter ligger på bordet.
Anthropic står altså helt alene igjen som det eneste selskapet som sier nei til å la AI styre drapsdroner eller fungere som et altseende overvåkningsverktøy mot sivile.
Hva skjer nå?
I går (torsdag) slapp Anthropic-sjef Dario Amodei en offisiell uttalelse hvor han gjorde det klinkende klart at de nekter å gi etter. "Vi kan ikke med god samvittighet gå med på forespørselen deres," skrev han, og påpekte at truslene de utsettes for er dypt selvmotsigende: Den ene trusselen stempler dem som en nasjonal sikkerhetsrisiko, mens den andre truer med å tvinge dem til å overlevere teknologien fordi den er essensiell for nasjonal sikkerhet.
Når fristen utløper kl. 23:00 norsk tid, vil vi se om Pentagon gjør alvor av sine trusler mot et av verdens ledende AI-selskaper, og om de genuint er villige til å knuse et selskap kun for å sikre seg teknologisk dominerende kontroll uten etiske begrensninger.
Hvorfor dette angår oss
Dette handler ikke bare om storpolitikk i USA. Det handler om presedensen som settes for hvordan kunstig intelligens skal integreres i samfunnet vårt fremover. Hvis verdens mektigste regjering kan tvinge et privat selskap til å fjerne livsviktige etiske barrierer for bruk av kunstig intelligens i krig og overvåkning, hva blir det neste?