Pentagon preti kompaniji Anthropic smanjenjem sredstava od 200 miliona dolara zbog bezbednosnih pravila
TL;DR - Kratak rezime
- Rizik: Pentagon pokušava da koristi Anthropic-ov Claude bez sigurnosnih barijera, što bi moglo naterati kompaniju da prekrši sopstvena pravila protiv nasilja, dizajna oružja i nadzora.
- Uticaj: Ako zvaničnici označe Anthropic kao "rizik za lanac snabdevanja", firma - a možda i drugi ključni AI igrači - bila bi isključena iz budućih odbrambenih ugovora, a taj potez bi izazvao gnev javnosti i podstakao zakonodavce ka strožim pravilima o AI u ratovanju.
- Izgledi: Tokom narednih meseci, Ministarstvo odbrane (DoD) će verovatno vršiti pritisak na Anthropic da ublaži svoja ograničenja; ukoliko pregovori zastanu, partnerstvo vredno 200 miliona dolara moglo bi se raspasti, što bi pokrenulo širu industrijsku debatu o vojnoj primeni AI.
Pentagon preti prekidom saradnje sa kompanijom Anthropic zbog spora oko AI sigurnosnih barijera
Tokom vikenda, Wall Street Journal je objavio da je američka vojska možda koristila Anthropic-ov Claude chatbot u tajnoj operaciji usmerenoj protiv predsednika Venecuele, Nikolasa Madura. Tačna uloga modela ostaje nejasna, ali ovaj događaj pokazuje koliko brzo javni AI alat može skliznuti u klasifikovanu misiju.
Anthropic je odgovorio oprezno. U izjavi za WSJ, firma je navela da ne može da potvrdi da li je Claude korišćen u bilo kojoj operaciji, ali je naglasila da "svaka upotreba Claude-a - bilo u privatnom sektoru ili u državnim organima - mora pratiti naše Politike korišćenja." Ta pravila zabranjuju modelu da olakšava ili promoviše nasilje, da razvija ili dizajnira oružje, kao i da sprovodi nadzor.
Ugovor i konflikt
Prošlog leta, Anthropic je sklopio ugovor vredan do 200 miliona dolara sa Pentagonom, pridruživši se kompanijama OpenAI, Google i xAI u odbrambenoj inicijativi za integraciju vrhunske AI tehnologije u ratovanje, prikupljanje obaveštajnih podataka i analizu bojnog polja. Sporazum je ostvaren kroz partnerstvo sa odbrambenim izvođačem Palantir, vezom koja se sada pretvorila u tačku spora.
Reuters (15. feb. 2026.) je preneo da su visoki zvaničnici rekli za Axios da je "sve na stolu", što znači da bi Pentagon mogao smanjiti ili potpuno prekinuti partnerstvo od 200 miliona dolara ako Anthropic ne odustane od svojih sigurnosnih pravila. Navodi se da je sekretar odbrane Pit Hegset blizu toga da Anthropic označi kao "rizik za lanac snabdevanja", što je oznaka koja bi primorala sve izvođače Pentagona da prekinu veze sa ovom AI firmom.
CEO Anthropic-a, Dario Amodei, više puta je upozoravao na "inherentne rizike" neograničene AI, pozivajući na jači državni nadzor i ističući da bi masovni nadzor vođen putem AI trebalo da se tretira kao zločin protiv čovečnosti. Njegovi javni eseji doveli su kompaniju u sukob sa Pentagonom koji, prema pisanju CNBC-a, vrši pritisak na dobavljače da dozvole AI alatima da pomažu u razvoju oružja i prikupljanju obaveštajnih podataka bez dosadašnjih zaštitnih ograda.
Šta je u igri?
Ako Pentagon nastavi sa označavanjem kompanije kao "rizik za lanac snabdevanja", Anthropic bi izgubio unosan izvor prihoda i bio bi isključen iz budućih odbrambenih ugovora. Ta odluka bi takođe poslala signal drugim AI firmama - poput OpenAI, Google-a i xAI - da Ministarstvo odbrane želi manje ograničenja za upotrebu u borbenim dejstvima.
S druge strane, zajednica korisnika Anthropic-a je pružila otpor. Popularna objava na Claude subreddit-u nazvala je kompaniju "vodećom zatvorenom AI firmom", ponavljajući zabrinutost da bi uloga modela u tajnim operacijama mogla narušiti poverenje javnosti.
Šire implikacije za upravljanje AI sistemima
Ovaj sukob podseća na istorijske tenzije između revolucionarne tehnologije i želje države za neograničenim pristupom, slično ranim fazama projekta Manhattan. Zakonodavci već sastavljaju predloge zakona za pooštravanje nadzora lanca snabdevanja za "visokorizičnu AI" (pogledati izveštaj Istraživačke službe Kongresa iz juna 2025). Ishod okršaja između Pentagona i Anthropic-a mogao bi odlučiti da li će ti predlozi dobiti podršku obe stranke.
Industrijski analitičari upozoravaju da bi oštar razlaz između Pentagona i Anthropic-a mogao ubrzati pozive za osnivanjem "AI-za-dobro" startupova koji ugrađuju stroge politike korišćenja, dok bi istovremeno podstakao druge dobavljače da insistiraju na labavijim licencama kako bi dobili odbrambene ugovore.
🔮 Predviđanja futuriste
Predviđanje 2031:
Nakon sukoba Pentagona sa kompanijom Anthropic 2026. godine oko AI zaštitnih mera, narednih pet godina moglo bi potpuno promeniti način na koji se jezički modeli prepliću sa nacionalnom bezbednošću.
- Kongres i Ministarstvo odbrane mogu označiti Anthropic i slične kompanije kao "entitete visokog rizika u lancu snabdevanja", što bi dovelo do stvaranja vladinog konzorcijuma za AI usklađenost koji bi preuzeo odbrambene ugovore i primorao industriju na razvoj modela koji su podložni reviziji i etički usklađeni.
- Koalicija NATO-UN sastavljena od glavnih AI igrača mogla bi da sastavi prvi "AI ratni kodeks" (AI War Code), precizirajući sta generativni AI može da radi u borbi; pravila bi mogla da ograniče primenu modela tipa Claude, ostavljajući pritom zakonske rupe za manje, slabije regulisane aktere.
- Reakcije javnosti zbog glasina o ulozi Claude-a u tajnim operacijama mogle bi izazvati bojkot potrošača i nove zakone, primoravajući američke propise o transparentnosti da zahtevaju sledljivost AI tehnologije u svakoj nabavci za odbranu - sto bi podstaklo uspon "AI-for-good" startapa koji dobrovoljno strogo ograničavaju svoje politike korišćenja.