AI i robotika

Anthropic tuži Pentagon zbog oznake koja ugrožava njegove ugovore.

Ukratko – Brzi rezime

  • Rizik: Ministarstvo odbrane SAD (DoD) označilo je Anthropic kao rizik u lancu snabdevanja, što je klasifikacija koja bi mogla da isključi kompaniju iz predstojećih ugovora sa Pentagonom.
  • Uticaj: Anthropicov model Claude mogao bi biti izostavljen iz vladinih projekata, dok OpenAI istovremeno osigurava novi ugovor sa DoD-om.
  • Izgledi: Anthropic planira da ospori ovu odluku pred federalnim sudom, tvrdeći da ona prevazilazi zakonska ovlašćenja i ugrožava njihove odnose sa civilnim klijentima.

Anthropic pred sudom osporava Pentagonovu oznaku rizika u lancu snabdevanja

U četvrtak je suosnivač i izvršni direktor (CEO) kompanije Anthropic, Dario Amodei, izjavio da će kompanija tužiti Ministarstvo odbrane SAD (DoD) zbog nove oznake „rizik u lancu snabdevanja“. Ova oznaka, koju je dodelio sekretar odbrane Pit Hegset, mogla bi Anthropicu da zabrani rad sa Pentagonom i njegovim podizvođačima – što kompanija naziva „pravno neutemeljenim“ potezom.

Ovaj potez DoD-a usledio je nakon višenedeljnih pregovora o tome koliku kontrolu vojska treba da ima nad AI sistemima. Pentagon zahteva „neograničen pristup za sve zakonite svrhe“, dok Anthropic postavlja jasnu granicu, insistirajući na tome da Claude nikada neće biti korišćen za masovni nadzor građana ili razvoj potpuno autonomnog oružja.

Šta ova oznaka podrazumeva

Prema važećim pravilima o nabavkama, oznaka rizika u lancu snabdevanja može praktično da eliminiše dobavljača iz procesa federalnih ugovora. Amodei tvrdi da je dopis DoD-a „uskog domašaja“, namenjen zaštiti vlade, a ne kažnjavanju dobavljača. On ukazuje na zakonske odredbe koje obavezuju sekretara da koristi „najmanje restriktivna neophodna sredstva“ kako bi zaštitio lanac snabdevanja.

Amodei ističe da se oznaka primenjuje samo kada se Claude koristi „kao direktan deo ugovora sa Ministarstvom odbrane“. To ne ograničava klijente koji imaju ugovore sa DoD-om, ali koriste Claude za druge, nepovezane poslove. U praksi, većina Anthropicovih civilnih i korporativnih klijenata ostaje netaknuta ovim merama.

Pravni osnov i verovatnoća uspeha

Anthropic planira da podnese tužbu federalnom sudu u Vašingtonu. Pravne okolnosti su složene: zakon koji ograničava osporavanje državnih nabavki daje Pentagonu široka diskreciona prava u pitanjima nacionalne bezbednosti. Kako primećuje Din Bol, bivši savetnik Bele kuće za veštačku inteligenciju, „sudovi su prilično uzdržani kada je reč o preispitivanju odluka vlade o tome šta predstavlja pitanje nacionalne bezbednosti... prag dokazivanja je veoma visok, ali nije nedostižan“.

Ipak, Anthropic se nada da će dokazati da oznaka DoD-a prevazilazi zakonski zahtev o „najmanje restriktivnim“ sredstvima i da nepravedno šteti njihovim komercijalnim odnosima.

Širi kontekst: Paralelni dogovor OpenAI-ja

Dok se Anthropic bori protiv ove oznake, OpenAI je sklopio poseban sporazum sa DoD-om koji vojsci omogućava korišćenje njihovih modela u „sve legitimne svrhe“. Ovaj kontrast je izazvao tenzije unutar samog OpenAI-ja i naišao na javne kritike, pri čemu je Amodei u procurelom internom dopisu saradnju OpenAI-ja nazvao „bezbednosnim teatrom“.

Dogovor OpenAI-ja, objavljen ubrzo nakon što je DoD dodelio oznaku rizika Anthropicu, pojačao je pritisak javnosti na to kako komercijalne AI firme balansiraju između profitabilnih vladinih ugovora i etičkih granica vojne upotrebe tehnologije.

Operativne implikacije

Anthropic navodi da će nastaviti da podržava američke snage u tekućim operacijama, uključujući i određene misije SAD u Iranu, te da će nastaviti da isporučuje Claudea Pentagonu po „simboličnoj ceni“ tokom tranzicionog perioda.

Amodei se takođe izvinio zbog curenja internog dopisa, nazivajući ga „zastarelom procenom“ napisanom tokom „teškog dana za kompaniju“. Naglasio je da curenje nije bilo namerno i da je prioritet Anthropicu da kritični AI alati ipak stignu do onih kojima su najpotrebniji na terenu.

Šta sledi?

Tužba kompanije Anthropic testiraće granice ovlašćenja DoD-a u označavanju komercijalnih AI dobavljača kao rizika u lancu snabdevanja. Ishod bi mogao postaviti presedan za buduće AI ugovore i pokazati da li kompanije mogu uspešno da se odupru širokim tvrdnjama o ugrožavanju nacionalne bezbednosti.

Za sada, tehnološka zajednica pažljivo prati kako dva najveća igrača u ovoj oblasti – Anthropic i OpenAI – biraju potpuno različite puteve u odnosima sa američkim odbrambenim sektorom.

🔮 Predviđanja futuriste

Predviđanje za 2029:

  • Tužba kompanije Anthropic mogla bi primorati Pentagon da prestane sa označavanjem komercijalnih AI kompanija kao „rizika u lancu snabdevanja“, što bi moglo pokrenuti talas sličnih tužbi drugih tehnoloških aktera koji zahtevaju jasnije definisane granice nacionalne bezbednosti.
  • Ovaj slučaj bi mogao dovesti do stvaranja hibridnog regulatornog tela, u kojem bi Ministarstvo odbrane (DoD) i privatne AI kompanije formirali „transparentne odbore za procenu rizika“, čime bi se preoblikovali procesi nabavke i podstaklo uvođenje bezbednosnih provera otvorenog koda.
  • Na tržištu, ovaj potez kompanije Anthropic mogao bi podeliti korporativne klijente: jedni će se okrenuti Anthropicu kao „pravno pouzdanoj“ opciji, dok će se drugi dodatno osloniti na širi pristup koji OpenAI ima u okviru DoD-a, čime bi se stvorio podeljeni AI ekosistem sa paralelnim civilnim i odbrambenim modelima.