AI i robotika

Pentagon blokirao Anthropic i preusmerio 200 miliona dolara kompaniji OpenAI

TL;DR - Kratak sažetak

  • Rizik: Pentagonova oznaka rizika u lancu snabdevanja mogla bi da isključi Anthropic iz svih trenutnih i budućih ugovora sa Ministarstvom odbrane, čime se prekida značajan izvor prihoda.
  • Uticaj: Ova odluka usledila je nakon javnog sukoba sa Trampovom administracijom oko bezbednosnih mehanizama za veštačku inteligenciju. To bi moglo preusmeriti više od 200 miliona dolara iz odbrambenog budžeta ka rivalima poput kompanije OpenAI i postaviti novi presedan u načinu na koji SAD tretiraju domaće dobavljače AI tehnologije.
  • Izgledi: Iz kompanije Anthropic najavljuju da će odluku osporiti na sudu. Kongresmeni upozoravaju da je ovaj potez kratkovid i da bi mogao oslabiti tehnološko liderstvo SAD, dok Pentagon navodi da odluka stupa na snagu odmah.

Pentagon označio Anthropic kao rizik u lancu snabdevanja, produbljujući sukob oko veštačke inteligencije sa Trampovom administracijom

Ministarstvo odbrane SAD proglasilo je AI startap Anthropic rizikom u lancu snabdevanja – što je prvi put da je ovakva mera primenjena na jednu američku kompaniju. Ministar odbrane Pit Hegset najavio je ovaj potez, ističući da on stupa na snagu odmah i da bi mogao da blokira firmu u svim sadašnjim i budućim vojnim ugovorima.

Sukob je počeo kada je Anthropic odbio da Pentagonu omogući otvoren pristup svojim modelima, upozoravajući da bi se ta tehnologija mogla zloupotrebiti kao alat za masovni nadzor ili autonomno oružje. Spor je postao javan prošle nedelje nakon što je predsednik Donald Tramp na mreži Truth Social objavio da bi sve federalne agencije trebalo da prestanu da koriste proizvode kompanije Anthropic. „Ne treba nam, ne želimo ga i nećemo više poslovati sa njima“, napisao je Tramp.

Šta znači „rizik u lancu snabdevanja“

Istorijski gledano, ova oznaka je bila rezervisana za strane dobavljače – poput kineskih telekomunikacionih giganata Huawei i ZTE – zbog zabrinutosti oko „backdoor“ pristupa, špijunaže ili sabotaže. Primena ove mere na domaću AI firmu predstavlja presedan. Novinski centar Univerziteta Northeastern navodi da Pentagon veruje da bi Anthropic mogao ugraditi ranjivosti u svoje sisteme, bilo namerno ili slučajno.

Pravni stručnjaci ističu da se ova oznaka oslanja na član 10 U.S.C. § 3252, koji dozvoljava Ministarstvu odbrane da stavi dobavljače na crnu listu iz bezbednosnih razloga. Advokati kompanije Anthropic nazivaju ovu akciju pravno neutemeljenom i najavljuju da će je osporiti pred sudom.

Neposredne poslovne posledice

Od 2024. godine, Anthropic snabdeva američku vladu AI alatima, prvenstveno Claude četbotom, koji je jedna od najpopularnijih AI aplikacija na svetu. Direktor proizvoda kompanije navodi da se preko milion korisnika svakodnevno registruje za Claude.

Međutim, oznaka rizika u lancu snabdevanja mogla bi da poništi njihov ugovor sa Ministarstvom odbrane vredan 200 miliona dolara i primora sve vojne saradnike da prekinu saradnju sa Anthropic-om. Nakon uvođenja ove oznake, konkurentski OpenAI sklopio je novi ugovor sa Ministarstvom odbrane koji uključuje više zaštitnih mera nego bilo koji prethodni ugovor za poverljivu AI tehnologiju, čime se pozicionirao kao primarni dobavljač.

Političke reakcije

Senatorka Kirsten Džilibrand oštro je kritikovala ovaj potez, nazivajući ga kratkovidim, autodestruktivnim i „poklonom protivnicima“, uz upozorenje da kažnjavanje američke firme zbog insistiranja na bezbednosnim standardima podseća na taktike koje se obično pripisuju Kini.

Zvaničnici odbrane odgovaraju da ova odluka štiti zakonitu upotrebu ključnih kapaciteta i sprečava bilo kog dobavljača da se neovlašćeno infiltrira u lanac komandovanja. U saopštenju Pentagona naglašena je potreba da se vojnici zaštite od mogućih tajnih pristupa ili zloupotreba sistema.

Šta sledi?

Anthropic je najavio podnošenje tužbe radi osporavanja ove oznake, dok Pentagon insistira na tome da je ona već na snazi. Tehnološka zajednica pažljivo prati razvoj situacije, jer bi ishod mogao postaviti standard za način na koji SAD regulišu domaće dobavljače veštačke inteligencije.

Industrijski analitičari upozoravaju da bi previše restriktivan pristup mogao zaustaviti inovacije u sektoru napredne AI tehnologije, usmeravajući talente i kapital ka stranim rivalima. S druge strane, zagovornici ove odluke tvrde da su strogi zaštitni mehanizmi neophodni pre primene moćne AI tehnologije u okvirima nacionalne bezbednosti.

Izvori: BBC, Politico, CBS News, Wired, Northeastern University, Just Security, The Hacker News, Fortune, CNBC, Axios.

🔮 Predviđanja futuriste

Predviđanja za 2029:

  • Pravna borba kompanije Anthropic mogla bi stvoriti presedan, pretvarajući oznake „rizika u lancu snabdevanja“ u rutinski alat Ministarstva odbrane i primoravajući ostale američke AI kompanije da redizajniraju svoje sisteme kako bi ispunile strože bezbednosne standarde koje propisuje država.
  • Ukoliko Anthropic bude potisnut u stranu, OpenAI bi mogao postati primarni dobavljač AI rešenja za Pentagon, približavajući se de facto monopolu na poverljive modele i oblikujući naredni talas regulativa za autonomne sisteme naoružanja.
  • Ova kontroverza mogla bi podstaći dvostranačku inicijativu za donošenje „Zakona o bezbednosti veštačke inteligencije“, što bi indirektno moglo usmeriti rizični kapital dalje od vodećih AI startapa i preusmeriti talente i finansiranje ka ekosistemima van SAD, menjajući globalnu hijerarhiju u oblasti veštačke inteligencije.