AI i robotika

Microsoft nudi Claude svima osim Pentagonu.

TL;DR – Kratak rezime

  • Rizik: Ministarstvo odbrane SAD označilo je Anthropic kao „rizik u lancu snabdevanja“, što znači da Pentagon ne može koristiti Claude modele, dok podizvođači moraju dokazati da ih ne upotrebljavaju u odbrambenim projektima.
  • Uticaj: Microsoft će zadržati Claude u ponudi za sve korisnike van sektora odbrane – bilo da koriste Microsoft 365, GitHub, Azure AI Foundry ili druge usluge – dok će Ministarstvo odbrane i njegovi podizvođači morati da potraže generativnu veštačku inteligenciju kod drugih provajdera.
  • Izgledi: Anthropic planira da ovu odluku ospori na sudu; za sada, preduzeća mogu nesmetano nastaviti sa korišćenjem Claude-a, ali bi sektor odbrane mogao preći na druge modele dok se spor ne reši.

Microsoft potvrđuje da će Anthropic-ov Claude ostati dostupan svima osim Pentagonu

Ako se vaša kompanija oslanja na Anthropic-ov Claude putem Microsoftovih cloud usluga ili alata za produktivnost, možete odahnuti. Microsoft poručuje da će, uprkos novoj oznaci Ministarstva odbrane o „riziku u lancu snabdevanja“, Claude ostati dostupan svim korisnicima osim samom resoru odbrane.

Zašto je Ministarstvo odbrane povuklo ovaj potez

Ranije ovog meseca, Pentagon je proglasio Anthropic rizikom u lancu snabdevanja nakon što je ovaj startap odbio da vojsci omogući neograničen pristup svojoj tehnologiji za svrhe koje smatra nebezbednim – poput alata za masovni nadzor i potpuno autonomnog oružja. Pošto je ova oznaka obično rezervisana za strane protivnike, Ministarstvo odbrane ne može direktno kupovati ili primenjivati Claude, a svaki podizvođač Ministarstva mora potvrditi da ne koristi Anthropic-ove modele na odbrambenim projektima.

Izvršni direktor (CEO) kompanije Anthropic, Dario Amodei, izjavio je da će kompanija osporiti ovu odluku na sudu, naglašavajući da oznaka ne sprečava korisnike van sektora odbrane da koriste Claude, niti blokira podizvođače da ga upotrebljavaju na nepovezanim poslovima.

Pravni zaključak Microsofta

U imejlu upućenom portalu TechCrunch, portparol Microsofta naveo je da su pravnici kompanije pregledali odluku Ministarstva odbrane i zaključili da Anthropic-ovi proizvodi – uključujući Claude – mogu ostati u Microsoftovom portfoliju za sve korisnike osim za samo Ministarstvo odbrane.

To znači da će Claude nastaviti da pokreće usluge kao što su:

  • Microsoft 365 Copilot
  • GitHub Copilot za programere
  • Azure AI Foundry i druge AI ponude u cloudu

CNBC je prvi objavio ovu vest, a potvrda se poklapa sa javnim tvrdnjama kompanije Anthropic da rizik u lancu snabdevanja utiče isključivo na direktne ugovore sa Ministarstvom odbrane.

Šta ovo znači za sektor odbrane

Potez Pentagona već je pokrenuo interne direktive. Nekoliko firmi iz oblasti odbrambene tehnologije naložilo je inženjerima da prestanu sa korišćenjem Claude-a i pređu na druge modele, izvestio je CNBC. Ipak, neki izvori navode da bi se Claude mogao koristiti indirektno – na primer kroz Palantirov Maven Smart System u tekućim operacijama protiv Irana – iako Ministarstvo odbrane to nije zvanično potvrdilo.

Kongres takođe pooštrava pravila za AI u odbrambenim ugovorima. Nedavne izmene Zakona o nacionalnoj odbrani (NDAA) za fiskalnu 2026. godinu, koje prenosi National Law Review, zahtevaju stroži nadzor nad komercijalnim AI alatima i mogle bi dodatno ograničiti pristup kompanije Anthropic poslovima u sferi odbrane.

Rast Claude-a izvan Pentagona

Uprkos kontroverzi, rast Claude-a među privatnim korisnicima i preduzećima ostaje snažan. Najnovija verzija, Claude Opus 4.5, nastavlja da privlači programere i poslovne timove koji traže generativni AI fokusiran na bezbednost, a koji prioritet daje usklađenosti i izbegavanju rizičnih rezultata.

Obećanje Microsofta da će zadržati Claude u svojoj liniji proizvoda uverava korisnike da njihove mogućnosti – bilo da je reč o pomoći pri pisanju koda ili kreiranju sadržaja – neće biti poremećene sporom sa Pentagonom.

Pogled u budućnost

Pravni spor kompanije Anthropic odrediće da li će se – i koliko brzo – oznaka rizika u lancu snabdevanja moći ukloniti. U međuvremenu, preduzeća mogu nastaviti da integrišu Claude u svoje radne procese bez prekida, dok se odbrambena zajednica sprema da se okrene drugim AI provajderima ili pregovara o novim ugovorima koji poštuju ograničenja Ministarstva odbrane.

Za sada, linije su jasno povučene: Microsoft podržava svog AI partnera na komercijalnom tržištu, dok Ministarstvo odbrane postavlja granicu kod autonomnog oružja i masovnog nadzora – granicu koju Anthropic odlučno brani.

Izvor: TechCrunch. Dodatni kontekst: CNBC i Reuters.

🔮 Predviđanja futuriste

Predviđanja za 2029. godinu:

  • Microsoft bi mogao postati glavni kanal pristupa za Anthropicov Claude, pozicionirajući ovu platformu kao de facto standard za korporativni AI, dok bi se manji konkurenti mogli suočiti sa izazovima pri ulasku na tržišta van sektora odbrane.
  • Pentagon bi mogao da se okrene raznovrsnijim AI rešenjima, potencijalno se oslanjajući na modele otvorenog koda ili alternativne komercijalne modele, što bi moglo dovesti do fragmentacije AI ekosistema u sektoru odbrane i podstaći nova partnerstva između vojnih dobavljača i AI kompanija u usponu.
  • Sudski spor kompanije Anthropic mogao bi izazvati stroži regulatorni nadzor, što bi moglo rezultirati saveznim smernicama o „riziku u lancu snabdevanja“ za pružaoce AI usluga, čime bi se izmenio način na koji komercijalni i vojni klijenti procenjuju i sertifikuju AI tehnologiju.