AI i robotika

Pentagon vrši pritisak na Anthropic da naoruža Claude-a usled etičkog sukoba

TL;DR - Kratak sažetak

  • Rizik: Pentagon zahteva labavija ograničenja za Claude, što bi moglo primorati Anthropic da ublaži svoju zabranu korišćenja veštačke inteligencije za nasilje, nadzor ili dizajniranje oružja.
  • Uticaj: Podela Claude-a na komercijalnu i isključivo vladinu verziju mogla bi da naruši brend Anthropica, izazove oštre reakcije javnosti i primora Kongres da se umeša u ugovore o AI u sektoru odbrane.
  • Izgledi: Ako pregovori zastanu, Pentagon bi mogao da smanji obim partnerstva ili zahteva zatvorenu verziju Claude-a samo za vladine potrebe, dok zakonodavci pripremaju predloge zakona za ograničavanje AI u autonomnom oružju i masovnom nadzoru.

Pentagon protiv Anthropica: Sukob oko ograničenja za Claude

Tokom vikenda, Wall Street Journal je objavio da je američka vojska koristila Anthropicov chatbot Claude u operaciji usmerenoj na destabilizaciju Venecuele i hapšenje predsednika Nikolasa Madura. Detalji su i dalje nejasni, ali ovaj događaj pokazuje koliko brzo komercijalni AI alati mogu dospeti na bojno polje.

Kako je Claude završio na ratištu

Primena je realizovana kroz ugovor Anthropica sa kompanijom Palantir, koja je jedan od vodećih vojnih saradnika. Prošlog leta, Anthropic je potpisao ugovor vredan do 200 miliona dolara sa Pentagonom — što je potez koji prati slične napore vlade da angažuje OpenAI-ev ChatGPT, Google-ov Gemini i xAI-ev Grok.Futurism

Odgovor Anthropica ostao je namerno neodređen. Portparol je za WSJ izjavio da kompanija ne može da potvrdi upotrebu Claude-a u bilo kojoj poverljivoj misiji, ali je naglasio da "svako korišćenje Claude-a — bilo u privatnom sektoru ili u vladi — mora biti u skladu sa našim Politikama korišćenja." Te politike eksplicitno zabranjuju korišćenje modela za "olakšavanje ili promovisanje bilo kog čina nasilja", "razvoj ili dizajniranje oružja", kao i sprovođenje "nadzora".

Od politike kompanije do državne politike

Prema pisanju Axios-a, zvaničnici iz Trampove ere sada razmatraju "prekid saradnje" sa Anthropicom. Jedan visoki zvaničnik je upozorio: "Sve opcije su na stolu", dodajući da će "biti izuzetno teško prekinuti ove veze, i postaraćemo se da plate cenu što su nas naterali na ovakav potez." Taj ton sugeriše oštar stav koji bi mogao da ugrozi ugovor vredan 200 miliona dolara.

Anthropic se i ranije protivio obimu ugovora. Prethodni izveštaji WSJ-a ukazali su na unutrašnje sukobe oko toga u kojoj meri agencije za sprovođenje zakona — poput ICE-a i FBI-a — mogu imati pristup Claude-u, što naglašava nespremnost kompanije da postane alat za opšti nadzor.Futurism

Etička raskrsnica

Generalni direktor Dario Amodei često je govorio o opasnostima nekontrolisanog razvoja veštačke inteligencije. U javnom eseju ove godine, upozorio je da bi masovni AI nadzor trebalo tretirati kao zločin protiv čovečnosti. Takođe je pozvao na strožiji državni nadzor kako bi se sprečilo da AI postane oružje ili platforma za masovno praćenje.

Nasuprot tome, sekretar odbrane Pit Hegset naginje tolerantnijem stavu, navodeći da Pentagon "neće koristiti AI modele koji vam ne dozvoljavaju da vodite ratove." Izvori bliski WSJ-u kažu da je ovakav stav intenzivirao razgovore sa Anthropicom o ublažavanju bezbednosnih barijera za Claude.Futurism

Reakcije javnosti i posledice na tržištu

Zajednica korisnika Anthropica reagovala je sa uznemirenjem. Na Claude-ovom podforumu na Reddit-u, jedan korisnik je napisao: "Svaka čast, Anthropic, upravo ste postali najbolja zatvorena [AI] kompanija u mojim očima." Ova sarkastična reakcija odražava širu zabrinutost da bi komercijalne AI firme mogle postati saučesnici u vojnim operacijama koje javno osuđuju.

Industrijski analitičari vide već poznat obrazac: Pentagon insistira na brzoj integraciji AI tehnologija, dok se kompanije bore sa etičkim dilemama. Sukob oko Projekta Maven iz perioda 2018–2020. — kada je Google odustao od ugovora sa Ministarstvom odbrane o analizi snimaka iz dronova nakon protesta zaposlenih — u velikoj meri podseća na današnju dilemu Anthropica.Futurism

Šta dalje?

Izveštaji sugerišu da Kongres pažljivo prati situaciju. Visoki zvaničnik je u razgovoru za Axios nagovestio da su "sve opcije otvorene", što ukazuje na to da bi zakonodavni pritisak mogao primorati Pentagon da ponovo pregovara o uslovima ili zameni Claude rešenjem namenjenim isključivo vladi.

U međuvremenu, Anthropic je osnovao Savetodavni odbor za nacionalnu bezbednost kako bi upravljao upotrebom veštačke inteligencije u osetljivim oblastima, pokušavajući da pritom očuva svoje etičke standarde.Reuters

Ovaj sukob pokreće ključno pitanje: može li komercijalna AI kompanija uskladiti svoje politike korišćenja sa zahtevima vojske za manje ograničenja? Odgovor na to pitanje oblikovaće ne samo budućnost Anthropica, već i američku strategiju uvođenja napredne veštačke inteligencije u sistem odbrane.

🔮 Predviđanja futuriste

Predviđanja za 2031. godinu:

  • Do 2031. godine, Pentagon bi mogao dati prioritet domaćim startap kompanijama, menjajući labava pravila u korist privilegovanih ugovora i usmeravajući celokupno AI tržište ka modelu "AI suvereniteta".
  • Kompanija Anthropic bi mogla biti primorana da razvije strogo zatvorenu verziju Claude modela isključivo za potrebe vlade, što bi dovelo do raslojavanja njihove linije proizvoda i pokrenulo oštre debate o licenciranju tehnologija dvostruke namene.
  • Na globalnom nivou, pritisak javnosti mogao bi podstaći saveznike da sastave sporazum o upotrebi veštačke inteligencije u svrhe odbrane, čime bi se uspostavili nadzorni okviri za ograničavanje autonomnog oružja i nadzora, mada će primena tih pravila verovatno ostati neujednačena.