AI i robotika

Meta primorana da označava AI ratne snimke nakon oštrih kritika Nadzornog odbora

Ukratko – Brzi rezime

  • Rizik: Neoznačeni video-snimci generisani veštačkom inteligencijom koji prikazuju oružane sukobe mogu obmanuti milione ljudi i narušiti poverenje u informacije na internetu.
  • Uticaj: Nadzorni odbor navodi da Metin sistem samoprijavljivanja omogućava širenje deepfake sadržaja tokom kriza, što može uticati na javno mnjenje i diplomatske narative.
  • Izgledi: Meta obećava da će označiti sporni video u roku od nedelju dana i pooštriti pravila za označavanje AI sadržaja, ali analitičari upozoravaju da bi bez sistemskih promena ovaj problem mogao eskalirati usled sve bržeg i jeftinijeg generisanja sadržaja.

Meta pozvana da pojača nadzor nad lažnim AI video-snimcima

Metin Nadzorni odbor, nezavisno telo za moderaciju sadržaja koje čini 21 član, javno je kritikovao kompaniju jer je dozvolila da se video-snimak generisan veštačkom inteligencijom, koji prikazuje „veliku štetu“ u Haifi u Izraelu, širi bez jasne oznake.

Snimak, koji je objavio Facebook profil sa Filipina predstavljajući se kao izvor vesti, deo je talasa deepfake sadržaja koji je preplavio mreže od početka sukoba prošlog juna. Analiza BBC-ja pokazuje da su ovi video-snimci prikupili više od 100 miliona pregleda, pri čemu mnogi otvoreno staju na stranu Izraela ili Irana.

Zašto odbor upozorava na opasnost

U saopštenju objavljenom u utorak, Nadzorni odbor je upozorio da nagli porast AI generisanog sadržaja u oružanim sukobima otežava javnosti razlikovanje činjenica od dezinformacija, što stvara rizik od opšteg nepoverenja u informacije. Odbor je ukazao na tri glavna nedostatka u trenutnom pristupu kompanije Meta:

  1. Oslanjanje na samoprijavljivanje korisnika. Meta očekuje od kreatora da sami označe svoje AI objave i interveniše tek nakon što sadržaj bude prijavljen.
  2. Spora reakcija. U slučaju Haife, video je prikupio skoro milion pregleda pre nego što je Meta konačno obećala da će dodati oznaku u roku od nedelju dana.
  3. Visok prag za „rizik od neposredne fizičke štete“. Meta je tvrdila da snimak nije prešao taj prag, što je standard koji je odbor nazvao previsokim za sadržaj koji može podstaći tenzije u javnosti tokom krize.

Odbor je zahtevao znatno učestalije proaktivno označavanje, navodeći da Metine metode nisu dovoljno pouzdane niti sveobuhvatne da bi se nosile sa obimom i brzinom AI generisanog sadržaja, posebno tokom kriza kada angažovanje na platformi naglo raste.

Odgovor Mete i naredni koraci

Meta je pristala da sledi sugestije odbora sledeći put kada uoči „identičan“ sadržaj u istom kontekstu kao u spornom videu. Kompanija je takođe potvrdila da će u roku od sedam dana dodati oznaku na video iz Haife, takozvanu „AI oznaku visokog rizika“.

Pored ovog slučaja, Nadzorni odbor insistira na reviziji Metine politike označavanja AI sadržaja. Moguće izmene uključuju:

  • Automatizovane alate koji prepoznaju sintetičke medije pre nego što se oni prošire.
  • Obavezne oznake za sav sadržaj generisan veštačkom inteligencijom, bez obzira na procenjeni rizik od fizičke štete.
  • Blisku koordinaciju sa spoljnim saradnicima za proveru činjenica tokom kriza koje se brzo razvijaju.

Javno obećanje Mete predstavlja korak napred, ali posmatrači ističu da obim i brzina produkcije deepfake sadržaja zahtevaju stalna ulaganja u tehnologiju detekcije i jasnije interne smernice kako bi kompanija držala korak.

Širi kontekst: deepfake i regulacija

Zabrinutost odbora poklapa se sa talasom regulatornih mera širom sveta. Kodeks prakse EU o dezinformacijama, ažuriran u junu 2022. godine, obavezuje platforme da uklanjaju deepfake sadržaje ili se suoče sa visokim kaznama. U SAD, zakonodavci raspravljaju o predlozima zakona za suzbijanje obmanjujućih sintetičkih medija, posebno onih koji se tiču nacionalne bezbednosti ili integriteta izbora.

Analitičari upozoravaju da će se, bez jedinstvenog i primenljivog standarda, platforme i dalje oslanjati na samoprijavljivanje i reaktivnu moderaciju — metode koje se nisu pokazale efikasnim protiv generativnih AI alata koji mogu kreirati realističan video za svega nekoliko minuta.

🔮 Predviđanja futuriste

Predviđanja za 2029. godinu:

  • Meta bi mogla uvesti toliko rasprostranjen automatizovani sistem označavanja da bi većina AI-generisanih video-zapisa nosila oznaku „visokog rizika“, što bi moglo delimično povratiti poverenje javnosti u vizuelne vesti.
  • Vlade bi se mogle ujediniti oko jedinstvenih pravila o otkrivanju deepfake sadržaja, usmeravajući platforme ka sertifikatima o poreklu zasnovanim na blokčejn tehnologiji, čime bi sintetički mediji potencijalno postali lakše sledljivi širom sveta.
  • U ratnim zonama, neoznačeni AI video-snimci mogli bi i dalje prevazilaziti alate za moderaciju, što bi moglo podstaći diplomatske pritiske koji bi primorali vlade da od društvenih mreža zahtevaju API-je za verifikaciju u realnom vremenu tokom kriznih situacija.