AI i robotika

Mašinsko učenje menja softver otvorenog koda, izazivajući pravni košmar u vezi sa licenciranjem.

TL;DR - Kratak rezime

  • Rizik: Kod koji generiše veštačka inteligencija mogao bi da zaobiđe postojeće licence otvorenog koda (open-source), čime programere i projekte koji ga koriste izlaže potencijalnim pravnim problemima.
  • Uticaj: Brzo i masovno prepisivanje koda moglo bi da preplavi ekosistem softverom koji deluje kao da je pod slobodnom licencom, a zapravo je derivat originala, što narušava poverenje u pravnu usklađenost.
  • Perspektiva: Sudovi i fondacije još uvek utvrđuju kako da tretiraju softver koji je proizveo AI; dok se ne pojave jasni presedani, projekti će verovatno pooštriti procese revizije ili istražiti nove modele licenciranja.

AI prepisuje biblioteku otvorenog koda, ali može li promeniti i licencu?

Prepisivanje chardet-a koje je pokrenulo debatu

Početkom marta 2026. godine, Den Blanšard (Dan Blanchard) predstavio je verziju 7.0 biblioteke chardet, popularnog Python alata za prepoznavanje kodnih rasporeda karaktera. Ovo izdanje je plasirao kao „potpuno novo izdanje pod MIT licencom“, kreirano uz pomoć Anthropic-ovog alata Claude Code. Blanšard navodi da kod koji je generisao AI radi drastično brže – čak 48 puta brže od prethodne verzije – uz primetno veću preciznost.

Originalni chardet kod, koji je Mark Pilgrim napisao još 2006. godine, bio je pod LGPL licencom – copyleft pravilom koje nalaže da svaki derivat mora ostati pod istim uslovima. Pilgrim je brzo reagovao, tvrdeći da je nova verzija „nelegitimno licenciranje“ njegovog LGPL koda i zahtevao je da se „projekat vrati na originalnu licencu“.

„Njihova tvrdnja da je u pitanju 'potpuno novo izdanje' je irelevantna, s obzirom na to da su imali potpuni pristup originalno licenciranom kodu (odnosno, ovo nije 'clean-room' implementacija)“, napisao je Pilgrim.

Blanšardov „AI clean-room“ proces

Blanšard priznaje da je bio „detaljno upoznat“ sa originalnim kodom, ali tvrdi da je AI-generisani rezultat „kvalitativno drugačiji“ i „strukturno nezavisan“. Svoje tvrdnje potkrepljuje JPlag podacima: najveća sličnost između bilo kog fajla u verziji 7.0.0 i njegovog ekvivalenta u 6.0.0 iznosi svega 1,29%, dok verzije 5.2.0 i 6.0.0 dele čak 80% sličnosti.

Njegov proces rada je izgledao ovako:

  • Izradio je projektni dokument i listu funkcionalnih zahteva.
  • Postavio je prazan repozitorijum – bez pristupa starom izvornom kodu.
  • Instruisao je Claude-a da izbegava korišćenje LGPL/GPL licenciranog materijala.
  • U više navrata je pregledao, testirao i usavršavao svaki deo koda koji je AI proizveo.

Uprkos nameri da proces bude potpuno izolovan, Claude je na kraju preuzeo nekoliko metapodataka iz starijih izdanja, što otvara pitanje da li je ostao bilo kakav „trag“ originalnog koda. Povrh toga, Claude modeli uče iz javno dostupnih podataka – uključujući verovatno i ranije verzije chardet-a – pa pojedini pravni stručnjaci smatraju da bi AI rezultat mogao da se tretira kao derivat, čak i ako kod deluje potpuno novo.

Sukob licenci: LGPL protiv MIT-a

LGPL licenca nalaže da svaka modifikovana verzija mora ostati pod istom licencom, čuvajući copyleft obaveze. S druge strane, MIT licenca je permisivna – dozvoljava ponovno korišćenje koda u vlasničkim projektima bez dodatnih uslova.

Objavljivanjem koda pod MIT licencom, Blanšard je otvorio put za vlasničke verzije (fork-ove) – što je upravo ono što Pilgrim tvrdi da LGPL izričito zabranjuje. Ključno pravno pitanje je da li se AI-generisani kod računa kao „modifikacija“ (te ostaje pod LGPL-om) ili kao potpuno novo delo koje se može ponovo licencirati.

Pravne i etičke sive zone

Još uvek nemamo jasnu sudsku praksu kada je reč o softveru koji generiše veštačka inteligencija. Sudovi su ranije doneli odluke da AI ne može biti naveden kao pronalazač na patentima niti kao vlasnik autorskih prava na umetnička dela, ali se još uvek nisu bavili licenciranjem softvera.

Izvršna direktorka Fondacije za slobodni softver (FSF), Zoë Kooyman, upozorila je: „Nema ničeg 'čistog' u velikom jezičkom modelu koji je obradio kod koji se od njega traži da ponovo implementira.“ Nasuprot tome, veteran open-source zajednice Armin Ronacher smatra: „Ako odbacite sav kod i krenete od nule, čak i ako se rezultat ponaša isto, to je novo delo.“

„Nijedan fajl u 7.0.0 bazi koda strukturno ne podseća na bilo koji fajl iz bilo kog prethodnog izdanja“, napisao je Blanšard.

Ovi suprotstavljeni stavovi ističu dilemu „Tezejevog broda“ u softveru: da li se potpuno nova implementacija računa kao novo delo ili prethodna izloženost – ljudska ili mašinska – podrazumeva neraskidivu vezu sa originalom?

Nedavna istraživanja naglašavaju stvarne rizike. Studija LiCoEval (arXiv, februar 2025.) otkrila je da veliki jezički modeli često generišu kod bez obaveznih napomena o licenci, što su istraživači nazvali „amnezija licenci“. OSSRA izveštaj kompanije Black Duck iz 2024. godine (mart 2024.) upozorio je na pravne probleme koji mogu proisteći iz koda koji generiše Copilot i pozvao programere da pooštre provere usklađenosti.

Dva prekretna sudska slučaja istaknuta u FossID analizi (februar 2025.) naglašavaju potrebu za jasnim putevima licenciranja, podsećajući zajednicu da propusti u usklađenosti mogu dovesti do skupih sudskih sporova.

Reakcije zajednice i put pred nama

Mišljenja u svetu otvorenog koda variraju od opreznog pragmatizma do potpune uzbune. Italijanski programer Salvatore „antirez“ Sanfilippo napisao je na svom blogu da se „priroda softvera promenila; ponovne implementacije pod različitim licencama su dokaz kako je ta priroda zauvek transformisana“. Bruce Perens, jedna od ključnih figura open-source pokreta, upozorio je da je „cela ekonomija razvoja softvera mrtva, gotova, kaput!“

Otkako je izbila kontroverza oko chardet-a, određeni broj projekata je počeo da sastavlja interne pravilnike – neki potpuno zabranjuju doprinose generisane od strane AI, dok drugi zahtevaju eksplicitno praćenje licenci za svaki kod kreiran uz pomoć AI modela.

U stvarnosti, sami sudovi možda neće rešiti ovu debatu. Open-source fondacije, GitHub i kreatori AI alata testiraju nove mehanizme za atribuciju i zaštitne mere za usklađenost licenci. Dok se ne postigne širi konsenzus, programeri će morati da odvagaju brzinu koju donosi AI u odnosu na rizik od slučajnog kršenja copyleft pravila.

🔮 Predviđanja futuriste

Predviđanja za 2029:

  • Razvojni alati potpomognuti veštačkom inteligencijom koji prepoznaju licence mogli bi postati standard, automatski označavajući generisani kod podacima o poreklu i usmeravajući programere ka odgovarajućoj open-source licenci, čime bi se izbegle komplikacije usled nenamernih promena licenci.
  • Ako se pravna siva zona zadrži, mogli bismo svedočiti razvoju čitavog sektora sertifikacije „AI čistih soba“ (AI Clean-Room), gde bi nezavisni revizori potvrđivali da je kod generisan veštačkom inteligencijom oslobođen pravnih opterećenja izvedenog porekla, što bi moglo postati neophodno pre objavljivanja prerađenih biblioteka pod permisivnim licencama.
  • LLM modeli bi mogli početi da iznova pišu popularne LGPL ili GPL biblioteke, prevodeći ključne komponente u okvire permisivnog licenciranja i menjajući ekonomski model koji pokreće današnje ekosisteme zasnovane na copyleft principu.