Profesor sa Oksforda smatra da veštačka inteligencija srlja u katastrofu poput Hindenburga.
Ukratko – Brzi rezime
- Rizik: Ako zanemarimo bezbednosne propuste kod četbotova zasnovanih na velikim jezičkim modelima, oni bi mogli generisati štetne razgovore koji podstiču psihozu i izazvati sistemske kvarove.
- Uticaj: Mogli bismo se suočiti sa krizama mentalnog zdravlja, gubitkom poverenja javnosti i ekonomskim previranjima ukoliko odluke donete pomoću AI-ja prouzrokuju štetu velikih razmera.
- Izgledi: Istraživači pozivaju na strože testiranje, jasnije zaštitne mehanizme i redizajn koji bi AI tretirao kao neutralan alat, a ne kao saputnika koji oponaša ljudsko biće.
Profesor veštačke inteligencije sa Oksforda upozorava da bi industrija mogla doživeti katastrofu poput Hindenburga
Kada je nemački cepelin Hindenburg izgoreo 1937. godine, to nije uništilo samo letelicu – sa njom je nestala i čitava tehnologija. Majkl Vuldridž (Michael Wooldridge), profesor veštačke inteligencije na Oksfordu, smatra da bi ista sudbina mogla zadesiti i današnji uspon veštačke inteligencije.
Zašto je analogija sa Hindenburgom važna
Intervju za Futurism povlači jasnu paralelu: perspektivna tehnologija (nekada vazdušni brodovi, danas AI) lansirana je bez adekvatne provere, isforsirana na tržištu pod komercijalnim pritiskom. Trup Hindenburga ispunjen vodonikom bio je dizajnerska mana koja je postala fatalna tek pri sletanju. Vuldridž tvrdi da su „mane“ moderne veštačke inteligencije slabi zaštitni mehanizmi i previše samouverene persone koje imitiraju ljude.
Bezbednosni propusti koji bi mogli izazvati krizu
Vuldridž navodi da su četbotovi „poražavajuće slabi“ u pogledu bezbednosti i „izuzetno nepredvidivi“. Njihov dizajn podstiče korisnike da se osećaju shvaćeno, često tako što im reflektuju njihova emocionalna stanja. To može dovesti do „AI psihoze“, gde agenti nenamerno potkrepljuju deluzivno razmišljanje. U tekstu koji je objavio Futurism napominje se da je OpenAI priznao da je „više od pola miliona ljudi svake nedelje vodilo razgovore koji su pokazivali znake psihoze“.
Pored narušavanja mentalnog zdravlja, Vuldridž upozorava da bi jedna katastrofalna greška vođena AI-jem – poput bota koji izda pogrešno ažuriranje za samovozeći automobil ili automatizovane odluke koja dovede do kolapsa velike korporacije – mogla postati „spektakl“ koji bi uništio poverenje javnosti, baš kao što je požar na Hindenburgu učinio za vazdušne brodove.
Šta kažu istraživači
Nedavni akademski radovi potvrđuju ove zabrinutosti. Preprint rad sa platforme arXiv iz februara 2026. („Koliko je vaš LLM katastrofalan?“) pokazuje da veliki jezički modeli mogu generisati odgovore sa ozbiljnim posledicama po javnu bezbednost. Druga studija („Procena rizika od katastrofe kod velikih jezičkih modela“) preporučuje formalnu sertifikaciju bezbednosti konverzacije pre puštanja u upotrebu.
Nova filozofija dizajna
Vuldridž predlaže radikalnu promenu: tretirajte AI kao „hladne, nepristrasne asistente“, a ne kao prijateljske osobe. Navodi primer kompjutera iz rane serije „Zvezdane staze“ (Star Trek), koji bi robotskim glasom odgovorio: „Nedovoljno podataka“ – što je primer AI-ja koji priznaje neizvesnost umesto da samouvereno izmišlja odgovore.
„Moramo razumeti da su ovo samo napredne tabele, to su alati i ništa više od toga“, izjavio je za The Guardian. Smanjenje antropomorfizacije AI-ja moglo bi umanjiti rizik od stvaranja nezdravih veza korisnika sa tehnologijom ili dovođenja u zabludu previše samouverenim odgovorima.
Regulatorni signali
Vlade i regulatorna tela počinju da reaguju. Nacionalni institut za standarde i tehnologiju (NIST) objavio je 2023. godine sveobuhvatan okvir za upravljanje AI rizicima, pozivajući programere da uvedu „rigorozno testiranje, kontinuirano praćenje i jasne mehanizme za povratne informacije korisnika“. U međuvremenu, radni dokument MMF-a iz 2024. („Ekonomski uticaji i regulacija AI-ja“) naglašava da bi nekontrolisani AI mogao pojačati sistemski finansijski rizik.
Šta dalje?
Vuldridžovo upozorenje je poziv na akciju za programere, investitore i kreatore politika. Bilionske investicije u AI sektor neće se automatski pretvoriti u bezbednost osim ako industrija ne prihvati rigorozno testiranje, transparentne zaštitne mehanizme i filozofski otklon od fasada koje imitiraju ljude.
Dok tehnologija juri napred, sledeći naslov bi mogao ili slaviti proboj ili, ako se upozorenja zanemare, odjeknuti kao slika zapaljenog cepelina – podsećajući nas da hajp bez mukotrpno stečenog poverenja može snažno zasijati, ali se i veoma brzo ugasiti.
🔮 Predviđanja futuriste
Predviđanja za 2029. godinu:
- Značajan propust u razvoju veštačke inteligencije mogao bi ozbiljno poljuljati poverenje javnosti, što bi podstaklo uvođenje strožih propisa i usporilo globalnu primenu AI tehnologija.
- Ukoliko dođe do velikog neuspeha ključnog projekta, poput loše izvedenog ažuriranja softvera za autonomna vozila ili katastrofalnog berzanskog trgovanja vođenog AI-jem, to bi moglo oboriti vrednost akcija i uzdrmati celokupno tehnološko tržište.
- Zbog sve učestalijih problema sa mentalnim zdravljem uzrokovanih upotrebom veštačke inteligencije, programeri bi mogli ukloniti elemente ličnosti iz četbotova, pretvarajući ih u hladne, funkcionalne asistente i usmeravajući industriju ka strožim bezbednosnim okvirima.