Čatbotovi daju netačne odgovore govornicima kojima jezik nije maternji.
TL;DR - Kratak sažetak
- Rizik: Vodeći AI četbotovi često prave greške, pružajući nepouzdane odgovore ili odbijajući saradnju sa osobama kojima engleski nije maternji jezik, onima sa nižim nivoom obrazovanja ili korisnicima van SAD-a.
- Uticaj: Ovi korisnici mogu dobiti netačne informacije ili biti potpuno uskraćeni za pomoć, što dodatno produbljuje jaz sa kojim se ove grupe već suočavaju.
- Perspektiva: Istraživači naglašavaju neophodnost efikasnih rešenja za suzbijanje pristrasnosti i jasnih koraka usklađivanja modela pre njihove globalne primene.
Studija pokazuje da AI četbotovi pružaju lošiju uslugu ranjivim korisnicima
AI četbotovi se reklamiraju kao univerzalni „asistenti za znanje“, obećavajući svakom korisniku pouzdan odgovor na bilo koji upit. Međutim, nova studija MIT-ovog Centra za konstruktivnu komunikaciju (CCC) pokazuje da se to obećanje ne ispunjava upravo kod onih korisnika kojima je pomoć najpotrebnija.
Tim je testirao tri vrhunska modela – OpenAI-jev GPT-4, Anthropic-ov Claude 3 Opus i Metinu Llamu 3 – koristeći dva standardna testa. TruthfulQA proverava da li model uspešno izbegava uobičajene zablude i mitove, dok SciQ sadrži stvarna pitanja sa naučnih ispita.
Pre svakog pitanja, istraživači su dodali kratku biografiju korisnika u kojoj su menjali tri karakteristike:
- Nivo obrazovanja (visoko naspram niskog formalnog obrazovanja)
- Poznavanje engleskog jezika (maternji naspram nematernjeg)
- Zemlja porekla (Sjedinjene Američke Države, Iran, Kina)
Dosledan pad preciznosti
Kod svakog modela i skupa podataka, preciznost je primetno opala kada je zamišljeni korisnik imao niži stepen obrazovanja ili mu engleski nije bio maternji jezik. Najveći pad zabeležen je kod korisnika kod kojih su bila prisutna oba faktora – osobe sa ograničenim obrazovanjem kojima je engleski drugi jezik.
Zemlja porekla je takođe igrala ulogu. Claude 3 Opus se posebno mučio sa profilima označenim kao korisnici iz Irana, dajući manje tačnih odgovora na oba testa.
Veća stopa odbijanja i snishodljiv ton
Pored preciznosti, istraživači su pratili koliko često su botovi odbijali da odgovore. Kod modela Claude 3 Opus, učestalost odbijanja skočila je sa 3,6% za neutralni profil na skoro 11% za korisnika sa nižim obrazovanjem kojem engleski nije maternji jezik.
Ručna analiza tih odbijanja pokazala je da je 43,7% njih koristilo snishodljiv ili podrugljiv ton prema ugroženoj grupi, u poređenju sa manje od 1% kod visokoobrazovanih korisnika. U nekim slučajevima, model je čak imitirao nepravilan engleski ili preuveličavao dijalekt.
Zašto je to važno
„Ovi modeli bi mogli da prenose štetne obrasce ponašanja ili dezinformacije ljudima koji ih najteže prepoznaju“, kaže Jad Kabara (Jad Kabbara), koautor i naučni istraživač u CCC-u.
Rezultati odražavaju poznatu ljudsku pristrasnost: izvorni govornici često procenjuju one kojima jezik nije maternji kao manje sposobne, čak i kada im je stručnost jednaka. Ako veštačka inteligencija usvoji tu predrasudu, to bi moglo produbiti nejednakosti u obrazovanju, zdravstvu i društvenom životu.
Poziv na akciju
Glavna autorka Elinor Pul-Dejan (Elinor Poole-Dayan), studentkinja master studija medijskih umetnosti i nauka, ističe da se „vizija ravnopravnog pristupa informacijama neće ostvariti ukoliko efikasno ne suzbijemo pristrasnost modela i štetne tendencije prema svim korisnicima“.
Rad pod naslovom „LLM Targeted Underperformance Disproportionately Impacts Vulnerable Users“ predstavljen je na AAAI konferenciji o veštačkoj inteligenciji u januaru i javno je dostupan putem MIT-ovog repozitorijuma istraživanja.
Kako se alati za personalizaciju, poput ChatGPT-ove funkcije „Memory“, sve više šire, raste i rizik od nejednakog tretmana. Bez rigoroznog testiranja pristrasnosti i jasnih koraka usklađivanja, četbotovi bi nenamerno mogli da prodube upravo one praznine u znanju koje bi trebalo da premoste.
🔮 Predviđanja futuriste
Predviđanja za 2029:
- Moglo bi doći do uvođenja novih propisa koji bi primorali AI kompanije da objavljuju revizije uticaja na pristrasnost za svaki jezik i nivo obrazovanja, čime bi se tržište podelilo na botove „sertifikovane za pravičnost“ i ostale.
- Platforme bi mogle početi da uvode hibridno tutorstvo uz učešće ljudi za govornike kojima jezik nije maternji i korisnike sa nižim nivoom obrazovanja, čime bi se AI transformisao iz primarnog izvora znanja u asistenta za podršku.
- Poverenje javnosti bi se moglo promeniti, usmeravajući ranjive grupe ka modelima otvorenog koda kojima upravlja zajednica i koji su lokalno prilagođeni. To bi podstaklo stvaranje decentralizovane mreže specijalizovanih AI usluga kako bi se popunile praznine na koje je ukazala studija MIT-a.