AI i robotika

Microsoft Copilot je greškom pristupao poverljivim mejlovima, kompanija je izdala hitnu ispravku.

TL;DR - Kratak sažetak

  • Rizik: Greška u konfiguraciji Microsoft 365 Copilot Chata slučajno je povukla i sumirala imejlove označene kao „poverljivi“, potencijalno izlažući korporativne podatke i podatke pacijenata AI sistemu.
  • Uticaj: Microsoft navodi da je sadržaj ostao kod vlasnika i da ga spoljne strane nisu videle, ali je ovaj propust izazvao novu zabrinutost zbog zaobilaženja politika za zaštitu od gubitka podataka (DLP) i poljuljao poverenje u korporativne AI asistente.
  • Izgledi: Globalna ispravka (za bag CW1226324) je implementirana i Microsoft pooštrava podrazumevana podešavanja, ali analitičari napominju da će vrtoglava brzina uvođenja AI funkcija verovatno nastaviti da uzrokuje slične propuste dok se regulatorni okvir ne uskladi.

Microsoft 365 Copilot Chat greškom je čitao poverljive imejlove, što je izazvalo hitnu ispravku

Propust koji je omogućio veštačkoj inteligenciji da čita tajne nacrte

Microsoft je priznao logičku grešku u svom servisu Microsoft 365 Copilot Chat koja je omogućila sistemu da prikaže sadržaj iz Outlook stavki označenih kao „poverljivo“. Bag je pogodio imejlove u folderima Drafts (Nacrti) i Sent Items (Poslato) u desktop verziji Outlooka, čak i u situacijama kada je trebalo da DLP politike blokiraju takav pristup.

Problem je prvi put obelodanjen u izveštaju portala Bleeping Computer, koji je citirao interno Microsoftovo servisno upozorenje. U upozorenju se navodi da su se „imejl poruke korisnika sa oznakom poverljivosti nepravilno obrađivale od strane Microsoft 365 Copilot chata“. Prema informacijama, problem se pojavio u januaru 2026. godine, a kasnije je prijavljen korporativnim klijentima, uključujući i osoblje NHS-a u Engleskoj.

Portparol Microsofta izjavio je za BBC News da ovo ponašanje „nije odgovaralo našem predviđenom iskustvu za Copilot, koji je dizajniran da isključi zaštićeni sadržaj iz pristupa“, kao i da je ažuriranje konfiguracije sada implementirano širom sveta za sve korporativne klijente.

Šta Microsoft kaže da se dogodilo – a šta nije

Microsoft je naglasio da greška „nikome nije omogućila pristup informacijama za koje već nije bio ovlašćen“. U praksi, AI je obradio imejl samo za korisnika koji je to tražio; podaci nikada nisu napustili taj nalog niti su prosleđeni trećim stranama.

„Iako su naše kontrole pristupa i politike zaštite podataka ostale netaknute, ovo ponašanje nije ispunilo standarde našeg predviđenog Copilot iskustva“, navela je kompanija u pisanom saopštenju.

Ispravka pod nazivom CW1226324 primenjena je na sve korporativne korisnike, čime je resetovan interni filter koji je trebalo da blokira ulazak poverljivih stavki u tok obrade (pipeline) Copilota. Microsoft je takođe podsetio korisnike da se model „privatnosti po dizajnu“ i dalje primenjuje, što znači da AI vidi samo one podatke za koje korisnik eksplicitno zatraži obradu.

Reakcija stručnjaka: Neizbežni propusti u žurbi sa AI inovacijama

Analitičar za zaštitu podataka Nader Henein iz kompanije Gartner nazvao je incident „neizbežnim“ s obzirom na trenutnu trku u objavljivanju AI funkcija. „U normalnim okolnostima, organizacije bi jednostavno isključile tu funkciju i sačekale da je regulativa isprati“, izjavio je za BBC News. „Nažalost, pritisak usled poplave neosnovanog AI hajpa čini to gotovo nemogućim.“

Profesor Alan Woodward, stručnjak za sajber bezbednost sa Univerziteta u Sariju, upozorio je da AI alati moraju biti „podrazumevano privatni i funkcionisati isključivo uz pristanak (opt-in)“. Dodao je da će „u ovim alatima neizbežno biti grešaka, naročito jer napreduju vrtoglavom brzinom, pa iako curenje podataka možda nije namerno, ono će se dešavati.“

Ove primedbe odražavaju ranije zabrinutosti o tome kako generativni AI može zaobići DLP kontrole, što je rizik istaknut u nekoliko industrijskih izveštaja o povredama podataka uzrokovanim AI tehnologijom.

Šta ovaj propust znači za kompanije

Za firme koje su aktivirale Microsoft 365 Copilot u okviru Outlooka, Teamsa i drugih aplikacija, ovaj bag naglašava potrebu za praćenjem parametara AI funkcija i posedovanjem spremnog „prekidača za hitno isključivanje“. Iako Microsoft tvrdi da podaci pacijenata iz NHS-a nisu bili izloženi, ovaj događaj bi mogao podstaći regulatore da detaljnije ispitaju usklađenost sa GDPR-om i rukovanje osetljivim ličnim informacijama.

Bezbednosni timovi sada moraju da potvrde da je ispravka instalirana i ponovo procene svoje DLP politike kako bi osigurali da one i dalje funkcionišu kada su AI asistenti u upotrebi. Neke organizacije mogu privremeno onemogućiti Copilot sumiranje za poverljivu poštu dok ne budu uverene da su zaštitni mehanizmi stabilni.

Pogled u budućnost: Stroža podrazumevana podešavanja i bolja regulativa?

Microsoftovo brzo uvođenje ispravke pokazuje rastuće uverenje da korporativni AI mora doći sa jačim operativnim kontrolama. Kompanija je nagovestila buduća ažuriranja koja će učiniti da „poverljive“ oznake budu podrazumevano isključene za Copilot, tako da će AI ignorisati takav sadržaj osim ako korisnici eksplicitno ne ponište to podešavanje.

Analitičari, međutim, upozoravaju da će neumoran tempo razvoja AI nastaviti da stvara „nove i nesvakidašnje“ mogućnosti brže nego što okviri upravljanja mogu da ih isprate. Dok se taj jaz ne smanji, organizacije će morati da vagaju između povećanja produktivnosti koje donose alati poput Copilota i preostalog rizika od slučajnog izlaganja podataka.

Za sada, ovaj Copilot bag služi kao podsetnik iz stvarnog sveta da produktivni alati zasnovani na AI tehnologiji još uvek uče kako da poštuju iste one barijere privatnosti koje decenijama čuvaju korporativne i zdravstvene podatke.

🔮 Predviđanja futuriste

Predviđanja za 2029. godinu:

  • Kompanije bi mogle sve češće zahtevati podešavanja „podrazumevane privatnosti“ za AI asistente, pa bi alati poput Microsoft 365 Copilota mogli automatski preskakati svaku poruku označenu kao poverljivu, osim ako korisnik izričito ne ukine tu blokadu.
  • Regulatori bi mogli uvesti stroža pravila o zaštiti podataka specifična za AI, što bi moglo pokrenuti opsežne revizije servisa za sumiranje e-pošte zasnovanih na AI tehnologiji i opteretiti dobavljače visokim troškovima usklađivanja ukoliko ne dokažu besprekornu DLP integraciju.
  • Mogle bi se pojaviti alternativne AI platforme za saradnju koje nude proverljive mehanizme za trenutno isključivanje („kill-switch“), omogućavajući organizacijama da momentalno prekinu pristup veštačke inteligencije osetljivoj komunikaciji, čime bi potencijalno preuzele tržišni udeo od vodećih igrača koji ne mogu da dokažu postojanje čvrstih zaštitnih mera.