"Tehnologija je iskušenje kome ne možemo da odolimo": Doktor Bojić za Telegraf otkriva sve opasnosti AI
Razvoj veštačke inteligencije i njena sve šira primena postavljaju brojna pitanja o bezbednosti i privatnosti podataka. Dok se korisnici sve češće oslanjaju na AI sisteme za različite zadatke, od svakodnevnih informacija do emocionalne podrške, pojavljjuju se ozbiljni rizici vezani za čuvanje, anonimizaciju i enkripciju podataka. Iako postoje tehnike koje štite lične informacije, poput enkripcije i uklanjanja direktnih identifikatora, njihova efikasnost nije apsolutna, a pravna regulativa, poput GDPR-a, teško prati brzinu razvoja tehnologije.
O svim izazovima i pitanjima etike i sugurnosti podataka sa kojima se suočavaju milioni korisnika veštačke inteligencije širom sveta razgovarali smo sa Dr. Ljubišom Bojićem, višim naučnim saradnikom Instituta za filozofiju i društvenu teoriju, Univerziteta u Beogradu i članom radne grupe Vlade Republike Srbije koja se bavi razvojem etičkih standarda za veštačku inteligenciju
- Koje tehnike enkripcije i anonimizacije se trenutno koriste za zaštitu podataka u AI modelima?
Najčešće se koristi enkripcija podataka dok putuju i dok stoje na serverima, tako da niko ne može tek tako da ih pročita. Uz to, informacije se često anonimizuju, što znači da se uklanjaju direktni identifikatori poput imena ili mejl adresa. Tako se "odseca" veza između onoga što je neko napisao i konkretnog čoveka. Međutim, u praksi je to malo komplikovanije, jer ponekad sadržaj sam po sebi može da otkriva identitet. Ako, na primer, napišem da sam profesor u Beogradu koji se bavi medijima i veštačkom inteligencijom, i to bez navođenja imena, ljudi će vrlo brzo povezati da se radi o meni. Dakle, tehnike postoje, ali nikad nisu savršene.
- Koji su najveći rizici po bezbednost podataka kada se koriste AI modeli?
Rizik predstavlja što ljudi često unose poverljive informacije misleći da se one brišu istog trenutka. U suštini, postoji mogućnost da se one skladište i koriste za treniranje novih verzija modela. Ako sistem bude hakovan ili ako dođe do tehničkog propusta, ti podaci mogu procureti. Još jedan rizik je upravo u tome što AI nema osećaj odgovornosti. Ako čoveku kažete tajnu, on je može čuvati iz etičkih razloga. AI nema osećanja, što znači da čuvanje podataka zavisi isključivo od tehničke i pravne regulative. Tu dolazimo do paradoksa. Iako, sa jedne strane, znamo da AI nije svestan i empatičan, postoji praktična potreba da se ta mašina vodi određenim vrednostima koje su u interesu čoveka i da se prema njemu postavlja na empatičan način. Ako nema te subjektivnosti i vrednosne orijentacije posledice mogu često biti tragične. Nije Džefri Hinton bez razloga rekao da će biti potrebno ugraditi majčinski instinkt u AI ako želimo da zaštitimo čoveka od naprednih sistema AI.
- Kako se AI uklapa u postojeće zakone o zaštiti podataka, poput GDPR-a u Evropi?
AI se mora uklapati u GDPR jer je to u Evropi osnovni zakon za zaštitu podataka. Najveći izazov je "pravo na zaborav". Ako vi tražite da se vaši podaci obrišu, kompanija to tehnički može uraditi iz svoje baze, ali ako je AI već treniran na tim informacijama, kako to izbrisati iz "pamćenja" modela? To je trenutno jedno od najvećih nerešenih pitanja. Regulativa postavlja standard, ali je AI tu doneo novu vrstu glavobolje zakonodavcima.
- Može li nedostatak pravne zaštite privatnosti usporiti širu primenu AI u oblastima poput zdravstva, psihološkog savetovanja ili prava?
Naravno da može. Zamislite da pričate AI sistemu o simptomima koji vas muče, a onda dobijete obaveštenje da ti podaci mogu biti sačuvani. Ko bi se tada osećao sigurno? U oblastima gde je poverljivost ključna, poput zdravstva, prava ili psihoterapije, zakon je stub poverenja. Ako tog stuba nema, rizik je prevelik. Problem je u tome što se primena ne odlaže. Poznato je više slučajeva u SAD u kojima je AI chatbot naveo tinejdžere da izvrše samoubistvo. Tako su, barem, njihovi roditelji tvrdili. Mi nismo uveli sankcionisanje tog navođenja na štetne aktivnosti ni kod klasičnih društvenih mreža i zbog toga imamo rastuću polarizaciju širom sveta, što je više nego ikada vidljivo i kod nas.
- Koje informacije korisnici ne treba da dele sa AI modelima?
Praktično sve što nikada ne biste rekli potpunom strancu. To znači lične podatke poput broja pasoša, JMBG, brojeva kartica, ali i intimne stvari koje biste podelili
samo s lekarom ili advokatom. Ako se dvoumite, jednostavno se zapitajte: da li bih ovo stavio na javni forum? Ako je odgovor ne, onda nije ni za AI model.
- Mnogo je korisnika koji AI četbotove poput ChatGPT-a doživljavaju kao lične terapeute ili "osobe" kojima se mogu poveriti. Koji su rizici ovakvog shvatanja i kako ih objasniti korisnicima?
Rizik je u lažnom osećaju poverenja. Ljudi zaboravljaju da razgovaraju sa softverom i počinju da projektuju osećanja na njega. Ako se neko poveri AI‑ju kao terapeutu, rizikuje da se osetljive informacije sačuvaju ili čak kasnije iskoriste za nešto drugo. Treba ljudima objasniti da AI ne oseća empatiju, već emulira jezik. To što vam zvuči brižno i razumevajuće ne znači da vas "sluša" kao što bi to učinio čovek. Suština jeste da je to čoveku nemoguće objasniti. I vi i ja ćemo kadtad potpasti pod iskušenje, i u trenucima slabosti poveriti se AI-u, jer nema ko drugi da nas sasluša, ili se loše osećamo. AI je uvek pored nas. To je razlog zbog čega tehnologija nije neutralna. Ona predstavlja iskušenje kome ne možemo da odolimo. Samim tim ona nepovratno menja i oblikuje društvo.
- Koliko je opasno to što razgovori korisnika sa AI sistemima, poput ChatGPT-a, trenutno ne uživaju istu pravnu zaštitu kao razgovori sa lekarom, advokatom ili terapeutom?
To je veoma ozbiljan problem. Razgovor sa lekarom je zakonom zaštićen, a lekar rizikuje ozbiljne posledice ako to prekrši. Kod AI sistema toga nema. Ovde korisnik praktično nema garanciju da ono što napiše neće završiti kao deo statistike ili slučajno biti prikazano nekom drugom. Nedostatak pravne zaštite
znači da korisnici moraju sami da budu na oprezu, a to menja dinamiku poverenja. Uvek se nalazimo u trci u kojoj tehnologija neminovno napreduje brže od čoveka. Sa druge strane, lobistička snaga velikih tehnoloških kompanija je ogromna. Stoga je veliki broj zakona pro forma protiv čega se mnogi naučnici bore. Baš zbog toga učestvujemo u radnim telima raznih vlada.
- Koliko je moguće obezbediti "digitalni zaborav", odnosno da se korisnički podaci trajno uklone iz sistema?
U teoriji, moguće je ukloniti podatke iz baza i servera. Ali ako su ti podaci već poslužili za obuku modela, digitalni zaborav je prilično relativan. To više liči na brisanje papira iz arhive, dok kopije tog papira već cirkulišu u drugim fasciklama. Dakle, moguće je obezbediti delimičan zaborav, ali totalni, to je nedostižno. Teško je uspostaviti način verifikacije koji će ustanoviti da li se nešto koristi za trening AI modela ili ne. Do sada nisam video nijedno praktično rešenje za to, osim da kompanijama verujemo na reč.
- Na koji način poverljive informacije koje su korisnici uneli u AI modele mogu da "procure"?
Najčešći načini su kroz propuste u bezbednosnim sistemima, hakerske napade, ili greške u konfiguraciji. Nekad i sami zaposleni u kompanijama mogu slučajno da iznesu podatke, kao što se već događalo. Postoji i rizik da AI, u pokušaju da odgovori na nečije pitanje, izvuče podatak iz baze koji uopšte nije smeo da izađe.
- Koliko je u praksi ovo često?
Ne dešava se svakog dana, ali dešava se dovoljno da izaziva zabrinutost. Kada se dogodi jedan skandal sa curenjem podataka, povratiti poverenje korisnika je veoma teško. U industriji koja se ovako brzo razvija, čak i mali procenat slučajeva može da ima veliki društveni odjek.
- Kako sve veće oslanjanje na AI i chatbotove utiče na međuljudske odnose i poverenje?
Ljudi sve češće razvijaju emotivan odnos prema mašinama, a to nije samo tehnički izazov već i društveni. Ako generacija dece odraste poveravajući se chatbotovima, a ne ljudima, kakve će to posledice imati na njihovu sposobnost da grade poverenje u društvu? U tom slučaju ljudi će se dodatno otuđiti jedni od drugih. To je pitanje o kojem tek treba ozbiljno da razgovaramo. Tehnologija se ne može zaustaviti kada je opšte prihvaćena. Drugim rečima, ako su se svi "navukli" na AI, mi ne možemo da donesemo odluku da zaustavimo razvoj i primenu. Opasnost je upravo u tome što ova tehnologija postaje sve bolja i širok spektar ljudi je koristi, sve više i više kroz rastući broj aplikacija. Oni koji ne žele da je koriste biće nekonkurentni i izopšteni iz društva.
(Telegraf Biznis)
Video: Velike gužve u garaži tržnog centra
Telegraf Biznis zadržava sva prava nad sadržajem. Za preuzimanje sadržaja pogledajte uputstva na stranici Uslovi korišćenja.