ChatGPT stvorio lažnu priču da je korisnik ubio svoju decu: Podneta žalba protiv OpenAI

V. K.
V. K.    
Čitanje: oko 2 min.
  • 0

Grupa za zaštitu privatnosti Nojb (Noyb) podnela je danas žalbu protiv OpenAI zbog toga što je "dozvolila" svom modelu da izmisli "klevetničku" priču o ubistvu deteta od strane korisnika iz Norveške.

Nojb se žalio norveškoj agenciji za zaštitu podataka, optužujući OpenAI da nije poštovao Opštu uredbu o zaštiti podataka EU (GDPR), jer korisnicima nije omogućeno da isprave netačne lične podatke o njima u velikom jezičkom modelu ChatGPT-a.

Ovo je druga takva žalba Nojba. U prvom slučaju, grupa za zaštitu privatnosti zahtevala je od OpenAI da ispravi ili obriše netačne lične podatke o javnoj ličnosti. Kompanija je odgovorila da to nije moguće, te je umesto toga ponudila da blokira podatke za određene upite. ChatGPT takođe prikazuje upozorenje korisnicima, navodeći da neki odgovori mogu biti netačni.

Ovaj put, norveški korisnik Arve Hjalmar Holmen žalio se da je ChatGPT izmislio priču o tome kako je on ubio svoju decu i bio osuđen na višegodišnju kaznu zatvora. Međutim, delovi priče o norveškom korisniku zasnovani su na stvarnim ličnim podacima, uključujući broj i pol njegove dece, kao i ime njegovog rodnog grada.

Generativni AI čet botovi daju odgovore izračunavanjem najverovatnije sledeće reči u odgovoru na upite, zbog čega postoji rizik od deljenja netačnih informacija ili kreiranja lažnih priča. Ovo se naziva "halucinacije".

Mešavina istinitih i lažnih informacija može učiniti priče posebno uverljivim. Halucinacije mogu "imati katastrofalne posledice po živote ljudi", piše u saopštenju Nojba.

S obzirom na to da ChatGPT-ov odgovor uključuje lične podatke, korisnici mogu zahtevati da se informacije isprave, tvrdi Nojb.

- GDPR je jasan. Lični podaci moraju biti tačni. A ako nisu, korisnici imaju pravo da ih promene kako bi odražavali istinu - rekao je advokat za zaštitu podataka u Noyb-u, Joakim Soderberg.

ChatGPT je ažuriran od incidenta i sada ima mogućnost pretrage interneta, što smanjuje verovatnoću da će izmišljati činjenice. Ipak, netačne informacije i dalje postoje u AI sistemu, a korisnički podaci se vraćaju u sistem kako bi se obučio, prema Nojb-u.

- Činjenica da bi neko mogao da pročita ovaj odgovor i veruje da je istinit, to je ono što me najviše plaši - rekao je Hjalmar Holmen, prenosi Euractiv.

(Telegraf Biznis)

Video: Kako godine rada u hotelijerstvu utiču na život i porodicu?

Podelite vest:

Pošaljite nam Vaše snimke, fotografije i priče na broj telefona +381 64 8939257 (WhatsApp / Viber / Telegram).

Telegraf Biznis zadržava sva prava nad sadržajem. Za preuzimanje sadržaja pogledajte uputstva na stranici Uslovi korišćenja.

Komentari

  • Eur: <% exchange.eur %>
  • Usd: <% exchange.usd %>