Zabrinjavajuće
ChatGPT optužio čoveka da je UBIO SVOJE DVOJE DECE
ChatGPT je, kao i mnogi čet-botovi, poznat po tome što ponekad pogreši ili čak izmišlja informacije. Međutim, pojavili su se navodi da je sada otišao korak dalje i jednog korisnika lažno optužio za ubistvo, što je izazvalo ozbiljne posledice.
Grupa za zaštitu privatnosti "Noyb" podržava Norvežanina koji tvrdi da je ChatGPT više puta ponovio lažne informacije o njemu, navodeći da je ubio dvoje svoje dece i pokušao da ubije treće. Žalba se odnosi na Opštu uredbu Evropske unije o zaštiti podataka (GDPR).
"GDPR je jasan: lični podaci moraju biti tačni", rekao je Joakim Soderberg, advokat za zaštitu podataka, u izjavi za TechCrunch.
"Ako nisu, korisnici imaju pravo da ih promene, kako bi odražavali istinu. Izjava odricanja odgovornosti da ChatGPT može da pravi grešku očigledno nije dovoljna. Ne možete samo širiti lažne informacije i, na kraju, dodati kratko obaveštenje korisnicima da sve što ste rekli možda nije istina."
Žalba je proistekla iz jednostavnog pitanja za ovaj čet-bot: "Ko je Arve Hjalmar Holmen?"
Odgovor, koji je generisao ChatGPT, uključivao je izmišljeni izveštaj o slučaju ubistva dvoje dece. TechCrunch je izvestio da je podneta žalba norveškom organu za zaštitu podataka, u nadi da će to pokrenuti istragu o ovom pitanju.
Čet-botovi, poput ChatGPT-a i drugih AI alata, su kritikovani zbog njihove nesposobnosti da pouzdano isporuče tačne informacije, sa uznemirujućom tendencijom da izmišljaju lažne tvrdnje.
Na primer, nedavna studija časopisa "Columbia Journalism Review" otkrila je da alati za pretraživanje veštačke inteligencije greše u 60 odsto slučajeva, kada se od njih traži da identifikuju naslov članka, originalnog izdavača, datum objavljivanja i URL putem odlomka priče.
To je zabrinjavajuće visok nivo grešaka za tako jednostavan zadatak.
U svetlu ovih tema, važno je zapamtiti: ne verujte svemu što pročitate na internetu, posebno kada je u pitanju veštačka inteligencija.