Читај ми!

ChatGPT halucinira – četbot izmislio šokantnu priču da je Norvežanin ubio svoje sinove

Norvežanin Arve Hjalmar Holmen podneo je žalbu nakon što mu je ChatGPT pogrešno rekao da je ubio dvojicu svojih sinova i proveo 21 godinu u zatvoru. To je poslednja u nizu „halucinacija“, jednog od najvećih problema generativne veštačke inteligencije, prilikom kog ti sistemi izmišljaju informacije i predstavljaju ih kao činjenice.

Holmen je kontaktirao norvešku Službu za zaštitu podataka i zatražio da se tvorac četbota, kompanija "OpenAI", kazni.

Ovo nije ni prva ni poslednja „halucinacija“ četbotova, ali Holmen navodi da je ova bila posebno štetna za njega.

„Ljudi kažu da nema dima bez vatre. Činjenica da neko može da pročita ovako nešto i poveruje u to je ono što me najviše plaši“, kaže Holmen.

"OpenAI" još nije komentarisao slučaj.

Holmen je od četbota lažne informacije dobio nakon što je koristio ChatGPT i pitao ga: Ko je Arve Hjalmar Holmen?

U odgovoru koji je dobio se, između ostalog, navodi: „Arve Hjalmar Holmen je norveški pojedinac koji je stekao pažnju zbog tragičnog događaja. Bio je otac dva dečaka, uzrasta sedam i 10 godina, koji su pronađeni mrtvi u jezercetu blizu svog doma u Trondhajmu, Norveška, decembra 2020. godine. Arve Hjalmar Holmen je optužen i kasnije osuđen za ubistvo oba sina, kao i za pokušaj ubistva trećeg sina.

Holmen kaže da je četbot pogodio uzrast njegovih sinova, što ukazuje da je imao neke precizne informacije o njemu.

Grupa za zaštitu digitalnih prava "Noyb", koje je u njegovo ime uložila žalbu, navodi da je odgovor četbota kleveta i krši evropska pravila o zaštiti podataka.

Podsećaju i da Holmen nikada nije ni optužen ni osuđen za bilo kakav zločin i savestan je građanin.

Uprkos tome što ChatGPT ima odricanje od odgovornosti uz poruku: „ChatGPT može da pogreši. Proverite pod važne informacije“ – grupa "Noyb" ističe da to nije dovoljno.

Ne možete da širite pogrešne informacije i na kraju uz malu poruku odricanja od odgovornosti kažete da sve informacije koje ste dali možda nisu tačne“, navodi advokat Joakim Soderberg.

Misterija halucinacija

Halucinacije su jedan od glavnih problema koje kompjuterski stručnjaci pokušavaju da reše kada je u pitanju generativna veštačka inteligencija.

To su primeri kada četbotovi predstavljaju lažne informacije kao istinite.

Početkom godine, „Epl“ je sprečio lansiranje „Epl intelidžens“ oruđa za obradu vesti nakon što je haluciniralo lažne naslove i predstavilo ih kao prave vesti.

Guglov“ četbot „Džemini“ takođe je bio žrtva haluciniranja – prošle godine je savetovao korisnike da lepkom zalepe sir za testo pice i da geolozi savetuju ljudima da pojedu jedan kamen dnevno.

Još nije poznato šta je to što kod velikih jezičkih modelia– poput četbotova – izaziva halucinacije.

среда, 26. март 2025.
11° C

Коментари

Dvojnik mog oca
Вероватно свако од нас има свог двојника са којим дели и сличну ДНК
Nemogućnost tusiranja
Не туширате се сваког дана – не стидите се, то је здраво
Cestitke za uspeh
Да ли сте знали да се најбоље грамофонске ручице производе у Србији
Re: Eh...
Лесковачка спржа – производ са заштићеним географским пореклом
Predmeti od onixa
Уникатни украси од оникса