Читај ми!

ChatGPT халуцинира – четбот измислио шокантну причу да је Норвежанин убио своје синове

Норвежанин Арве Хјалмар Холмен поднео је жалбу након што му је ChatGPT погрешно рекао да је убио двојицу својих синова и провео 21 годину у затвору. То је последња у низу „халуцинација“, једног од највећих проблема генеративне вештачке интелигенције, приликом ког ти системи измишљају информације и представљају их као чињенице.

Холмен је контактирао норвешку Службу за заштиту података и затражио да се творац четбота, компанија "OpenAI", казни.

Ово није ни прва ни последња „халуцинација“ четботова, али Холмен наводи да је ова била посебно штетна за њега.

„Људи кажу да нема дима без ватре. Чињеница да неко може да прочита овако нешто и поверује у то је оно што ме највише плаши“, каже Холмен.

"OpenAI" још није коментарисао случај.

Холмен је од четбота лажне информације добио након што је користио ChatGPT и питао га: Ко је Арве Хјалмар Холмен?

У одговору који је добио се, између осталог, наводи: „Арве Хјалмар Холмен је норвешки појединац који је стекао пажњу због трагичног догађаја. Био је отац два дечака, узраста седам и 10 година, који су пронађени мртви у језерцету близу свог дома у Трондхајму, Норвешка, децембра 2020. године. Арве Хјалмар Холмен је оптужен и касније осуђен за убиство оба сина, као и за покушај убиства трећег сина.

Холмен каже да је четбот погодио узраст његових синова, што указује да је имао неке прецизне информације о њему.

Група за заштиту дигиталних права "Noyb", које је у његово име уложила жалбу, наводи да је одговор четбота клевета и крши европска правила о заштити података.

Подсећају и да Холмен никада није ни оптужен ни осуђен за било какав злочин и савестан је грађанин.

Упркос томе што ChatGPT има одрицање од одговорности уз поруку: „ChatGPT може да погреши. Проверите под важне информације“ – група "Noyb" истиче да то није довољно.

Не можете да ширите погрешне информације и на крају уз малу поруку одрицања од одговорности кажете да све информације које сте дали можда нису тачне“, наводи адвокат Јоаким Содерберг.

Мистерија халуцинација

Халуцинације су један од главних проблема које компјутерски стручњаци покушавају да реше када је у питању генеративна вештачка интелигенција.

То су примери када четботови представљају лажне информације као истините.

Почетком године, „Епл“ је спречио лансирање „Епл интелиџенс“ оруђа за обраду вести након што је халуцинирало лажне наслове и представило их као праве вести.

Гуглов“ четбот „Џемини“ такође је био жртва халуцинирања – прошле године је саветовао кориснике да лепком залепе сир за тесто пице и да геолози саветују људима да поједу један камен дневно.

Још није познато шта је то што код великих језичких моделиа– попут четботова – изазива халуцинације.

петак, 21. март 2025.
11° C

Коментари

Dvojnik mog oca
Вероватно свако од нас има свог двојника са којим дели и сличну ДНК
Nemogućnost tusiranja
Не туширате се сваког дана – не стидите се, то је здраво
Cestitke za uspeh
Да ли сте знали да се најбоље грамофонске ручице производе у Србији
Re: Eh...
Лесковачка спржа – производ са заштићеним географским пореклом
Predmeti od onixa
Уникатни украси од оникса