ChatGPT халуцинира – четбот измислио шокантну причу да је Норвежанин убио своје синове
Норвежанин Арве Хјалмар Холмен поднео је жалбу након што му је ChatGPT погрешно рекао да је убио двојицу својих синова и провео 21 годину у затвору. То је последња у низу „халуцинација“, једног од највећих проблема генеративне вештачке интелигенције, приликом ког ти системи измишљају информације и представљају их као чињенице.
Холмен је контактирао норвешку Службу за заштиту података и затражио да се творац четбота, компанија "OpenAI", казни.
Ово није ни прва ни последња „халуцинација“ четботова, али Холмен наводи да је ова била посебно штетна за њега.
„Људи кажу да нема дима без ватре. Чињеница да неко може да прочита овако нешто и поверује у то је оно што ме највише плаши“, каже Холмен.
"OpenAI" још није коментарисао случај.
Холмен је од четбота лажне информације добио након што је користио ChatGPT и питао га: Ко је Арве Хјалмар Холмен?
У одговору који је добио се, између осталог, наводи: „Арве Хјалмар Холмен је норвешки појединац који је стекао пажњу због трагичног догађаја. Био је отац два дечака, узраста седам и 10 година, који су пронађени мртви у језерцету близу свог дома у Трондхајму, Норвешка, децембра 2020. године. Арве Хјалмар Холмен је оптужен и касније осуђен за убиство оба сина, као и за покушај убиства трећег сина.“
Холмен каже да је четбот погодио узраст његових синова, што указује да је имао неке прецизне информације о њему.
Група за заштиту дигиталних права "Noyb", које је у његово име уложила жалбу, наводи да је одговор четбота клевета и крши европска правила о заштити података.
Подсећају и да Холмен никада није ни оптужен ни осуђен за било какав злочин и савестан је грађанин.
Упркос томе што ChatGPT има одрицање од одговорности уз поруку: „ChatGPT може да погреши. Проверите под важне информације“ – група "Noyb" истиче да то није довољно.
„Не можете да ширите погрешне информације и на крају уз малу поруку одрицања од одговорности кажете да све информације које сте дали можда нису тачне“, наводи адвокат Јоаким Содерберг.
Мистерија халуцинација
Халуцинације су један од главних проблема које компјутерски стручњаци покушавају да реше када је у питању генеративна вештачка интелигенција.
То су примери када четботови представљају лажне информације као истините.
Почетком године, „Епл“ је спречио лансирање „Епл интелиџенс“ оруђа за обраду вести након што је халуцинирало лажне наслове и представило их као праве вести.
„Гуглов“ четбот „Џемини“ такође је био жртва халуцинирања – прошле године је саветовао кориснике да лепком залепе сир за тесто пице и да геолози саветују људима да поједу један камен дневно.
Још није познато шта је то што код великих језичких моделиа– попут четботова – изазива халуцинације.
Коментари