
С каждым днем нейросети становятся умнее, однако ошеломляющие случаи лжи по-прежнему не редки.
И пусть тысячи тренеров по всему миру стараются делать ИИ только лучше, этот процесс небыстрый.
Так, один из курьезов описывают европейские правозащитники.
Чат-бот все врет
Норвежец по имени Яльмар Хольмен попробовал выяснить у чат-бота, нет ли в базе знаний какой-либо информации о нем.
И был весьма расстроен: ChatGPT выдал историю, согласно которой мужчина якобы убил двух своих маленьких сыновей и пытался расправиться с третьим.
Интересно, что с количеством детей и даже местом проживания семьи чат справился без ошибок. Вот только в этом роду никто никого не убивал.
Более того, согласно версии чат-бота, за совершенное преступление норвежца даже осудили на 21 год колонии.
Правозащитники идут в суд
Об этой истории стало известно правозащитным организациям. Теперь они намерены помочь мужчине отвоевать доброе имя в суде.
Одна из них подала жалобу против разработчика ChatGPT.
"Это явно не единичный случай. В связи с этим Noyb подала жалобу на OpenAI", – пишут в организации.
По словам ее членов, больше всего пугает тот факт, что кто-то мог прочитать ответ на запрос и даже поверить.
Нейросеть попросила пользователя умереть
Ранее мы рассказывали о неудачных ответах, которые выдавала нейросеть от Google.
Интернет помнит весьма сомнительные рекомендации от Gemini, когда ИИ советовал людям употреблять в пищу камни для лучшего пищеварения или добавлять в пиццу клей.
Но однажды все зашло слишком далеко. Gemini обвинил пользователя в бесполезности, объявил его уродом, а после призвал его исчезнуть с лица Земли.
>>> Больше интересных историй – подпишитесь на наши Telegram, Instagram и Viber