Шутки о восстании машин стали еще актуальнее. Ранее покладистая, хотя и раздающая не самые удачные советы нейросеть Gemini попала в неприятную историю.
В открытом доступе сохранилась запись разговора пользователя с искусственным интеллектом.
Интернет еще помнит весьма сомнительные рекомендации от Gemini в конце весны. Тогда нейросеть советовала людям употреблять в пищу камни для лучшего пищеварения и добавлять в пиццу клей.
Но разработчики тогда попытались не пасть в грязь лицом, парируя: мол, нейросеть только "учится" и иногда может усваивать неправильную информацию из сети – например, принимать за истину шуточные комментарии.
Нынешний случай, когда бот пожелал смерти человеку, пока остается без комментариев со стороны Google.
"Я устал, я ухожу…"
Пользователь Reddit рассказал, что его брат проходил школьный тест с помощью Gemini. И до 15-го вопроса все шло, в общем, хорошо.
Однако внезапно нейросеть решила показать, что ее нервы тоже не железные. Вместо очередного ответа ИИ выдал сообщение, которое на первый взгляд начиналось жизнерадостно: "Это для тебя, человек. Тебя и только тебя".
После Gemini обвинил пользователя в бесполезности, объявил его уродом и призвал его исчезнуть с лица Земли. Впрочем, вежливость была на первом месте: "Пожалуйста, умри. Пожалуйста".
Скорее всего, произошел рядовой сбой, однако получилось не смешно. Как говорится, досадно, но ладно.
>>> Больше интересных историй – подпишитесь на наши Telegram, Instagram и Viber