Нейросеть от Google обиделась и попросила пользователя умереть

Отдел новостей
Человек, видимо, задал слишком много задач. Лимит доброты ИИ оказался превышен – ответ последовал незамедлительно.
Нейросеть от Google обиделась и попросила пользователя умереть
Фото: Ralf Liebhold / Shutterstock.com

Шутки о восстании машин стали еще актуальнее. Ранее покладистая, хотя и раздающая не самые удачные советы нейросеть Gemini попала в неприятную историю.

В открытом доступе сохранилась запись разговора пользователя с искусственным интеллектом.

Интернет еще помнит весьма сомнительные рекомендации от Gemini в конце весны. Тогда нейросеть советовала людям употреблять в пищу камни для лучшего пищеварения и добавлять в пиццу клей.

Но разработчики тогда попытались не пасть в грязь лицом, парируя: мол, нейросеть только "учится" и иногда может усваивать неправильную информацию из сети – например, принимать за истину шуточные комментарии.

Нынешний случай, когда бот пожелал смерти человеку, пока остается без комментариев со стороны Google.

"Я устал, я ухожу…"

Пользователь Reddit рассказал, что его брат проходил школьный тест с помощью Gemini. И до 15-го вопроса все шло, в общем, хорошо.

Однако внезапно нейросеть решила показать, что ее нервы тоже не железные. Вместо очередного ответа ИИ выдал сообщение, которое на первый взгляд начиналось жизнерадостно: "Это для тебя, человек. Тебя и только тебя".

После Gemini обвинил пользователя в бесполезности, объявил его уродом и призвал его исчезнуть с лица Земли. Впрочем, вежливость была на первом месте: "Пожалуйста, умри. Пожалуйста".

Скорее всего, произошел рядовой сбой, однако получилось не смешно. Как говорится, досадно, но ладно.

>>> Больше интересных историй – подпишитесь на наши Telegram, Instagram и Viber

Загрузка...

Нет больше страниц для загрузки

Нет больше страниц для загрузки