В США произошел весьма курьезный случай: 60-летний мужчина попал в психиатрическое отделение клиники, послушав совета от ChatGPT. Об этом пишет Naked-science.ru.
Рассказываем, как нейросеть сломала жизнь доверчивому американцу.
Сначала была диета
Американец, которому стукнуло 60, решил, что будет придерживаться вегетарианской диеты.
К тому же мужчина понял, что хочет отказаться от соли. А после спросил у чат-бота, чем можно ее заменить.
"Находчивый" ChatGPT подсказал купить бромид натрия, забыв упомянуть: продукт не употребляют в пищу.
Спустя три месяца такой диеты мужчина обратился в больницу с жалобами на проблемы с кожей, паранойю и даже галлюцинации.
Врачи, мягко говоря, удивились
Во время лечения американец даже успел сбежать из больницы, после чего был принудительно переведен в психиатрический стационар.
Так герой истории провел еще почти месяц, пока окончательно не выздоровел.
Все это время доктора ломали голову, что случилось с их пациентом, и постоянно брали у мужчины анализы.
Выяснилось, что концентрация бромидов в крови при норме до 7 мг на литр крови составляла запредельные 1700 мг.
Медики повторили эксперимент и спросили ChatGPT, на что в ответ им действительно был предложен бромид натрия. Правда, чат-бот в этот раз добавил, что ему необходимо больше информации и контекста для предоставления правильного совета.
Вредные ИИ-советы
Эксперты и ученые неоднократно предупреждали, что из-за риска ошибок и неточностей полагаться на рекомендации ChatGPT и иных нейросетей попросту опасно.
Интернет помнит весьма сомнительные рекомендации от Gemini, когда ИИ советовал людям употреблять в пищу камни для лучшего пищеварения или добавлять в пиццу клей.
Однако по статистике такого рода запросы – одни из самых частых. Только в США примерно каждый шестой взрослый не реже раза в месяц обращается к генеративным чат-ботам для поиска медицинской информации и консультаций.