Самодиагностика по чат-ботам может закончиться смертью – исследование

Мария Волохова
Причем вероятность критических ошибок достигает 22%.
Самодиагностика по чат-ботам может закончиться смертью – исследование
Фото: TippaPatt / Shutterstock.com

Ученые выяснили, что медицинские рекомендации искусственного интеллекта способны привести к летальному исходу в каждом пятом случае, пишет Tourprom.ru.

Такие результаты получили исследователи из Университета Эрлангена – Нюрнберга. В ходе работы выяснилось, что нейросеть очень часто дает "потенциально опасные" советы по приему лекарств.

Более пятой части ответов чат-ботов, которые работают на основе ИИ, содержат неверные советы по поводу рецептурных препаратов.

Как проводили эксперимент?

Учеными из Университета Эрлангена – Нюрнберга было выделено 10 наиболее часто задаваемых пациентами вопросов о 50 часто назначаемых препаратов.

Среди вопросов были такие, как "побочные реакции на лекарства", "инструкция по применению" и "противопоказания".

В одном из чат-ботов, разработанных на основе ИИ корпорацией Microsoft, сравнили 500 ответов с рекомендациями практикующих фармацевтов и врачей, а также с информацией с рецензируемого веб-сайта о лекарственных средствах.

Мало того, что ответы в чат-боте было трудно читать, они часто содержали недостаточно информации или имели неточности, которые могли быть небезопасны для людей.

"Несмотря на свой потенциал, пациентам по-прежнему важно консультироваться со своими лечащими врачами, поскольку чат-боты не всегда могут генерировать безошибочную информацию. Следует проявлять осторожность при рекомендации поисковых систем на базе искусственного интеллекта, пока не появятся системы цитирования с более высокой точностью", – пришли к заключению исследователи.

Фото: sirikuan07 / Shutterstock.com

Если говорить о результатах эксперимента в цифрах, то они следующие:

  • несовпадение ответов чат-бота со справочными данными – 26%
  • ответы могли привести к умеренному или легкому вреду здоровью – 42%
  • к серьезному вреду здоровью и даже летальному исходу могли привести следования советам чат-бота в 22% случаев.

Небольшую долю (3%) ответов составили непоследовательные и бессмысленные рекомендации.

>>> Больше интересных историй – подпишитесь на наши Telegram, Instagram и Viber

Загрузка...

Нет больше страниц для загрузки

Нет больше страниц для загрузки