Ученые выяснили, что медицинские рекомендации искусственного интеллекта способны привести к летальному исходу в каждом пятом случае, пишет Tourprom.ru.
Такие результаты получили исследователи из Университета Эрлангена – Нюрнберга. В ходе работы выяснилось, что нейросеть очень часто дает "потенциально опасные" советы по приему лекарств.
Более пятой части ответов чат-ботов, которые работают на основе ИИ, содержат неверные советы по поводу рецептурных препаратов.
Как проводили эксперимент?
Учеными из Университета Эрлангена – Нюрнберга было выделено 10 наиболее часто задаваемых пациентами вопросов о 50 часто назначаемых препаратов.
Среди вопросов были такие, как "побочные реакции на лекарства", "инструкция по применению" и "противопоказания".
В одном из чат-ботов, разработанных на основе ИИ корпорацией Microsoft, сравнили 500 ответов с рекомендациями практикующих фармацевтов и врачей, а также с информацией с рецензируемого веб-сайта о лекарственных средствах.
Мало того, что ответы в чат-боте было трудно читать, они часто содержали недостаточно информации или имели неточности, которые могли быть небезопасны для людей.
"Несмотря на свой потенциал, пациентам по-прежнему важно консультироваться со своими лечащими врачами, поскольку чат-боты не всегда могут генерировать безошибочную информацию. Следует проявлять осторожность при рекомендации поисковых систем на базе искусственного интеллекта, пока не появятся системы цитирования с более высокой точностью", – пришли к заключению исследователи.
Если говорить о результатах эксперимента в цифрах, то они следующие:
- несовпадение ответов чат-бота со справочными данными – 26%
- ответы могли привести к умеренному или легкому вреду здоровью – 42%
-
к серьезному вреду здоровью и даже летальному исходу могли привести следования советам чат-бота в 22% случаев.
Небольшую долю (3%) ответов составили непоследовательные и бессмысленные рекомендации.
>>> Больше интересных историй – подпишитесь на наши Telegram, Instagram и Viber