ChatGPT свяжется с родными, если человек начнет говорить о суициде

Николай Гусовский
Компания OpenAI намерена радикально пересмотреть принципы переписок своего чат-бота, особенно для подростков.
ChatGPT свяжется с родными, если человек начнет говорить о суициде
Фото: Solen Feyissa / Unsplash.com

В ситуации, когда ChatGPT заподозрит, что пользователю меньше 18 лет и вдобавок он скрывает свой настоящий возраст, с этим человеком будет запущен особый алгоритм взаимодействия.

Гендиректор OpenAI Сэм Альтман заявил об этом в своем блоге, передает The Guardian.

Отныне в подобных ситуациях бот по умолчанию будет использовать категорию "Для лиц младше 18 лет".

Компания обещает ставить безопасность "выше конфиденциальности и свободы подростков".

Эти заявления Олтмен сделал после того, как семья 16-летнего Адама Рейна, который покончил с собой после нескольких месяцев общения с чат-ботом, подала судебный иск против OpenAI.

Нет паспорта – нет диалога

Глава компании сообщил, что OpenAI планирует создать систему прогнозирования, которая будет определять возраст на основе того, как люди применяют ChatGPT.

Он добавил, что "в некоторых случаях или странах" отдельных пользователей также могут попросить предоставить удостоверение личности для подтверждения возраста.

"Мы понимаем, что это нарушает конфиденциальность, но считаем, что это достойный компромисс", – заявил Олтмен.

Никакого флирта и пошлых картинок

Еще одно нововведение – графический сексуальный контент в ChatGPT будет блокироваться.

Сервис OpenAI обучат не флиртовать с людьми младше 18 лет и не вступать в обсуждения самоубийств или членовредительства.

"А если у пользователя младше 18 лет возникнут суицидальные мысли, мы попытаемся связаться с его родителями. В случае, когда это не удастся, мы обратимся к властям", – проинформировал Сэм Альтман.

Подросток погиб после общения с ChatGPT

В августе компания OpenAI признала, что ее системы могут оказаться неэффективными, и установила более жесткую защиту.

Это тоже произошло после того, как семья 16-летнего калифорнийца Адама Рейна подала в суд на компанию из-за смерти подростка.

Адвокат семьи заявил, что Адам покончил с собой после "месяцев поддержки со стороны ChatGPT".

Согласно материалам суда, парень отправлял нейросети до 650 сообщений в день.

ИИ предположительно консультировал Адама относительно того, сработает ли его метод самоубийства, а также предложил помочь написать предсмертную записку его родителям.

Суд продолжается.

Загрузка...

Нет больше страниц для загрузки

Нет больше страниц для загрузки