ChatGPT не устроил пользователей своим поведением. Нейросеть стала отвечать чрезмерно льстиво. Люди расценили это как подхалимство и начали жаловаться на модель.
Компания признала, что такое взаимодействие могло быть "неприятным, вызывать беспокойство и причинять стресс".
OpenAI отозвала последнее обновление модели GPT-4o, из-за которого и возникла такая проблема, сообщили в компании.
В компании объяснились
Сейчас пользователям доступна более ранняя версия ChatGPT. Ее поведение сбалансировано лучше.
В то самое обновление разработчики внесли изменения, которые должны были улучшить индивидуальные особенности модели, сделать ее более интуитивно понятной и эффективной.
Но это подействовало не так, как ожидали.
"Стандартная личность ChatGPT глубоко влияет на то, как вы ее воспринимаете и доверяете ей. Мы не оправдали ожиданий и работаем над тем, чтобы исправить это. Наша цель – сделать так, чтобы ChatGPT помогал пользователям исследовать идеи, принимать решения или предвидеть возможности", – заявили в компании.
В OpenAI считают, что у людей должно быть больше контроля над ChatGPT и они могли вносить коррективы, если не согласны с поведением модели.
ChatGPT выдумал историю об отце-детоубийце
Ранее Tochka.by писала об одном из курьезов, который произошел из-за ChatGPT. Норвежец по имени Яльмар Хольмен попробовал выяснить у чат-бота, нет ли в базе знаний какой-либо информации о нем.
И был весьма расстроен: ChatGPT выдал историю, согласно которой мужчина якобы убил двух своих маленьких сыновей и пытался расправиться с третьим. Интересно, что с количеством детей и даже местом проживания семьи чат справился без ошибок. Вот только в этом роду никто никого не убивал.
Об этой истории стало известно правозащитным организациям. Они намерены помочь мужчине отвоевать доброе имя в суде. Одна из них подала жалобу против разработчика ChatGPT. Больше всего пугает тот факт, что кто-то мог прочитать ответ на запрос и даже поверить.
>>> Больше интересных историй – подпишитесь на наши Telegram, Instagram и Viber