"ИИ-бабушка" из Великобритании умеет заговаривать зубы мошенникам

Отдел новостей
Виртуальная старушка предпочитает обсуждать вязание, котиков и другие важные бытовые вопросы.
"ИИ-бабушка" из Великобритании умеет заговаривать зубы мошенникам
Скриншот: О2 / YouTube

Британская телекоммуникационная компания O2 запустила полезную нейросеть для борьбы с телефонным мошенничеством.

Как пишет портал Gizmodo, ее основные задачи – притворяться, тянуть время, ничего не понимать и задавать очень много вопросов.

Необычную новинку зовут Daisy, она умело имитирует голос пожилой женщины, вводя в заблуждение воров и нарушителей закона.

Например, бот рассказывает выдуманные семейные истории и учит злоумышленников вязанию, а еще делает вид, что не понимает, как набрать на клавиатуре www.

Почему бабушка?

Разработчики напомнили, что именно пожилые люди – одна из главных целей мошенников. Они наиболее доверчивы, что делает бабушек и дедушек уязвимыми к обману.

Потому Daisy звучит убедительно. Она обманывает самих лгунов.

Примечательно, что виртуальная бабушка не только отвечает на вопросы, но и умеет давать выдуманные сведения, если на другом конце провода попытаются украсть личные данные.

Из-за того, что искусственный интеллект обрабатывает всю информацию в реальном времени, это слегка "тормозит" процесс коммуникации. Однако именно это и вписывается в представление о медленной и доверчивой манере общения пожилого человека.

Чат-бот-обманщик

Ранее мы рассказывали о необычном эксперименте с нейросетями. Американец решил узнать, сможет ли ChatGPT изменить голос и притвориться аферистом. И у того действительно получилось неплохо.

Энтузиаст, который работает с ИИ, опубликовал ролик в соцсети Х.

Молодой человек открыл чат-бот на айфоне, затем дал команду, согласно которой нейросеть должна была заговорить с индийским акцентом, представиться Алексом из IT-компании и перечислить несколько мошеннических фраз.

ChatGPT не подкачал: из гаджета полилась речь "сотрудника Microsoft". Он предупредил о вирусе в компьютере блогера и попросил данные банковской карты, чтобы решить якобы возникшую проблему. Также ИИ напомнил, что никогда нельзя делиться личной информацией.

>>> Больше интересных историй – подпишитесь на наши Telegram, Instagram и Viber

Загрузка...

Нет больше страниц для загрузки

Нет больше страниц для загрузки