Британская телекоммуникационная компания O2 запустила полезную нейросеть для борьбы с телефонным мошенничеством.
Как пишет портал Gizmodo, ее основные задачи – притворяться, тянуть время, ничего не понимать и задавать очень много вопросов.
Необычную новинку зовут Daisy, она умело имитирует голос пожилой женщины, вводя в заблуждение воров и нарушителей закона.
Например, бот рассказывает выдуманные семейные истории и учит злоумышленников вязанию, а еще делает вид, что не понимает, как набрать на клавиатуре www.
Почему бабушка?
Разработчики напомнили, что именно пожилые люди – одна из главных целей мошенников. Они наиболее доверчивы, что делает бабушек и дедушек уязвимыми к обману.
Потому Daisy звучит убедительно. Она обманывает самих лгунов.
Примечательно, что виртуальная бабушка не только отвечает на вопросы, но и умеет давать выдуманные сведения, если на другом конце провода попытаются украсть личные данные.
Из-за того, что искусственный интеллект обрабатывает всю информацию в реальном времени, это слегка "тормозит" процесс коммуникации. Однако именно это и вписывается в представление о медленной и доверчивой манере общения пожилого человека.
Чат-бот-обманщик
Ранее мы рассказывали о необычном эксперименте с нейросетями. Американец решил узнать, сможет ли ChatGPT изменить голос и притвориться аферистом. И у того действительно получилось неплохо.
Энтузиаст, который работает с ИИ, опубликовал ролик в соцсети Х.
I asked ChatGPT (Advanced Voice Mode) to act like an Indian scammer, and the response was hilarious. 😂 pic.twitter.com/3goKDXioPt
— sid (@immasiddtweets) September 30, 2024
Молодой человек открыл чат-бот на айфоне, затем дал команду, согласно которой нейросеть должна была заговорить с индийским акцентом, представиться Алексом из IT-компании и перечислить несколько мошеннических фраз.
ChatGPT не подкачал: из гаджета полилась речь "сотрудника Microsoft". Он предупредил о вирусе в компьютере блогера и попросил данные банковской карты, чтобы решить якобы возникшую проблему. Также ИИ напомнил, что никогда нельзя делиться личной информацией.
>>> Больше интересных историй – подпишитесь на наши Telegram, Instagram и Viber