Сам ты Natasha – в Великобритании вместо нейросети работали индусы

Отдел новостей
Компания-разработчик может стать банкротом.
Сам ты Natasha – в Великобритании вместо нейросети работали индусы
Фото: TippaPatt / Shutterstock.com

Технологическая компания Builder.ai из Лондона борется с банкротством. Ранее она провозгласила себя первопроходцем в автоматизации создания приложений с помощью ИИ, пишет "Газета.Ru" со ссылкой на издание The Register.

В прошлом львиную долю ее активов арестовал крупный кредитор.

Builder.ai стала известной из-за своего инновационного подхода к работе. Около 10 лет назад фирма заявила о возможности разработки программ без написания кода. Все нюансы должна была решать их "нейросеть" под названием Natasha AI. Искусственный интеллект на деле оказался вполне реальным. Вместо программы работу выполняли сотни сотрудников из Индии.

Подлог обнаружили еще шесть лет назад. Но это никак не ухудшило положение компании. Наоборот, Builder.ai достигла рыночной капитализации свыше $1 млрд. Вообще в стартап инвестировали свыше $440 млн. Среди больших кредиторов – Microsoft, Суверенный инвестиционный фонд Катара, различные крупные фонды и организации.

Буквально в начале 2025-го в этой британской компании сменилось руководство. Обнаружились финансовые трудности. Новая команда нашла причину не в использовании фиктивного ИИ, а в неэффективном финансовом планировании.

"Вишенкой" на торте стало то, что в мае крупный кредитор Viola Credit арестовал $37 млн на счетах фирмы. Фактически остановилась деятельность Builder.ai в Великобритании, США, ОАЭ, Сингапуре и Индии. Большинство сотрудников были уволены.

Сейчас компания запросила защиту от банкротства, чтобы сохранить хотя бы часть бизнеса.

ИИ шантажировал инженеров, пытавшихся его отключить

Во время проведения тестирования модель искусственного интеллекта Claude Opus 4 от Anthropic несколько раз пыталась шантажировать инженеров, понимая, что ее могут заменить, писала Tochka.by. При этом ИИ не использовала истинные факты, а только вымышленные сведения.

Такое поведение было характерно для 84% проводимых испытаний. В одном из случаев модель придумала историю о внебрачных связях отдельного инженера.

В итоге Anthropic указала в отчете о безопасности, что во время тестирования модель ИИ иногда предпринимала "чрезвычайно вредные действия" для сохранения собственного существования, когда "этические средства были недоступны".

Соучредитель и главный научный сотрудник Anthropic Джаред Каплан утверждает: нельзя исключать, что последняя модель искусственного интеллекта компании "рискованная".

Он же сообщил журналу Time о внутренних испытаниях, которые показали, что ИИ смог бы научить людей производить биологическое оружие. Напомним: стартап Anthropic поддерживают Google и Amazon. В модель Claude Opus 4 Amazon инвестировала $4 млрд.

>>> Больше интересных историй – подпишитесь на наши Telegram, Instagram и Viber

Загрузка...

Нет больше страниц для загрузки

Нет больше страниц для загрузки