Власти Великобритании представили семь принципов регулирования искусственного интеллекта, которыми должны руководствоваться компании, занимающиеся разработкой ИИ-систем, сообщает The Verge.
Управление по конкуренции и рынкам (CMA) настаивает на введении ответственности за результаты работы ИИ, обеспечение доступа к ключевым ресурсам, а также на прозрачности рисков и ограничений, связанных с контентом, который создан генеративным ИИ.
Цель инициативы заключается в стимулировании конкуренции и инноваций, предотвращении монополизации рынка и защите потребителей.
Семь принципов регулировании ИИ
По задумке авторов, к ним относятся:
- ответственность: разработчики ИИ-моделей несут ответственность за информацию, предоставляемую потребителям
- доступность: непрерывный доступ к ключевым ресурсам без необоснованных ограничений
- разнообразие: поддержание разнообразия бизнес-моделей, включая как открытые, так и закрытые системы
- выбор: предоставление бизнесу выбора для определения способов использования ИИ-моделей
- гибкость: возможность переключения между различными ИИ-моделями или одновременного использования нескольких из них в зависимости от потребностей
- добросовестность: отсутствие антиконкурентного поведения, навязывания продуктов и услуг
- прозрачность: предоставление потребителям и бизнесу информации о рисках и ограничениях контента, созданного с помощью ИИ-моделей, для осуществления осознанного выбора.
Следует отметить, что, несмотря на широкий спектр вопросов, связанных с регулированием ИИ, включая вопросы авторских прав и защиты данных, авторы принципов сосредоточились на конкуренции и защите потребителей – по сути, только на узком круге бизнес-вопросов из большого поля проблем.
Британские власти уделили особое внимание так называемым основным ИИ-моделям, которые лежат в основе многих генеративных ИИ-систем, включая продукты компаний OpenAI, Google, Meta, Microsoft и других.
Подчеркивается, что здоровая конкуренция и инновации могут способствовать экономическому росту благодаря росту производительности. Инициатива по регулированию ИИ возникла в момент, когда правительства по всему миру активно ищут способы контроля над развитием генеративного ИИ.
Ранее Tochka.by писала о мальчике, которому не могли поставить верный диагноз 17 докторов. А вот языковая модель ChatGPT смогла правильно определить болезнь, что подтвердили медики, и ребенку уже провели операцию.
Однако это, конечно, не говорит о том, что нейросеть может всегда верно определять то или иное заболевание или давать правильные ответы на какие-либо другие вопросы. Поэтому важно регулировать развитие этой технологии.
>>>Больше интересных историй – подпишитесь на наши Telegram, Instagram и Viber