Другой вариант
Скачать Распечатать

Проект регламента об искусственном интеллекте 1/19/21

Aija Panke
PwC Legal присяжный адвокат

21 апреля текущего года опубликован проект Регламента Европейской комиссии об искусственном интеллекте (ИИ) – первого в Европе нормативно-правового акта, регулирующего вопросы ИИ. В данной статье рассматриваются наиболее существенные положения проекта.

Охват

Действие разрабатываемого регламента об ИИ будет распространяться на коммерсантов и организации, созданные в ЕС и за его пределами и предлагающие решения ИИ, если данные решения будут использоваться на территории ЕС или затрагивать находящихся на его территории пользователей (физических или юридических лиц).

Положения разрабатываемого регламента не будут применяться к решениям ИИ в военной сфере или решениям, использование которых регулируется международными договорами, относящимися к сотрудничеству между правоохранительными или судебными органами.

В проекте предлагается достаточно открытое определение системы ИИ – предусматривается, что это будет программное обеспечение, разработанное с использованием одного или нескольких названных в проекте приемов и подходов (например, машинного обучения, индуктивного программирования), которое способно с учетом поставленных людьми целей создавать, например, контент, прогнозы, рекомендации или решения, оказывающие влияние на среду, с которой данные системы взаимодействуют.

Поставщик услуг ИИ, на которого распространяется действие разрабатываемого регламента, может быть коммерсантом, государственным учреждением или физическим лицом, которое разработало систему ИИ самостоятельно или по распоряжению которого она разработана, чтобы в первую очередь использовать ее на рынке ЕС в рамках возмездной или безвозмездной коммерческой деятельности.

Запрещенные системы ИИ

В целях защиты населения в проект включен перечень систем ИИ, которые считаются запрещенными на рынке ЕС, например:

  • системы, использующие приемы воздействия на подсознание, которые оказывают на действия человека влияние, причиняющее или способное причинить физический или психологический вред данному или другому лицу;
  • системы, использующие уязвимость определенных групп лиц, которая обусловлена возрастом, физической или психической инвалидностью, чтобы оказать на действия данных лиц влияние, причиняющее или способное причинить физический или психологический вред данным лицам или другому лицу;
  • системы, используемые государственными органами или другой организацией от имени государственных органов для оценки или классификации надежности физических лиц на основании их поведения или личностных особенностей, если это может привести к принятию несправедливого решения о данном лице или группе лиц;
  • системы дистанционной биометрической идентификации в общедоступных местах для нужд правоохранительных органов, за исключением, например, розыска уголовных преступников или пропавших детей либо предотвращения непосредственной угрозы людям или нападения террористов.

Системы с высокой степенью риска

Используя подход, ориентированный на риски, в проекте предусматриваются специфические условия для таких систем ИИ, которые подвергают высокому риску здоровье, безопасность или основные права физических лиц, например: системы биометрической идентификации, системы управления критически важной инфраструктурой (водоснабжение, электроснабжение, дорожное движение), системы, обеспечивающие доступность образования, системы трудоустройства и т.п.

Чтобы быть допущенными на рынок ЕС, системы с высокой степенью риска должны соответствовать установленным требованиям относительно управления данными, сохранности записей, предоставления информации пользователям, возможности эффективного надзора за данными системами человеком и другим требованиям.

Возможности для коммерсантов

Учитывая достаточно строгое регулирование, в проекте также предусматриваются механизмы, позволяющие разработчику систем ИИ протестировать соответствие предлагаемой системы в так называемых «песочницах» (AI regulatory sandboxes).

Невзирая на обязывающее регулирование, которое относится в основном к системам с высокой степенью риска, в проекте предлагается возможность для коммерсантов самостоятельно разработать кодексы этики для систем ИИ, которые не считаются системами с высокой степенью риска.

Ответственность

Проект включает положения относительно пределов ответственности, а именно: штраф за нарушения может достигать 30 миллионов евро, или 6% от общемирового оборота предприятия.

Поделиться статьей

Если у Вас возникли какие либо комментарии к этой статье, просим отправить здесь lv_mindlink@pwc.com

Ваш вопрос