Введите верный e-mail адрес
Подписаться
Вы успешно подписались на нашу рассылку

Первая в мире попытка законодательного регулирования искусственного интеллекта

Human Constanta
3 апреля 2024 Года

Европейский парламент одобрил закон об искусственном интеллекте (ИИ), который устанавливает требования к распознаванию лиц или к программам для работы с текстом и изображениями, таким как ChatGPT. Цифровые эксперт_ки Human Constanta подготовили обзор этого закона.

Речь идет о проекте регламента ЕС, который должен регулировать ИИ. Данный проект разрабатывался с 2021 года, когда Еврокомиссия выступила впервые с таким предложением. Шёл поиск возможных вариантов решения тех или иных проблем, связанных с использованием ИИ в самых разных областях, но в целом использование ИИ в ЕС.

Законопроект основан на оценке рисков. Системы ИИ будут разделены на категории в зависимости от того, какой риск они представляют для фундаментальных прав и свобод.

Какие проблемы призван решить этот закон

Проблем на самом деле множество, это могут быть:

  • предвзятость алгоритмов, и тренировка алгоритмов на неподходящих данных, в том числе, которые сами по себе содержат искажение;
  • тренировка на данных, которые охраняются авторскими правами;
  • истории, связанные с использованием ИИ для правоохранительных органов, в военных целях, для контроля на границах и т.д.

Речь не идёт о том, что ИИ захватит мир и уничтожит человечество, скорее о достаточно базовых и уже достаточно неплохо описанных проблемах, которые волнуют законодателей.

Мы уже писали о влиянии искусственного интеллекта на развитие прав человека и правозащиты, почитать можно по ссылке.

Какие проблемы возникли при разработке законопроекта и почему

Первая проблема, с которой столкнулся ЕС, заключается в том, что это первая попытка законодательного регулирования ИИ. Нигде в мире на данный момент комплексных законов нет.

Вторая проблема — это проблема конкуренции, то есть с одной стороны, можно максимально зарегулировать процесс разработки новых технологий, а с другой стороны, этот процесс будет меньше контролироваться в других регионах, соответственно, там будут происходить все инновации, например, в таких странах как США и Китай, которые являются лидерами в ИИ.

То есть ЕС с одной стороны пытается защитить фундаментальные права и свободы граждан, а с другой стороны не хочет потерять конкурентное преимущество в этой гонке. Поэтому текст законопроекта можно назвать достаточно компромиссным.

Риски для фундаментальных прав и свобод

Из ключевых и, наверное, самых интересных моментов: подход основан на оценке рисков. Законопроект регламента не предполагает, что будет разработан для всех систем ИИ, то есть предлагается разделить эти системы по тому, какой они риск представляют для фундаментальных прав и свобод.

То есть для тех, которые не представляют существенного риска, будут достаточно лайтовые требования. Например, если это дипфейк, чат-бот или генераторы текста, для них будет достаточно просто обозначить, что контент был сгенерирован с помощью ИИ. 

Если же речь идёт о тех системах с использованием ИИ, которые представляют высокий риск, вот там уже больше требований, то есть специальной регистрации. Это и раскрытие документации о том, на каких данных был натренирован ИИ, каким образом принимаются решения (как можно отследить принятие этих решений). В целом достаточно много требований и они зависят от того насколько высок риск причинение вреда. Здесь речь идет о системах, связанных с анализом поведения, с принятием решений в отношении людей с использованием в самых разных областях.

Что в законопроекте является провалом с точки зрения правозащиты

Интересно, что некоторые формы использования или некоторые цели использования ИИ прямо запрещаются, но не все. Есть проблема того же лоббирования, когда частные корпорации сильно противились серьёзному урегулированию, в том числе ссылаясь на вопросы конкуренции и в итоге текст получился действительно компромиссным.

Например, распознавать эмоции вроде как бы нельзя, но если идёт речь об использовании в правоохранительных целях либо для контроля на границе, то здесь исключение. Под регулирование акта не попадают военные технологии, полностью исключена национальная безопасность и очень много исключений для правоохранительных органов.

Это является одним из провалов, с точки зрения правозащитников: недостаточная последовательность и риск того, что маргинализированные группы будут более подтверждены негативному влиянию систем с ИИ. Речь идёт о мигрантах:

  • Система контроля границ, например, дроны которые патрулируют границы;
  • Системы предсказания поведения на основе базы данных, которые используются на границах, в том числе неофициальные системы, основанные на ИИ;
  • Системы распознавания лжи, детектор лжи — это не будет запрещено регламентом. 

Для правоохранительных органов  много исключений, которые затронут граждан ЕС. Есть серьёзные опасения, что сначала дискриминационные практики будут отработаны на маргинализированных группах людей, потом они будут применяться и ко всем остальным. Есть надежда, что в ЕС этого не произойдёт, но гарантий никаких нет.

Сейчас законопроект является достаточно прогрессивным, по крайней мере, по сравнению с регулированием в других регионах. Но в то же время, есть структурные проблемы, которые не решены из-за лоббирования со стороны тех же правоохранительных органов и крупных корпораций. Насколько это будет иметь практический эффект пока не понятно.

До принятия закона может пройти от двух до пяти лет, а некоторых системах ЕС и того больше

Это просто согласованный текст  между Советом ЕС и  Европейским парламентом. Ещё будет раунд технических переговоров: как это всё переложить в конкретный текст регламента. Что такое регламент ЕС:  это такая форма законодательства, которая обязательна для всех стран ЕС, которая напрямую применяется, то есть не нужно принимать национальное законодательство, нормы регламента являются обязательными на всей территории ЕС. 

При этом будет определённый лаг между моментом принятия регламента и моментом, когда все его положения вступят в силу. Таким образом, получается минимум 2 года максимум до 5 лет может пройти до того, как будут обязательны все его положения.

Для некоторых систем, например, шенгенской системы, положения этого акта могут не применяться аж до 2030 года. То есть он может оставаться вне этого регулирования. 

Это самые основные вещи, связанные с регламентом. Он вышел достаточно противоречивым и то что сейчас происходит, по крайней мере,  в правозащитных кругах — это попытка проанализировать, какие могут быть практические последствия текста в данном виде, который уже согласован между парламентом и советом.

Является ли это серьезной проблемой? Да, является. У правозащитни_ц есть много вопросов к этому акту.

Можно ли исправить ситуацию? Да, можно. На примере регламента о защите персональных данных, у которого тоже давался лаг в 2 года после принятия, с момента как он был принят в 2016 и до момента как он вступил в силу в 2018, в него вносились изменения. Это значит, что и в регламент об ИИ эти изменения могут быть внесены, даже после того, как этот текст будет согласован.

Технологии не стоят на месте и всё больше и больше организаций некоммерческих и в целом общество включается в обсуждение проблем. Чем громче будут звучать голоса правозащитных организаций, в том числе по таким очевидным проблемным вопросам как влияние систем ИИ на миграцию, положение лиц в движении, чем больше будет таких голосов, тем больше шансов изменить нормы в ту сторону, которая будет более основана на правах человека, не будет дискриминировать те самые уязвимые группы.

ПОХОЖИЕ НОВОСТИ
Лаборатория цифровых свобод

Яндекс, Tilda, mail.ru: почему больше не стоит доверять свои данные российским сервисам

Как российские спецслужбы могут собирать данные ваши и ваших пользователь_ниц через частные сервисы.
Лаборатория цифровых свобод

VPN окошко цифровой свободы и безопасности: можно ли его заблокировать?

Почему эта технология до сих пор остается одним из самых безопасных способов читать запрещенную и заблокированную в стране информацию
Лаборатория цифровых свобод

Влияние искусственного интеллекта на развитие прав человека и правозащиты

Что такое искусственный интеллект и как он связан с правами человека. Какое может быть применение ИИ в правозащите?
Лаборатория цифровых свобод

Как нейросеть считывает мимику для укрепления лояльности членов коммунистической партии Китая

Как далеко продвинулся Китай по использованию искусственного интеллекта для слежки за людьми.
Лаборатория цифровых свобод

Существует ли приватность в работе с Искусственным интеллектом (ИИ)

Безопасно ли использовать ИИ-решения, особенно с точки зрения GDPR, когда речь идет о чувствительных данных?