Евросоюз разрабатывает законы для регулирования искусственного интеллекта

В скором времени использование ИИ во многих сферах нашей жизнедеятельности будет ограничено и регламентировано.


4 мин чтения
Евросоюз разрабатывает законы для регулирования искусственного интеллекта

Пока американские законодатели проводят очередные слушания в Конгрессе об опасностях, связанных с алгоритмической предвзятостью в социальных сетях, Европейская Комиссия (в основном исполнительная ветвь ЕС) обнародовала широкую нормативно-правовую базу, которая в случае принятия может иметь глобальные последствия для будущего развития ИИ.

Это не первая попытка Комиссии направить рост и развитие этой новой технологии. После обширных встреч с группами сторонников и другими заинтересованными сторонами ЕК опубликовала в 2018 году первую Европейскую стратегию по ИИ и Скоординированный план по ИИ.

За ними последовали в 2019 году Руководство по Созданию Надежного ИИ, а в 2020 году – Белая Книга Комиссии по ИИ и Отчет о последствиях для безопасности и ответственности искусственного интеллекта, интернета вещей и робототехники. Так же, как и в своем амбициозном плане Общего регламента защиты данных (GDPR) в 2018 году, Комиссия стремится установить базовый уровень общественного доверия к технологии на основе строгих мер защиты пользователей и конфиденциальности данных, а также защиты от ее потенциального неправомерного использования.

«Искусственный интеллект должен быть не самоцелью, а инструментом, который должен служить людям с конечной целью повышения благосостояния людей. Правила для искусственного интеллекта, доступные на рынке Союза или иным образом влияющие на граждан Союза, должны, таким образом, ставить людей в центр (быть ориентированными на человека), чтобы они могли доверять тому, что технология используется безопасным и совместимым с законом способом, включая уважение основных прав», – включила Комиссия в свой проект постановления.
«В то же время такие правила для искусственного интеллекта должны быть сбалансированными, соразмерными и не должны излишне ограничивать или препятствовать технологическому развитию. Это особенно важно, потому, что, хотя искусственный интеллект уже присутствует во многих аспектах повседневной жизни людей, невозможно предвидеть все возможные варианты его использования или применения, которые могут произойти в будущем».

Действительно, системы искусственного интеллекта уже повсеместны в нашей жизни – от рекомендательных алгоритмов, которые помогают нам решать, что смотреть в Netflix и на кого подписываться в Twitter, до цифровых помощников в наших телефонах и систем помощи водителю, которые следят за нами за дорогой, когда мы едем.

«Европейская комиссия в очередной раз решительно выступила против новых технологий, точно так же, как они сделали с конфиденциальностью данных через GDPR», – Брэнди Ноннеке, директор лаборатории политик CITRIS в Калифорнийском университете в Беркли.

«Предлагаемое регулирование весьма интересно тем, что решает проблему с помощью подхода, основанного на оценке риска», аналогичного тому, который используется в предлагаемой Канадской нормативно-правовой базе ИИ.

Эти новые правила разделят усилия ЕС по разработке искусственного интеллекта на четырехуровневую систему – минимальный риск, ограниченный риск, высокий риск и полностью запрещены – в зависимости от их потенциального вреда для общественного блага.

Список абсолютно запрещенных технологий будет включать в себя любые приложения, которые манипулируют поведением человека, чтобы обойти свободную волю пользователей – особенно те, которые используют уязвимости определенной группы людей из-за их возраста, физических или умственных недостатков, а также системы биометрической идентификации, которые позволяют правительствам проводить «социальную оценку», согласно предложению на 108 страницах.

Это прямой намек на «систему социального кредитования» Китая, и, учитывая, что эти правила все еще теоретически будут регулировать технологии, которые влияют на граждан ЕС, независимо от того, находились ли эти люди физически в границах ЕС, может привести к некоторым интересным международным инцидентам в ближайшем будущем.

С другой стороны, приложения с высоким уровнем риска определяются как любые продукты, в которых ИИ «предназначен для использования в качестве компонента безопасности продукта» или ИИ сам является компонентом безопасности (например, функция предотвращения столкновений в смарткаре). Кроме того, приложения ИИ, предназначенные для любого из восьми конкретных рынков, включая критическую инфраструктуру, образование, юридические/судебные вопросы и найм сотрудников, считаются частью категории высокого риска.

Они могут поступать на рынок, но перед поступлением в продажу к ним предъявляются строгие нормативные требования, такие как требование к разработчику ИИ соблюдать правила ЕС на протяжении всего жизненного цикла продукта, обеспечивать строгие гарантии конфиденциальности и постоянно поддерживать человека. К сожалению, это означает, что в обозримом будущем не будет полностью автономных робохирургов.

Специалисты отмечают, что многие области, затрагиваемые этими правилами высокого риска, совпадают с теми, которые академические исследователи и журналисты изучали в течение многих лет.

Одной из областей, к которой эти правила явно не будут применяться, являются ИИ, созданные специально для военных операций (по понятным причинам).

К приложениям с ограниченным риском относятся такие вещи, как чат-боты на веб-сайтах служб или содержащие дипфейк-контент. В этих случаях создатель ИИ просто должен заранее сообщить пользователям, что они будут взаимодействовать с машиной, а не с другим человеком или даже собакой. А для продуктов с минимальным риском, таких как ИИ в видеоиграх и на самом деле подавляющее большинство приложений, которые ожидает увидеть ЕС, правила не требуют каких-либо особых ограничений или дополнительных требований, которые необходимо выполнить перед выходом на рынок.

И если какая-либо компания или разработчик осмелится проигнорировать эти правила, они обнаружат, что их нарушение влечет за собой крупный штраф, который можно измерить в процентах от доходов. В частности, штрафы за несоблюдение требований могут составлять до 30 миллионов евро или 4 процентов от глобального годового дохода организации, в зависимости от того, что больше.

«Для нас на европейском уровне важно передать очень сильное сообщение и установить стандарты с точки зрения того, как далеко должны развиваться эти технологии», – сказал новостному изданию Bloomberg Драгос Тудораче, член Европейского парламента и глава комитета по искусственному интеллекту. в недавнем интервью. «Создание нормативно-правовой базы вокруг них – необходимость, и хорошо, что Европейская комиссия идет в этом направлении».

Еще неизвестно, последует ли в этом направлении остальной мир за Брюсселем. Учитывая то, как в настоящее время правила определяют, что такое ИИ – и это делается в очень общих чертах – мы, вероятно, можем ожидать, что этот закон повлияет почти на все аспекты глобального рынка и каждый сектор мировой экономики, а не только в цифровой сферы.

Конечно, эти правила должны будут пройти через строгий (часто вызывающий споры) парламентский процесс, на завершение которого могут потребоваться годы, прежде чем они будут приняты.

Подписывайтесь на T4S.TECH в Telegram. Публикуем новости, обзоры и забавные факты о технологиях.

Вверх

🎉 Вы успешно подписались на новости сайта T4S.TECH!
OK