Microsoft отзывает свои некоторые ИИ


2 мин чтения
Microsoft отзывает свои некоторые ИИ

Компания постепенно прекращает публичный доступ к ряду инструментов для анализа лиц на основе ИИ, в том числе к тому, который утверждает, что идентифицирует эмоции субъекта по видео и изображениям.

Такие инструменты «распознавания эмоций» подверглись критике со стороны экспертов. Они говорят, что не только выражения лица, которые считаются универсальными, различаются у разных групп населения, но и то, что ненаучно приравнивать внешние проявления эмоций к внутренним чувствам.

«Компании могут говорить все, что хотят, но данные ясны, — заявила новостному изданию The Verge в 2019 году Лиза Фельдман Барретт, профессор психологии Северо-восточного университета, которая провела обзор на тему распознавания эмоций с помощью ИИ. «Они могут определить хмурый взгляд, но это не то же самое, что обнаружить гнев».

Это решение является частью более крупного пересмотра политики Microsoft в отношении этики искусственного интеллекта. Обновленные стандарты ответственного ИИ компании (впервые изложенные в 2019 году) подчеркивают необходимость подотчетности, чтобы выяснить, кто использует ее услуги, и усиление человеческого контроля за тем, где применяются эти инструменты.

На практике это означает, что Microsoft ограничит доступ к некоторым функциям своих служб распознавания лиц (известных как Azure Face) и полностью удалит другие. Пользователям придется подать заявку на использование Azure Face для идентификации по лицу, например, сообщить Microsoft, как и где именно они будут развертывать свои системы. Некоторые варианты использования с менее опасным потенциалом (например, автоматическое размытие лиц на изображениях и видео) останутся открытыми.

Помимо удаления публичного доступа к своему инструменту распознавания эмоций, Microsoft также отказывается от возможности Azure Face идентифицировать такие атрибуты, как «пол, возраст, улыбка, растительность на лице, прическа и макияж».

«Эксперты внутри и за пределами компании подчеркивают отсутствие научного консенсуса в отношении определения «эмоций», проблемы с обобщением выводов по вариантам использования, регионам и демографическим группам, а также повышенную озабоченность конфиденциальностью в связи с этим типом возможностей», — написала в своем письме главный ответственный сотрудник Microsoft по искусственному интеллекту Наташа Крэмптон.

Microsoft заявляет, что прекратит предлагать эти функции новым клиентам с сегодняшнего дня, 21 июня, а доступ для существующих клиентов будет отозван 30 июня 2023 года.

Однако, хотя Microsoft прекращает публичный доступ к этим функциям, она продолжит использовать их по крайней мере в одном из своих продуктов: приложении Seeing AI, которое использует машинное зрение для описания мира для людей с нарушениями зрения.

В сообщении в блоге Сара Бёрд, главный менеджер группы продуктов Microsoft Azure AI, сказала, что такие инструменты, как распознавание эмоций, «могут быть полезны при использовании для набора сценариев контролируемой доступности». Неясно, будут ли эти инструменты использоваться в каких-либо других продуктах Microsoft.

Microsoft также вводит аналогичные ограничения для своей функции Custom Neural Voice, которая позволяет клиентам создавать голоса AI на основе записей реальных людей (иногда называемых дипфейками).

Инструмент «имеет захватывающий потенциал в сфере образования, доступности и развлечений», пишет Бёрд, но также отмечает, что «легко представить, как его можно использовать для ненадлежащего подражания говорящим и обмана слушателей». Microsoft заявляет, что в будущем она ограничит доступ к функции «управляемыми клиентами и партнерами» и «обеспечит активное участие говорящего при создании синтетического голоса».

Подписывайтесь на T4S.TECH в Telegram, Twitter и во «ВКонтакте», чтобы оставаться в курсе самых интересных новостей из мира технологий и не только.

Вам понравится

IKEA распродаст все свои товары в России
1 минута чтения
NASA снова проведёт тестирование Artemis 1
1 минута чтения

Вверх

🎉 Вы успешно подписались на новости сайта T4S.TECH!
OK