Главное Свежее Вакансии Образование
249 0 В избр. Сохранено
Авторизуйтесь
Вход с паролем

Microsoft планирует отказаться от инструментов распознавания лиц в рамках программы Ответственный ИИ - New York Times

Согласно статье от New York Times, технологический гигант прекратит предлагать автоматизированные инструменты по определению пола, возраста и эмоционального состояния человека и ограничит массовое использование своего инструмента распознавания лиц.

Ранее уже поднималось обсуждение в СМИ по поводу того, что программное обеспечение для анализа лиц, которое могло бы определить возраст, пол и эмоциональное состояние человека, будет являться необъективным и ненадежным, поэтому и не должно продаваться (о чем New York Times писали еще в 2020 году вот тут).

Вчера в Microsoft заявили, что планируют удалить эти возможности из своей службы искусственного интеллекта для обнаружения, анализа и распознавания лиц. Возможности перестанут быть доступными для новых пользователей уже на этой неделе и будут постепенно отключены для текущих пользователей в течение года.

Сообщается, что эти изменения являются частью усилий Microsoft по ужесточению контроля над своими продуктами искусственного интеллекта. После двухлетнего анализа команда Microsoft разработала так называемый «Стандарт ответственного искусственного интеллекта» — 27-страничный документ, в котором изложены требования к системам искусственного интеллекта, чтобы гарантировать, что они не окажут вредного влияния на общество (видео о разработке стандарта доступно на Ютубе по ссылке).

Требования включают условие для того, чтобы системы предоставляли «обоснованные решения проблем, для решения которых они предназначены», и «одинаковое качество обслуживания в том числе для определенных демографических групп, включая маргинализированные группы».

Перед размещением в открытый доступ технологии, которые будут использоваться для принятия важных решений о доступе человека к работе, образованию, здравоохранению, финансовым услугам или социальным льготам, будут проверяться группой под руководством Наташи Крэмптон, главы отдела по искусственному интеллекту в Microsoft.

В Microsoft ранее уже были высказаны повышенные опасения по поводу инструмента распознавания эмоций, который определяет выражение лица человека как гнев, презрение, отвращение, страх, счастье, нейтральное, печаль или удивление.

Существует огромное количество культурных, географических и индивидуальных различий в том, как мы выражаем себя. Это вызывает сомнения в надежности определения эмоционального состояния, наряду с более серьезными вопросами о том, является ли «выражение лица надежным индикатором вашего внутреннего эмоционального состояния»

Наташа Крэмптон,Глава отдела искусственного интеллекта Microsoft

Инструменты анализа возраста и пола, которые были исключены — наряду с другими инструментами для выявления таких черт лица, как волосы и улыбка — могут быть полезны, например, для интерпретации визуальных изображений для слепых или слабовидящих людей, но компания решила, что было бы проблематично делать подобные инструменты анализа доступными для всех.

В частности, так называемый гендерный классификатор для системы искусственного интеллекта был бинарным, «а это не соответствует нашим ценностям».

Наташа Крэмптон,
Глава отдела искусственного интеллекта Microsoft

Microsoft также введет новые меры контроля над функцией распознавания лиц, которая может использоваться для проверки личности или поиска конкретного человека.

Например, компания Uber использует эту программу в своем приложении для проверки того, что лицо водителя соответствует идентификатору, хранящемуся в файле учетной записи этого водителя.

Разработчики программного обеспечения, которые хотят использовать инструмент распознавания лиц от Microsoft, должны будут подать заявку на доступ и объяснить, как они планируют его использовать.

Пользователи также должны будут подать заявку и объяснить, как они будут использовать другие потенциально опасные системы искусственного интеллекта, такие как Custom Neural Voice. Эта служба может генерировать отпечаток голоса человека на основе образца чьей-либо речи, так что авторы, например, могут создавать синтетические версии своего голоса для чтения аудиокниг на языках, которыми они не владеют.

Из-за возможности неправомерного использования этого инструмента — для создания впечатления, что люди говорили то, чего они не говорили — дикторы должны будут пройти ряд шагов, чтобы подтвердить, что использование их голоса разрешено, а записи будут включать водяные знаки, обнаруживаемые Microsoft.

Мы предпринимаем конкретные шаги, чтобы соответствовать нашим принципам исскуственного интеллекта. Это будет огромное путешествие

Наташа Крэмптон,
Глава отдела искусственного интеллекта Microsoft

В S2 мы тоже прошли огромное путешествие от помощника оператора колл-центра до полноценной low-code/no-code CRM/ERP платформы управления бизнесом. Да, у нас нет автоматического распознавания лиц, эмоций и идентификации пользователя как боевой вертолёт, но есть много другого, более полезного для решения проблем как микробизнеса, так и компаний холдинга Mail.ru Group.

0
В избр. Сохранено
Авторизуйтесь
Вход с паролем
Комментарии
Выбрать файл
Блог проекта
Расскажите историю о создании или развитии проекта, поиске команды, проблемах и решениях
Написать
Личный блог
Продвигайте свои услуги или личный бренд через интересные кейсы и статьи
Написать

Spark использует cookie-файлы. С их помощью мы улучшаем работу нашего сайта и ваше взаимодействие с ним.