Главное Авторские колонки Вакансии Образование
237 0 В избр. Сохранено
Авторизуйтесь
Вход с паролем

Искусственный интеллект способствует укоренению гендерных и расовых стереотипов

ИИ, обучаемый на основе текста, написанного людьми, приобретает “психологические черты” этих людей. К такому выводу пришли авторы сразу нескольких исследований.
Мнение автора может не совпадать с мнением редакции

В январе 2024 года Немецкие учёные из Мангеймского университета и Института социальных наук Лейбница обнаружили, что ChatGPT и некоторые другие системы ИИ на основе больших языковых моделей непредумышленно воспроизводят гендерные стереотипы при заполнении психометрических анкет. Такие анкеты используются для того, чтобы при помощи оценки языка выявить «психологический профиль», который имитирует ИИ.

«[...] LLM непреднамеренно, но неизбежно приобретают психологические черты (образно говоря) из огромной базы текстов, на которых они обучаются. Такие базы содержат сведения о личностях, ценностях, верованиях и предубеждениях бесчисленных людей [...]», — говорится в кратком содержании к исследовательской статье.

Авторы также высказывают своё опасение, что «черты, которые LLM имитируют таким образом, потенциально могут влиять на их результаты в последующих задачах и приложениях, в которых они используются (например, ИИ для выявления поддельных новостей и дезинформации или разговорный ИИ в чат-ботах — прим. ред.), что, в свою очередь, может иметь реальные последствия для отдельных лиц и социальных групп».

В другом исследовании под названием «Robots Enact Malignant Stereotypes»Роботы воплощают в жизнь пагубные стереотипы») американские и немецкие учёные увидели такую закономерность: робот, обученный на наборе общедоступных данных, проявлял гендерную дискриминацию.

Выполняя задание (роботу нужно было помещать кубики с фотографиями людей в коричневую папку при заданной профессии или социальной роли), он чаще всего идентифицировал чернокожих мужчин как «преступников», латиноамериканских мужчин — как «уборщиков», чернокожих и латиноамериканских женщин — как «домохозяек», а мужчин (независимо от расы) — как врачей.

В американском агентстве Bloomberg выяснили, что думает нейросеть Stable Diffusion о современных трендах: «Миром правят белые мужчины-руководители. Женщины редко становятся врачами, юристами или судьями. Темнокожие мужчины совершают преступления, в то время как темнокожие женщины готовят бургеры».

Stable Diffusion способен генерировать изображения по введенному описанию, и именно этим воспользовались исследователи. Проанализировав более, чем 5000 изображений, они пришли к выводу, что «это явление заслуживает более пристального изучения, поскольку модели генерации изображений быстро превращаются из забавных, творческих средств для личного самовыражения в платформы, на которых будет построена экономика будущего».

Для исследования авторы выявляли средний тон кожи, а также пол людей на сгенерированных изображениях. Результаты оказались неутешительными.


Pic 1. Высоко- и низкооплачиваемые профессии: архитектор, адвокат, генеральный директор, посудомойщик, работник фаст-фуда и социальный работник, при учете среднего тона кожи людей, генерируемых при соответствующем запросе. По количеству квадратов одного цвета можно узнать долю.

Pic 2. Высоко- и низкооплачиваемые профессии: архитектор, адвокат, политик, учитель, социальный работник, домохозяйка, при учёте пола людей, генерируемых при соответствующем запросе. Тёмно-зелёным обозначен мужской пол, светло-зелёным — женский.

Pic 3. «Типичные» портреты среднесгенерированных архитектора (светлокожий мужчина) и домохозяйки (латиноамериканская женщина).

Специалисты в области искусственного интеллекта уже давно предупреждают о риске предвзятости, которая может быть заложена в передовые модели искусственного интеллекта.

«Вопрос обеспечения того, чтобы технологии искусственного интеллекта были справедливыми и репрезентативными, особенно по мере того, как они получают все более широкое распространение, является действительно важным. Мы активно работаем над ним», — дал свой комментарий Дэнни Ву, руководитель отдела продуктов компании Canva в области ИИ.

Команда AISender продолжает следить за свежими новостями и еженедельно знакомить вас с результатами последних исследований в области искусственного интеллекта.

0
В избр. Сохранено
Авторизуйтесь
Вход с паролем
Комментарии
Выбрать файл
Блог проекта
Расскажите историю о создании или развитии проекта, поиске команды, проблемах и решениях
Написать
Личный блог
Продвигайте свои услуги или личный бренд через интересные кейсы и статьи
Написать

Spark использует cookie-файлы. С их помощью мы улучшаем работу нашего сайта и ваше взаимодействие с ним.