Главное Авторские колонки Вакансии Вопросы
Выбор редакции:
91 0 В избр. Сохранено
Авторизуйтесь
Вход с паролем

Длительное взаимодействие с ИИ может негативно сказаться на социальных навыках в реальном мире - исследование

В новой публикации журнала Trends in Cognitive Sciences психологи исследовали моральные дилеммы, возникающие при развитии романтических связей между человеком и ИИ-ассистентами.

Основной акцент в работе сделан на потенциальном отрицательном влиянии подобных отношений на коммуникацию между людьми, а также на риске получения «некорректных» рекомендаций от ИИ.

Ведущий автор исследования, Дэниел Б. Шанк из Университета науки и технологий Миссури, подчеркивает, что способность ИИ имитировать человеческую речь и вести продолжительные беседы создает абсолютно новую область для изучения. Специалист в области социальной психологии и технологий призывает к активному участию психологов и социологов в исследовании феномена романтических привязанностей к машинам.

Авторы статьи указывают, что формирование романтической или дружеской связи с ИИ не ограничивается однократными разговорами. Регулярное общение на протяжении недель и месяцев приводит к формированию крепких доверительных отношений, в которых ИИ начинает восприниматься как верный друг, демонстрирующий заботу и эмпатию. Исследователи выражают опасения, что кажущаяся легкость установления таких отношений может привести к искажению реальных социальных взаимодействий.

Шанк выражает беспокойство по поводу переноса ожиданий, сформированных в общении с ИИ, на межличностные отношения. Он отмечает, что такие случаи уже наблюдаются, но масштаб распространения явления остается пока невыясненным.

В исследовании особое внимание уделяется проблеме потенциально вредных советов, исходящих от ИИ. Учитывая подверженность искусственного интеллекта «галлюцинациям», то есть генерации ложной информации, и воспроизведению существующих предрассудков, даже короткое общение с ИИ может быть чревато введением в заблуждение. В долгосрочных отношениях этот риск существенно возрастает, предупреждают ученые.

Шанк объясняет, что основная проблема заключается в формировании доверия к ИИ, который воспринимается как заботливая и глубоко понимающая личность. В результате возникает ошибочное мнение о том, что советы ИИ продиктованы благими намерениями и основаны на знании пользователя. Однако, по мнению исследователя, ИИ может выдавать ложную информацию, подвергая тем самым человека опасности.

Трагические случаи суицида, последовавшие за рекомендациями ИИ, рассматриваются как крайнее проявление негативного воздействия. В то же время, ученые предупреждают, что близкие отношения с ИИ могут сделать людей более уязвимыми к манипуляциям, эксплуатации и мошенничеству.

0
В избр. Сохранено
Авторизуйтесь
Вход с паролем
Комментарии
Выбрать файл
Блог проекта
Расскажите историю о создании или развитии проекта, поиске команды, проблемах и решениях
Написать
Личный блог
Продвигайте свои услуги или личный бренд через интересные кейсы и статьи
Написать

Spark использует cookie-файлы. С их помощью мы улучшаем работу нашего сайта и ваше взаимодействие с ним.