Главное Авторские колонки Вакансии Вопросы
Выбор редакции:
93 0 В избр. Сохранено
Авторизуйтесь
Вход с паролем

Основные ИИ-компании не соответствуют глобальным стандартам безопасности

Согласно свежему исследованию Future of Life Institute, крупные компании в сфере искусственного интеллекта — такие как Anthropic, OpenAI, xAI и Meta — «далеки от соответствия новым мировым стандартам» по безопасности.
Мнение автора может не совпадать с мнением редакции

Независимые эксперты установили, что, несмотря на гонку за сверхинтеллект, ни одна из этих компаний не выработала надёжную стратегию управления потенциально опасными и мощными ИИ-системами.

Исследование опубликовано на фоне усиленной обеспокоенности общественности: в ряде случаев ИИ-чат-боты связывают с психологическим вредом, самоповреждением и даже суицидальными случаями. Представитель института пожёстко отметил, что американские ИИ-компании регулируются слабее, чем рестораны, и при этом активно лоббируют отказ от жёстких «обязывающих» стандартов безопасности.

В то же время инвестиции в развитие ИИ продолжают измеряться сотнями миллиардов долларов — при том, что меры предосторожности не поспевают за технологическим прогрессом. Некоторые учёные, включая авторитетных исследователей, призывают к временному запрету на развитие «сверхинтеллекта», пока не будут выстроены надёжные системы контроля и регулирования.

Некоторые компании уже дали комментарии: так, xAI назвала критику «ложью СМИ», а ряд других (включая OpenAI, Anthropic и Meta) пока не прокомментировали выводы доклада.

0
В избр. Сохранено
Авторизуйтесь
Вход с паролем
Комментарии
Выбрать файл
Блог проекта
Расскажите историю о создании или развитии проекта, поиске команды, проблемах и решениях
Написать
Личный блог
Продвигайте свои услуги или личный бренд через интересные кейсы и статьи
Написать

Spark использует cookie-файлы. С их помощью мы улучшаем работу нашего сайта и ваше взаимодействие с ним.