Основные ИИ-компании не соответствуют глобальным стандартам безопасности

Независимые эксперты установили, что, несмотря на гонку за сверхинтеллект, ни одна из этих компаний не выработала надёжную стратегию управления потенциально опасными и мощными ИИ-системами.
Исследование опубликовано на фоне усиленной обеспокоенности общественности: в ряде случаев ИИ-чат-боты связывают с психологическим вредом, самоповреждением и даже суицидальными случаями. Представитель института пожёстко отметил, что американские ИИ-компании регулируются слабее, чем рестораны, и при этом активно лоббируют отказ от жёстких «обязывающих» стандартов безопасности.
В то же время инвестиции в развитие ИИ продолжают измеряться сотнями миллиардов долларов — при том, что меры предосторожности не поспевают за технологическим прогрессом. Некоторые учёные, включая авторитетных исследователей, призывают к временному запрету на развитие «сверхинтеллекта», пока не будут выстроены надёжные системы контроля и регулирования.
Некоторые компании уже дали комментарии: так, xAI назвала критику «ложью СМИ», а ряд других (включая OpenAI, Anthropic и Meta) пока не прокомментировали выводы доклада.