OpenAI ускорила выпуск новых ИИ-моделей, но пожертвовала временем на тестирование безопасности — скверный звоночек

По словам инсайдеров, тесты стали менее тщательными, и некоторые риски проявляются уже после запуска. Некоторые модели проверяются не в финальной версии, а на промежуточных «чекпоинтах», которые затем дорабатываются. Эксперты считают это плохой практикой.
OpenAI утверждает, что ускорение стало возможным благодаря автоматизации и новым подходам. Однако, по словам бывших сотрудников, компания отходит от собственных обещаний, таких как проведение глубоких проверок на потенциально опасные сценарии, например, синтез вирусов.
Ситуация вызывает тревогу, поскольку в условиях гонки ИИ-компании всё чаще жертвуют безопасностью ради скорости.