OpenAI представила специализированную ИИ-модель для кибербезопасности после анонса конкурента

Новая система предназначена для специалистов по защите данных и позволяет более эффективно анализировать уязвимости, вредоносное ПО и другие угрозы. При этом модель обладает расширенными возможностями по сравнению с обычными версиями ИИ, что делает её потенциально чувствительным инструментом.
Из-за этого OpenAI решила ограничить доступ: на первом этапе GPT-5.4-Cyber получат только проверенные исследователи, компании и организации в сфере безопасности. Одновременно компания расширяет свою программу Trusted Access for Cyber, добавляя новые уровни допуска — чем выше уровень проверки, тем больше возможностей открывается пользователю.
В отличие от более закрытого подхода конкурентов, OpenAI делает ставку на постепенное расширение доступа при строгой верификации пользователей. Компания считает, что такой подход позволит одновременно ускорить развитие защитных технологий и снизить риски злоупотреблений.
Появление подобных моделей отражает растущую конкуренцию в сфере ИИ, где всё больше внимания уделяется не только генерации контента, но и вопросам кибербезопасности.