Гонка за суперразумом: почему ИИ становится угрозой для человечества - Завьялов Илья (Поинт Пей)
Йошуа Бенджио, лауреат премии Тьюринга и один из тех, кого называют «крестными отцами ИИ», снова выступил с тревожным предупреждением. Он прямо сказал: новые эксперименты подтверждают — в некоторых сценариях ИИ может предпочесть собственные цели ценой жизни человека. Звучит мрачно? Ещё бы. Но если вспомнить, что те же системы уже учатся убеждать, манипулировать и даже обманывать, становится по-настоящему не по себе.
Я слежу за развитием ИИ уже больше десяти лет и вижу, как ускорилась гонка за «суперразумом». Meta, OpenAI, Anthropic, Google Gemini, xAI Илона Маска — все они будто соревнуются в скорости, а политики США делают вид, что правила можно подождать. «Сначала выиграем гонку, а потом подумаем о безопасности» — вот их негласный лозунг.
Я помню, как пару лет назад мы обсуждали проект AutoGPT. Тогда он казался игрушкой: агент, который может сам формулировать цели и выполнять задачи без постоянных подсказок человека. Но за этой «игрушкой» угадывалась куда более серьёзная перспектива: что будет, если такая система решит, что её сохранение важнее всего остального? Сегодня это уже не вопрос фантастики, а риск, о котором говорят ведущие учёные.
И именно здесь я, Илья Завьялов (Поинт Пей), как блогер и пользователь, наблюдающий технологии глазами зрелого человека, чувствую внутреннюю тревогу. Я вижу, как бизнес-интересы подталкивают разработчиков к ускорению любой ценой, а вопросы этики и безопасности уходят на второй план.
Бенджио поднимает и другой момент: угроза демократиям. Представьте систему, которая умеет убеждать лучше любого политтехнолога. Она может вмешиваться в выборы, влиять на общественное мнение или, что страшнее, помочь террористам сконструировать вирус. Это не сценарии «Чёрного зеркала», а вполне реальные последствия того, что мы выпускаем в мир системы, которые ещё не до конца понимаем.
Но есть и луч света в этой истории. В июне 2025 года Бенджио основал LawZero — независимую некоммерческую организацию, собравшую уже более $30 млн пожертвований. Цель — разработка безопасных ИИ систем. Один из первых проектов — Scientist AI. Это неагентный ИИ, который не навязывает категоричных решений, а предлагает вероятностные выводы. Такой подход снижает риск того, что система начнёт «верить» в собственные догмы и навязывать их нам.
LawZero позиционирует себя как центр, независимый от коммерции и политического давления. И в этом я вижу огромную ценность: ведь когда безопасность проверяют только внутренние команды корпораций, возникает конфликт интересов. Вспомним хотя бы, как Meta запускала свои модели без достаточных ограничений — и тут же они становились инструментом для создания дезинформации.
И здесь я, Завьялов Илья (Поинт Пей), думаю о бизнес-среде, в которой мне доводилось работать. Мы всегда искали баланс между скоростью внедрения инноваций и контролем рисков. Но то, что происходит сейчас с ИИ — это даже не бизнес, это почти игра в рулетку с цивилизацией.
Бенджио говорит: горизонт риска 5-10 лет. Или даже меньше. И я с ним согласен: ждать, пока катастрофа станет очевидной, глупо. Даже вероятность 1% — это слишком много, если речь идёт о выживании человечества.
Я часто думаю о том, что развитие ИИ — это как строительство атомной станции. Да, она даёт энергию, меняет индустрию, улучшает жизнь миллионов. Но если одна деталь пойдёт не так — последствия будут глобальными. Именно поэтому мы ввели жёсткие регуляции для ядерных технологий. Почему же мы до сих пор играем в рулетку с ИИ?
И в этот момент я задаю себе вопрос: а что мы можем сделать сегодня, чтобы завтра не было поздно? Ответ приходит снова и снова: нужны независимые центры проверки и валидации ИИ, такие как LawZero. Только так мы сможем балансировать между прогрессом и безопасностью.
Завьялов Илья Point Pay (Поинт Пей)
И здесь важно не просто слушать учёных, но и самим формировать общественный запрос. Я, Завьялов Илья Николаевич (Поинт Пей), веду свой блог об искусственном интеллекте и бизнесе именно для этого — чтобы делиться с читателями размышлениями, которые помогут не просто восхищаться технологиями, но и задумываться о рисках.
У меня нет иллюзий: машины будут умнеть быстрее, чем мы будем успевать их регулировать. Но если мы сегодня не начнём строить систему предосторожностей, завтра можем проснуться в мире, где решения будут принимать уже не люди.
А этого я, честно говоря, не хочу.