«Безопасный» конкурент: новый ИИ-стартап сооснователя OpenAI привлёк 1 млрд долларов
Сооснователь и бывший главный научный сотрудник OpenAI Илья Суцкевер привлёк к своему новому ИИ-стартапу Safe Superintelligence (SSI) 1 млрд долларов. Об этом пишет Reuters со ссылкой на информацию от руководителей компании.
Полученные деньги разработчики направят на создание «безопасных систем искусственного интеллекта, которые намного превосходят человеческие возможности», а также покупку вычислительных мощностей и наём сотрудников. В число инвесторов проекта вошли ведущие венчурные фонды Andreessen Horowitz, Sequoia Capital, DST Global и SV Angel.
Сейчас в штате около 10 человек, компания не намерена сильно разрастаться: в её целях — создание небольшой высоконадежной команды исследователей и инженеров из Калифорнии и Израиля. SSI отказалась раскрывать оценку своей стоимости, но близкие к ней источники упомянули 5 млрд долларов.
Суцкевер, как передаёт издание, занимается проектом совместно с бывшим главой отдела ИИ-разработок в Apple Дэниелом Гроссом и экс-сотрудником OpenAI Дэниелом Леви.
«Для нас важно, чтобы нас окружали инвесторы, которые понимают, уважают и поддерживают нашу миссию, которая заключается в том, чтобы сделать прямой выстрел в безопасный суперинтеллект и, в частности, потратить пару лет на исследования и разработки нашего продукта, прежде чем вывести его на рынок», — заявил Гросс.
Суцкевер объявил о запуске стартапа в июне. Тогда экс-сотрудник OpenAI в беседе с Bloomberg отказался назвать имена финансовых спонсоров проекта или раскрыть сумму, которую проект уже привлёк.
Ещё в 2023 году Суцкевер входил в совет директоров OpenAI, который проголосовал за отставку гендиректора компании Сэма Альтмана из‑за «проблем с коммуникациями». Но через несколько дней он присоединился почти ко всем сотрудникам OpenAI, подписавшим письмо с требованием возвращения Альтмана и отставки совета директоров. Его исключили из совета, а в мае 2024-го он покинул бизнес. После ухода Суцкевера IOpenAI распустила его команду, которая работала над тем, чтобы ИИ соответствовал человеческим ценностям, для подготовки к тому моменту, когда ИИ превзойдёт человеческий интеллект.