редакции Выбор
ИИ-модели получат допуск к госданным
В России модели искусственного интеллекта, обученные на государственных данных, будут проверять на предмет угрозы национальной безопасности и обороны страны. Об этом пишет «Коммерсант» со ссылкой на утвержденный в кабмине паспорт федпроекта «Цифровое госуправление».
В 2025–2026 годах в РФ проведут научно-исследовательскую разработку принципов анализа моделей ИИ, обученных на госданных, а в 2027–2028 годах планируется создание и внедрение первой версии программы, которая будет анализировать такие системы.
Как сказано в документе, до 2030-го на эти цели планируется выделить 8,1 млрд рублей из федерального бюджета. За реализацию мероприятия отвечает ФСБ. Ожидается, что к 2030 году пять ИИ-систем получат подтверждение «допустимости безопасного использования». Из паспорта проекта следует, что это необходимо для использования таких систем в экономике данных.
Напомним, что Минцифры совместно с Ассоциацией больших данных (АБД, объединяет «Яндекс», VK, «Ростелеком» и др.) должны проработать порядок предоставления бизнесу доступа к госданным — информации о паспортах, трудовой деятельности граждан, номерах телефонов. Пока что речь идет только о данных, которые необходимы бизнесу для оказания услуг. А доступность их для обучения ИИ «может стать следующим шагом по расширению доступа бизнеса к госданным», отметили в АБД.
Как считает руководитель группы консалтинга MTS AI Дмитрий Черноус, госданные позволяют создавать ИИ-модели, которые лучше учитывают особенности и потребности конкретной страны или региона. Но обучение должно производиться с усиленной безопасностью.
Замдиректора Центра компетенций НТИ по большим данным МГУ Тимофей Воронин подчеркнул, что на данный момент нейросети «получают подтверждения безопасности путем тестирования и применения различных сценариев, необходимых для выявления слабых мест».
«Также с 1 января будет использоваться ГОСТ, закрепляющий требования к защите данных при применении ИИ. Оценка угроз безопасности — это обязательный элемент при работе с данными, которые имеют хоть какое-то отношение к персональным или иным защищаемым категориям. Госданные относятся к защищаемым категориям, и если системы ИИ обучаются на них, то такую оценку проводить необходимо», — прокомментировал собеседник издания.
«Один из самых главных рисков — утечки данных, которые можно „деобезличить“. Другая проблема — это недостоверность предсказаний. Ошибки в обучении модели или целенаправленные манипуляции могут привести к искаженным рекомендациям для госуправления или стратегических решений. А если модель содержит уязвимости, то она может стать входной точкой для атак на государственные системы», — заключила специалист по машинному обучению «Инфосистемы Джет» Надежда Гаврикова.