Главное Авторские колонки Вакансии Образование
😼
Выбор
редакции
392 0 В избр. Сохранено
Авторизуйтесь
Вход с паролем

ИИ-модели получат допуск к госданным

Системы будут проверяться на предмет угрозы национальной безопасности и обороны страны

В России модели искусственного интеллекта, обученные на государственных данных, будут проверять на предмет угрозы национальной безопасности и обороны страны. Об этом пишет «Коммерсант» со ссылкой на утвержденный в кабмине паспорт федпроекта «Цифровое госуправление».

В 2025–2026 годах в РФ проведут научно-исследовательскую разработку принципов анализа моделей ИИ, обученных на госданных, а в 2027–2028 годах планируется создание и внедрение первой версии программы, которая будет анализировать такие системы.

Как сказано в документе, до 2030-го на эти цели планируется выделить 8,1 млрд рублей из федерального бюджета. За реализацию мероприятия отвечает ФСБ. Ожидается, что к 2030 году пять ИИ-систем получат подтверждение «допустимости безопасного использования». Из паспорта проекта следует, что это необходимо для использования таких систем в экономике данных.

Напомним, что Минцифры совместно с Ассоциацией больших данных (АБД, объединяет «Яндекс», VK, «Ростелеком» и др.) должны проработать порядок предоставления бизнесу доступа к госданным — информации о паспортах, трудовой деятельности граждан, номерах телефонов. Пока что речь идет только о данных, которые необходимы бизнесу для оказания услуг. А доступность их для обучения ИИ «может стать следующим шагом по расширению доступа бизнеса к госданным», отметили в АБД.

Как считает руководитель группы консалтинга MTS AI Дмитрий Черноус, госданные позволяют создавать ИИ-модели, которые лучше учитывают особенности и потребности конкретной страны или региона. Но обучение должно производиться с усиленной безопасностью.

Замдиректора Центра компетенций НТИ по большим данным МГУ Тимофей Воронин подчеркнул, что на данный момент нейросети «получают подтверждения безопасности путем тестирования и применения различных сценариев, необходимых для выявления слабых мест».

«Также с 1 января будет использоваться ГОСТ, закрепляющий требования к защите данных при применении ИИ. Оценка угроз безопасности — это обязательный элемент при работе с данными, которые имеют хоть какое-то отношение к персональным или иным защищаемым категориям. Госданные относятся к защищаемым категориям, и если системы ИИ обучаются на них, то такую оценку проводить необходимо», — прокомментировал собеседник издания.

«Один из самых главных рисков — утечки данных, которые можно „деобезличить“. Другая проблема — это недостоверность предсказаний. Ошибки в обучении модели или целенаправленные манипуляции могут привести к искаженным рекомендациям для госуправления или стратегических решений. А если модель содержит уязвимости, то она может стать входной точкой для атак на государственные системы», — заключила специалист по машинному обучению «Инфосистемы Джет» Надежда Гаврикова.

0
В избр. Сохранено
Авторизуйтесь
Вход с паролем
Комментарии
Выбрать файл
Не пропустите публикацию!
Spark_news
Новости от Спарка
Блог проекта
Расскажите историю о создании или развитии проекта, поиске команды, проблемах и решениях
Написать
Личный блог
Продвигайте свои услуги или личный бренд через интересные кейсы и статьи
Написать

Spark использует cookie-файлы. С их помощью мы улучшаем работу нашего сайта и ваше взаимодействие с ним.