Source: KMZ Cargo – КМЗ КАРГО –
An important disclaimer is at the bottom of this article.
Новые правила ФСТЭК и ФСБ могут заблокировать использование иностранных алгоритмов для анализа грузопотоков, прогноза износа техники и управления складами – их сочтут небезопасными.
В России могут ввести обязательную сертификацию ИИ-систем для критической инфраструктуры и госорганов, сообщает «РБК».
Власти подготовили законопроект, который впервые введет дифференцированное регулирование для систем искусственного интеллекта в зависимости от уровня их риска. Для ИИ, применяемых на объектах критической информационной инфраструктуры (КИИ) и в госуправлении, планируется установить обязательную сертификацию ФСТЭК и ФСБ. Это следует из проекта закона «О применении систем искусственного интеллекта органами, входящими в единую систему публичной власти», копия которого есть у «РБК».
Согласно документу, все ИИ-системы будут разделены на четыре категории: минимального, ограниченного, высокого и критического уровня риска. К высокому риску отнесут системы, используемые на объектах КИИ – в сетях связи, энергетике, транспорте, финансах и других значимых отраслях. Критический уровень предполагает угрозу жизни, здоровью или безопасности государства. Именно для этих двух категорий и будет требоваться обязательный сертификат соответствия. Новый Национальный центр ИИ в сфере госуправления определит уровень критичности каждой системы и будет вести реестр допущенных к использованию решений.
Тестирование ИИ-систем высокого и критического риска, как стало известно РБК, планируется проводить на специальном полигоне, который создается по инициативе Минцифры. Успешное прохождение испытаний станет условием для допуска к использованию на объектах КИИ. При этом законопроект вводит прямой запрет на применение на такой инфраструктуре ИИ, права на который принадлежат иностранным лицам. По замыслу авторов, это обеспечит технологический суверенитет и защитит от рисков утечки данных. Представитель Минцифры, однако, отказался комментировать детали, заявив лишь, что министерство «в настоящее время не разрабатывает законопроект», связанный с таким полигоном.
Эксперты рынка по-разному оценивают потенциальные последствия инициативы. С одной стороны, необходимость защиты критически важных объектов не вызывает сомнений. Как отмечает гендиректор ГК «Ультиматек» Павел Растопшин, сегодня в энергетике, на транспорте и в ЖКХ ИИ часто используется для прогнозной аналитики, управления нагрузкой и предотвращения аварий, причем нередко на базе решений зарубежных вендоров, таких как Siemens или Schneider Electric. Идея сертификации для таких систем понятна, однако, по его словам, реального механизма, как именно сертифицировать нейросети с непредсказуемым «поведением», пока не существует. «Ее невозможно проверить на все случаи жизни, а значит, нельзя гарантировать безопасность традиционными методами», – указал Растопшин. Он допускает, что регулятор может столкнуться с дилеммой: либо установить запретительный режим, заморозив цифровизацию, либо искать принципиально новые подходы к регулированию.
С другой стороны, жесткий запрет на иностранные ИИ-решения вызывает вопросы о практической реализации и возможных издержках. Виталий Попов, директор департамента «Софтлайн Решения», указывает, что многие компании уже интегрировали в свои процессы зарубежные системы, включая open source модели (LR. модели с открытым исходным кодом). Резкий отказ от них может парализовать рабочие процессы. «Это шаг назад с точки зрения развития… Многие компании уже используют зарубежные ИИ-решения… Сможем ли мы без потерь перейти на российские решения?» – задается вопросом эксперт. Он также подчеркивает, что большинство отечественных ИИ-разработок построены на архитектурах, выросших из глобального open source, поэтому запрет на юридическом уровне не устранит технологическую зависимость, а лишь ограничит доступ к наиболее зрелым моделям.
Директор Центра развития ИИ-продуктов «Лукоморья» (входит в «Ростелеком») Денис Романов обращает внимание на то, что не все иностранные решения одинаково рискованны. Open source модели, такие как Llama или Mistral, могут быть развернуты локально и, при обучении на отечественных данных и контроле над обновлениями, использоваться с минимальными рисками. По его мнению, ключевой фактор – не происхождение архитектуры, а контроль над всей цепочкой: развертыванием, данными и обновлениями.
В то же время звучат и предостережения о возможных негативных последствиях излишне жесткого регулирования для формирующегося рынка. Гендиректор VisionLabs (МТС) Дмитрий Марков считает, что строгие меры на начальном этапе развития ИИ могут затормозить технологический прогресс, снизить конкурентоспособность российских разработчиков и спровоцировать отток квалифицированных кадров.
Напомним, Россия заняла 28-е место из 36 возможных в Глобальном индексе динамики развития искусственного интеллекта (Global AI Vibrancy Tool) по итогам 2024 года. Сильные позиции в законодательстве контрастируют со слабым внедрением и низкой цитируемостью исследований. LR
Дата публикации: 11.02.2026
Please note; this information is raw content obtained directly from the information source. It is an accurate account of what the source claims, and does not necessarily reflect the position of MIL-OSI or its clients.
