bg
Кибербезопасность
18:01, 24 апреля 2026
views
26

В МИФИ разработали нейросеть с защитой от атак «отравления» данных

В Национальном исследовательском ядерном университете МИФИ разработали архитектуру нейросети MambaShield, которая будет применяться в чувствительных к безопасности сферах – серверной инфраструктуре, банковском, медицинском и промышленном секторах.

Это не просто новая модель ИИ, а решение одной из проблем безопасности – data poisoning, при которой хакеры внедряют вредоносные данные в обучающую выборку и искажают работу системы.

MambaShield описана в международном журнале Expert Systems with Applications (2026). Согласно аннотации, обычные модели при poisoning-атаках могут терять точность с 95% до 40% и ниже, а MambaShield заявлена как более устойчивая архитектура с линейной сложностью на основе selective state space models.

Это инфраструктурная разработка на стыке ИИ и кибербезопасности. Защита ML-систем становится отдельным сегментом рынка. NIST относит poisoning-атаки к базовым угрозам для ИИ наряду с evasion и privacy attacks, что подтверждает актуальность темы на глобальном уровне.

Для пользователей эффект косвенный. Они получают более надёжные цифровые сервисы в банковской, медицинской и других сферах. Для России это усиление компетенций в AI security. В мировом контексте работа укладывается в тренд перехода от оценки «мощности» моделей к их надёжности.

Основа для международной валидации

Решение открывает для отечественных разработчиков ИИ экспортные перспективы в формате экспертизы и B2B/B2G-компонентов для защищенных AI/ML-систем. Публикация в Expert Systems with Applications с DOI формирует основу для международной валидации (работу могут подтвердить в других странах) и включения решения в глобальную научную дискуссию по adversarial machine learning.

Потенциал на внутреннем рынке выше. Сценарии применения связаны с системами обнаружения вторжений, антифродом, мониторингом промышленных сетей, защищенными медицинскими и банковскими модулями, средствами защиты КИИ. Спрос на подобные технологии крепчает на фоне усложнения ландшафта киберугроз и использования нейросетей мошенниками для разведки, поиска уязвимостей и обхода средств защиты.

Перспективы MambaShield зависят от появления пилотных проектов у индустриальных заказчиков, интеграции в конкретные стеки ИБ с доказанной устойчивостью, приемлемыми затратами. Также важно подтверждение результатов на разных датасетах и типах атак. Параллельно вокруг таких исследований может возникать кадровый и институциональный контур AI security – лаборатории, прикладные продукты и образовательные программы.

Следующая волна защиты

Ещё в 2024 году в МИФИ выпустили работу Improved Robust Adversarial Model against Evasion Attacks on Intrusion Detection Systems,. Там говорилось о повышении устойчивости систем обнаружения вторжений к evasion-атакам. История с MambaShield стала продолжением линии исследований в области устойчивого ИИ для КБ. В том же году ИТМО вместе с Raft запустил лабораторию LLM Security Lab для развития экспертизы и подготовки специалистов по безопасности ИИ. В 2025 году там презентовали систему HiveTrace для защиты генеративных AI-приложений от промпт-иньекций, утечек данных и прочих уязвимостей. В отличие от неё MambaShield фокусируется на устойчивости самой модели и процесса обучения к poisoning-атакам. В совокупности это показывает формирование в стране нескольких направлений в сфере AI security.

В 2024 году NIST выпустил и обновил базовый документ по adversarial machine learning, Poisoning-атаки там описаны как один из ключевых классов угроз. Год спустя в научной повестке усилился интерес к intrusion detection, устойчивому к poisoning-атакам, включая федеративное обучение и IoT-сценарии. В 2026 году в Microsoft заявили, что хакеры используют ИИ на всех этапах кибератак. Это повышает ценность решений, делающих AI-системы устойчивыми к сознательному искажению данных и среды. Поэтому MambaShield можно отнести к разряду технологий следующей волны защиты.

Участие России в глобальной гонке AI security

Отечественные команды смело заходят в важную нишу безопасности самих AI/ML-моделей. Отрасль будет расти быстрее традиционного рынка AI-решений, так как без доверия, устойчивости и возможности сертификации сложно масштабировать ИИ в банках, медицине, госсекторе и промышленности.

Появление разработки демонстрирует участие России в глобальной гонке AI security, переход от фокуса на эффективности моделей к их устойчивости, связь между ростом киберугроз и появлением новых архитектур защиты ИИ. Также это подтверждает конкуренцию академических разработок с будущими индустриальными продуктами.

Ожидается, что в ближайшее время разработка останется в плоскости научной публикации и пилотных проектов. Но если решение дойдёт до отраслевых внедрений, то может послужить основой модулей для SOC, антифрода, мониторинга трафика и защищенных AI-контуров в КИИ, причём наиболее реалистично выглядит путь коммерциализации через партнерства с ИБ-вендорами и крупными заказчиками.

В 2027 году заработает реестр доверенных технологий ИИ. Компании будут проходить многоступенчатое тестирование на специализированных полигонах, независимый аудит архитектуры, сертификацию по единым критериям безопасности. Появление этого реестра изменит рынок: крупные энергетические компании, банки, промышленники смогут закупать только доверенные решения
quote

like
heart
fun
wow
sad
angry
Последние новости
Главное
Рекомендуем
previous
next