bg
Кибербезопасность
16:17, 10 мая 2026
views
10

AppSec Solutions создала AI-файрвол для блокировки атак на ИИ

AppSec Solutions разработала ИИ-файрвол для защиты систем с большими языковыми моделями. Он фильтрует запросы к LLM (большой языковой модели), проверяет входящие обращения и уменьшает риски небезопасного использования.

Речь идет о попытках атаковать нейросеть, обойти ограничения и спровоцировать утечку конфиденциальных данных. AppSec.AIGate выполняет инспекцию запросов, контролирует доступ, применяет политики безопасности и автоматически блокирует атаки. Это всё более актуально по мере интеграции ИИ-сервисов с корпоративными данными, внутренними системами и пользовательскими сервисами.

По мере внедрения решений для защиты систем с генеративным искусственным интеллектом в корпоративный сектор будет расти спрос на них. По оценкам ONSIDE и Just AI, в 2025 годуобъем отечественного рынка генеративного ИИ году должен был вырасти примерно до 58 млрд рублей против 13 млрд рублей в 2024 году, а к 2030 году он может достичь около 778 млрд рублей. Чем активнее компаний интегрируют LLM в реальные бизнес-процессы, тем острее становится запрос на защиту таких систем.

По данным портала ICT.Moscow, в 2025 году примерно 77% рынка GenAI приходилось на B2B-сегмент. При этом 55% проектов находятся на пилотной стадии, около 30% – на стадии масштабирования, порядка 15% – в промышленной эксплуатации. Это свидетельствует о переходе рынка от экспериментов к практическому использованию и формировании устойчивого спроса на AI Security.

Подходы к регулированию ИИ

Отечественные компании уже начали массово внедрять корпоративные ИИ-ассистенты и агенты. По данным Yandex B2B Tech и Yandex Cloud, такие сервисы применяют для техподдержки, корпоративного поиска, работы с клиентами и автоматизации бизнес-процессов. На фоне этого гиганты, включая Сбер с линейкой GigaChat для бизнеса, продвигают корпоративные платформы с развитыми функциями защиты данных – в том числе при работе в приватном облаке или локальной инфраструктуре.

В 2026 году параллельно обсуждаются подходы к регулированию ИИ и статусу доверенных моделей. «Коммерсант» пишет, что в новой версии законопроекта есть предложение обучать суверенные и национальные модели на государственных данных и привязывать статус доверенной ИИ-модели к включению в специальный реестр. Это усиливает внимание к безопасности и делает инструменты вроде ИИ-файрволов более актуальными.

Встраивание языковых моделей в бизнес-процессы

В феврале 2024 года была обновлена Национальная стратегия развития искусственного интеллекта до 2030 года. Там отражены цели и меры по использованию искусственного интеллекта в интересах научно-технологического развития и национальных приоритетов.

Это связало ИИ с задачами цифрового суверенитета. На этом фоне «Яндекс» активнее продвигал корпоративные сценарии использования генеративного ИИ: Yandex B2B Tech запустила AI Assistant API для создания ИИ-помощников под прикладные задачи. В Yandex Cloud сообщили о росте потребления ML-сервисов в 1,6 раза. Это было начало массового встраивания языковых моделей в бизнес-процессы.

К 2025 году отечественный рынок генеративного ИИ вырос до 58 млрд рублей. Основная доля пришлась на B2B-сегмент, что показывает превращение LLM в элемент корпоративной инфраструктуры. В это же время Swordfish Security представила ориентированный на российские реалии AI Security-фреймворк с картой угроз и мерами по их снижению.

В русскоязычном сегменте распространились разборы OWASP Top 10 для LLM. Они объясняли такие угрозы, как prompt injection («инъекция подсказок»), когда злоумышленник манипулирует входными данными для моделей ИИ. Разработка в 2026 году ИИ-файрвола от AppSec Solutions стала логичным развитием тенденции, ведь это приложение безопасности выполняет инспекцию запросов, контроль доступа, применение политик безопасности и блокировку атак, в том числе попыток обхода ограничений модели и получения чувствительных данных.

Превращение в стандартную часть архитектуры

Выход на рынок AppSec Solutions указывает на взросление российского сегмента генеративного ИИ. Компании движутся от простого внедрения LLM к выстраиванию вокруг них отдельного контура безопасности с политиками, фильтрацией, аудитом, контролем доступа и защитой от утечек и манипуляций. В ближайшие годы прогнозируется расширение линейки решений класса AI Gateway, LLM Firewall, AI DLP и сервисов оценки защищенности ИИ. Сперва их будут пилотировать крупные заказчики, а затем эти функции «вошьются» в корпоративные платформы, чат-боты и отечественные LLM-стэки.

В долгосрочной перспективе (3-5 лет) ИИ-файрволы могут превратиться в стандартную часть архитектуры при внедрении языковых моделей. Особенно реально это при появлении формальных требований регуляторов к безопасному использованию ИИ в критичных отраслях. Но подобные решения останутся только одним из элементов экосистемы кибербезопасности. Они будут работать в связке с DLP, IAM, SIEM/SOC, DevSecOps-практиками и управлением модельными рисками, при этом дополняя, а не заменяя комплексную защиту.

AppSec.AIGate анализирует не сам запрос, а контекст запроса, его семантику. То есть он анализирует, что пользователь хочет получить от модели и что он туда передает. На дашборде у ИБ-инженера появится уведомление: вот такой-то запрос заблокирован, потому что это попытка взлома модели. Или в таком-то запросе есть чувствительные данные. Или такой-то запрос заблокирован, потому что его содержание относится к запрещенным категориям
quote
like
heart
fun
wow
sad
angry
Последние новости
Главное
Рекомендуем
previous
next