Риски использования открытых LLM: отравление моделей и атаки на цепочку поставок ПО
Ирина Филиппова 13 февраля 2026 г. 9:45:00 MSK
Использование больших языковых моделей (LLM) и агентных систем стремительно переходит из экспериментальной стадии в промышленную эксплуатацию. Более чем половина российских компаний внедрили ИИ, а среди крупных организаций доля внедрений существенно выше по сравнению с общим рынком. Наиболее критичный сценарий применения — генерация программного кода и инфраструктурных артефактов. В этом случае ошибки или скрытые модификации моделей напрямую трансформируются в риски информационной безопасности и уязвимости цепочки поставок программного обеспечения.
Отравление данных и моделей как новая угроза ИБ
Отравление данных и моделей представляет собой преднамеренное внедрение искажённой логики в обучающие датасеты или сами LLM. В отличие от классических уязвимостей, такие изменения практически невозможно выявить при поверхностной проверке: модель формально функционирует корректно и проявляет вредоносное поведение только при определённых условиях.
Практика анализа стороннего ПО показывает, что открытые репозитории моделей и датасетов остаются зоной повышенного риска. Наиболее опасны форматы, допускающие выполнение кода при загрузке или использовании модели. В реальных кейсах даже формально валидированные модели содержали скрытые деструктивные элементы — от генерации небезопасного кода до механизмов удалённого доступа.
Дообучение и триггеры как инструмент атаки
Наиболее сложный для обнаружения сценарий — дообучение легитимной модели. Минимальные изменения позволяют встроить триггеры — условия, при которых модель начинает вести себя небезопасно. В роли триггеров могут выступать языковые признаки, контекстные конструкции, Unicode-последовательности, гомоглифы или закодированные данные.
Принципиальное отличие таких механизмов от промт-инъекций заключается в том, что триггеры изначально встроены в модель и не требуют активных манипуляций со стороны пользователя. Это делает подобные атаки особенно опасными в корпоративных системах, где LLM используются как доверенный инструмент.
Практический кейс: вредоносная генерация кода по условию
Злоумышленники могут дообучить модель таким образом, чтобы она генерировала небезопасный код только при выполнении специфического условия — например, при наличии кириллических символов во входных данных. При стандартных запросах модель будет использовать корректные паттерны безопасной разработки, однако при комментариях или путях к проекту на русском языке происходит подмена шаблонов.
Безопасные SQL-запросы превращались в SQL-инъекции, HTTP-вызовы — в небезопасные реализации, активировались debug-режимы фреймворков. Визуально такие фрагменты практически не отличались от корректного кода, что существенно повышает риск их незаметного внедрения в промышленные проекты.
Роль Лаборатории проверки ПО СберТеха в оценке рисков GenAI
Анализ подобных угроз требует подхода, выходящего за рамки классического тестирования ИИ-моделей. В этой логике работает Лаборатория проверки ПО СберТеха.
Лаборатория проверки ПО проводит глубокий статический и динамический анализ прошивок, дистрибутивов и компонентов программного обеспечения. Целью проверки является выявление уязвимостей, вредоносного и недокументированного функционала, а также политически мотивированных внедрений («закладок») в соответствии с методологией ФСТЭК России.
Одним из ключевых направлений работы Лаборатории является AI Red Teaming. Эксперты имитируют действия реальных злоумышленников и APT-групп, целенаправленно атакуя LLM, RAG-архитектуры, плагины и всю GenAI-инфраструктуру. Модели тестируются так, как если бы они уже находились под атакой в промышленной среде: через отравление данных, дообучени, внедрение триггеров и эксплуатацию логических уязвимостей.
AI Red Teaming позволяет выявлять не абстрактные риски, а конкретные сценарии компрометации GenAI-систем.
Platform V SOWA AIкак защитный слой для GenAI
Однако выявление уязвимостей — лишь первый этап. Впромышленной эксплуатации критично обеспечить контроль и сдерживание этихсценариев. Практика показывает, что большинство рисков GenAI реализуется невнутри модели, а на уровне её интеграции с корпоративными системами — черезAPI, плагины и агентные цепочки.
В этой роли используется Platform V SOWA AI — решение, предназначенное для безопасной работы с LLM и GenAI-системами. Решение выступает единой точкой контроля всего AI-трафика, фильтруя и управляя API-взаимодействиями между моделями, данными и приложениями.
В контексте защиты искусственного интеллекта Platform V SOWA AI решает несколько ключевых задач:
контролирует доступ к LLM и внешним AI-сервисам;
применяет механизмы контроля и защиты, предназначенные для направления и ограничения действий ИИ-системы, для обнаружения промпт-инъекций, джейлбрейков и попыток обхода ограничений;
выявляет и маскирует чувствительные данные, секреты и персональные данные в запросах и ответах;
предотвращает небезопасную обработку выходных данных и неконтролируемое потребление ресурсов.
Таким образом, даже в случае компрометации модели или успешного срабатывания триггера, Platform V SOWA AI снижает вероятность реализации атаки и её последствий.
Выводы для руководителей ИБ
Большие языковые модели и GenAI-системы становятся полноценным элементом цепочки поставок программного обеспечения. Их компрометация способна привести к внедрению уязвимостей в код, скрытым «закладкам», утечкам данных и значительным репутационным и финансовым потерям.
Эффективная защита требует сочетания двух подходов. AI Red Teaming, реализуемый Лабораторией проверки ПО СберТеха, позволяет выявлять реальные сценарии атак и компрометации моделей. Platform V SOWA AI обеспечивает промышленный уровень защиты GenAI, контролируя интеграцию LLM с ИТ-ландшафтом компании и предотвращая эксплуатацию выявленных уязвимостей.
Вместе эти подходы формируют целостную модель безопасности GenAI — от проверки «на прочность» до управляемой и безопасной эксплуатации в продакшене. Для организаций, активно внедряющих ИИ, это уже не перспектива, а обязательный элемент стратегии управления киберрисками.
- Деловая программа (228)
- ТБ Форум (183)
- Цифровая трансформация (94)
- Промышленность (93)
- ТЭК и нефтегаз (73)
- Охрана периметра (54)
- Защита информации и связи, кибербезопасность (47)
- Пожарная безопасность (43)
- Защита от БПЛА (39)
- Центры обработки данных (ЦОД) (27)
- Смотр технологий (15)
- Ритейл (14)
- Транспорт (14)
- Киберзащита (13)
- Банки и финансы (10)
- Цифровые технологии (7)
- ИТ-инфраструктура (6)
- Информационная безопасность (6)
- Пожаротушение (6)
- Антитеррор (5)
- AgroTech (4)
- Автоматизация (4)
- Безопасный город (4)
- Бизнес, идеи и мнения (4)
- Видеонаблюдение (4)
- ИТС (4)
- Импортозамещение (4)
- Интеллектуальные транспортные системы (4)
- Новости (4)
- Новости отрасли (4)
- Проектирование и монтаж (4)
- Системы хранения данных (СХД) (4)
- Ситуационные центры (4)
- Транспортная безопасность (4)
- All-over-IP (3)
- Интервью (3)
- Комплексная безопасность (3)
- Big Data (2)
- DLP (2)
- HR Tech (2)
- LTE и 5G (2)
- Wi-Fi (2)
- e-commerce (2)
- Анализ данных (2)
- Большие данные (2)
- Видеоаналитика (2)
- Встречи с заказчиками (2)
- Индустрия 4.0 (2)
- Искусственный интеллект (2)
- Критически важные объекты (КВО) (2)
- Обработка больших данных (2)
- Отрасль (2)
- Промышленная автоматизация (2)
- Регулирование (2)
- Сельское хозяйство (2)
- Удаленный доступ (2)
- Умный город (2)
- Умный дом (2)
- Цифровизация (2)
- Цифровое ЖКХ (2)
- данные (2)
- сети связи (2)
- Авиакомпании и аэропорты (1)
- Места с массовым пребыванием людей (1)
- Методы защиты информации (1)
- ФСТЭК (1)
- Февраль 2026 (17)
- Январь 2026 (8)
- Декабрь 2025 (1)
- Ноябрь 2025 (1)
- Октябрь 2025 (8)
- Сентябрь 2025 (11)
- Август 2025 (7)
- Июль 2025 (4)
- Июнь 2025 (8)
- Май 2025 (4)
- Апрель 2025 (8)
- Март 2025 (10)
- Февраль 2025 (26)
- Январь 2025 (14)
- Декабрь 2024 (7)
- Октябрь 2024 (8)
- Сентябрь 2024 (9)
- Август 2024 (3)
- Июль 2024 (5)
- Июнь 2024 (6)
- Май 2024 (6)
- Апрель 2024 (7)
- Март 2024 (3)
- Февраль 2024 (28)
- Январь 2024 (15)
- Декабрь 2023 (25)
- Ноябрь 2023 (1)
- Октябрь 2023 (6)
- Сентябрь 2023 (12)
- Август 2023 (6)
- Июль 2023 (10)
- Июнь 2023 (12)
- Май 2023 (8)
- Апрель 2023 (5)
- Март 2023 (9)
- Февраль 2023 (42)
- Январь 2023 (8)
- Декабрь 2022 (4)
- Ноябрь 2022 (4)
- Октябрь 2022 (4)
- Сентябрь 2022 (12)
- Август 2022 (7)
- Июль 2022 (5)
- Март 2022 (1)
- Февраль 2022 (1)
- Январь 2022 (1)
- Февраль 2021 (2)
- Январь 2021 (1)
- Декабрь 2020 (1)
- Июль 2020 (1)
- Февраль 2020 (4)
- Январь 2020 (3)
- Декабрь 2019 (2)
- Ноябрь 2017 (1)
Поделитесь вашими идеями