В свежем отчете MIT The GenAI Divide: State of AI in Business 2025, который сильно охладил акции технологических компаний, помимо интересных наблюдений об экономике и организации внедрения ИИ в бизнесе, есть немало полезного для команд ИБ. Авторов не волновали вопросы безопасности — слова security, cybersecurity и safety вообще не встречаются в отчете. Но выводы исследования можно и нужно использовать, планируя новые ИБ-политики компании по вопросам ИИ.
Ключевое наблюдение: лишь 40% опрошенных организаций приобрели какую-либо подписку на LLM, но при этом в 90% сотрудники регулярно применяют личные ИИ-инструменты для рабочих задач. В отчете это названо «теневой экономикой ИИ», которая более эффективна, чем официальная. Всего 5% корпораций получают положительный экономический эффект от своих ИИ-внедрений, а вот сотрудники успешно повышают личную эффективность.
Подход «сверху вниз» во внедрении ИИ часто не приносит успеха. Поэтому авторы отчета рекомендуют «учиться, анализируя теневое использование и ценность, приносимую персональными инструментами, перед закупками корпоративных альтернатив». Как этот совет сочетается с правилами ИБ?
Запретить «теневой ИИ»
Политика, близкая многим CISO: протестировать и внедрить (а лучше вообще разработать свой) ИИ-инструмент, а все остальные просто запретить. Такая политика может оказаться экономически неэффективной и приведет к отставанию компании от конкурентов в своем сегменте рынка. Также она трудновыполнима, потому что заставить соблюдать такую политику может быть сложно и дорого. Тем не менее для некоторых сильно зарегулированных индустрий или для некоторых подразделений компании, работающих с особо конфиденциальными данными, запретительная политика становится единственным вариантом. Реализовать ее можно при помощи следующих элементов:
- запретить на уровне NGFW или другого инструмента сетевой фильтрации доступ ко всем популярным ИИ-инструментам;
- настроить систему DLP на отслеживание и блокировку передачи данных в ИИ-приложения и сервисы, включая блокировку копирования и вставки больших фрагментов из буфера обмена;
- использовать на корпоративных устройствах политику закрытого списка приложений (allowlist), запрещающую запуск сторонних программ, которые могут использоваться для прямого доступа к ИИ или обхода других блокировок;
- запрещать применение личных устройств для решения рабочих задач;
- ограничивать возможность сотрудников фотографировать экран монитора личным смартфоном при помощи дополнительных инструментов (например с использованием видеоаналитики);
- ввести запрет на применение ИИ-инструментов, кроме включенных в утвержденный на высшем уровне список и развернутых корпоративными ИБ-командами. Запрет должен быть зафиксирован в политике компании, а для сотрудников стоит проводить соответствующее обучение.
Свободное применение ИИ
Если бизнес считает риски применения ИИ-инструментов незначительными или в компании есть департаменты, вообще не работающие с персональными или другими конфиденциальными данными, режим применения ИИ в них может быть почти свободным. Установив короткий список гигиенических мер и ограничений, компания может наблюдать за привычками и способами использования LLM, идентифицировать популярные сервисы и учитывать эти данные для планирования дальнейших действий и уточнения мер ИБ. В рамках «демократичного» режима все равно необходимо:
- обучить сотрудников основам грамотного использования ИИ, в том числе правилам кибербезопасности. Можно начать с наших рекомендаций или подключить в платформе Kaspersky Security Awareness Platform специализированный курс;
- настроить детальное протоколирование трафика приложений, чтобы анализировать ритм применения ИИ и типы используемых сервисов;
- убедиться, что у всех сотрудников установлен агент EPP/EDR на рабочих устройствах и надежное защитное решение на личной технике. ("приложение для ChatGPT" — излюбленная приманка злоумышленников в 2024–2025 годах для распространения инфостилеров);
- проводить регулярные опросы о том, как часто и для каких задач используется ИИ. На основе телеметрии и данных опросов измерять эффект и риски его применения для коррекций политики.
Сбалансированные ограничения в использовании ИИ
В масштабе целой компании обе крайности, полный запрет и полная свобода, скорее всего, будут неприменимы. Поэтому наиболее универсальной может стать политика, предусматривающая разные режимы применения ИИ для разных видов данных. Для ее полноценного воплощения потребуются:
- специализированный "ИИ-прокси", на лету очищающий запросы от определенных видов данных (имена, идентификаторы клиентов и тому подобное) и блокирующий неприемлемые сценарии применения на основе ролевой модели доступа;
- подраздел ИТ-портала самообслуживания, позволяющий декларировать применение сотрудником ИИ-инструментов: от базовых моделей и сервисов до специализированных приложений или расширений браузера;
- NGFW, CASB, DLP или иное решение для детального мониторинга и регулирования применения ИИ на уровне конкретных запросов в каждом сервисе;
- модификации CI/CD и инструментов SAST/DAST, чтобы автоматически идентифицировать ИИ-код и отправлять его на дополнительные этапы верификации (актуально только для компаний, ведущих ИТ-разработку);
- тренинги сотрудников, регулярные опросы и надежная защита рабочих и личных устройств, точно так же, как и в "свободном" сценарии.
Вооружившись всем этим, нужно разработать политику, охватывающую разные департаменты и разные виды информации. Она может выглядеть примерно так:
Вид данных | Внешний ИИ с личных устройств и аккаунтов | Внешний ИИ-сервис через "ИИ-прокси" компании | ИИ-инструменты on-premise или в доверенном облаке |
Публичные данные (тексты рекламы и т. п.) | Разрешается, с декларированием через портал | Разрешается (ведется журнал) | Разрешается (ведется журнал) |
Внутренние данные общего профиля (тексты e-mail) | Не рекомендуется, но не блокируется. Требуется декларирование | Разрешается (ведется журнал) | Разрешается (ведется журнал) |
Конфиденциальные данные (исходные коды приложений, юридическая и HR-переписка) | Запрещено; блокируется на уровне DLP/CASB/NGFW | Разрешается для конкретных сценариев с одобрения менеджера; обязательно удаление ПД, для кода — автоматические и ручные проверки | Разрешается (ведется журнал, по необходимости делается удаление ПД) |
Регулируемые данные высокой важности (финансовые, медицинские и т. п.) | Запрещено | Запрещено | Разрешается с одобрения ИБ-лидеров при соблюдении регуляторных требований к хранению |
Крайне важные и секретные данные | Запрещено | Запрещено | Запрещено; возможны исключения, одобренные советом директоров |
Для того чтобы политика соблюдалась, кроме технических инструментов потребуются многоступенчатые организационные меры. В первую очередь это обучение сотрудников тому, какие риски несет ИИ: от утечек данных до галлюцинаций и промпт-инъекций. Его должны пройти все сотрудники.
Затем нужно детализировать политики и провести углубленное обучение для руководителей отделов, чтобы они могли осознанно одобрять или отклонять запросы на обработку в публичном ИИ тех или иных данных.
Первоначальный набор политик, критериев и мер требует регулярной коррекции. Проводится анализ данных, уточнение сценариев реального применения ИИ и популярных инструментов. Портал самообслуживания нужен, чтобы сотрудники могли без сложностей и без опасений объяснить, чем они пользуются и для каких целей. Это обогащает аналитику, помогает построить бизнес-кейс применения ИИ, формирует ролевую модель для применения нужной ИБ-политики.
Наконец, нужна многоступенчатая система реагирования на нарушения. Возможные этапы:
- автоматизированное предупреждение и обязательный микрокурс обучения в сфере, где выявлено нарушение;
- личная беседа с руководством отдела и сотрудником ИБ;
- временное ограничение на применение ИИ-инструментов;
- строгие дисциплинарные меры со стороны HR.
Комплексный подход к безопасности ИИ
Приведенные варианты политик охватывают относительно узкий спектр рисков, связанных с применением решений SaaS для генеративного ИИ. Для того чтобы создать полноценную политику и учесть весь спектр релевантных рисков, мы рекомендуем изучить рекомендации по безопасному внедрению ИИ-систем, созданные специалистами "Лаборатории Касперского" совместно с авторитетными внешними экспертами.