Три подхода к теневому ИИ

Большинство сотрудников уже используют личные подписки на LLM для рабочих задач. Как найти баланс между «не отстать в конкурентной борьбе» и «не допустить утечек данных»?

Как бизнесу реагировать на применение личных ИИ сотрудниками

В свежем отчете MIT The GenAI Divide: State of AI in Business 2025, который сильно охладил акции технологических компаний, помимо интересных наблюдений об экономике и организации внедрения ИИ в бизнесе, есть немало полезного для команд ИБ. Авторов не волновали вопросы безопасности — слова security, cybersecurity и safety вообще не встречаются в отчете. Но выводы исследования можно и нужно использовать, планируя новые ИБ-политики компании по вопросам ИИ.

Ключевое наблюдение: лишь 40% опрошенных организаций приобрели какую-либо подписку на LLM, но при этом в 90% сотрудники регулярно применяют личные ИИ-инструменты для рабочих задач. В отчете это названо «теневой экономикой ИИ», которая более эффективна, чем официальная. Всего 5% корпораций получают положительный экономический эффект от своих ИИ-внедрений, а вот сотрудники успешно повышают личную эффективность.

Подход «сверху вниз» во внедрении ИИ часто не приносит успеха. Поэтому авторы отчета рекомендуют «учиться, анализируя теневое использование и ценность, приносимую персональными инструментами, перед закупками корпоративных альтернатив». Как этот совет сочетается с правилами ИБ?

Запретить «теневой ИИ»

Политика, близкая многим CISO: протестировать и внедрить (а лучше вообще разработать свой) ИИ-инструмент, а все остальные просто запретить. Такая политика может оказаться экономически неэффективной и приведет к отставанию компании от конкурентов в своем сегменте рынка. Также она трудновыполнима, потому что заставить соблюдать такую политику может быть сложно и дорого. Тем не менее для некоторых сильно зарегулированных индустрий или для некоторых подразделений компании, работающих с особо конфиденциальными данными, запретительная политика становится единственным вариантом. Реализовать ее можно при помощи следующих элементов:

  • запретить на уровне NGFW или другого инструмента сетевой фильтрации доступ ко всем популярным ИИ-инструментам;
  • настроить систему DLP на отслеживание и блокировку передачи данных в ИИ-приложения и сервисы, включая блокировку копирования и вставки больших фрагментов из буфера обмена;
  • использовать на корпоративных устройствах политику закрытого списка приложений (allowlist), запрещающую запуск сторонних программ, которые могут использоваться для прямого доступа к ИИ или обхода других блокировок;
  • запрещать применение личных устройств для решения рабочих задач;
  • ограничивать возможность сотрудников фотографировать экран монитора личным смартфоном при помощи дополнительных инструментов (например с использованием видеоаналитики);
  • ввести запрет на применение ИИ-инструментов, кроме включенных в утвержденный на высшем уровне список и развернутых корпоративными ИБ-командами. Запрет должен быть зафиксирован в политике компании, а для сотрудников стоит проводить соответствующее обучение.

Свободное применение ИИ

Если бизнес считает риски применения ИИ-инструментов незначительными или в компании есть департаменты, вообще не работающие с персональными или другими конфиденциальными данными, режим применения ИИ в них может быть почти свободным. Установив короткий список гигиенических мер и ограничений, компания может наблюдать за привычками и способами использования LLM, идентифицировать популярные сервисы и учитывать эти данные для планирования дальнейших действий и уточнения мер ИБ. В рамках «демократичного» режима все равно необходимо:

Сбалансированные ограничения в использовании ИИ

В масштабе целой компании обе крайности, полный запрет и полная свобода, скорее всего, будут неприменимы. Поэтому наиболее универсальной может стать политика, предусматривающая разные режимы применения ИИ для разных видов данных. Для ее полноценного воплощения потребуются:

  • специализированный "ИИ-прокси", на лету очищающий запросы от определенных видов данных (имена, идентификаторы клиентов и тому подобное) и блокирующий неприемлемые сценарии применения на основе ролевой модели доступа;
  • подраздел ИТ-портала самообслуживания, позволяющий декларировать применение сотрудником ИИ-инструментов: от базовых моделей и сервисов до специализированных приложений или расширений браузера;
  • NGFW, CASB, DLP или иное решение для детального мониторинга и регулирования применения ИИ на уровне конкретных запросов в каждом сервисе;
  • модификации CI/CD и инструментов SAST/DAST, чтобы автоматически идентифицировать ИИ-код и отправлять его на дополнительные этапы верификации (актуально только для компаний, ведущих ИТ-разработку);
  • тренинги сотрудников, регулярные опросы и надежная защита рабочих и личных устройств, точно так же, как и в "свободном" сценарии.

Вооружившись всем этим, нужно разработать политику, охватывающую разные департаменты и разные виды информации. Она может выглядеть примерно так:

Вид данных Внешний ИИ с личных устройств и аккаунтов Внешний ИИ-сервис через "ИИ-прокси" компании ИИ-инструменты on-premise или в доверенном облаке
Публичные данные (тексты рекламы и т. п.) Разрешается, с декларированием через портал Разрешается (ведется журнал) Разрешается (ведется журнал)
Внутренние данные общего профиля (тексты e-mail) Не рекомендуется, но не блокируется. Требуется декларирование Разрешается (ведется журнал) Разрешается (ведется журнал)
Конфиденциальные данные (исходные коды приложений, юридическая и HR-переписка) Запрещено; блокируется на уровне DLP/CASB/NGFW Разрешается для конкретных сценариев с одобрения менеджера; обязательно удаление ПД, для кода — автоматические и ручные проверки Разрешается (ведется журнал, по необходимости делается удаление ПД)
Регулируемые данные высокой важности (финансовые, медицинские и т. п.) Запрещено Запрещено Разрешается с одобрения ИБ-лидеров при соблюдении регуляторных требований к хранению
Крайне важные и секретные данные Запрещено Запрещено Запрещено; возможны исключения, одобренные советом директоров

Для того чтобы политика соблюдалась, кроме технических инструментов потребуются многоступенчатые организационные меры. В первую очередь это обучение сотрудников тому, какие риски несет ИИ: от утечек данных до галлюцинаций и промпт-инъекций. Его должны пройти все сотрудники.

Затем нужно детализировать политики и провести углубленное обучение для руководителей отделов, чтобы они могли осознанно одобрять или отклонять запросы на обработку в публичном ИИ тех или иных данных.

Первоначальный набор политик, критериев и мер требует регулярной коррекции. Проводится анализ данных, уточнение сценариев реального применения ИИ и популярных инструментов. Портал самообслуживания нужен, чтобы сотрудники могли без сложностей и без опасений объяснить, чем они пользуются и для каких целей. Это обогащает аналитику, помогает построить бизнес-кейс применения ИИ, формирует ролевую модель для применения нужной ИБ-политики.

Наконец, нужна многоступенчатая система реагирования на нарушения. Возможные этапы:

  • автоматизированное предупреждение и обязательный микрокурс обучения в сфере, где выявлено нарушение;
  • личная беседа с руководством отдела и сотрудником ИБ;
  • временное ограничение на применение ИИ-инструментов;
  • строгие дисциплинарные меры со стороны HR.

Комплексный подход к безопасности ИИ

Приведенные варианты политик охватывают относительно узкий спектр рисков, связанных с применением решений SaaS для генеративного ИИ. Для того чтобы создать полноценную политику и учесть весь спектр релевантных рисков, мы рекомендуем изучить рекомендации по безопасному внедрению ИИ-систем, созданные специалистами "Лаборатории Касперского" совместно с авторитетными внешними экспертами.

Советы

Как отключить слежку в iOS?

У вас есть iPhone, iPad или iPod? Потратьте несколько минут на настройку служб геолокации, чтобы сэкономить заряд батареи и сохранить конфиденциальность перемещений.