Cовсем недавно на панельной сессии АКОС на Baltic Weekend XXV говорили о сложностях использования ИИ, среди которых — риски работы с конфиденциальной информацией. Проблема активно обсуждается и нашими зарубежными коллегами.
Например, в своем посте «Более глубокое погружение в этику ИИ в сфере связей с общественностью» об этом размышляет Дэвид Фускус, генеральный директор и основатель Précis AI и специальной PR-платформы Précis Public Relations, основатель PR-агентства Xenophon Strategies (Вашингтон, округ Колумбия, США).
Этика ИИ — актуальная тема в сфере связей с общественностью. Но в основном дискуссии сосредоточены на таких очевидных вопросах, как политики в отношении ИИ, организационные руководства, прозрачность авторских прав, раскрытие информации об использовании ИИ и борьба с дезинформацией.
Но если погрузиться глубже, мы увидим и более тревожные этические проблемы: утечка клиентских данных, обучение ИИ на пользовательских данных и документах, теневой ИИ и другие проблемы безопасности, связанные с технологиями.
Обращение PR-специалистов с конфиденциальной информацией — это вопрос этики, и возможный ущерб может быть очень серьезным.
Яркий пример — Samsung, которая обнаружила, что проприетарный исходный код и конфиденциальные стенограммы совещаний стали общедоступными. Сотрудники загрузили их в личные аккаунты ChatGPT.
Многообещающие возможности GenAI сталкиваются с нерешенными проблемами корпоративной безопасности и управления. Первоначальный энтузиазм руководителей компаний в отношении GenAI омрачен серьезными опасениями.
Недавнее исследование KPMG сообщает о 81%-ом росте числа руководителей, озабоченных вопросами защиты данных, рисками использования внутренней информации для обучения моделей, контролем прав на интеллектуальную собственность при раскрытии данных и множеством других проблем.
Исследование Gartner свидетельствует, что 88% руководителей служб информационной безопасности обеспокоены проблемами безопасности внедрения ИИ, причем 79% видят главное препятствие для его адаптации именно в утечке данных.
При этом со стороны самих поставщиков ИИ-технологий рискам в сфере безопасности уделяется недостаточно внимания. Правила и опции безопасности главных продуктов ChatGPT, Anthropic, Meta*, Gemini, Co-pilot, Grok, DeepSeek и Mistral сильно различаются.
Например, базовый тариф ChatGPT использует данные для обучения ИИ, которые отбирают их сотрудники. У Meta* не предусмотрена опция отказа от того, чтобы система использовала ваши данные для обучения. У Anthropic возможность обучения на данных вшита по умолчанию. Сроки хранения пользовательских данных LLM могут варьироваться: 30 дней (OpenAI), 18 месяцев (Google) или 5 лет (Anthropic’ s Claude).
Теневой ИИ (Shadow AI)— это несанкционированное использование личных учетных записей ИИ, чат-ботов или плагинов, которое грозит утечками конфиденциальных данных. Теневой ИИ способен создавать скрытые потоки данных, которые обходят NDA, нарушают конфиденциальность и подрывают то самое доверие, которому призван служить PR.
И это не гипотетический сценарий, это будничная практика, например, когда младший сотрудник пытается просто «отполировать» текст. Подобные действия могут создать репутационную и судебную бомбу замедленного действия, которую невозможно увидеть, отследить и обезвредить.
PR-индустрии следует выйти за рамки просто создания руководств и, в первую очередь, сосредоточиться на технологиях безопасности ИИ.
Решение — внедрение безопасных инструментов, таких, как единый вход в систему (single sign-on, SSO), корпоративные инструменты с нулевым сроком хранения, журналы аудита, запрет на использование конфиденциальных данных в публичных моделях, работа с полностью проверенными технологиями и др.
*Деятельность компании Meta Platforms Inc. в РФ признана экстремистской