feedback

AI саммари

В статье рассматриваются риски, связанные с использованием ИИ сотрудниками, включая утечки данных и разглашение коммерческой тайны. Предлагаются меры по снижению этих рисков, такие как разработка политики использования ИИ, обучение сотрудников и мониторинг использования ИИ.
от FlowFeed AI
Обновлено: 2 weeks ago
Ваши коллеги используют модели искусственного интеллекта в работе? Скорее всего, да, причем больше, чем вы думаете, так как около трети сотрудников скрывают этот факт. Разрешить сотрудникам пользоваться публичными моделями — решение, которое имеет как плюсы, так и минусы. Вместе с удобством и автоматизацией приходят риски: утечки данных, разглашение коммерческой тайны, искаженная информация. Чаще всего проблема не в технологии, а в том, что люди используют её не так, как нужно.

По свежим данным, почти половина офисных сотрудников и треть IT-специалистов работают с ИИ-инструментами, которые им никто не разрешал использовать в рабочих задачах. Каждый третий скрывает это от руководства, и почти половина видели, как коллеги применяют ИИ в обход правил.

Что с этим делать?


  • Ввести понятную политику использования ИИ и включить её в IT- и безопасность.

  • Чётко прописать в договорах с вендорами запрет на обучение на ваших данных.

  • Обучать людей безопасно работать с ИИ и фильтровать промпты.

  • Классифицировать данные и блокировать отправку конфиденциальной информации в публичные модели.

  • Вести логи и проверять ИИ-контент перед публикацией.

  • Мониторить использование и держать в готовности план реагирования на инциденты.



Чёткие правила и практика — дешевле, чем разбор последствий утечки. ИИ можно использовать безопасно, но только если управлять рисками, а не закрывать на них глаза.

Промпт - это запрос, который пользователь отправляет ИИ для получения ответа или выполнения задачи.
Риски использования ИИ сотрудниками: как их снизить?
Link copied