Ваши коллеги используют модели искусственного интеллекта в работе? Скорее всего, да, причем больше, чем вы думаете, так как около трети сотрудников скрывают этот факт. Разрешить сотрудникам пользоваться публичными моделями — решение, которое имеет как плюсы, так и минусы. Вместе с удобством и автоматизацией приходят риски: утечки данных, разглашение коммерческой тайны, искаженная информация. Чаще всего проблема не в технологии, а в том, что люди используют её не так, как нужно.
По свежим данным, почти половина офисных сотрудников и треть IT-специалистов работают с ИИ-инструментами, которые им никто не разрешал использовать в рабочих задачах. Каждый третий скрывает это от руководства, и почти половина видели, как коллеги применяют ИИ в обход правил.
Что с этим делать?
Чёткие правила и практика — дешевле, чем разбор последствий утечки. ИИ можно использовать безопасно, но только если управлять рисками, а не закрывать на них глаза.
По свежим данным, почти половина офисных сотрудников и треть IT-специалистов работают с ИИ-инструментами, которые им никто не разрешал использовать в рабочих задачах. Каждый третий скрывает это от руководства, и почти половина видели, как коллеги применяют ИИ в обход правил.
Что с этим делать?
- Ввести понятную политику использования ИИ и включить её в IT- и безопасность.
- Чётко прописать в договорах с вендорами запрет на обучение на ваших данных.
- Обучать людей безопасно работать с ИИ и фильтровать промпты.
- Классифицировать данные и блокировать отправку конфиденциальной информации в публичные модели.
- Вести логи и проверять ИИ-контент перед публикацией.
- Мониторить использование и держать в готовности план реагирования на инциденты.
Чёткие правила и практика — дешевле, чем разбор последствий утечки. ИИ можно использовать безопасно, но только если управлять рисками, а не закрывать на них глаза.
Промпт - это запрос, который пользователь отправляет ИИ для получения ответа или выполнения задачи.

