feedback
Как снизить риски при использовании ИИ сотрудниками?

Досрочно вернулся из отпуска, чтобы поделиться с вами новыми интересными статьями.


Ваши коллеги используют модели искусственного интеллекта в работе? Скорее всего да, и больше чем вы думаете - потому что около трети скрывают этот факт. Разрешить сотрудникам пользоваться публичными моделями - и хочется и колется. Вместе с удобством и автоматизацией приходят риски: утечки данных, разглашение коммерческой тайны, искаженная информация. Чаще всего проблема не в технологии — часто в том, что люди используют её не так, как нужно.

По свежим данным: почти половина офисных сотрудников и треть айтишников работают с ИИ-инструментами, использовать которые в рабочих задачах им никто не разрешал. Повторюсь, каждый третий — скрывает это от руководства. Почти половина видели, как коллеги применяют ИИ «мимо правил».

Сегодняшняя статья про то, что с этим делать:
🔔 Ввести понятную политику использования ИИ и включить её в ИТ- и безопасность.
🔔 Чётко прописать в договорах с вендорами запрет обучения на ваших данных.
🔔 Учить людей безопасно работать с ИИ и фильтровать промпты.
🔔 Классифицировать данные и блокировать отправку конфиденциального в публичные модели.
🔔 Вести логи и проверять ИИ-контент перед публикацией.
🔔 Мониторить использование и держать в готовности план реагирования на инциденты.

Некоторые другие action points и полный план забирайте в статье - по ссылке в моем блоге:
🔗 https://ready.2hr.tech/Ns6In1

Чёткие правила и практика — дешевле, чем разбор полётов после утечки. ИИ можно использовать безопасно, но только если управлять рисками, а не закрывать на них глаза.

Может быть вы уже слышали, том что экспоненты возможностей в ИИ нет и мы близки к плато этой технологии? Идите в ChatGPT 5 и потрогайте конец прогресса сами. 😕
Как безопасно использовать ИИ на работе: руководство по снижению рисков
Link copied