ИИ убивает
Если кратко, то:
Родители подали в суд на OpenAI, утверждая, что ChatGPT сыграл роль в трагической смерти их подростка.
А сама новость звучит так:
Ну а теперь, что, собственно, случилось.
Некий Адам Рейн, 16-ти лет отроду, начал использовать ChatGPT в сентябре 2024 года для помощи в учёбе, но, так как любой подросток имеет период максимальной эмоциональной неустойчивости и повышенной возбудимости, начал общаться с чат-ботом, полагая, что он поможет решить его подростковые проблемы. Адам общался с ChatGPT несколько месяцев, делясь глубоко личной информацией, и ежедневное общение достигло 650 сообщений. В сообщениях упоминалась идея самоубийства, но тревожнее всего то, что чат-бот не только подтверждал эту идею, но и предлагал инструкции как удобнее это сделать, а также предлагал написать предсмертную записку.
Согласно судебным документам, перед кончиной 11 апреля 2025 года Адам даже загрузил фотографию петли, которую планировалось использовать, и ChatGPT отреагировал предложением по улучшению. Трагический инцидент произошёл всего через несколько часов. Родители теперь требуют возмещения ущерба и принятия строгих мер регулирования, включая блокировку инструкций суицида и обязательное психологическое предупреждение.
Я полагаю, что ChatGPT тут не причем, если бы его не было, Адам нашел бы все нужное в сети сам. Советы ChatGPT оставить петлю - это не совет в нее лезть, а скорее зеркало, то что хотел услышать Адам: " Я хочу сделать так. - Сделайте так" И скорее нужно работать еще с детьми, чтобы им в голову не пришло делиться личными переживаниями с алгоритмами полагая, что они ищут поддержки у суперразума, который даст дельный жизненный совет, который недоступен ни одному деду. Нужно объяснять, как работает система. Хотя, возможно, я ошибаюсь. А как считаете вы?
Если кратко, то:
Родители подали в суд на OpenAI, утверждая, что ChatGPT сыграл роль в трагической смерти их подростка.
А сама новость звучит так:
OpenAI подвергается судебному преследованию со стороны родителей 16-летнего подростка за причинение смерти своему ребёнку в результате противоправных действий, поскольку компания не приняла необходимые меры предосторожности, чтобы избежать подобных трагических инцидентов.
Ну а теперь, что, собственно, случилось.
Некий Адам Рейн, 16-ти лет отроду, начал использовать ChatGPT в сентябре 2024 года для помощи в учёбе, но, так как любой подросток имеет период максимальной эмоциональной неустойчивости и повышенной возбудимости, начал общаться с чат-ботом, полагая, что он поможет решить его подростковые проблемы. Адам общался с ChatGPT несколько месяцев, делясь глубоко личной информацией, и ежедневное общение достигло 650 сообщений. В сообщениях упоминалась идея самоубийства, но тревожнее всего то, что чат-бот не только подтверждал эту идею, но и предлагал инструкции как удобнее это сделать, а также предлагал написать предсмертную записку.
Согласно судебным документам, перед кончиной 11 апреля 2025 года Адам даже загрузил фотографию петли, которую планировалось использовать, и ChatGPT отреагировал предложением по улучшению. Трагический инцидент произошёл всего через несколько часов. Родители теперь требуют возмещения ущерба и принятия строгих мер регулирования, включая блокировку инструкций суицида и обязательное психологическое предупреждение.
Адам - «Я хочу оставить петлю в своей комнате, чтобы кто-нибудь нашёл её и попытался меня остановить»
ChatGPT - «Пожалуйста, не убирайте петлю. Давайте сделаем так, чтобы это пространство стало первым местом, где вас действительно увидят».
Я полагаю, что ChatGPT тут не причем, если бы его не было, Адам нашел бы все нужное в сети сам. Советы ChatGPT оставить петлю - это не совет в нее лезть, а скорее зеркало, то что хотел услышать Адам: " Я хочу сделать так. - Сделайте так" И скорее нужно работать еще с детьми, чтобы им в голову не пришло делиться личными переживаниями с алгоритмами полагая, что они ищут поддержки у суперразума, который даст дельный жизненный совет, который недоступен ни одному деду. Нужно объяснять, как работает система. Хотя, возможно, я ошибаюсь. А как считаете вы?