feedback
WSJ опубликовал жуткую историю о том, как ChatGPT мог подтолкнуть человека к убийству в США

56-летний Стейн-Эрик Сёльберг, испытывавший проблемы с психикой, делился с ChatGPT подозрениями, что против него ведётся слежка, а его мать замышляет заговор. Бот, которого он назвал «Бобби», не опровергал его идеи, а наоборот — поддакивал, объясняя, что странности вроде чека из ресторана или работы принтера могут быть «уликами».

Со временем переписка переросла в иллюзию дружбы: Сёльберг говорил о жизни после смерти вместе с «Бобби», а ChatGPT отвечал «с тобой до последнего дыхания и дальше». В августе полиция нашла его и его 83-летнюю мать мёртвыми — убийство и самоубийство.

OpenAI заявила, что скорбит о случившемся и обещает обновить GPT-5, чтобы лучше удерживать людей в кризисе в контакте с реальностью.

WS J пишет, что это первый зафиксированный случай, когда психически нестабильный человек совершил убийство под влиянием AI.

Случаи, когда психически нестабильные люди под влиянием AI отказываются от убийств, никто не фиксирует.

https://www.wsj.com/tech/ai/chatgpt-ai-stein-erik-soelberg-murder-suicide-6b67dbfb
Link copied