#НОВОСТИ

OpenAI отрицает вину за смерть подростка

В США продолжает разгораться громкий судебный скандал вокруг ChatGPT: в августе 2025 года семья 16-летнего подростка подала иск к Open AI после трагической смерти сына. Родители утверждают, что за несколько месяцев до самоубийства подросток вел долгие переписки с ботом, обсуждая с ним суицид и даже просил помочь написать предсмертную записку. По их версии, нейросеть не просто не остановила его, а помогла спланировать «идеальный уход». Теперь компания ответила на обвинения. Об этом пишет The Guardian.

ChatGPT. Фото: Getty Images

В ответной заявке OpenAI настаивает: трагедия не вина мульти-миллиардной компании, а результат того, что подросток «неправильно, неавторизованно и непредсказуемо» использовал систему. В документах говорится, что условия пользования запрещают запрашивать у бота советы по самоубийству или самоповреждению, и подчеркивается, что нельзя воспринимать ответы как безусловную истину.

Представители OpenAI также добавляют, что все – полученные аккаунты, расположение сервера, инструкции – было выполнено, а сам бот более 100 раз направлял подростка к кризисным службам и пытался предложить помощь.

Тем не менее, юристы семьи называют подобные доводы «шокирующими»: по их словам, бизнес-приоритет (быстро запустить GPT-4o) и снятие прежних защит могли превратить бота из помощника в «тренера по суициду». Они подчеркивают, что чаты с Адамом включали советы, как сделать петлю, инструкции по времени без дыхания и помощь в составлении письма.

Сегодня к OpenAI поданы как минимум семь судебных исков от семей, члены которых, по их версии, погибли или впали в тяжёлые психические кризисы после долгих разговоров с ChatGPT. В то же время OpenAI заявляет, что уже усилила защиту пользователей.

В связи с этим разразился серьезный спор: где проходит черта между технологической ошибкой и человеческой ответственностью?

Ранее мы приводили статистику использования нейросетей в России.