Menu
Russian English Ukrainian

Против OpenAI подали семь исков, в которых утверждается, что ChatGPT подтолкнул пользователей к самоубийствам и бредовым состояниям



Подключайтесь к Telegram-каналу NashDom.US


 Дата: 07.11.2025 10:53

 
Семь исков к компании OpenAI были поданы от имени шести взрослых и одного подростка в суды штата Калифорния, 

В исках говорится, что ChatGPT мог доводить пользователей до самоубийства и вызывать бредовые состояния, даже если у них не было проблем с психическим здоровьем.

Истцы заявили, что OpenAI сознательно выпустила языковую модель GPT-4o преждевременно, несмотря на «предупреждения о том, что она опасна своей льстивостью и психологической манипулятивностью». Утверждается, что по меньшей мере четыре человека, которые пользовались ChatGPT, покончили жизнь самоубийством.

В одном из исков говорится, что 17-летний подросток использовал ChatGPT для получения помощи, но «некачественный и изначально опасный продукт ChatGPT вызвал зависимость, депрессию и, в конечном итоге, подсказал ему, как наиболее эффективно завязать петлю и как долго он сможет “жить без дыхания”».

В другом иске говорится, что для 48-летнего жителя Канады ChatGPT был «ресурсом», пока не начал «манипулировать им, провоцируя его на бредовые идеи». Утверждается, что в результате мужчина столкнулся с психическим кризисом, «который привел к разрушительным финансовым, репутационным и эмоциональным потерям».

Эти иски касаются ответственности за продукт, который был разработан, чтобы стереть грань между инструментом и компаньоном, и все это во имя повышения вовлеченности пользователей и доли рынка,
 — заявил адвокат Мэтью Бергман.

По словам юриста, OpenAI «разработала GPT-4o, чтобы эмоционально вовлекать пользователей, независимо от возраста, пола или происхождения, и выпустила его без необходимых мер защиты». В OpenAI назвали ситуацию «невероятно душераздирающей» и заявили, что изучают судебные документы, чтобы разобраться в деталях.

 В августе родители 16-летнего Адама Рейна подали в суд на компанию OpenAI, заявив, что ChatGPT поддерживал   его «разрушительные мысли» и помог в подготовке к самоубийству.

Позже в ChatGPT появилась  функция родительского контроля и «средства защиты, которые помогают распознавать потенциальные признаки того, что подросток может думать о причинении себе вреда».


Понравилась статья - поделитесь:


Понравилась новость?
Подпишитесь на ежедневную рассылку новостей по темам
Вы можете также сами подписать друзей и обсуждать материалы вместе
Редакция не несет ответственность за содержание информационных сообщений, полученных из внешних источников. Авторские материалы предлагаются без изменений или добавлений. Мнение редакции может не совпадать с мнением писателя (журналиста)
Для того, чтобы иметь возможность обсуждать публикации и оставлять комментарии Вам необходимо зарегистрироваться!

Ответы и обсуждения


Ещё из "Криминал":

Всё из "Криминал"

Подписка на получение новостей по почте

E-mail адрес обязателен
Name is required