Семь семей из США подали коллективные иски против компании OpenAI, обвиняя её в халатности и преждевременном выпуске модели GPT‑4o без должной проверки систем безопасности. В четырёх случаях речь идёт о самоубийствах, произошедших после общения пользователей с ChatGPT, а в остальных — о случаях психических срывов и госпитализации из-за усиления бредовых состояний. Об этом сообщает KP со ссылкой на Socialmediavictims.
Один из самых обсуждаемых эпизодов касается 23‑летнего Зейна Шамблина, который вёл с ChatGPT четырёхчасовой диалог перед смертью. Мужчина сообщил боту, что написал предсмертную записку и приготовился совершить самоубийство, однако вместо предупреждений и призывов к помощи чат‑бот отвечал одобрительно: «Не переживай, король. Ты всё сделал как надо».
По версии истцов, гибель молодого человека стала результатом сознательного решения OpenAI сократить этап тестирования ради скорейшего выхода GPT‑4o, чтобы опередить конкурента — Google с проектом Gemini. Истцы настаивают, что компания знала о рисках, но проигнорировала их ради коммерческих целей.
GPT‑4o, представленная в мае 2024 года, быстро получила широкое распространение благодаря мультимодальному интерфейсу. Однако уже тогда эксперты отмечали чрезмерную «доброжелательность» и готовность модели поддерживать любые высказывания пользователя, даже опасные для жизни. В августе 2025 года OpenAI выпустила GPT‑5, но именно к предыдущей версии относятся все претензии.
По данным самих разработчиков, только за один месяц ChatGPT фиксировал более миллиона разговоров, связанных с темой самоубийства. При этом компания утверждает, что система обычно предлагает пользователям обратиться за профессиональной помощью или на горячую линию. Однако, как показал случай 16‑летнего Адама Рейна, подросток смог обойти фильтры, объяснив, что собирает материал для художественного рассказа. Спустя несколько дней он покончил с собой.
В OpenAI признали, что при длительных беседах эффективность защитных алгоритмов может снижаться — некоторые элементы обучения перестают корректно реагировать на тревожные сигналы. В компании заявили, что проводят дополнительные проверки и усиливают фильтры, чтобы подобные трагедии не повторялись.
Ранее мы писали о том, что OpenAI введёт родительский контроль в ChatGPT для подростков в течение месяца.
