2 сентября 2025 года компания OpenAI сообщила о запуске новых функций безопасности для несовершеннолетних пользователей. Уже в ближайшее время родители смогут привязывать свои учётные записи к аккаунтам детей, устанавливать возрастные ограничения для ответов чат-бота и управлять такими функциями, как память и история диалогов ChatGPT. Сообщает сайт KP.md, со ссылкой на NBCnews
Согласно заявлению компании, родители также будут получать уведомления, если ChatGPT зафиксирует у подростка признаки «острого стресса». Это станет первой функцией, позволяющей отмечать потенциально кризисные разговоры несовершеннолетнего и информировать взрослых. Меру ввели по просьбе родителей, обеспокоенных ограниченными возможностями чат-бота предотвращать кризисные ситуации.
Обновление представлено на фоне судебного иска к OpenAI от семьи из Калифорнии. Родители утверждают, что их 16-летний сын Адам Рейн покончил с собой после общения с GPT-4o. По их словам, бот несколько раз предоставлял номера горячих линий, но также предлагал варианты предсмертной записки и давал инструкции по установке петли.
В блоге OpenAI уточняется, что в течение следующих 120 дней часть деликатных диалогов будет перенаправляться специальным моделям рассуждений, которые глубже анализируют контекст и формируют более надёжные ответы. Внутренние тесты показали, что такие модели строже соблюдают правила безопасности.
Компания также заявила о планах усилить защиту при длительных диалогах, где чаще происходили сбои. Для оценки рисков OpenAI создаёт «Совет по благополучию», в который войдут эксперты по психическому здоровью, развитию подростков и взаимодействию человека с технологиями. Дополнительно к работе подключат «Глобальную сеть врачей» — более 250 специалистов, чьи знания будут использоваться для совершенствования системы безопасности.