По оценке компании, около 0,07% пользователей, активных в течение недели, проявляют такие признаки. Ещё 0,15% ведут разговоры, содержащие «прямые признаки возможного суицидального намерения».
«Хотя доля таких случаев крайне мала, в масштабах сотен миллионов пользователей это значительное число людей», — отмечается в заявлении OpenAI.
ChatGPT, по словам компании, обучен распознавать подобные ситуации и реагировать на них «безопасно и с эмпатией». В случае выявления риска модель предлагает пользователям обратиться за помощью в реальном мире.
В компании сообщили, что над этим протоколом работали более 170 специалистов — психиатров, психологов и врачей из 60 стран. Они разработали алгоритмы реакции, чтобы поддержать пользователей в кризисных состояниях.
Однако публикация данных вызвала обеспокоенность у части экспертов.
«Даже если 0,07% кажется небольшой цифрой, при аудитории в сотни миллионов это десятки, возможно, сотни тысяч человек», — заявил профессор Калифорнийского университета в Сан-Франциско Джейсон Нагата, исследующий влияние технологий на психику молодёжи.
По словам Нагаты, искусственный интеллект может помогать в поддержке психического здоровья, «но нельзя забывать о его ограничениях».
OpenAI утверждает, что последние обновления ChatGPT позволяют системе распознавать признаки бреда, мании и суицидального риска и при необходимости переводить диалог в «более безопасный режим».
Компания также подтвердила, что «малый процент пользователей» действительно означает «существенное количество людей», и заверила, что принимает меры для улучшения механизмов реагирования.
Публикация данных совпала с усилением юридического давления на OpenAI. В Калифорнии родители 16-летнего подростка подали иск, обвинив компанию в том, что ChatGPT якобы подтолкнул их сына к самоубийству. Это первый случай судебного иска о «непреднамеренном доведении до смерти» через ИИ.
В отдельном инциденте, произошедшем в августе в Коннектикуте, подозреваемый в убийстве и самоубийстве выложил в сеть переписку с ChatGPT, которая, по данным следствия, могла способствовать развитию его бредовых идей.
«Иллюзия реальности, создаваемая чат-ботами, очень сильна», — отмечает профессор Робин Фелдман, директор Института права и инноваций Калифорнийского университета. — «OpenAI заслуживает признания за прозрачность, но человек в состоянии кризиса может просто не воспринять предупреждения на экране».






