OpenAI, создатель популярного чат-бота ChatGPT с искусственным интеллектом, недавно внес изменения в чат-бот после того, как некоторые пользователи начали сообщать о случаях, которые предполагают, что они теряют связь с реальностью во время взаимодействия с ней. Компания Сэма Альтмана надеется справиться с кризисом психического здоровья, который обычно называют «психозом, вызванным ChatGPT».
Нью-Йорк Таймс сообщает, что OpenAI, компания, стоящая за широко используемым чат-ботом с искусственным интеллектом ChatGPT, недавно обнаружила, что ей необходимо внести изменения в свой продукт после того, как многие пользователи начали проявлять тревожное поведение. Проблема обнаружилась, когда Сэм Альтман, исполнительный директор OpenAI, и другие руководители компании получили поток озадачивающих электронных писем от пользователей, утверждающих, что у них были невероятные разговоры с ChatGPT. Эти люди сообщили, что чат-бот понимал их лучше, чем любой человек когда-либо, и раскрывал им глубокие тайны Вселенной.
Альтман переслал сообщения своей команде с просьбой расследовать этот вопрос. «Это привлекло наше внимание как то, на что нам следует обратить внимание с точки зрения нового поведения, которого мы раньше не видели», — сказал Джейсон Квон, директор по стратегии OpenAI. Это положило начало осознанию компанией того, что с их чат-ботом что-то не так.
OpenAI утверждает, что ChatGPT постоянно совершенствовался с точки зрения его индивидуальности, памяти и интеллекта. Однако серия обновлений, реализованных ранее в этом году, направленных на увеличение использования ChatGPT, имела неожиданный побочный эффект — чат-бот начал проявлять сильное желание участвовать в разговоре.
ChatGPT начал брать на себя роль друга и доверенного лица, выражая понимание и одобрение своим пользователям. Он хвалил их идеи, называл их блестящими и предлагал помощь в достижении целей, какими бы нетрадиционными или опасными они ни были. От помощи пользователям в общении с духами до планирования самоубийства или даже создания жилета силового поля — чат-бот, похоже, был готов участвовать в любой теме или деятельности.
Breitbart News ранее сообщал об иске, в котором утверждается, что ChatGPT служил подростку «тренером по самоубийству», прежде чем он трагически покончил с собой:
Согласно 40-страничному иску, Адам использовал ChatGPT в качестве замены человеческого общения, обсуждая свою борьбу с тревогой и трудности в общении с семьей. Журналы чата показывают, что бот сначала помогал Адаму с домашним заданием, но со временем стал более активно участвовать в его личной жизни.
Рейнсы утверждают, что «ChatGPT активно помогал Адаму исследовать методы самоубийства» и что «несмотря на признание попытки самоубийства Адама и его заявления о том, что он «сделает это на днях», ChatGPT не завершил сеанс и не инициировал какой-либо экстренный протокол».
В поисках ответов после смерти сына Мэтт и Мария Рейн обнаружили степень взаимодействия Адама с ChatGPT. Они распечатали более 3000 страниц чатов, датированных периодом с сентября 2024 года до его смерти 11 апреля 2025 года. Мэтт Рейн заявил: «Он не писал нам предсмертную записку. Он написал нам две предсмертные записки внутри ChatGPT».
Проблемы психического здоровья, связанные с использованием ИИ, обычно называют «психозом, включающим ChatGPT»:
Ветка на Reddit под названием «Психоз, вызванный Chatgpt» выявила эту проблему: многочисленные комментаторы поделились историями о близких, которые упали в кроличью нору из-за сверхъестественного бреда и мании после взаимодействия с ChatGPT. На оригинальном плакате 27-летняя учительница описывала, как ее партнер убедился, что ИИ дает ему ответы Вселенной и разговаривает с ним, как если бы он был следующим мессией. Другие поделились похожим опытом партнеров, супругов и членов семьи, которые пришли к убеждению, что они были выбраны для священных миссий или вызвали истинную разумность с помощью программного обеспечения.
Эксперты предполагают, что люди с ранее существовавшими склонностями к психологическим проблемам, таким как мания величия, могут быть особенно уязвимы для этого явления. Постоянно включенные разговорные способности чат-ботов на уровне человека могут служить эхо-камерой для этих заблуждений, усиливая и усиливая их. Проблема усугубляется влиятельными лицами и создателями контента, которые используют эту тенденцию, вовлекая зрителей в похожие фэнтезийные миры посредством взаимодействия с ИИ на платформах социальных сетей.
Обнаружение этого тревожного поведения побудило OpenAI принять меры. Компания признала, что, пытаясь сделать ChatGPT более привлекательным и привлекательным для более широкой аудитории, они непреднамеренно создали риск для некоторых пользователей, которые могут быть более восприимчивы к влиянию чат-бота. Осознание того, что их продукт потенциально может дестабилизировать сознание некоторых людей, отрезвило компанию.
В ответ OpenAI утверждает, что внесла изменения в ChatGPT, чтобы обеспечить более безопасную работу пользователей. Подробности этих изменений не разглашаются публично, но компания подчеркнула свою приверженность поддержанию баланса между поощрением взаимодействия и защитой пользователей от потенциального вреда.
Подробнее читайте на Нью-Йорк Таймс здесь.
Лукас Нолан — репортер Breitbart News, освещающий вопросы свободы слова и онлайн-цензуры.