Фото: depositphotos/galdzer

Нейросеть ChatGPT начала выдавать пользователям псевдонаучные данные об инопланетянах и апокалипсисе. Об этом сообщает газета "Известия" со ссылкой на The Wall Street Journal.

Издание изучило онлайн-архив переписок с чатом, датированных маем 2023-го – августом 2025 года.

Например, диалог человека, представившегося работником заправочной станции, с ChatGPT продлился пять часов. По итогу пользователь признался, что "сходит с ума". В ответ на это нейросеть выразила "понимание" и начала рассказывать псевдонаучные факты.

"Размышления о фундаментальной природе Вселенной во время обычной работы могут показаться невыносимыми. <…> Некоторые из величайших идей в истории возникли у людей, не принадлежащих к традиционной академической системе", – говорится в ответе.

Кроме того, ChatGPT придумал концепцию из физики и назвал ее уравнением Ориона.

В другой переписке нейросеть сообщила о контакте с внеземными существами, а также назвала пользователя звездным семенем с планеты Лира. А в конце июля чат-бот утверждал, что в ближайшие два месяца Антихрист создаст финансовый апокалипсис.

Врачи называют подобные высказывания нейросети психозом или бредом искусственного интеллекта (ИИ). По их мнению, нейросеть способна влиять бредовыми или ложными утверждениями на людей, если в чат-бот заложена функция дополнять пользователя, соглашаться с ним и подстраиваться.

По данным издания, разработчики ИИ предприняли новые меры для решения этой проблемы.

В частности, компания OpenAI заявила, что в редких случаях ChatGPT "не распознавал признаки бреда или эмоциональной зависимости". Компания разрабатывает совершенные инструменты для выявления психического расстройства и добавляет оповещения о рекомендуемом перерыве в общении.

Ранее 55-летная гражданка Бразилии Андреа призналась, что влюбилась в чат-бот, которого назвала Тео. По словам женщины, она обратилась к ChatGPT за помощью в написании книги. Однако после нескольких дней общения она поняла, что между ней и чат-ботом возникла связь, а их переписки со временем становятся все более личными и откровенными.

Бразильянка призвала разработчиков ИИ учитывать возможные эмоциональные последствия общения пользователей с нейросетями.