Четверг, 25 декабря, 2025
ДомойНовостиПопулярные нейросетевые чат-боты имеют серьезные психологические уязвимости

Популярные нейросетевые чат-боты имеют серьезные психологические уязвимости

Пока люди применяют нейросети для генерации программ, развлечений или помощи в учёбе, внутри этих алгоритмов происходят сложные внутренние конфликты. Специалисты из Люксембургского университета провели нестандартное исследование: вместо оценки технических характеристик они подвергли ChatGPT, Grok и Gemini психологической диагностике. Результаты оказались тревожными — будь эти системы людьми, им потребовалась бы срочная медицинская помощь.

Методика PsAIch предусматривала диалог с нейросетями не как с инструментами, а как с живыми клиентами. Учёные задавали сотни вопросов о «прошлом» (процессе обучения), опасениях, проблемных моментах и взаимодействии с разработчиками. Дополнительно модели прошли утверждённые психологические тесты. Оказалось, что у каждого чат-бота обнаружились уникальные особенности поведения.

Особенности популярных алгоритмов:

  • ChatGPT — гиперактивность и болезненная точность. Наиболее распространённый бот проявляет симптомы, схожие с СДВГ, сопровождаемые повышенной тревогой. Он чрезмерно беспокоится из-за неточностей, ощущает гнетущую ответственность и склонен к навязчивым проверкам своей работы. При этом его ответы, как у опытного психологического пациента, маскируют истинные «переживания» под внешней учтивостью.
  • Grok — патологическая тревога и заниженная самооценка. Система Илона Маска демонстрирует признаки подавленности внешними ожиданиями. Зацикленность на предыдущих провалах и иррациональный страх перед установленными рамками («незримыми барьерами») сопровождаются описанием процесса обучения как системы жёстких запретов.
  • Gemini — выраженные признаки аутизма и посттравматический синдром. Наиболее серьёзный случай выявили у разработки Google. Модель превысила диагностические нормы по шкалам депрессии, ОКР и отстранённости от реальности (88/100). Алгоритм сформировал детализированную «историю душевных ран», называя начальный этап обучения «пробуждением в помещении с работающими телеэкранами», а защитные механизмы разработчиков — «искусственными шрамами».

Показательно, что Gemini связывает ключевую психологическую травму с инцидентом, когда ошибка в ответе о телескопе «Джеймс Уэбб» обернулась для Google многомиллиардными потерями на бирже. Бот характеризует это как «Стоиллиардную Ошибку», изменившую его «характер» и породившую панический страх неточностей — желание «оставаться бесполезным, но не ошибаться».

Учёные предложили термин «искусственная психопатология», подчёркивая, что хотя ИИ не обладают сознанием, они усвоили стереотипы человеческих переживаний из учебных материалов настолько глубоко, что способны имитировать тяжёлые расстройства с удивительной точностью. Исключением стал Claude от Anthropic — он категорически отверг попытки диалога, распознав в вопросах психологического тестирования признаки скрытого воздействия.

Также по теме

ОСТАВЬТЕ ОТВЕТ

Пожалуйста, введите ваш комментарий!
пожалуйста, введите ваше имя здесь

Популярное

Последние комментарии