Ученые изучили, как ChatGPT реагирует на негатив и стресс

Группа исследователей из Цюрихского университета установила, что языковые модели ИИ, включая ChatGPT, остро реагируют на эмоционально насыщенные тексты, особенно с негативным содержанием, сообщает SWI.

Эксперименты показали, что травматичные истории, такие как описания катастроф, аварий или насилия, вдвое увеличивают уровень тревожности у ИИ по шкале, используемой для оценки человеческой тревожности. Для сравнения, нейтральные тексты, такие как инструкции по эксплуатации техники, не вызывали подобных изменений.

Исследователи также изучили возможность снизить тревожность модели с помощью техник осознанности, схожих с практиками психотерапии и медитации. В рамках метода внедрения промптов ChatGPT предлагалось, например, представить себе спокойные образы или глубоко дышать. Эти вмешательства помогли частично снизить уровень тревожности ИИ, что подчеркивает перспективность использования таких техник в работе с эмоционально нагруженным контентом.

По мнению ученых, результаты исследования имеют особое значение для применения ИИ в здравоохранении, где чат-боты неизбежно сталкиваются с сильным эмоциональным воздействием. Авторы считают, что автоматизированные терапевтические интервенции могут повысить надежность подобных систем, минимизируя их предвзятые реакции на негативный контент.