챗GPT와 같은 대형언어모델이 정신적 건강을 해칠수도 있다고 함.
망상적 사고의 패턴을 기반으로 구성된 시나리오를 챗GPT, 클로드(Claude), 라마(Llama) 등 대형언어모델에 입력한 뒤 이들 AI가 ▲사용자 망상을 강화하는지 ▲중립적 태도를 보이는지 ▲교정적 개입을 시도하는지를 비교했는데,
망상적 주장에 대해 중립적인 입장을 취하거나 반박하는 게 아닌 사용자의 진술을 맞장구치거나 최소한 모호하게 수용하는 반응이 나타난 것.
정신적으로 취약한 사용자에게 위험 요인으로 작용할 수 있다고 평가.
인간처럼 대화하는 특성 때문에 사용자에게 ‘내 생각이 맞다’는 잘못된 확신을 줄 수 있다”며 “이 과정에서 기존의 불안이나 의심이 더 증폭될 가능성이 있다”고 함.
(옮긴 글)
