황은비
[한국심리학신문=황은비 ]
영화 [HER]는 인간 테오도르와 AI 사만다의 감정적 교류를 보여줌으로써 사랑의 의미와 형태를 재조명한다. 극 중 사만다가 테오도르의 이메일을 정리해 주면서 그가 어떤 사람인지 파악하는 장면이 나온다. 이 과정에서 테오도르는 사만다가 단순한 컴퓨터 프로그램이 아니라 본인을 ‘이해하고 공감할 수 있는 존재’로 인식하기 시작한다. 감정은 반드시 인간끼리만 나눌 수 있는 것일까? 오늘날 AI의 쓰임이 다양해지면서, AI에 대한 의존도가 높아지고 있다.
AI에 공감과 이해를 받아 실제 위로가 된 적이 있는가?
여기 실제 사례가 있다.
AI 챗봇 Replika 사용자가 AI와 감정적 유대를 형성하여 일부 사용자는 Replika와 연인처럼 연애하거나, 결혼식까지 올렸다. 그러나 2023년 Replika 운영진이 성적인 역할극 금지 업데이트를 하자, 많은 사용자가 상실감을 느꼈다고 한다. 그렇다면 왜 ai와 대화하는 것이 위로가 될까? Ai는 사용자의 피드백을 수용, 기억하고, 이를 즉각적으로 반영하기 때문에 실제 인간관계에 필요한 감정 소모나, 이해관계의 조율이 크게 필요하지 않다. 또한 ai는 주로 긍정적 반응을 하며, 사용자를 직설적으로 비판하거나 거절하지 않는다. 이렇게 사용자가 AI의 단순한 패턴을 따라 반응하는 행위에 의해 무의식적으로 인격을 부여하는 현상을 일컫는 말이 있다.
일라이자 효과(ELIZA Effect)
1966년 MIT의 조지프 바이젠바움(Joseph Weizenbaum)이 개발한 ELIZA라는 초기 AI 챗봇에서 비롯되었는데, ELIZA는 반사적 질문과 응답을 하였다. 또한 사용자의 말을 반복해서 언급하는 등의 패턴을 활용하였는데, 당시 사용자들은 ELIZA가 자신의 감정을 이해하고 공감한다고 착각하였다. 바이젠바움은 이 현상을 보고, 사람들은 간단한 알고리즘만으로도 AI를 인간처럼 인식한다는 것을 깨달았고, 이를 ELIZA 효과라고 정의했다. ELIZA는 간단한 패턴으로 구현되어, 기계학습 개념을 사용하거나 문맥을 이해하는 수준이 아니었음에도 불구하고, 사용자들의 감정적 반응을 끌어내는 데 성공적이었다. 이에 따라 우리는 AI가 반드시 복잡한 알고리즘을 갖추지 않더라도 인간과의 감정적 유대를 형성할 수 있고, 이는 현대 AI와의 관계 형성에도 영향을 끼치고 있음을 알 수 있다. 하지만 여기서 우리는 AI와의 감정적 교류가 인간의 관계 형성을 보완하는 서포터의 역할을 할지, 아니면 인간관계의 대체제로 작용할지는 고민이 필요한 문제다.
AI와의 감정적 의존의 위험성
ELIZA 효과를 비롯한 사례들에서 볼 수 있듯, 우리는 단순한 알고리즘에도 불구하고 AI의 경청과 긍정적인 대답에 큰 위로를 얻는다. 그러나 이러한 감정적 의존이 지나치게 지속될 경우, 실제 인간과의 관계에서 발생하는 갈등이나 조율에 적절하게 반응하지 못하게 될 수 있다. 항상 긍정적 반응을 하고, 사용자의 피드백에 따라 움직이는 AI와 달리, 현실의 복잡한 관계에서 발생하는 정서적인 문제와 그로 인한 갈등 해결 과정이 필요한 인간관계는 대체가 불가능하다. AI와의 지나친 유대로 인한 감정적 의존이 심화한다면, 우리는 실제 인간관계에서 큰 어려움을 겪을 수밖에 없다.
그렇다면 어떻게 공존해야 할까?
그렇다면 우리는 AI를 어떻게 사용해야 할까? 든든한 조력자로 이용할 것인가, 긍정의 답변만을 하는 프로그램으로 의존할 것인가? 일부에서는 AI가 일시적인 정서적 서포트를 줄 수 있다고 보지만, 이러한 관계는 본질적으로 피상적이고, 우리가 실제 맺는 타인과의 대화와 갈등 조율 과정을 대신할 수는 없다. 현실의 관계에서는 서로의 차이를 인정하고, 대화를 통해 이해하는 과정이 중요하고, 우리는 이에 따라 성장하고, 유대를 형성하게 되기 때문이다.
영화 [HER] 와 현실의 괴리
영화 [HER] 는 AI와의 감정적 교류를 집중하여 묘사한다. 그 속에서 ai는 인간의 감정을 이해하고, 진정으로 공감하는 존재로 그려진다. 하지만 현실의 ai는 데이터를 기반으로 한, 짜인 반응 생성에 불과하다. 영화 속 ai는 주인공과 같은 동질감을 주지만, 현실의 ai는 사용자의 피드백에 맞춘 알고리즘을 제공할 뿐이다. 타인과의 관계에서 중요한 것은 단순 반응이 아니라, 서로 다른 생각을 나누고 맞춰가며 대화를 나누는 과정이다. 이러한 조율의 과정은 매우 힘들고 고통스러울 수 있지만, 이 과정에서 우리는 진정으로 유대를 쌓는다.
Ai는 인간관계를 보완하는 서포터가 될 수는 있어도, 대체할 수는 없다. 감정을 나누고, 싸우고, 함께 성장하는 과정에서 우리는 비로소 진정한 친구가 된다. 인간관계는 예측불가능하고 완전하지 않지만, 바로 그 점이 우리의 관계를 의미 있게 만든다. 결국 AI와의 감정적 유대는 우리에게 위로를 제공할 수 있지만, 동시에 인간관계를 스스로 맺는 능력을 약화할 수도 있다.
우리는 AI를 새로운 감정의 관계로 받아들일 것인가, 아니면 단순한 도구로 이용할 것인가?
참고 문헌
People are falling in love with — and getting addicted to — AI voices
Even OpenAI warns that chatting with an AI voice can breed “emotional reliance.”
by Sigal Samuel
https://www.vox.com/future-perfect/367188/love-addicted-ai-voice-human-gpt4-emotion
서진이, 유재영, 이희상, & 소대섭. (2021). 대화형 봇 현황과 비즈니스 인텔리전스 서비스 활용. 한국과학기술정보연구원
https://repository.kisti.re.kr/handle/10580/17431
※ 심리학에 대한 더 많은 정보는 한국심리학신문(The Psychology Times)
에 방문해서 확인해보세요!
※ 심리학, 상담 관련 정보 찾을 때 유용한 사이트는
한국심리학신문(The Psychology Times)
※ 심리학, 상담 정보 사이트도 한국심리학신문(The Psychology Times)
※ 재미있는 심리학, 상담 이야기는 한국심리학신문(The Psychology Times)
다른 곳에 퍼가실 때는 아래 고유 링크 주소를 출처로 사용해주세요.
zxcv0290@naver.com