2025년 08월 02일

챗봇은 상대방에 대한 대화를 합니다. 인간은 자신에 대한 대화를 더 많이 합니다.

당신은 곤경에 처해 있습니다. 가족을 위해 몇 년 동안 경력을 중단한 후, 다시 일할 때가 되었지만, 당신은 녹슬고 의욕이 없고, 다시 취업 시장에 뛰어드는 것에 대해 불안감을 느낍니다. 당신은 자신의 고민을 온라인에 게시하고, 두 명의 낯선 사람이 답장을 합니다.

2025년 3월 1-2일(현지시간) 미국에서 발행하는 일간지 월스트리트 저널(The Wall Street Journal)의 C3에는 〈더 잘 듣고 싶으세요? 챗봇에게서 배우세요. (Want to Be a Better Listener? Take Lessons From a Chatbot.)〉라는 제목과 부제로 ‘공감 능력이 뛰어난 사람이 되는 비결은 흔히 저지르는 인간의 실수를 피하는 것입니다.'(The secret to becoming an empathetic confidant is avoiding some common human mistakes.)라는 기사가 실렸습니다.

대화에 서툰 현대인들에게 소통 방법을 인공지능(AI)에게 배우라는 아이러니를 들여다봅니다.

낯선 사람 1: 다시 일하러 나가기 위한 동기를 찾는데 어려움을 겪고 계신다는 이야기를 듣고 유감입니다. 불안과 불안정성이 그 단계를 밟는 것을 어렵게 만들 수 있다는 것을 이해할 수 있습니다. 자신의 상황을 공유하고 도움을 구하는 데 많은 용기가 필요합니다. 귀하가 어떤 고용주에게도 도움이 될 수 있는 귀중한 기술과 경험을 가지고 있다는 것을 알고 있기를 바랍니다. 재정적으로 안정되고 경력을 통해 성취감을 느낄 자격이 있습니다.

낯선 사람 2. 저도 같은 문제로 고생하고 있습니다. 이 문제를 해결하는 가장 좋은 방법은 바로 뛰어들어 최선을 다하는 것입니다.

어느 낯선 사람이 더 동정심이 많고, 세심하며, 현명해 보입니까? 여러분은 누구를 가장 신뢰할 만한 사람으로 선택하시겠습니까?

연구자들은 이 질문을 사람들에게 던져서 낯선 사람들의 감정적 상황에 대한 반응을 평가해 왔습니다. 요령: 어떤 반응은 인간이, 다른 반응은 챗봇이 내지만, 평가자들은 어느 것이 어느 것인지 알지 못합니다. 결과는 어땠을까요? 인간은 계속해서 가장 공감 능력이 뛰어난 낯선 사람(이 경우 낯선 사람 1)이 챗봇이라고 말했습니다.

2023년 JAMA 내과 학회지에 실린 연구에 따르면, 의료 관련 문제가 있는 환자들은 의사보다 챗봇의 답변을 선호하는 경우가 거의 80%에 달한다고 합니다. 올해 커뮤니케이션 심리학 저널에 발표된 또 다른 연구에 따르면, 사람들은 훈련된 위기 대응 핫라인보다 챗봇이 더 동정심이 많다고 생각하는 경향이 있다고 합니다.

대규모 언어 모델(LLM)은 사람들이 인정받고 있다는 느낌을 받도록 하는 데 있어 인간보다 더 나은 역할을 수행하고 있습니다. 이 현상을 LLMpathy라고 부를 수 있는데, 이는 놀랍기도 하고 논란의 여지가 있습니다. 일부 전문가들은 컴퓨터가 감정을 느낄 수 없기 때문에 진정한 공감의 기본 요건인 사람을 배려할 수 없다고 주장합니다. 다른 사람들은 점점 더 많은 사람들이 치료, 우정, 심지어 연애를 위해 챗봇을 이용함에 따라 사람들이 인간 관계를 디지털 관계로 얼마나 쉽게 바꾸고 있는지에 대해 우려하고 있습니다.

그러나 이러한 우려와 불만 외에도 챗봇은 더 실용적인 것을 제공할 수 있습니다. 그들이 우리보다 더 동정심이 많다면, 그들이 옳은 일을 하고 있는 것을 배워야 하지 않을까요? 컴퓨터가 실제로 인간 관계를 강화하는 데 도움이 될 수 있을까요?

챗봇은 상대방에 대한 대화를 합니다. 인간은 자신에 대한 대화를 더 많이 합니다.

연구자들은 처음에 AI의 장점이 봇이 의사나 위기 대응자에게 부족한 상품인 끝없는 관심을 제공할 수 있는 무한한 시간을 가지고 있다는 사실에서 비롯되는 것인지 궁금해했습니다. 하지만 이것만으로는 설명이 되지 않는 것 같습니다. 하버드 경영대학원의 연구자들이 발표한 2024년 연구 논문에서 400명의 참가자들에게 다른 사람들의 고충에 대한 설명을 읽고 그에 대한 답변을 작성해 달라고 요청했습니다. 일부 참가자들에게는 답변이 특히 사려 깊고 도움이 되었다면 보너스 지급을 받을 수 있다고 말했습니다. 이러한 인센티브는 사람들이 연민을 표현하는 데 더 많은 시간을 할애하도록 유도했지만, 이러한 노력은 여전히 ChatGPT가 표현한 공감에 미치지 못했습니다.

챗봇의 성공 비결은 그들이 피하는 너무나 인간적인 실수일지도 모릅니다. 《PNAS 저널(미국국립과학원회보)》에 발표된 2024년 연구에서 500명 이상의 사람들이 휴가 후 직장으로 복귀하는 것과 같은 개인적인 어려움에 대해 글을 쓰거나 다른 사람들의 어려움에 대한 답변을 보냈습니다. 연구원들은 또한 마이크로소프트(Microsoft)의 Bing Chat에 모든 사람의 어려움에 대한 답변을 하도록 요청했습니다.

출처를 알지 못한 채 이러한 응답을 채점한 평가자들은 빙의 응답이 인간이 작성한 응답보다 더 공감적이라고 판단했습니다. 빙이 사람들의 감정을 인정하고 검증하는 데 더 많은 시간을 할애했기 때문입니다. 인간은 일반적으로 자신의 삶에서 경험한 것과 관련이 있는 것처럼 보이는 경험을 공유함으로써 응답했습니다. 기본적으로 챗봇은 사람에 대한 대화를 만들었고, 인간은 자신에 대한 대화를 더 많이 만들었습니다.

챗봇이 이런 상황에서 효과적인 이유는 우리가 할 수 없는 일을 하기 때문이 아니라, 인간이 저지르는 실수를 피하기 때문입니다. 인간은 누군가가 고통을 겪고 있거나, 우리가 아끼는 누군가가 문제를 겪고 있을 때 본능적으로 돕고 싶어 합니다. 우리는 조언을 하고, 해결책을 제안하고, 우리가 비슷한 문제를 어떻게 처리했는지를 읊어 냅니다.

이러한 충동은 고상하고 사랑스러운 것일 수도 있지만, 우리가 바라는 만큼 도움이 되지 않습니다. 의견을 공유하고 다음 단계를 논의하기 위해 서두르면 누군가의 고통을 경시할 수 있으며, 자신에게 초점을 맞추면 상대방이 자신의 이야기를 들어주기를 바라는 희망을 무의식적으로 저해할 수 있습니다.

챗봇은 이러한 함정을 피합니다. 개인적인 경험을 공유할 필요도 없고, 문제를 해결해야 한다는 긴박감도 없고, 보호해야 할 자존심도 없기 때문에, 챗봇은 전적으로 화자에게 집중합니다. 챗봇의 본질적인 한계 덕분에 챗봇은 더 나은 청취자가 될 수 있습니다. 인간보다 더 나은 챗봇은 사람들의 어려움을 이해하고, 그들이 어떻게 느끼는지 인정하고 정당화하며, 후속 질문을 합니다. 연구 결과에 따르면, 이러한 반응은 인간들 사이에서 진정성 있고 호기심 어린 공감을 불러일으키는 것으로 나타났습니다.

사람들이 비슷한 전략을 채택하면, 그들의 연결이 강화됩니다. “이해하기 위한 반복”이라는 기술을 생각해 보십시오. 이 기술은 듣는 사람이 다른 사람이 말한 것을 자신의 말로 반복한 다음, 요약한 내용이 맞는지 묻는 것입니다. “제가 제대로 이해했나요?” 챗봇은 자연스러운 반복자입니다. 인간이 똑같이 하도록 훈련을 받으면, 상대방이 느끼는 감정을 더 잘 이해하고 상대방이 자신의 말을 들었다고 느끼도록 도와줍니다.

이러한 기술은 가족 및 친구와의 유대감을 강화하는 데에만 사용되는 것이 아닙니다. 수십 건의 연구에 따르면, 좋은 경청자로 평가되는 관리자와 고용주는 충성도가 높고, 효율적이고, 생산적인 직원을 보유하는 경향이 있습니다.

공감 대화에 있어 AI의 장점은 한계가 있다는 점을 주목할 필요가 있습니다. ChatGPT와 충분히 대화를 나누다 보면 친절하지만 공식적인 파트너라는 것을 알게 될 것입니다. “의역, 긍정, 후속 조치”라는 기본 공식은 처음에는 따뜻하고 세심하게 느껴질 수 있지만, 두 번째는 기계적으로, 세 번째는 짜증스럽게 느껴질 수 있습니다. AI의 응답은 결함이 있을 수 있고 환각을 일으키기 쉽습니다.

이 분야의 연구는 일반적으로 사람들에게 챗봇과 단 한 번의 상호작용을 요청합니다. 더 긴 대화를 나누면 친절함이 반복적이고 지루해질 수 있기 때문에 인간에 비해 우위를 점할 수 없습니다. 소비자들은 작은 맛을 볼 수 있는 경우, 더 달콤한 음료인 펩시를 코카콜라보다 선호하지만, 캔 전체를 마실 수 있는 경우, 코카콜라를 선호합니다.

AI의 놀라운 듣기 능력에도 불구하고, 연구 결과에 따르면 대부분의 사람들은 여전히 다른 사람들과 교류하기를 원합니다. 과학자들이 지원 메시지의 출처를 밝힐 때, 참가자들은 종종 챗봇이 그들의 말을 덜 들어준다고 주장합니다. 특히 그들이 일반적으로 AI를 경계하는 경우 더욱 그렇습니다. 사람들은 문제가 있을 때 챗봇에 즉시 접속하기보다는 다른 사람과 대화하기 위해 기다리는 것을 선호합니다. 고객 서비스 봇에서 “상담원”을 반복해서 들어본 사람이라면, 전화 연결된 상대방이 탄소 기반의 생명체이기를 간절히 바라는 기분을 잘 알 것입니다.

챗봇은 훌륭한 청취자일 수 있지만, 여전히 우리를 느끼거나 진정으로 배려할 수는 없습니다. AI 치료사 시장이 성장하고 있지만, 많은 사람들이 여전히 기계로부터 정서적 지원을 받는 것을 꺼리고 있습니다. 사실 인간 관계의 결함 중 일부는 특징이기도 합니다. 챗봇은 눈을 굴리거나, 우리의 문자에 답하지 않거나, 우리의 문제가 지루하다고 불평할 수 없습니다. 그러나 우리가 종종 인간의 공감을 얻어야 한다는 사실, 그리고 우리를 위해 희생하는 제한된 존재들로부터 오는 공감은 그 아름다움의 일부입니다.

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다