2025년 08월 01일
4291_8088_3219

– 인간 행동은 지나치게 복잡하고, 섬세해서 단순한 수식으로 환원될 수 없다

무언가 계속해서 벌어지고 있습니다.

반짝이는 새로운 아이디어나 기술이 등장할 때마다, 그것이 우리 문제를 모두 해결해 줄 것이라는 약속이 함께 따라옵니다. 전문가에게 일을 맡겨 ‘과학적으로’ 처리하게 하면, 빈곤과 질병, 전쟁, 그리고 인간의 고통이 사라질 수 있다고 말입니다. 오늘날 우리는 인공지능이라는 또 하나의 신기술을 믿고 따르라는 요청을 받고 있습니다.

국제통화기금(IMF)은 “인공지능이 시민들의 목소리가 진정으로 들리도록 보장함으로써 민주적 제도를 강화할 수 있다”고 약속합니다. 그러나 몇몇 전문가들이 권력을 쥐는 것이 어떻게 민주주의를 강화할 수 있을까요? 이것이 바로 20세기 초 진보주의 운동이 내세운 약속 아니었습니까? 아니면, 그것이 소련의 ‘과학적 사회주의(scientific socialism)’가 가졌던 사고방식과 닮아 있는 건 아닐까요?

최근 구글 연구원들은 ‘하버마스 기계(Habermas machine)’라는 인공지능 시스템을 선보였습니다. 이 시스템은 브렉시트나 기후 변화처럼 논쟁적인 주제에 대해 사람들이 공통점을 찾도록 돕기 위해 설계되었다고 합니다. 더는 국민투표로 잘못된 답을 얻거나, 복잡한 논쟁으로 문제를 흐릴 필요가 없다는 것입니다. 타협과 교환이라는 정치적 사유는 구시대의 산물이라는 듯 말입니다. 이 기계는 독일 철학자 위르겐 하버마스의 이성적 담론 이론에 바탕을 두고 있습니다. 하버마스 기계는 인간 갈등의 핵심이 상충하는 가치관보다는 소통의 실패에서 비롯된다고 가정합니다. 그리고 기후 변화와 같은 공통의 문제에 대해 사람들이 더 나은 합의를 이끌어낼 수 있도록 돕는다고 합니다. 더 이상 국민투표도, 논쟁도 필요 없습니다. 알고리즘이 정답을 알려주니까요.

그러나 이는 ‘치명적 오만(fatal conceit)’의 새로운 얼굴입니다. 복잡한 사회 문제를 중앙에서 계획하고 기술로 해결할 수 있다는 믿음이 다시 살아난 것입니다.

하버마스 본인은 이 지점에 대해 분명히 했습니다. 그의 담론 이론은 우리가 겪는 근본적인 불일치가 단순히 기술적 계산이나 더 나은 해법으로 해결되지 않는다고 지적합니다. 그런 갈등은 본질적으로 도덕적이고 정치적인 가치의 충돌이며, 단지 ‘과학적 사회주의’ 방식으로는 해결될 수 없는 문제라는 것입니다.

우리는 지금 또다시 ‘모든 것을 고치는 도구’에 열광하고 있습니다. 그러나 과거의 혁신들이 항상 유익하거나 완벽했던 것은 아닙니다. 때로는 예상치 못한 해악을 초래하기도 했습니다.

《이코노미스트》 편집자는 오늘날 인공지능이 생성하는 문장이 “더 명확하고, 더 논리적이며, 더 쉽게 정보를 전달한다”고 말합니다. 그렇다면 외교는 왜 필요할까요? 연방준비제도이사회(Fed)의 금리 결정이나 미국 연방대법원의 판결도 인공지능에게 맡기면 되는 것 아닐까요? 인간이 중동의 갈등을 해결하지 못했다면, ChatGPT에게 그 해법을 맡겨보는 게 어떨까요?

이러한 낙관은 기술에 대한 심각한 오해를 반영합니다. 우리는 지금 고전적 중앙계획의 오류가 부활하는 순간을 목도하고 있습니다. 단지 이번에는 인공지능이 그 도구일 뿐입니다. 중앙계획은 사회 시스템을 통제하려는 시도이고, 인공지능은 그것을 더욱 정교하게 수행할 수 있는 수단으로 여겨지고 있습니다.

물론 기술은 빠르게 발전하고 있습니다. 2004년 페이스북은 100만 명의 사용자를 확보하는 데 10개월이 걸렸지만, 2022년 ChatGPT는 같은 성과를 단 5일 만에 달성했습니다. 그러나 새로운 기술이 가져올 사회적 결과를 예측하는 우리의 능력은 여전히 형편없습니다. 한때 인터넷은 독재를 불가능하게 만들 것이라 여겨졌습니다. 그러나 지금은 인터넷이 오히려 자유로운 의견 교환을 위협하는 도구가 되기도 합니다. 인터넷 자체가 창조자의 예측을 벗어날 수 있다는 사실은, 기술에 대한 겸손을 일깨워줍니다.

소련의 계획자들은 사회를 합리적으로 조직할 수 있다는 자신감에 넘쳤습니다. 그들은 자본주의 국가의 낭비와 실업을 대신해, 전문가들이 자원을 이타적이고 효율적으로 배분할 수 있다고 믿었습니다. 그러나 그 믿음은 한계에 부딪혔고, 중앙계획은 결국 그 한계를 처리하는 데 실패했습니다. 프리드리히 하이에크(Friedrich August von Hayek, 노벨경제학상 수상자, 1899.5.8~1992.3.23)는 이러한 실패의 원인을 분산된 지식의 본질에 있다고 보았습니다. 사회 전체에 퍼져 있는 지식은 어떤 중앙집중적 계획으로도 완전히 포착할 수 없다는 것이지요. 복잡한 시스템에서는 예측 불가능한 속성이 나타나기 마련이며, 그것은 어떤 정교한 모델로도 설명하기 어렵습니다.

오늘날의 기술 리더들 역시 같은 함정에 빠질 위험이 있습니다. 인간 사회와 행동을 소프트웨어처럼 설계하고 예측할 수 있다는 착각은, 과거 5개년 계획의 과도한 자신감과 닮아 있습니다. 아무것도 성취하지 못하는 것은 아니지만, 모든 것을 성취할 수 있다는 환상은 더욱 위험합니다.

현대 인공지능 시스템은 일정 부분에서 성공을 거두고 있습니다. 대형 언어 모델(LLM)은 방대한 정보를 처리하고 복잡한 사회적 문제에 대해 정교한 응답을 만들어냅니다. 이는 종종 인공지능이 포괄적인 지식을 지닌 것처럼 착각하게 만듭니다. 그러나 이러한 착각은 조잡한 경제 모델보다 더 큰 위험을 초래할 수 있습니다. 우리는 인간 사회의 복잡성을 과소평가한 채, 또다시 유토피아적 약속에 유혹당하고 있습니다.

중동 분쟁을 보십시오. 이는 기술로 해결할 수 있는 문제가 아닙니다. 수세기 동안 누적된 불만, 다층적인 민족과 정체성의 문제, 종교적 갈등, 생존이 걸린 이해관계—어떤 ‘하버마스 기계’도 이 복잡한 적대감을 해결할 수 없습니다. 명확한 문장을 생성한다고 해서, 상충하는 세계관을 조율할 수 있는 것은 아닙니다. 타협이 곧 배신으로 여겨지는 사회에서, 그리고 생존 자체가 위협받는 상황에서 어떤 알고리즘도 해답이 될 수 없습니다.

하이에크가 지적한 ‘치명적 자만(fatal conceit)’은 여전히 유효합니다. 중앙 권력이 모든 정보를 수집하고 활용할 수 있다는 전제 자체가 오만입니다. 소련의 계획자들이 분산된 지식을 제대로 포착하지 못했던 것처럼, 오늘날 인공지능 시스템도 인간 사회의 복잡한 맥락과 권력 구조를 충분히 이해하고 최적화할 수 없습니다. 인간 행동은 지나치게 복잡하고, 문화적 맥락은 지나치게 섬세하여, 단순한 수식으로 환원될 수 없습니다.

이는 인공지능을 부정하려는 것이 아닙니다. 오히려, 인공지능의 잠재력을 이해하기 위해 그 한계를 겸허히 인식해야 한다는 주장입니다. 인공지능은 인간의 판단을 대체하기보다는, 그것을 보완하는 도구로 가장 효과적으로 작동합니다. 정보 처리, 패턴 인식, 선택지 생성에서 유용할 수 있지만, 경쟁하는 가치들 간의 조율이나 불확실성 속에서의 판단은 본질적으로 인간의 몫입니다.

역사는 인간의 복잡성을 기술로 제거하려는 시도가 문제를 없애기보다는 오히려 지하로 밀어 넣고, 그 결과로 예측할 수 없는 파괴를 낳았음을 보여줍니다.

오늘날 기술 리더들이 저지르는 실수는, 인간 사회를 설계하고 예측 가능한 것으로 환원할 수 있다는 착각입니다. 그러나 실제로는, 소련이 그러했듯, 이러한 시스템은 예측 불가능한 결과를 낳게 됩니다.

현대의 인공지능 시스템도 마찬가지입니다. 알고리즘이 자원을 공정하고 희생적으로 배분할 것이라는 기대는, 인간 사회의 권력과 갈등을 과소평가한 결과입니다. 우리는 지금, 기술을 통한 중앙계획이라는 오래된 유혹을 새로운 모습으로 다시 받아들이고 있습니다.

하이에크는 이렇게 말했을 것입니다. “인공지능은 도구일 뿐, 인간 사회의 문제를 해결해 줄 신(神)이 아니다.”

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다