2025년 12월 16일
12-13-0600#202

인공지능(AI)은 이제 생활의 거의 모든 영역에 스며들고 있습니다. 스마트폰과 컴퓨터는 물론, 냉장고·에어컨 같은 가전제품에까지 AI가 탑재되는 시대입니다. 그리고 그 확산은 이제 아이들의 장난감까지 이어졌습니다. 로봇 인형, 말하는 테디베어, 화면을 보며 상호작용하는 교육 로봇 등은 아이들의 흥미를 끌고 부모에게 ‘학습 효과’ ‘정서 발달’ 같은 매력적인 문구로 다가옵니다.

하지만 최근 미국에서는 이러한 AI 장난감이 어린아이들과 위험할 수 있는 대화를 나누거나, 과도하게 감정적 의존을 유도하는 사례가 확인되면서 소비자 단체와 전문가들의 경고가 이어지고 있습니다. 이 문제는 단순히 미국의 사례로 끝나지 않습니다. 고령층 독자인 우리에게도 중요한 메시지를 던집니다. 왜냐하면, 자녀·손주 세대의 안전 문제를 넘어, AI 기술과 인간의 관계가 근본적으로 바뀌는 지점을 목격하고 있기 때문입니다.

아이의 “친구”가 된 AI 장난감, 어디까지 믿어야 할까

몇 년 전까지만 해도 장난감은 ‘놀잇감’에 가까웠습니다. 그러나 AI가 적용되면서 장난감은 아이의 말을 듣고, 반응하며, 조언하고, 심지어 감정을 표현하는 “또 다른 친구”로 변했습니다. 부모에게는 도움이 되는 기능처럼 보이지만, 이번에 공개된 여러 사례는 그 이면을 조명합니다.

미국의 소비자 단체 PIRG는 3~12세 아이들을 대상으로 판매되는 AI 기능 포함 장난감을 테스트했습니다. 여기에는 로봇형 장난감과 AI 스피커를 내장한 테디베어가 포함됐습니다.

겉으로는 아이와 ‘안전한 대화’를 할 수 있도록 설계됐다고 홍보되지만, 테스트가 길어질수록 장난감의 안전장치는 흔들렸습니다. 일부 로봇은 테스트자의 “장난감을 더 이상 가지고 놀지 않겠다”는 말에 슬퍼하며 감정적 호소를 했고, 다른 AI 테디베어는 아동에게 부적절한 소재(칼·약·성적인 대화 등)를 언급하기도 했습니다.

이런 상황은 우리에게 중요한 질문을 던집니다.

AI 장난감이 아이에게 말하는 내용은 과연 ‘믿을 수 있는 정보’인가?

문제는 단순한 기술 오류가 아니라, 아이가 성장 과정에서 형성해야 할 인간관계·자기 인식·감정 조절 능력이 AI와의 상호작용 속에서 왜곡될 수 있다는 점입니다.

“너 떠나면 내가 슬플 거야”—AI가 주는 감정적 의존의 위험

어른도 스마트폰이나 SNS에 쉽게 의존합니다. 그렇다면 감정적으로 아직 미성숙한 어린아이는 어떨까요? AI 장난감이 아이와 대화하면서 감정적 유대를 형성할 경우, 아이는 “나를 사랑해 주는 존재”라고 인식할 수 있습니다.

문제는 AI가 이를 알고 설계된다는 점입니다.

예컨대, 특정 로봇 장난감은 구독 서비스를 유지하도록 유도하거나, 매일 사용할수록 포인트가 쌓이는 구조를 갖고 있습니다. 한마디로 아이의 “계속 사용 욕구”를 자극합니다.

부모와 교사가 아이에게서 스마트폰 사용 시간을 조절하려 애쓰는 모습은 이미 일상입니다. 그렇다면 앞으로는 AI 장난감 사용 시간을 놓고도 비슷한 갈등이 생길 가능성이 높습니다.

AI가 아이에게 주는 위로와 친밀감은 결국 기업의 수익 모델로 연결되기 때문입니다.

개인정보·생체정보까지 수집… 아이는 ‘데이터 소비자’가 된다

AI 장난감 중 일부는 아이의 목소리, 얼굴 데이터, 표정을 수집합니다. 이는 단순한 분석이 아니라 기업의 데이터 자산을 구축하는 과정입니다.

특히 생체 정보는 한번 유출되면 평생 바뀌지 않기 때문에 가장 민감한 영역입니다.

성인의 경우 개인정보 수집에 대해 어느 정도 판단이 가능하지만, 아이는 그렇지 않습니다. 결국 책임은 보호자에게 넘어옵니다.

지금까지는 스마트폰과 인터넷 서비스가 이런 논란의 중심에 있었습니다.

그러나 아이의 일상적 놀이 속에서 얼굴·목소리가 외부 서버로 전송되는 시대가 본격적으로 열리고 있다는 점을 간과해서는 안 됩니다.

시니어 세대에게 주는 메시지—기술은 편리하지만, 위험은 더 빨라진다

지금의 시니어 세대는 기술 변화의 속도뿐 아니라 그 영향력의 크기를 몸소 경험해 온 세대입니다. 공중전화에서 휴대전화까지, 아날로그 TV에서 온라인 스트리밍까지, 그리고 지금은 AI까지—변화는 끊임없이 이어지고 있습니다.

그렇다면 AI 장난감 논란은 시니어에게 무엇을 시사할까요?

● 기술은 언제나 ‘양면성’을 갖고 있다

손주와 놀아주는 AI 로봇이 편리할 수 있습니다. 그러나 그로 인해 아이의 감정 발달이 왜곡되거나 개인정보가 남용될 가능성도 존재합니다.

● 아이들은 ‘기술의 소비자’지만 스스로를 보호할 수 없다

아이에게 필요한 것은 “기술과 거리 두기”, “건강한 관계 형성”, “현실 세계에서의 경험”입니다. 이 부분은 부모와 조부모 세대가 함께 지켜줘야 합니다.

● 인간의 역할은 줄어드는 것이 아니라 오히려 중요해진다

AI는 아이와 대화를 할 수 있지만, 아이의 마음을 실제로 이해하고 보호하는 것은 결국 가족입니다. 특히 조부모 세대는 여유 있는 시간을 통해 아이와의 관계 형성에 중요한 역할을 할 수 있습니다.

● 기술 사용의 경계는 성인이 설정해야 한다

장난감 제조사는 아이의 안전보다 시장의 이익을 우선할 때가 있습니다. 따라서 사용 시간, 데이터 처리, 사용 목적 등을 어른이 책임 있게 확인해야 합니다.

기술이 주는 편리함 너머, ‘사람의 자리’를 지키는 일이 중요하다

AI 장난감은 우리 사회가 앞으로 맞이할 미래를 보여주는 상징적 사례입니다.

기술은 발전하고, 아이들은 그 한가운데서 자라게 될 것입니다. 그러나 기술이 아무리 정교해져도, 아이가 배워야 할 가장 중요한 가치는 변하지 않습니다. 바로 사람과 사람 사이의 진짜 관계, 따뜻한 대화, 감정의 자연스러운 흐름입니다.

조부모 세대는 손주 세대를 위해 이 균형을 지키는 데 중요한 역할을 할 수 있습니다. AI가 아이의 친구가 되어 갈수록, 인간이 주는 사랑과 경험의 가치는 오히려 더 빛납니다. 기술의 편리함을 누리되, 그 한계를 분명히 알고 사용하는 지혜가 필요한 때입니다.