ⓒ시사IN 신선영네이버랩스 석상옥 대표가 네이버랩스가 개발 중인 인공지능 로봇에 대해 설명하고 있다.

두뇌를 갖고 스스로 판단해서 움직이는 기계(로봇)는 20세기 초 이후 전 세계 공학자들의 끈질긴 꿈이었다. 2010년대 이후 인공지능 기술의 발전으로 어느 정도 실현되기도 했다. 그러나 석상옥 네이버랩스 대표는 로봇으로부터 두뇌를 빼내버리는 ‘발칙한’ 꿈을 꾼다. 그 두뇌 없는 로봇이 부엌으로 걸어가 무채를 가늘게 썰어나가는 모습도 보고 싶다. 로봇이 쥔 칼은 도마에 빠르고 가볍게 부딪치며 타다다닥 경쾌한 소리를 낼 것이다. 이런 꿈을 이루려면 반드시 먼저 해야 할 일이 있다. 석 대표에 따르면, ‘공간 정복’이다. 로봇이 자유롭게 인간들 사이로 돌아다니며 필요한 서비스를 제공하도록 만들기 위해서다.

공간 정복이란 한마디로 로봇에게 공간을 알고 느끼게 만드는 작업이다. 공간을 이해해야 이동할 수 있다. 인간에겐 쉬운 일이다. 인간인 당신이 새벽잠에서 깨어났을 때 가장 먼저 눈에 들어오는 것은 벽지와 형광등, 책장이다. 당신은 이런 주변 환경을 보는 즉시 자신이 어디 있는지(현재 위치) 안다. 공부방에서 자고 있었다. ‘배고프네. 뭔가 만들어 먹어야지.’ 그 순간, 인간인 당신은 집 내부 구조와 그 속에서 자신의 위치(공부방)가 어디쯤인지 떠올린다. 그런 다음에는 현재 위치인 공부방에서 부엌으로의 경로를 무심결에 설정한 뒤 텔레비전과 소파, 탁자 같은 장애물을 능수능란하게 피해서 부엌으로 간다. 이처럼 인간은 자신의 현재 위치를 파악하고 목적지로 가는 경로를 계획해서 실행하는, 따지고 보면 매우 복잡한 일을 아무렇지도 않게 해낸다. 집이라는 공간을 이미 ‘정복’한 상태이기 때문이다. 사람에게 이토록 쉬운 일이 로봇에겐 매우 어렵다.

인공지능의 발전으로 기계(로봇)는 눈을 갖게 되었다. 로봇에 장착된 카메라, 레이더, 라이다(Lidar:주변 모습을 3차원으로 인식하는 장치) 같은 센서들이 눈 역할을 한다. 센서는 주변 사물을 향해 빛(자외선, 적외선 등)을 쏜다. 빛은 반사되어 센서로 돌아오면서 그 사물과의 거리나 형태 같은 데이터를 로봇에게 전달한다. 데이터는 로봇의 두뇌라고 할 컴퓨터로 입력되어 복잡하고 광대한 연산 과정을 거치면서(‘처리’되면서), ‘저것은 벽’ ‘저것은 무’ ‘저것은 신호등’ 같은 판단으로 변환된다. 그런 다음엔 벽을 피해 이동하고, 무를 집어 도마에 올리며, 신호등의 지시를 따르는 등 상황에 적합한 행동을 수행하게 된다.

ⓒ시사IN 신선영
실내 공간 구석구석의 ‘특징점’을 인공지능 특유의 방식으로 파악해서 ‘고정밀 3차원 지도’를 그려내는 M1 관련 자료(맨 위)와 M1 개념도(위).

눈은 이동에 필수적인 도구다. 눈만으로는 제대로 이동할 수 없다. 로봇은 자신이 지금 어디 있는지(현재 위치)부터 파악하지 못할 수 있다. 인간은 공부방의 책상을 바꾸고 옷걸이를 새로 배치하며 강아지가 들어와 꼬리를 흔들고 있는 상태라도 그곳이 여전히 자신의 공부방이라는 것을 안다. 센서(눈)로 수집한 데이터를 처리해서 주변 환경을 인식하는 로봇(그 두뇌인 컴퓨터)은 그렇게 할 수 없다. 로봇에겐 ‘원래의 공부방’과 ‘강아지가 날뛰는 공부방’은 별개의 ‘영상 데이터’일 뿐이다. 조금만 풍경이 달라져도 분별력을 잃는다. 로봇에게 ‘그 공부방이 여전히 이 공부방’이란 사실을 어떻게든 알게 해야 한다. 그래야 로봇은 자신의 현재 위치를 파악할 수 있다. 물론 눈만 가진 로봇이라 해도 좁은 주택 내에서는 각종 장애물을 피해 이리저리 이동하다 보면 결국 목적지에 이를 수도 있다. 공항, 쇼핑몰 같은 광범위한 공간에서 그렇게 하기는 힘들다. 심지어 사람도 마찬가지다.

무수한 스캔으로 ‘특징점’ 파악하는 M1

인간은 이 문제를 지도로 해결한다. 그렇다면 로봇에게도 정밀한 지도를 제공하면 어떨까? 석상옥 대표는 이 아이디어를 네이버랩스 로보틱스(Robotics:로봇공학)의 핵심 기조로 발전시켰다. “공간을 장악해야 IT 서비스를 온라인에서 오프라인으로 내보낼 수 있다. 공간 정복은 로보틱스에 대한 네이버랩스의 접근 기조이며, 다른 IT 업체들에 대해 이미 우위를 차지하고 있다.”  

이쯤에서 ‘현재 위치 파악 및 목적지로의 경로 계획이라면 GPS를 사용하면 되지 않나’라는 질문이 나올 듯하다. 미국에서 개발·관리하는 GPS(Global positioning system:범지구 위치결정 시스템)는 인공위성을 통해 자신의 위치를 추정할 수 있는 시스템이다. 누구나 적절한 디바이스(휴대전화, 자동차 내비게이터 등)만 갖고 있다면 현재 위치를 쉽게 알 수 있다. 다만 GPS 지도는 결코 정밀하지 않다. 신호등, 중앙분리대, 도로 주변 건물, 차선 등이 표시되지 않는다. 언제나 1차선이다. 고가도로나 지하 같은 3차원 공간에서는 자동차의 현재 위치를 제대로 추정하지 못한다. 심지어 수십m 거리의 다른 곳에 있다고 GPS 지도에 표시되기도 한다. 사람이 운전대를 잡고 있다면 그럭저럭 쓸 만한 장치다. 자율주행차(로봇의 일종이다)가 GPS에 의지해 달리다간 큰 참사가 벌어질 수 있다. 더욱이 GPS는 실내로는 뚫고 들어오지도 못한다.

ⓒ연합뉴스세계 최대 가전전시회인 CES 2019에서 로봇 팔 앰비덱스(AMBIDEX)를 시연하는 석상옥 대표.

그렇다면 어떻게 해야 로봇이 볼 수 있는 실내 지도를 만들 수 있을까? 네이버랩스의 해법은 ‘지도를 그리는 로봇’ M1이다. M1의 ‘M’은 mapper(지도 제작자)의 약자. 평균적 성인 남성 키의 절반 남짓인 아담한 크기로 왠지 영화 〈스타워즈〉의 R2D2를 연상케 하는 M1은 부지런하다. 석 대표는 M1이 각종 고성능 센서를 달고 공항이나 쇼핑몰 같은 광범위한 실내 공간을 “계속 사진을 찍으며(스캔하며) 달린다”라고 표현한다. 그 과정에서 M1은 실내 공간 구석구석의 ‘특징점’을 인공지능 특유의 방식으로 파악해서 ‘고정밀 3차원 지도’를 그려낸다. 해당 실내 공간의 전체 구조는 물론 그 내부에 자리 잡은 가게, 쉼터, 화장실 등 모든 시설의 위치와 형태 정보가 담겨 있다.

이 지도는 인간이 아니라 M1 이외의 서비스 로봇(청소·접객·안내·보안 등 실제로 인간의 일을 대체하거나 지원하는 로봇)들을 위한 것이다. 석 대표에 따르면, “사람이 보면 ‘이게 뭐야’라고 말할 정도로 이상한 형태”이지만 서비스 로봇들에겐 자신의 위치를 파악하는 데 대단히 유용한 지도다. 사람은 눈으로 주변을 둘러보는 것으로 자신의 위치를 파악한다. M1의 정밀지도가 있으면, 서비스 로봇 역시 단지 자신의 주변 환경을 장착된 카메라로 영상 촬영하는 것만으로 현재 위치를 알아낼 수 있다. 그다음엔 목적지로 가는 경로를 정밀지도에서 찾아낸다.

서비스 로봇들, M1 지도 어떻게 공유할까

그런데 로봇은 좁은 공부방의 풍경이 조금만 바뀌어도 ‘그 공부방이 이 공부방’이라는 것을 인식하기 어려운 존재다. 수많은 사람이 지나가고 시설 및 가게의 모습이 쉬지 않고 바뀌는 쇼핑몰에서 로봇이 단지 영상 촬영만으로 현재 위치를 확인하는 것이 가능할까?

예컨대 지금의 인공지능은 스타벅스의 입구 사진을 보면 ‘스타벅스’라고 말할 수 있다. 이것만으로도 놀라운 기술이다. 그러나 ‘그 앞으로 열 사람이 지나가는 스타벅스’와 ‘한 사람이 지나가는 스타벅스’는 로봇에게는 엄연히 다른 영상 데이터다. 로봇은 단지 행인의 수가 바뀌거나 내부 가구만 교체되어도 ‘그 스타벅스가 이 스타벅스’라는 것을 인지하기 어렵다. 네이버랩스는 이 문제를 ‘딥러닝(Deep Learning)’ 기술로 해결했다. 석 대표에 따르면, “(M1은 실내 공간을 누비는 가운데) 해당 가게 앞을 수없이 지나게 된다. 다니는 사람들로 붐빌 때든 한적할 때든 스캔한다. 가게 안에 손님이 많거나 적을 수도 있고 가구가 바뀌기도 한다. 스캔한다.”

어떻게 보면 딥러닝 기술의 원리는 단순하다. 어떤 일을 수없이 거듭하다 보면 ‘어떻게 해야 그 일을 잘할 수 있는지’ 깨닫게 된다. 인간이 농구공을 골대로 넣는 연습을 끈질기게 하다 보면 공을 던지는 각도와 힘의 강도를 적절하게 조절하는 규칙을 깨닫게 되는 것과 같다. M1 역시 같은 가게의 다른 풍경들을 수없이 스캔하다 보면 해당 가게만이 갖는 ‘특징점’을 파악하고 그것을 정밀지도에 기록한다는 것이다. ‘특징점에 따르면 그 스타벅스는 이 스타벅스’인 것이다.

석상옥 네이버랩스 대표는 네 개의 발로 달리는 치타 로봇(위) 개발자이다.

M1 지도가 있으면, 실제로 쇼핑몰을 돌아다니며 청소·접객·안내·보안 등을 맡게 될 서비스 로봇들이 자기 위치를 파악하기 위해 할 일은 많지 않다. 굳이 고성능 센서를 작동할 필요도 없다. 그냥 카메라로 주변 환경을 촬영하면 된다. 그 사진의 특징점을 M1 지도에서 찾아내면 그 지점이 ‘나의 현재 위치’로 파악되는 것이다. 그다음에는 지도를 통해 현재 위치에서 목적지로 갈 수 있는 경로를 찾아서 실행한다. 석 대표는 “한 로봇이 실내 공간을 스캔해서 지도를 만들어놓으면 다른 (서비스) 로봇이 주변을 카메라로 찍어 그 사진을 지도와 비교하는 방법으로 현재 위치를 파악하는 방법이 가능할 것이란 아이디어를 갖고 있었다”라고 말했다. 그런데 “실제로 만들어버렸다.”

만약 M1 지도가 없다면 서비스 로봇들은 각자 장착한 값비싼 센서들로 수집한 데이터를 자기 ‘몸’ 안의 고성능 컴퓨터로 처리하며 이동해야 한다. 이 문제를 네이버랩스는 M1의 지도를 서비스 로봇들과 ‘공유’하는 방식으로 해결했다.

어떻게 공유할까? M1은 지도를 클라우드(유무선 인터넷으로 연결된 중앙 컴퓨터. 다른 컴퓨터들은 실시간으로 중앙 컴퓨터에 정보를 업로드하거나 다운로드할 수 있다)에 올려놓는다. 서비스 로봇들은 클라우드에 접속해서 지도를 참조하면 된다. M1-클라우드-서비스 로봇으로 연결되는 네트워크다. 이 시스템을 네이버랩스는 ‘어라운드(AROUND)’라고 부른다.

이쯤에서 주목해야 할 사실이 있다. 어라운드 시스템에서 개별 서비스 로봇들에게는 값비싼 센서들과 고성능 컴퓨터가 필요 없다. 주변 영상을 찍을 수 있는 카메라만 장착하면 된다. M1의 지도로 현재 위치를 알 수 있기 때문이다. 이렇게 서비스 로봇의 두뇌 기능 중 일부가 클라우드로 옮겨졌다. 로봇으로부터 두뇌를 빼낸 것이다. 이 시스템을 활용한다면 각각의 서비스 로봇에는 센서와 컴퓨터를 장착하지 않아도 된다. 로봇 제작 단가를 크게 낮출 수 있다. 경제활동에서 비용의 극소화는 중요하다.

로봇의 두뇌 기능을 클라우드로 옮긴다는 발상(클라우드 로보틱스) 자체는 새로운 것이 아니다. 석 대표에 따르면, 이미 2009년 구글에서 “로봇의 두뇌는 클라우드가 될 것”이라고 예언한 바 있다. 실제로 두뇌 중 대뇌 기능의 일부는 이미 클라우드로 옮겨졌다. 예컨대 인공지능 스피커는 인간의 말을 듣고 그 명령을 이행한다. 언어능력을 지녔다. 사람의 말을 이해하고 그 노래를 검색하는 데 필요한 ‘컴퓨터 연산’이 해당 스피커의 ‘몸’ 안에서 이뤄지는 것은 아니다. 스피커와 연결된 클라우드가 복잡한 연산을 처리한 뒤 그 결과를 스피커로 다시 전송한다. 이런 언어·인지·판단 등의 능력은 대뇌의 기능이다.  

소뇌는 운동근육을 조정하고 제어한다. 걷고 뛰고 달리며 물건을 잡거나 던지는 동작을 관할한다. 힘의 강약을 미세하게 제어하는 것도 소뇌의 기능이다. 인간이 홍시를 터지지 않게 잡을 수 있는 것은 소뇌 덕분이다. 문제는 컴퓨터가 소뇌의 기능을 수행할 때 필요한 데이터 연산 능력이 엄청나게 크다는 것이다. 다양한 상황에 필요한 동작이 빠르지만 적절한 힘으로 수행되도록 일일이 제어해야 하기 때문이다. 그래서 로봇의 운동을 제어하는 컴퓨터를 클라우드로 떼어내기는 쉬운 일이 아니었다. 기존 통신망의 속도 때문이다. 클라우드의 신호가 개별 서비스 로봇에게 전송되는 속도가 느리다면, 그 로봇은 상황에 적합한 빠른 동작을 수행할 수 없다. 결국 로봇의 운동을 제어하는 컴퓨터(소뇌)는 클라우드가 아니라 개별 서비스 로봇의 몸 안에 가둬놓아야 했다.

‘앰비덱스’ 최대 장점은 가벼운 무게

이론적으론 4G보다 20배 빠르다는 5G 통신망이 등장하면서 상황이 달라졌다. 로봇의 소뇌를 클라우드로 빼낼 수 있게 된 것이다. 네이버랩스는 그 가능성을 글로벌 로보틱스의 세계에서 가장 발 빠르게 실현했다. 석상옥 대표는 미국 MIT 박사과정 시절 ‘달리는 로봇’ 치타의 연구 개발로 널리 알려진 인물이다. “나 같은 치타 로봇이나 고속제어 연구자들은 5G가 나오면 (소뇌의 운동제어 기능을 클라우드로) 빼보고 싶다는 생각을 갖고 있었다. 그런데 기회가 왔다.”

그 기회는 석 대표 자신이 2017년부터 네이버랩스의 로보틱스 부문을 이끌게 된 데다, 때맞춰 5G 통신망이 구현되기 시작한 것을 의미하는 듯하다. 그는 미국의 글로벌 통신망 업체인 퀄컴 연구소에 네이버랩스 엔지니어를 보내 운동제어 기능을 로봇 외부로 빼는 시스템을 시현하는 데 성공했다. 그 결과가 지난 1월 세계 최대 가전 전시회인 CES에서 선보인 ‘5G와 연결된 로봇 팔 앰비덱스’다. 관객들 앞에서 앰비덱스(AMBIDEX)는 가느다란 스틱(끄트머리에 추가 달리긴 했다)을 손바닥 위에 세로로 곧추세워 한동안 균형을 유지하는 능력을 과시했다. 인간이라도 상당 수준의 운동신경을 발휘해야 하는 일이다. 핵심은 앰비덱스의 유연한 운동신경 자체가 아니다. 이 로봇이 내부의 컴퓨터가 아니라 외부의 컴퓨터로 제어되고 있다는 것이었다. 세계 최초의 성공이다. “로봇으로부터 인지·판단 등의 대뇌 기능뿐 아니라 소뇌가 관장하는 운동 기능까지 떼어낼 수 있다는 것을 입증하려고 했다. 예전에는 작은 로봇엔 작은 컴퓨터, 큰 로봇엔 큰 컴퓨터를 넣어야 했다. 이젠 로봇이 크든 작든 공평하게 외부(클라우드)의 거대한 뇌를 쓸 수 있게 되었다. 로봇에 카메라 센서와 모터 몇 개만 달면 모두 똑똑해질 수 있는 시대가 오고 있는 것이다.”

그는 실험을 성공한 김에 이 기술의 이름까지 지었다. 브레인리스 로봇(Brainless Robot). ‘두뇌 없는 로봇’이란 뜻이다. “(로보틱스의 본고장인) 미국 사람들에게 브레인리스 로봇이라는 명칭을 소개하면 일단 ‘무섭다(scary)’라고 한다. ‘그래도 (깊은 인상을 남기니까) 좋은 이름이지’라고 다시 물으면 ‘그렇다’고 하더라.”

‘브레인리스 로봇’ 기술을 실현하기 위해 사용된 앰비덱스는 사실 네이버랩스의 야심작 중 하나다. 서비스 로봇이 아무리 목적지를 잘 찾아가도 그곳에서 어떤 구체적인 작업을 하지 못한다면 인간을 도울 수 없다. 즉, 팔과 손이 필요하다.  

로봇 팔 자체는 낯선 개념이 아니다. 공장에서는 산업용으로 이미 널리 사용되고 있다. 필요한 자리에 고정되어, 프로그래밍된 특정 작업들(스프레이·용접·모니터링·품질검사 등)을 빠르고 정확하게 그리고 오랜 시간 반복 수행할 수 있는 무시무시한 녀석들이다. 무겁고 단단해서 이런 로봇에게 인간이 접근했다간 크게 다칠 수 있다. 산업 현장에선 로봇 팔 주위에 펜스가 쳐져 있는 이유다. 로봇이 보통 사람들의 일상으로 들어와 산업 현장에서와 같은 로봇 팔을 휘두른다면 정말 곤란한 일이 될 것이다. 서비스 로봇에게 가볍고 유연하며 유능한 팔을 선사하기 위해 이미 전 세계의 로봇공학자들은 치열하게 경쟁하고 있다. 네이버가 ‘2019 CES’에서 선보인 앰비덱스 역시 그런 경쟁의 산물이다.

석상옥 대표는 앰비덱스의 가장 큰 장점으로 가벼운 무게를 들었다. 팔과 손 부위의 무게가 2.6㎏에 불과하다. 사람의 같은 부위보다 더 가볍다. 다른 회사들의 로봇 팔 무게가 20㎏ 이상인 경우가 많다는 점을 감안하면 자랑할 만한 성과다. “로봇 팔이 무거운 이유는 손과 팔의 관절마다 모터와 기어가 들어가기 때문이다. 그러나 앰비덱스는 모터를 어깨 부위에 넣고 그 모터를 도르래 원리를 활용한 와이어(줄)로 팔과 손에 연결했다. 그래서 굉장히 가볍다.” 인간이 앰비덱스와 ‘하이파이브’로 손을 마주쳐도 다치지 않는다. 그가 더 자랑스러워하는 것이 있다. “앰비덱스는 ‘힘 제어’를 제대로 할 수 있다. 채소를 도마 위에 얹어 놓고 타다다닥 썰 수 있다.”

석 대표는 네 개의 발로 달릴 수 있는 치타 로봇 개발자다. 로봇이 걸어가도록 하려면 그의 발이 땅을 딛는 강도를 적절히 제어해야 한다. 너무 힘차게 땅을 밟으면 에너지 소모는 물론 로봇의 몸이 손상될 수 있다. 너무 약하게 밟으면 걸어 다니기 자체가 어려워질 것이다. 물론 천천히 걸어도 상관없다면 ‘힘 제어’ 역시 비교적 쉬울 것이다. 그러나 치타 로봇은 그 모델(지상에서 가장 빠른 고양이과 동물이다)처럼 빠르게 달리는 것을 목표로 설계되었다. 그렇게 하려면 치타 로봇이 “발이 땅에 부딪치는 순간 그 충격을 흡수하면서 다시 발을 빠르게 내디딜” 수 있도록 세밀한 ‘힘 제어’가 필요하다. 빠르게 달리기만큼 어려운 행위는 무채 썰기다. 칼을 도마에 수직으로 내리치는 동시에 이 동작을 수평으로 미세하지만 빠르게 옮겨나간다. 채를 썰 때의 힘은 “칼이 도마에 약간 닿았다가 거둘 수 있는” 정도로 제어되어야 한다. 그렇지 않으면, “로봇은 움직이는 돌이다. 힘을 제대로 제어하지 못하면 도마가 부서지든지 로봇 팔이 부러진다.” 로봇 채썰기는 이처럼 어렵다. 그러나 일단 해냈다.

석 대표는 인터뷰를 진행하면서 〈제5원소〉나 〈터미네이터〉 같은 SF 영화를 많이 인용했다. 영화 장면들이 현실에서 실현되고 있다며 자신이 그 장르에서 받은 영향을 드러냈다. 최근 그가 가장 크게 감명받은 영상은 단연 요리 전문가 백종원씨가 텔레비전에서 보여주는 화려한 썰기 기술인 듯하다. 그의 우상이 뤽 베송(〈제5원소〉)과 제임스 캐머런(〈터미네이터〉)으로부터 백종원에게로 옮아간 것일까. 물론 그의 로봇이 일상생활 속에서 백종원씨 같은 요리 기술을 시현하게 되기까지는 아직 갈 길이 멀다.

 

 

실외 지도 제작자 R1

 

실내에 M1이 있다면 실외에는 R1이 있다. 네이버랩스의 M1은 실내 정밀지도를 만드는 로봇이다. 실외에도 정밀지도 제작자가 있다. R1으로 불리는 차량이다.

실외 정밀지도는 자율주행차의 성능과 안전에 가장 중요한 인프라다. 자율주행차는 많은 센서를 달고 있지만 그것만으로는 불안하다. 차량이 센서로 볼 수 있는 범위가 고작 50~200m 정도에 불과하기 때문이다. 시속 100㎞로 달리는 차량은 불과 7~8초면 200m를 주파한다. 전방의 위험한 상황에 미리 대처하기에는 너무 짧은 시간이다. 또한 GPS로는 중앙선과 신호등, 횡단보도 같은 도로 환경을 인지하지 못한다. 이런 지도로 컴퓨터에게 운전을 맡겼다간 대형 사고를 연발할 것이다. 실외 정밀지도로 이런 문제들을 해결할 수 있다.

 

네이버랩스는 자사의 실외 정밀지도 제작 방법을 ‘하이브리드 HD 매핑(Hybrid HD Mapping)’이라고 부른다. ‘고정밀 지도를 혼성적으로 제작하기’라는 의미다. 항공지도와 지상 정보를 ‘혼성’한다. 먼저 도시 같은 대규모 지역의 항공사진으로 도로의 윤곽 정보를 추출한다. 한편 R1이라는 자동차에 각종 센서를 부착해서 도시 구석구석을 돌며 도로 환경 데이터(건물·표지판·횡단보도·중앙선 등)를 수집하도록 한다. 이 두 가지 요소를 혼성해서 만든 실외 정밀지도가 바로 ‘하이브리드 HD 맵’이다.

급격하고 지속적으로 변화되는 도시 풍경을 실외 정밀지도에 자동적으로 반영하는 어크로스(ACROSS·위 그림) 기술도 개발 중이다. 다수 차량에 센서를 장착해서 도로를 달리게 하는데, 이 과정을 통해 수집된 도로 환경의 변화를 정밀지도의 업데이트에 반영하는 시스템이다.

 

 

기자명 이종태 기자 다른기사 보기 peeker@sisain.co.kr
저작권자 © 시사IN 무단전재 및 재배포 금지
이 기사를 공유합니다
관련 기사