‘인공지능의 4대 천왕’이라는 표현이 있다. 구글의 제프리 힌튼, 페이스북의 얀 르쿤(〈시사IN〉 제569호 딥러닝 구루가 말하는 인공지능의 실체 기사 참조), 몬트리올 대학의 요슈아 벤지오, 스탠퍼드 대학의 앤드루 응, 이 네 명의 최정상 연구자를 묶어 부르는 말이다. 무협지 같지만, 한국 정부 문서에 실릴 정도로 나름 자리 잡은 관용구다.

조경현 교수(뉴욕 대학 컴퓨터과학과)는 이 ‘4대 천왕’들이 나란히 손에 꼽는 차세대 톱스타다. 지난해 연말 블룸버그는 ‘2018년에 주목할 인물 50인’ 명단에 조 교수를 올렸다. 이때 추천인이 제프리 힌튼. ‘딥러닝’ 개념을 창안한 거물이다. 얀 르쿤 페이스북 수석 엔지니어는 〈시사IN〉과 만난 자리에서 그를 두고 “천재다”라고 말했다. 요슈아 벤지오 교수와는 논문 ‘Neural Machine Translation by Jointly Learning to Align and Translate’를 같이 썼다. 이 논문에서 신경기계번역(Neural Machine Translation, NMT) 개념이 탄생했다. 이후 인공지능 번역의 혁신은 이 논문에 뿌리를 뒀다. 2014년에 나온 이 논문은 벌써 4000회 넘게 인용됐다.

 

 

ⓒ시사IN 조남진

 

 

 

“마법 같은 건 없어요. 손가락 딱 한다고 답이 나오지 않습니다.” 7월5일 프랑스 남부 그르노블. 네이버랩스유럽이 주최한 인공지능 학술대회 현장. 조경현 교수는 가볍게 고개를 저으면서 핑거 스냅(엄지와 중지를 맞부딪혀 딱딱 소리를 내는 것)을 했다. 대화의 주제는 인공지능이 어디까지 발전할 수 있을까였고, 기자가 멋대로 상상의 나래를 펴던 중이었다. 최적의 세율을 찾는 문제에서 기후변화의 해결책까지, 더 발전한 인공지능은 인류가 못 푼 문제들도 척척 답을 내줄 것 같았다. 학술대회에서 들끓는 연구자들의 에너지에 비전문가가 좀 이상하게 감화받으면 이런 일이 일어난다. 참을성 있게 듣던 그가 기자를 현실로 끌어내렸다. “해결해야 할 과제가 달라지면 필요한 알고리즘도 달라집니다.”

바둑 인공지능 알파고(딥마인드)와 번역 인공지능 파파고(네이버)는 딥러닝 원리를 이용한다는 점에서는 같다. 하지만 그 외에는 이름을 빼면 닮은 구석이 별로 없다. 과제가 달라지면 문제를 해결하는 방법도 달라지기 때문에, 현재 수준에서는 하나의 인공지능은 하나의 과제만 해결하도록 개발된다. 이런 걸 ‘좁은 인공지능’이라고 부른다. 인간처럼 범용 학습능력을 갖춘 인공지능이 운전도 배우고 요리도 배우고 외국어도 배우고 수학공식도 증명하고 시도 쓰는 날이 올까? 이런 걸 ‘일반 인공지능’이라고 부르는데, 아직 기약이 없는 미래다.
 

〈그림 1〉 조경현 교수의 2014년 논문에 실린 이 그림은 영어의 특정 단어가
프랑스어의 어떤 단어로 변환되는지 알고리즘이 추론한 결과물이다.


온도 차가 있다. 인공지능에 관심을 갖는 일반인은 ‘일반 인공지능’을 우선 떠올리기 쉽다. ‘지능’이라는 말 자체가 인간처럼 생각하고 여러 과제를 모두 해낼 수 있는. ‘인간과 비슷한 어떤 것’을 상상하게 만든다. 알파고가 바둑을 두느라 바빠서 그렇지, 사무직 보고서를 쓰면 인간보다야 훨씬 잘 쓸 것 같다는 식이다. 어떤 예측가들은 ‘초지능’을 거론한다. 일단 인간보다 현명한 ‘일반 인공지능’이 등장하면, 그(또는 그것)는 인간보다 훨씬 빠르고 효율적으로 인공지능을 개선시켜 나갈 것이다. 마침내 인공지능은 우리가 이해할 수 없는 방식으로 우리보다 훨씬 똑똑해질 것이다(‘지능 폭발’이라고 부른다). 인류는 통제력을 잃을 것이고 기계의 노예가 될지도 모른다. 두꺼비집이 어디 있지?

이 인기 있는 미래 담론의 정 반대편에 실제로 인공지능을 개발하는 연구자들이 있다. 이들은 주어진 과제가 달라지면 거의 원점으로 돌아간다. ‘범용 무기’는 많지 않다. 딥러닝 원리가 그토록 각광받은 이유도 몇 안 되는 범용 무기라서다. 인공지능 연구는, 이름이 주는 환상과 달리, 실패와 오작동의 연속이다. 조경현 교수의 설명은 마법보다는 육체노동에 가깝게 들린다. “인공지능이라고 묶어서 부르는데, 실제로는 세부적인 알고리즘들의 패밀리거든요. 이것들 중에 잘 뽑아서 과제에다 이거 적용해보고, 안 되면 또 저걸로 해보고, 그러다 새로운 알고리즘도 해보고.” “제일 난감한 거라… 전반적으로 잘 안 되니까요(웃음). 연구라는 게 그런 것 같습니다. 대체로 잘 안 되거든요.” 그의 핑거 스냅은 이렇게 해서 기자를 현실로 불러 내렸다. 할 수만 있다면, 연구자들은 전 인류를 향해 핑거 스냅을 하고 싶을지도 모른다.

현장 연구자들이 범용성에 관심이 없다는 오해는 하지 말자. 이들에게야말로 범용성은 성배다. 과제를 넘나들며 잘 작동하는 메커니즘을 찾아내야 연구가 발전한다. 조경현 교수가 차세대 톱스타가 된 이유도 그가 범용성 있는 개념을 만들어냈기 때문이다. 국내 대기업에서 일하는 한 연구자는 조경현 교수를 이렇게 설명했다. “어텐션 메커니즘(attention mechanism)의 창시자다.” 이 의미를 이해하려면 인공지능 번역 원리를 살펴야 한다.

신경기계번역(NMT)은 이런 식으로 작동한다. 한국어를 영어로 번역하는 알고리즘을 훈련시키고 싶다고 하자. 우선 한국어와 영어로 된 한 쌍의 트레이닝 데이터를 준비한다. “조경현 교수는 인공지능 연구의 혁신을 이끌었다”라는 문장이 있으면, 영어로는 “Professor Cho Kyung-hyun led the innovation of artificial intelligence research”라는 문장이 있다. 트레이닝 데이터를 충분히 확보한 후, 딥러닝 알고리즘에 문장 째로 집어넣는다.

알고리즘은 한국어 문장을 통째로 코드화한다(인코딩). 그런 후에 이 코드를 풀어(디코딩) 영어 문장을 생성한다. 생성된 영어 문장을 정답과 비교해보면 정답과 오답의 ‘거리’를 측정할 수 있다. 그 결과를 다시 처음으로 보내면, 알고리즘은 번역을 개선하기 위해 다른 결과를 시도해본다. 그렇게 정답과의 거리를 좁혀간다. 이 과정을 충분히 많은 데이터로 충분히 많이 반복하면, 알고리즘은 한국어 문장을 영어로 어떻게 번역하면 되는지 ‘학습’한다. 두 언어의 문법을 알려주지 않아도 알고리즘이 스스로 규칙을 파악한다. 이것은 마치 알파고가 바둑의 핵심 개념인 두터움이나 형세 판단을 미리 알지 않고도 학습을 통해 그를 구현해낸 것과 비슷하다.

 

 

 

〈그림 2〉 8월9일 기자가 입력한 인공지능 번역의 결과.
인공지능 번역이 맥락을 이해하고 있음을 보여준다.
최근 인공지능 번역 혁신에는 조 교수의 연구가 크게 기여했다.

번역이란 앞뒤 맥락을 모르면 단어 뜻을 알아도 실패하는 까다로운 과제다. 문장을 통째로 넣으면 알고리즘은 각 단어의 의미뿐만 아니라 단어와 단어, 어절과 어절의 관계까지 포착해내야 번역에 성공할 수 있다. 결국 알고리즘이 더 중요한 대목에 집중(어텐션)할 필요가 있다. 그런데 어느 대목이 중요한지 알고리즘이 어떻게 알 수 있을까? 앞서 연구자의 설명은 이렇다. “알고리즘이 데이터로 학습하면서, 어느 대목에 집중(어텐션)할지를 스스로 결정한다고 하자. 잘못된 대목에 집중하면 품질이 나빠졌다는 학습을 시킬 수 있다. 이렇게 집중의 품질을 끌어올린다. 주어진 과제에서 어느 대목이 중요한지를 알고리즘 스스로 배우도록 한다는 개념이 어텐션 메커니즘이다.”

이것은 왜 범용성 있는 개념인가? 이미지 처리 기술을 예로 들어보자. 인간은 사진을 보면 직관적으로 중요한 정보를 알아차린다. 대체로 인물이 배경보다 중요하다는 사실을 곧바로 안다. 하지만 기계는 그렇지 못하다. 이 때 어텐션 메커니즘이 힘을 발휘한다. 사진에서 중요한 정보가 무엇인지를, 충분한 학습을 거치면 스스로 배울 수 있다. 조 교수는 인터뷰에서 되풀이해 강조했다. “자연어 처리 기술 자체보다, 거기서 확인되는 범용성이 중요합니다.” 그는 인공지능 번역의 선두주자이지만, 정작 자연어(일상 언어. 알고리즘 연구자들은 일상 언어를 프로그래밍 언어와 구분하여 이렇게 부른다)처리 연구를 따로 한 적이 없다.

〈그림 1〉은 조 교수의 2014년 논문에 실린 그림이다. 가로로 누운 X축은 영어, 세로로 선 Y축은 프랑스어다. 과제는 영어를 프랑스어로 번역하는 것이었다. 〈그림 1〉은 각 문장에서 영어의 특정 단어가 프랑스어의 어떤 단어로 변환되는지 알고리즘이 추론한 결과물이다. 놀라운 정확도에 도달했다.

위력을 실제 번역으로 살펴보자. 〈그림 2〉는 2018년 8월9일 기자가 입력한 인공지능 번역의 결과다. 가장 위의 한국어 문장. 인공지능 번역은 ‘그 덕에’를 ‘As a result’로 번역하면서 ‘그’가 ‘조경현 교수’가 아니라 앞 문장 전체를 가리킨다고 적절하게 판단했다. 두 번째 블록에서는 ‘쓰다’의 네 가지 의미를 모두 정확히 구분해냈다. 인공지능 번역이 맥락을 이해하고 있다는 뜻이다. 세 번째 블록에서는 ‘육회’와 ‘여섯 번’과 ‘6회(야구의 이닝)’의 차이를 구분해냈다. 옛 기계번역에서는 음식 이름인 육회를 ‘six times’로 오역해, 식당의 영어 메뉴판을 엉망으로 만들곤 했다.

우리가 본 일련의 과정은 중요한 사실을 가르쳐준다. 문법은커녕 단어의 뜻도 모르고 놀라운 번역 결과를 뽑아내는 인공지능의 ‘마법’이란, 알고 보면 알고리즘이 제대로 작동하도록 수많은 변수들을 조정해가며 한 땀 한 땀 기능을 끌어올린 결과다. 이걸 매 과제에 거의 새로 반복해야 한다. 현장 연구자들이 인공지능에 대한 지나친 열광과 공포를 둘 다 경계하는 데는 이런 맥락이 있었다.

여성·성소수자 과학자 육성이 중요한 이유

이들이 ‘초지능’을 걱정하지 않는다고 해서, 인공지능 기술의 부작용을 모두 무시한다는 의미는 아니다. 오히려 이들은 실제 현실에서 가능한 위협에 일반인들보다 훨씬 예민하다. 예를 들어보자. 현대사회는 성정체성·인종·종교 등을 이유로 사람을 차별해서는 안 된다는 가치를 합의한 사회다. 하지만 그런 합의가 존재하는 것과 사람들이 실제로 그렇게 생각하는 것은 별개다. 사람들이 실제로 생산하는 데이터에는 차별과 편견이 드러날 수 있다. 그런데 인공지능은 그 데이터로 학습을 한다. 조경현 교수는 간단한 사례를 들어 설명했다. “한국어에서는 대통령이라고 쓰면 남자와 여자 모두 포괄합니다. 그런데 유럽 쪽 언어에는 성별이 붙잖아요? 기계번역을 하면 ‘Mr. President’라고 해서 남자로 만들어버려요. 누적된 데이터에서는 대통령 앞에 ‘미스터’가 붙을 확률이 높기 때문이죠.”

ⓒNature 갈무리〈그림 3〉 인공지능은 백인 여성의 결혼식 사진(왼쪽)은 제대로 인식하는 반면,
인도 여성의 결혼식 사진(오른쪽)은 엉뚱하게 인식했다.

위 〈그림 3〉은 데이터가 편향되면 어떤 일이 벌어지는지 보여준다. 이미지 식별 인공지능은 왼쪽에 있는 백인 여성의 결혼식 사진은 ‘결혼식’ ‘드레스’ 등으로 제대로 인식하는 반면, 오른쪽에 있는 인도 여성의 결혼식 사진은 ‘행위예술’ ‘시대극 복식’ 등으로 엉뚱하게 인식한다. 이미지 식별 인공지능은 주로 1400만 개 이상의 사진을 보유한 ‘이미지넷’의 데이터로 학습한다. 그런데 ‘이미지넷’의 사진은 53%가 미국과 영국에서 나온다. 반대로 중국과 인도의 인구를 합치면 세계 인구의 36%에 이르는데, ‘이미지넷’에서 차지하는 비중은 3%다. 이렇게 데이터 자체에서 발생하는 편견을 제거하는 일이 인공지능 연구에서 중요한 과제다. 〈그림 2〉의 마지막 문장을 보자. 2018년 8월의 인공지능은 ‘대통령’의 번역어로 ‘Mr. President’ 대신 중립적인 ‘The President’를 제안했다.

조경현 교수는 올해 6월 한국을 방문해, 자연어 처리를 주제로 8시간짜리 대형 강연을 했다. 조 교수는 강연료 1000만원을 여성 과학기술인 지원 소셜 벤처 ‘걸스로봇’에 기부했다. “여성과 성소수자 과학자 육성에 써달라”라는 이유를 밝혀 화제가 되었다. 프랑스 그르노블에서 만나 한참 동안 기술적인 설명을 듣던, 정확히는 거의 못 알아듣던 중에 기자는 그 에피소드가 떠올랐다. 기술 설명에서 도망칠 겸 가볍게 기부 이야기를 물었다. 돌아온 답변은 90분 대화 전체에서도 손꼽히게 인상적이었다.

“특별히 여성과 성소수자 과학자를 지목한 이유가 있습니까?” “두 가지 문제가 있어요. 첫째, 인공지능 테크놀로지가 앞으로 10년이나 20년만 지나면 모든 사람이 쓰는 기술이 될 거예요. 그런 기술이 시작부터 인구의 절반을 배제하고 간다면, 인류 차원에서 말이 안 되죠. 억지로라도 모든 사람이 혜택을 누릴 수 있도록 해야 하니까, 조금이라도 도움이 되고 싶었습니다.”

“두 번째는 뭔가요?” “데이터에 편향이 있을 때 알고리즘도 그걸 증폭시킬 수 있다고 말씀드렸지요? 알고리즘 기술을 더 발전시켜서 보정하든 데이터 자체를 보정하든, 어쨌든 보정을 해야 하잖아요. 그러려면 우선 편향이 눈에 들어와야 합니다. 그런데 전 세계 데이터과학자 커뮤니티가 백인 남자 아니면 아시안 남자, 둘이죠. 이러면 편향이 눈에 안 보여요. 얼굴 인식 시스템이 백인 남성, 아시안 남성은 비교적 잘 됩니다. 그런데 아시아 여성은 형편없이 안 돼요. 이런 논문이 구글의 어느 연구팀에서 나왔는데, 그 팀을 주도한 연구자들이 여성 과학자들이었어요. 흑인도 있었고요. 그 사람들 눈에는 보이거든요 편향이. 우리 연구자 커뮤니티의 다양성을 높여야 합니다. 인공지능이 계속 사회적 문제를 일으키면서, 연구 자체가 위협받지 않으려면 말이지요.”

 

 

기자명 그르노블·천관율 기자 다른기사 보기 yul@sisain.co.kr
저작권자 © 시사IN 무단전재 및 재배포 금지
이 기사를 공유합니다
관련 기사