이진경 서울과학기술대학교 교수의 본명은 박태호다. 대학 시절인 1987년 〈사회구성체론과 사회과학방법론〉을 내면서부터 필명을 썼다. 이른바 ‘사구체 논쟁’에 참여한 이론가이자 운동가였던 그는 1990년 구속돼 2년간 옥살이를 했다. 석방된 뒤 철학·사회학·경제학 등 다방면에서 연구와 저술 활동을 해왔다. 〈철학과 굴뚝청소부〉 〈노마디즘〉 등 그의 저서 20여 권 가운데 〈논리 속의 철학, 논리 밖의 철학〉(1993년 출간 뒤 〈철학의 모험〉 〈히치하이커의 철학여행〉으로 개정)이라는 철학 입문서가 있다. 주인공은 칸트·헤겔·마르크스의 사상을 바탕으로 ‘인간 같은’ 로봇을 만든다. 도입부에서 주인공은 “계산 장치에 온갖 정보를 잔뜩 입력했지만 입력된 정보를 모아 새로 판단하는 일을 못했다”라고 말한다.

 

 

ⓒ윤성희이진경 교수는 “인공지능이 급격히 발전하면서 철학에 심각한 영향을 줄 것이다”라고 말했다.

 


출간 25년이 지난 현재 상황은 완전히 바뀌었다. 알파고의 연전연승을 목격한 뒤 초점은 ‘인간이 어떤 인공지능을 만들 것인지’에서 ‘인공지능은 인간에게 어떤 영향을 줄지’로 이동했다. 이진경 교수 역시 철학과 사회과학의 눈으로 인공지능을 연구하는 중이다. 그는 〈인공지능 이후의 자본의 축적체제〉(2016), 〈인공지능과 철학적 인간학〉(2017) 등 논문을 잇달아 내놓았다. 7월31일 이진경 교수를 만났다.

인공지능과 철학은 서로 어떤 영향을 주나?

인공지능 세계에서 사고방식으로서의 철학을 발견할 수 있다. 초기 인공지능을 주도했던 모델은 데카르트식 계산주의 모델이다. 추론 능력을 갖게 해 스스로 사고하도록 만드는 것이다. ‘생성적 적대 신경망(GANs)’ 등 현재 각광받는 신경망 방식은 경험주의적 모델이라고 할 수 있다. 데이터 크기에 따라 점진적으로 학습해서 경험을 통해 스스로 판단하는 방식이다. 인공지능이 급격히 발전하면서 철학에 심각한 영향을 줄 것이다. 데카르트 이래 근대 철학자들은 진리를 인식하는 방법을 논의해왔는데, 그 주어는 당연히 인간이었다. 그런데 사물을 인식하는 기계를 만들면서 인식이란 무엇인지 다시 묻게 된다. 인간 중심적 철학이 인공지능 앞에서 수정될 수밖에 없는 상황이다.

‘인식’이라는 말의 정의 자체가 흔들린다?

가령 ‘본다’는 것을 생각해보자. 인간은 대개 ‘상이 눈의 망막에 꽂히는 현상’을 떠올린다. 그런데 이 정의를 바탕으로 만든 로봇은 원근이나 사물의 윤곽선을 파악하지 못한다. 개와 고양이를 구분하는 일이 사람에게는 너무 쉬운데 인공지능은 애를 먹는다. 시각에 문제가 없어도 사람 얼굴을 알아보지 못하는 ‘안면 실인증’을 연상케 한다. 반대로, 식물은 눈이 없으니 볼 수 없다고도 단정하기 어렵다. 인간은 망막에 있는 광수용체 5개로 빛을 지각하는데, 애기장대풀은 광수용체가 11개 있다. 본다는 것, 인식한다는 것의 본질을 알려면 동식물까지 거슬러 올라가야 한다.

‘아는 것’은 어떤가? 인공지능 로봇 ‘소피아’가 자신이 하는 말을 이해하지 못한다는 분석이 있다.

‘의미는 이해하지 못하고 반응만 하는 기계’라는 말인데, 내 생각은 다르다. 말하는 인공지능을 평가 절하하는 이들은 ‘리모컨’ ‘사랑’ 따위 단어를 인간과 같은 방식으로 표상하는 것이 앎의 본질이라고 주장한다. 그런데 단어 각각의 의미만 아는 이에게 ‘강아지’와 ‘개새끼’라는 말은 똑같이 ‘개가 낳은 새끼’이므로, 분간할 수 없다. 그렇다면 언어의 사용법을 안다는 것은 무엇인가? 비트겐슈타인은 “단어의 의미를 이해한다는 것은 단어의 사용법을 아는 것”이라고 했다. 언어적 자극에 대해 적절한 반응을 일관되게 내놓는 것이 곧 사용법이다. 이렇게 볼 때 입력된 문자열에 적절한 답을 내놓는 인공지능은 곧 ‘언어를 이해한다’고 봐야 한다. 사실 엄밀히 말해 표상 능력이 곧 이해라고 정의한다면 인간도 서로의 말을 이해할 수 없다. 내가 ‘개새끼’라고 말했을 때 정확히 무슨 의미인지 어떻게 확인할 수 있나? 인공지능의 지성을 이런 식으로 파악하려 들면 철학적 난제에 부딪힌다.

 

 

 

 

튜링 테스트(인공지능의 지적 능력을 테스트하는 표준적 개념. 블라인드 방식으로 문제를 냈을 때 기계와 인간의 답을 식별할 수 없다면 해당 기계는 인간과 같은 지적 능력을 가졌다고 본다)를 어떻게 보나? 기계가 지능을 가진 것처럼 흉내 내면 통과할 수 있다는 비판이 있다.

튜링 테스트에 대한 비판으로 ‘중국어 방(철학자 존 설의 사고 실험. 중국어를 모르는 사람이 밀폐된 방 안에 있다고 가정한다. 밖에서 중국어로 질문을 넣으면 안에 있는 사람은 주어진 지침에 따라 중국어로 된 답변을 내놓는다)’이 잘 알려져 있다. 방 안에 있는 사람이 사실은 중국어를 이해하지 못하듯, 튜링 테스트에 적절한 답변을 내놓는 기계라고 해서 인간과 같은 지적 수준은 아니라는 게 요지다. 그러나 이 반론 역시 이해한다는 말을 ‘인간과 똑같이 생각하는 것’이라고 여겨서 빠진 오류다. ‘돌을 놓는다’ ‘포위한다’는 말의 의미를 표상할 수 없다고 해서 알파고가 바둑을 못 두던가? ‘이런 식으로 진행되면 특정 결과가 나온다’는 계산만으로 인간과 바둑을 둘 수 있고, 심지어 인간을 이긴다. 사람도 마찬가지다. ‘일본어를 이해한다’는 말에 ‘어떤 단어를 듣든 일본인과 똑같은 뉘앙스를 떠올린다’가 포함되어 있지는 않다. 일본어를 듣고 적절히 일본어로 반응할 수 있으면 아는 것이다. 훌륭한 통역사는 통역 과정에서 듣는 단어의 의미를 하나하나 표상하고 반응하지 않는다. 통계적 사례를 통해 적절한 번역어를 찾아 말을 옮긴다. 그렇지 못한 사례가 나올 때, 즉 일관성이 무너질 때 ‘아는 것처럼 행동했지만 몰랐다’고 판단하면 된다. 똑같은 결과를 만들어낸다면 원인도 같다는 관점에서 접근해야 한다.

인본주의를 바탕으로 하는 근대 이후 철학은 ‘인간과 같은 인공지능’을 어떻게 보나?

‘플라톤의 문제’가 생긴다. 플라톤은 어떤 이데아가 있고, 현실 세계는 이데아의 불완전한 복사본이라고 여겼다. 플라톤주의의 윤리란 ‘최대한 원본 같은 복사본이 되는 것’이다. 원본에 충실하길 포기한 모방자들은 ‘허상(simulacra)’이다. 그간 플라톤주의에 대한 비판은 주로 ‘현대는 허상들의 세계’라는 분석에서 나왔다. 원본을 흉내 내지 않는, 원본 없는 허상들의 세계를 긍정하는 것이다. 이른바 ‘타진요 사건’이 예시가 될 수 있다. ‘원본’인 본인이 직접 하는 말보다 인터넷에 떠도는 말이 힘을 받으니까. 반면 인공지능 발전은 정반대 방향에서 플라톤주의를 붕괴시킨다. 분명 인공지능은 인간을 충실히 복사하려 애쓴다. 여기까지는 굉장히 플라톤주의에 부합한다. 그런데 그 결과, 복사본인 인공지능이 원본인 인간을 추월하기에 이른다. 이런 존재의 등장은 이전에 상상하지 못했던 딜레마다.

인공지능 발전을 두려워하는 목소리가 있다. ‘인공지능이 인류를 지배할 것’이라는 우려도 나온다.

인공지능과 인류의 경쟁은 사실 튜링 테스트에 내재된 불행한 문제 설정이다. ‘인간과 견줘 얼마나 하는지’로 기계 성능을 가늠하기 때문이다. 그런데 여기서 나오는, ‘경쟁에서 패했으니까 지배될 것’이라는 추론은 너무 인간 중심적 사고다. 누군가를 지배하는 데에는 비용이 든다. 머리도 써야 하고 힘과 돈도 필요하다. 그럼에도 사람이 타인을 지배하려 드는 것은 여러 이득이 있기 때문이다. 기계도 그럴까? 기계는 먹지도 입지도 않기에 돈이 필요 없다. 에너지는 가만히 있어도 사람이 공급한다. 경제적 이윤이 필요 없는데 정치권력을 원할까? 기계에게 주입하지 않는 이상 명예욕도 없을 것이고, 인간이 굳이 그런 행동을 할 가능성도 적다. 자연적 상황에서 기계의 인간 지배는 동기가 전무하다. 오히려 근거 없는 공포야말로 ‘동기’가 될 수 있다. 예를 들어 인간처럼 사고하는 능력을 갖추거나 인간에게서 독립할 의지가 생기면 자폭하도록 한다는 발상이 그렇다. 이 발상이 실현된다면 인공지능에게 생존과 발전이라는 동기가 생기고, 그때는 인간을 지배하려 할 수도 있다.

ⓒBMW 제공인공지능이 인간 노동을 대체하면 인류가 일하지 않고 생존하게 되는데, 적절한 분배 방식이 요구된다.

 

발전한 인공지능에게 일을 빼앗기는 상황은 현실적 공포 아닌가?

여기에도 역설이 있다. 어떤 이는 그림, 음악 같은 창조적 영역까지 진출한 인공지능의 능력을 두려워해 이렇게 결론 내린다. ‘예술까지 기계가 이기면 뭘 하지? 인간이 할 일이 없네.’ 잘못된 질문과 답이다. 탁월한 대가가 많다고 해서 음악을 좋아하고 그림을 좋아하는 사람이 그 일을 안 할까? 인간보다 뛰어난 기계의 출현 자체는 불행이 아니다. 오히려 원치 않는 노동에서 해방된다는 뜻이다. 복음 아닌가(웃음). 기쁜 소식이 불행의 묵시록으로 변한 이유는 자본주의적 조건에 있다. 고용이란 관계가 문제다.

인공지능이 인간 노동을 대체해 대량 실업이 발생한다면 어떻게 극복할까?

일을 하지 않게 된 사람들도 기계가 산출한 생산물로 먹고살도록 해야 한다. ‘일하지 않으면 먹지도 말라’는 말이 통용되기 전 상황을 참고할 만하다. 자본주의 이전 공동체에서는 노동 능력 없는 사람을 부양하는 일이 당연시됐다. 심봉사·심청이가 동냥하거나 스님이 탁발하는 게 여기에 속한다. (공동체 밖에서 온) 거지에게 동정심으로 베푸는 것과는 다르다. 공동체 내에서 일종의 의무에 가까웠다. 하지만 자본주의가 들어오면서 공동체 파괴 작업이 진행됐다. 영국의 인클로저 운동이 대표적 사건이고, 제국주의자들은 아프리카 식민지에서 똑같은 일을 했다. 기계의 발전이 인간의 숨통을 죄는 이유는 이 체계가 밑바탕에 깔려 있어서다. 반대로 기계가 취한 부를 공동체 내의 노동하지 않는 사람들을 위해 쓴다면, 인류가 일하지 않고 생존하는 전환점이 된다.

분배 문제가 쉽게 해소될까?

곱게 해소될 문제는 아니지만 언젠가는 봉합되리라 생각한다. 노동자뿐만 아니라 자본가도 버티기 힘들다. 인공지능이 극도로 발전해서 필요한 ‘인간 노동력이 0에 수렴하는 상황’을 상상해보자. 부를 나눠 받지 못한 노동자들은 소득이 없어진다. 구매 능력 갖춘 사람들이 줄어들면 광고가 무의미해지고, 유튜브나 페이스북 같은 첨단 기업들이 무너진다. 대량 생산된 상품을 팔지 못해 대공황이 일어날지도 모른다. 많은 사람들이 ‘굶느냐 싸우느냐’의 선택 앞에 놓이면 내전이 일어날 가능성도 있다. 그러면 자본가들은 성채를 쌓고, 더 강력한 무기를 개발하고… 모두에게 피곤한 선택이다.

그 과도기에 러다이트 운동(기계 파괴 운동)과 같은 갈등이 생기리라는 전망이 나온다.

인간과 기계의 관계를 경쟁, 적대로만 풀이하는 습관이 문제다. 인간보다 능력이 뛰어나다고 공포를 느낄 필요는 없다. 포클레인이 인간보다 훨씬 삽질을 잘한다고 포클레인을 두려워하지는 않는다. 인간 의식과 비슷한 판단 능력을 갖춘 기계라고 다르지 않다. 자신의 생존을 1차 목적으로 삼도록 만들지 않는 이상 인간에게 해를 가할 수 없다. 정말 경계해야 하는 것은 기계로 인간을 죽이려는 사람이고, 생산물을 나누지 않는 사회다. 다만 능력이 향상된 기계와 어떤 관계를 맺을지는 고민해야 한다. 아이가 어릴 때는 부모 말에 무조건 따르지만 사춘기 이후에는 자립심이 생기기 마련이다. 좋은 부모는 이런 상황에서 ‘소외’당했다며 서러워하거나 어린 시절로 되돌리려 들지 않는다. 언젠가 인공지능이 자립심을 갖게 된다면, 인간은 기계와의 관계를 어떻게 재조정해나갈지가 가장 중요한 질문이다.

기자명 이상원 기자 다른기사 보기 prodeo@sisain.co.kr
저작권자 © 시사IN 무단전재 및 재배포 금지
이 기사를 공유합니다