[인터뷰] 카이스트 김기배 박사 "인공지능 시대, 기계도 거짓말"
[인터뷰] 카이스트 김기배 박사 "인공지능 시대, 기계도 거짓말"
  • 노윤주 기자
  • 승인 2019.06.07 08:00
  • 댓글 0
이 기사를 공유합니다

김기배 카이스트 4차산업혁명 지능정보센터(FIRIC) 박사. [사진=데일리토큰]

"이제 '아, 기계도 틀릴 수 있구나', '인공지능이 다 같은 인공지능은 아니구나' 하는 비판적 자세를 갖추고, 이에 맞게 제도를 정비할 때이다."

김기배 카이스트 4차산업혁명 지능정보센터(FIRIC) 박사의 말이다. 4차산업혁명은 이 시대의 화두다. 그 중 인공지능은 4차산업의 핵심 기술로 손꼽힌다.

우리는 일상에서 쇼핑부터 동영상 콘텐츠까지 다양한 부분에서 인공지능의 추천을 받는다. 간단한 스마트폰 조작도 인공지능에게 음성으로 명령하는 시대다.

이 시점에서 우리가 흔히 얘기하는 '기계는 고장이 아니라면 실수와 거짓말을 하지 않는다'라는 말을 다시 한 번 생각해 봐야 한다는 게 김 박사의 설명이다. 인공지능도 편향성을 갖고 잘못된 판단을 내릴 수 있다는 것.

<데일리토큰>은 김 박사를 만나 인공지능은 어디까지 발전했으며, 우리가 연구해야 할 과제가 무엇인지 들어봤다.

Q. 카이스트 4차산업혁명 지능정보센터에서는 어떤 연구를 진행하며, 어떤 목표를 갖고 있는가?

4차산업혁명 지능정보센터는 과학기술정보통신부의 지원 하에 세계경제포럼(WEF)과 협력, 4차산업혁명을 뒷받침하는 핵심기술(인공지능, 블록체인, 정밀의료)의 특성을 이해하고, 이에 따른 경제, 사회, 문화의 변화를 예측하며, 새로운 시대에 맞는 제도적 정비를 제안한다.

Q. 불과 몇 년 전 까지만 해도 멀게 느껴졌지만 최근에는 인공지능(A.I) 기술이 일상의 다양한 분야에서 사용되고 있다. 현재 인공지능 발전은 어느 단계에 왔는지 또 실생활 인공지능 기술 중 주목해야하는 활용 분야는 무엇이 있을까?

이세돌과 알파고의 대결로 인공지능에 대한 대중의 관심이 커지고 우리나라가 각광을 받은 것은 사실이지만 인공지능이 우리와 멀었던 게 아니라 우리가 느끼지 못했던 것이라고 보는 게 맞다.

알파고가 보여준 기계학습은 기계에게 빅데이터를 학습하라고 하고 혼자서 사고 실험 반복을 훈련시켜서 어떤 문제가 주어지면 경험상 가장 좋은 방안을 도출할 수 있도록 하는 것이다. 사전에 일률적인 지침을 내려주지 않아도 기계가 스스로 학습할 수 있다는 점, 그것도 사람이 수천년을 거쳐 쌓아온 것을 기계가 몇 일 만에 학습할 수 있다는 것이 특징이다. 이전의 인공지능보다 확실히 유연하고 사람의 사고방식에 더욱 근접했다.

소비자가 만족할 수준으로 인공지능을 구현하기 위해서는 기계가 읽기 쉬운 형태의 빅데이터 학습환경이 구축되어 있어야 한다. 구글, 아마존, 페이스북이 가장 먼저 인공지능을 구현할 수 있었던 이유다. 앞으로는 인공지능이 생산과 소비 양 영역에 모두에 스며들 것으로 보인다.

생산 공정, 물류, 소비자 경험 빅데이터를 수집해 자율적으로 생산과 소비 조정을 지원하는 스마트 팩토리 및 스마트 시티는 이미 연구개발 단계에 들어갔다. 아울러, 기존의 판례를 통해 인공지능이 민형사 판결을 지원하고 기존 특허자료를 통해 인공지능이 특허를 심사하는 등 아이디어가 나오고 있다.

Q. 온라인 쇼핑부터, 영상 콘텐츠 추천까지 하는 인공지능 시스템이 속속 등장하고 있다. 이런 추세는 언제까지 이어질 것이며 정확도는 어느 수준이라고 보는지?

콘텐츠 추천 정보를 받는 것에 거부감이 없고 추천에 크게 불만이 생기지 않는 수준에 도달했다. 처음 가는 곳은 자동차에 달린 네비게이션을 따라 가는 것이 습관이 됐다. 상당히 믿을 만하고 사람에게 물어보는 것보다 편리한 수준에 이르렀다.

Q. '기계는 거짓말을 하지 않는다'라는 말도 있는데, 인공지능 그리고 알고리즘이 편향된 결정을 하거나 실수를 할 가능성이 생기는 이유는 무엇인지?

기계도 거짓말을 한다. 거짓말을 하라고 학습한 인공지능은 거짓말을 한다. 알고리즘 상에 오류가 있거나, 알고리즘을 잘못 구현한 경우에도 마찬가지다. 인공지능 알고리즘이 완벽하게 설계되었고, 그것이 정직하게 구현되었을 때, 그리고 인공지능이 학습한 자료가 불편, 부당 하다고 가정한 경우에 한해 인공지능이 거짓말을 하지 않을 것이라고 기대할 수 있다.

Q. 기계의 결정에 의존하는 사회가 왔을 때, 기계가 잘못된 결정을 내리게 된다면 우리 사회에 미칠 영향은 어떤 것이 있을까?

기계의 독재가 가능해질 것이다. 인공지능이 어떤 알고리즘으로 어떤 환경에서 학습했는지에 따라 사람 사진을 보여줬을 때 이 사진은 고릴라라는 답을 들을 수도 있다. 이것은 듣는 사람이 기분 나쁘고 말 문제가 아니다. 만약, 대다수의 사람들이 인공지능의 판단을 의심하지 않는다면 그리고 인공지능이 이 사람을 거주지에서 퇴거하고 동물원에 수용하라는 명령을 내릴 수 있는 사회안전 자동화 시스템을 구축해 놓았다면, 그럼에도 이 명령에 아무도 이의를 제기하지 않는다면, 그 사람은 기계에 의해 인격을 박탈당할 수도 있다.

이세돌과 알파고 제4국은 기계의 판단이 매우 위험할 수도 있음을 시사한다. 이 대국에서 이세돌의 78수 이후 알파고는 소위 '떡수'(상식적으로 도저히 둘 수 없는 엉터리 수를 뜻하는 바둑계 은어)를 두다가 패했다. 사람이었다면 깔끔하게 불계패를 인정하거나, 끝까지 최선을 다하는 모습을 보였을 것이다. 놀라운 점은 이것이 어떤 오류가 아니라 알파고의 합리적인 판단 결과라는 점이다. 알파고는 패배 임계점에 도달하기 이전에 이길 확률이 가장 높은 자리를 선택한 것뿐. 알고리즘의 판단이 아무리 합리적이더라도 우리가 의심없이 의존한다면 잘못된 일이 생기지 않는다는 보장은 없다.

 

김기배 카이스트 4차산업혁명 지능정보센터(FIRIC) 박사. [사진=데일리토큰]

Q. 인간의 결정에는 '융통성'이 존재한다. 알고리즘 기반 결정에서도 이와 같은 융통성이 적용될 수 있을까?

바로 이때 '기계는 거짓말을 하지 않는다'는 말이 적용된다. 알고리즘에 융통성을 도입하면 알고리즘의 판단에 융통성이 있는 것이고, 융통성 발휘 사례를 학습한 기계가 융통성을 발휘할 수 있다.

판결에서도 원리는 동일하다. 만약 기계가 '배고플 때는 아무리 착한 사람이라도 빵을 훔칠 수 있지'라는 융통성을 학습하고 조건에 따라 예외사항을 적용하는 알고리즘을 탑재한다면, 장발장이 19년 동안 노동형에 지쳐 탈옥하고 자베르와 추격전을 벌이는 일을 방지할 수도 있을 것이다.

융통성을 인공지능에 적용하는 것은 신중해야 한다. 예외사항이 가난한 자에 대한 배려가 아니라 권력 있는 자에 대한 특혜가 되지 말라는 법도 없기 때문이다. 따라서 융통성은 인공지능의 설계 단계에서 기술적으로 해결할 문제인지 인공지능의 활용 단계에서 제도적으로 활용할 문제인지 학술적 논의와 사회적 합의가 필요하다.

Q. 기계에게 결과 도출의 이유를 되물을 수 있으려면 어느 정도의 연구와 시간이 소요될 것이라고 전망하는지? 또 이유를 되물을 수 있다면 기계의 판단 실수 혹은 편향된 결정을 내릴 확률을 줄일 수 있을까?

현재 미국 방위고등연구계획국(DARPA)에서 투명한 알고리즘에 대한 과제를 착수했지만 얼마만큼의 시간과 비용이 소요될지 알 수 없다. 접근법에 대한 합의를 도출하고 공표한다면, 그걸 보고 연구개발 일정상 시간과 비용을 계산할 수는 있다.

이유를 되물을 수 있는 인공지능을 개발한다고 해도, 그것이 당장 편향성을 낮추지는 않는다. 인공지능은 여전히 빅데이터를 통해 학습하고 사고실험으로 강화한 대로 판단할 뿐이다. 하지만 투명성을 확보하는 것은 인공지능의 편향성 오류를 개선하는 데 도움을 준다. 즉, 누군가가 인공지능의 판단을 보고 '이건 아닌데'라며 이의제기를 했다면 개발자가 이 문제를 해결해야 인공지능에 대한 사회의 신뢰를 유지할 수 있을 것이다. 단순하게 코드를 수정하면 되는 지, 알고리즘을 보완해야 하는 지, 처음부터 새로 설계해야 하는 지 등을 판단하고 문제를 해결할 수 있다.

Q. 인공지능이 인간의 지능을 뛰어넘는 영화 같은 상황인 '특이점'에 대한 이야기가 나온다. 인간이 인공지능을 컨트롤 할 수 없는 시기가 올 것이라고 보는지?

그 특이점이 무엇인지를 정의하는 것이 먼저라고 본다. 여기서 말하는 지성이 '규칙이 정해지고 판단결과의 표현이 규격화된 상황에서 최상의 행위를 결정하는 것'이라면 이미 우리는 알파고가 인류 전체의 지성을 넘어섰다는 것을 목격했다.

인류가 기계를 컨트롤 할 수 있는 지에 대한 문제는 조금 복잡하다. 지금 4차산업혁명의 혁신동향이 지성의 영역을 기계에 맡기는 것인데 아직 활용방안이 정립되지 않았다. 인공지능은 기계에게 판단을 맡기는 것이고 블록체인은 기계에게 의사소통의 검증을 맡기는 것이고 로봇은 기계에게 물리적 활동을 맡기는 것이다.

단편적으로 인공지능이 인간을 위협 요소라고 판단해 무장로봇에게 공격명령을 내리고, 블록체인으로 명령을 암호화해서 인간의 해킹 시도를 원천봉쇄할 수 있다. 영화 터미네이터처럼 말이다. 말을 안 들으면 전원을 끄면 되지만 영화 매트릭스는 그 시도조차 무력화된 시대를 그리고 있다.

이런 시나리오에는 전제조건이 있다. 기계가 결정을 실행할 권한을 가져야 한다는 것이다. 인공지능은 기계가 통제권을 탈취하는 것이 최선이라는 판단을 내릴 수 있다. 그 결정을 기계에게 배포하는 시도를 할 수 있다. 그러나 이 결정 실행 권한이 기계에게 있지 않다면, 그 기계는 판단을 실행으로 옮길 수 없다. 이 경우 접점은 인공지능의 성능이 인류의 지성을 넘어서느냐에 있는 것이 아니라, 이 실행 권한을 인간이 지켜내느냐 기계가 빼앗아 가느냐에 있을 것으로 생각한다. 만약 이 권한을 빼앗고자 하는 의지와 그것을 수행할 수 있는 능력이 지성이라고 한다면 특이점이 오지 말라는 보장은 없다. 기계와 인간이 어떻게 공존하는 것이 가장 바람직한 것인지에 대한 고민을 끊임없이 할 때가 온 것이다.

Q. 결국 시대 흐름에 따라 인공지능의 개발은 피할 수 없는 과제인 것 같다. 인공지능과 알고리즘의 장점은 부각하면서 단점은 최소화하는 활용 방안은 무엇이라고 생각하는지?

인공지능 개발은 시대의 흐름이다. 인구 감소와 고령화 사회에서 선진국이 할 수 있는 것은 기계에게 지적 노동을 맡겨 높은 인건비와 부족한 노동력을 보완하는 것이다. 기계가 감내하는 영역이 더 복잡한 영역으로 확장될수록 그 기업 또는 그 국가의 경쟁력이 상승한다.

지금까지 사람은 '지적 능력'이 있는 다른 사람을 대하면서 '아, 사람은 틀릴 수도 있구나', '저 사람은 나와 다르구나'하는 자세를 배웠다. 기계가 물리적 활동을 지원할 때는 이런 비판과 관용의 자세가 굳이 필요하지 않다. 기계는 시키는 대로 할 뿐이니까. 하지만 이제 사람은 지적활동을 하는 기계를 대면하고 있다. 이제 '아, 기계도 틀릴 수 있구나, '인공지능이 다 같은 인공지능은 아니구나' 하는 비판적 자세를 갖추고, 이에 맞게 제도를 정비할 때라고 생각한다.

 


관련기사

댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.