[포커스] '고양이를 개로 인식?' A.I 의 보안은 안전한가
[포커스] '고양이를 개로 인식?' A.I 의 보안은 안전한가
  • 노윤주 기자
  • 승인 2019.04.08 17:08
  • 댓글 0
이 기사를 공유합니다

[출처=셔터스톡]

자율주행차부터 온라인 포털 사이트까지 4차 산업의 기술 영역에는 항상 인공 지능(Artificial Intelligence – A.I)이 빠지지 않고 등장한다. 그리고 이와 함께 이에 대한 위험요소 역시 자주 언급되고 있다. 핵심은 '안전성'이다.

한국인터넷진흥원(KISA)이 지난 4일 발표한 보고서에 따르면 올해 미국 2019 RSA컨퍼런스에서는 A.I 기술의 변조 위험성에 대한 논의가 오고 갔다.

니콜라스 카를리니(Nicholas Carlini) 구글 연구원은 해커들이 자율주행차, 음성 어시스턴트 등을 지원하는 기계학습(머신러닝) 알고리즘을 악용해 시각 정보를 변조할 수 있다고 경고했다.

머신러닝 과정에서는 인간의 뇌 작동 방식을 모방한 신경망 네트워크가 작동한다. 이 신경망 네트워크에서 오류가 발생할 수 있다는 것이다.

기계는 여러 점들을 통해 이미지를 분석한다. 이 점을 조작할 경우 사람의 눈에는 동일한 이미지더라도 A.I에게는 서로 완전히 다른 이미지로 각인될 수 있다. 고양이 사진에 약간의 조작을 더 해 이 사진을 '개'라고 인식하게 하는 것이 가능한 것이다.

만약 이런 악의적 해킹이 자율주행차 등 기술에 적용될 경우 더 큰 문제를 초래한다. 정지 신호 시 이를 주행 신호로 인식하도록 조작하면 큰 사고가 발생할 수 있다.

카를리니는 신경망 네트워크를 조작하면 음성도 변환할 수 있다고 주장했다. 이 경우 사용자는 스마트폰 등 일상에서 사용하는 기계에서 왜곡된 음성 정보를 듣게 된다.

병원, 정부 등 민감한 정보를 다루는 기관의 신경망 네트워크가 해킹된다면 개인정보를 비롯한 다양한 정보가 모두 외부로 퍼질 수도 있다는 것이 카를리니의 지적이다.

이런 문제점에 대해 국내 AI 전문가들은 신경망 네트워크 자체의 보안도 중요하지만 이와 분리된 보안층을 구축하는 것이 중요하다고 조언했다.

김종화 제주 한라대학교 교수는 <데일리토큰>에 "AI서비스와 보안 영역은 구분돼 있다"며 "위험이 AI층에 접근하기 전에 보안층에서 거를 수 있는 연구가 필요하다"고 설명했다.

이어 "신경망 네트워크는 보안 외에 기계 학습 등 발전시켜 나가야 하는 부분이 많다"며 "블록체인 등 보안에 특화된 기술을 AI에 도입해 따로 보안층을 구축하는 연구가 활발히 진행되고 있다"고 말했다.

 



댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.