구글 "A.I 편향성 줄이고 공정성 높이겠다"
구글 "A.I 편향성 줄이고 공정성 높이겠다"
베키 화이트 구글 인공지능 리서치 매니저 "A.I 항상 옳은 것 아냐"
  • 노윤주 기자
  • 승인 2019.06.25 11:59
  • 댓글 0
이 기사를 공유합니다

25일 베키 화이트(Becky White) 구글 인공지능 리서치 프로그램 매니저가 A.I의 편향성을 설명하고 있다. [사진=데일리토큰] 

우리 삶에서 인공지능(A.I)이 차지하는 역할이 점점 커지는 가운데 구글이 A.I가 갖고 있는 편향성은 최대한 낮추고 공정성은 키우겠다고 선언했다.

25일 구글 코리아는 서울 강남구 역삼동 구글 코리아 본사에서 '구글 A.I 포럼 - A.I 혁신과 머신러닝의 공정성' 포럼을 개최했다.

이번 포럼에서는 미국 현지에 있는 베키 화이트(Becky White) 구글 인공지능 리서치 프로그램 매니저가 화상 연결을 통해 실시간 발표를 진행했다.

화이트는 "구글은 최근 A.I 기술 개발에 있어 책임성 있는 방향으로 나아가기 위한 가이드라인을 발표했다"며 "인종, 민족, 국적, 성별, 소득수준 등 기준으로 부당한 결과를 도출하면 안 된다는 원칙"이라고 말했다.

또 인공지능과 기계학습(머신러닝)은 기계가 내리는 결론이지만 결국 개발하는 사람에 의해 편향성이 주입되기 때문에 이를 최대한으로 배제해야 한다고 주장했다.

잘못된 실험 설정의 예시로는 2011년까지 미국에서는 차량 충동 테스트에서 여성이 아닌 남성 체형의 마네킹만 사용해온 것을 들었다. 이런 실험으로 실제 사고 시 여성의 부상률이 높았다는 것이다.

이날 그는 A.I 영역에 존재하는 편향성으로 ▲선택 편향 ▲확인 편향 ▲자동 편향 등 세 가지 사례를 소개했다.

선택 편향은 A.I가 편향된 학습 결과로 인해 제대로 된 결과를 도출하지 못하는 것을 말한다.

만약 북미 및 유럽에 편향된 데이터만 학습했다면 같은 웨딩 사진이지만 서양의 결혼식 사진은 '웨딩(wedding)'으로 인식하고 타 문화권의 결혼식 사진은 '사람(People)'이라고 밖에 구분하지 못한다.

확인 편향은 개발자가 모델을 구축하면서 무의식적으로 자신의 신념에 부합하는 정보를 집어넣는 것이다.

자동 편향은 자동화된 시스템에 의해 산출된 정보가 100% 정확하지 않다는 것을 알면서도 이를 선호하는 경향을 말한다.

화이트는 "머신러닝 시스템이 항상 객관적인 진실을 나타내지만은 않는다"며 "사람은 이 시스템을 설계하는 과정에서 사회적 관념 또는 맥락을 설정하는 것을 항상 유념해야 한다"고 강조했다.

이날 포럼은 구글이 이런 A.I의 편향성을 해결하기 위해 어떤 노력을 하고 있는지도 함께 소개했다.

위에 언급한 웨딩사진 예시처럼 각 지역의 문화적 특성을 반영하지 못하는 것을 해결하고자 구글은 전 세계 사용자들이 자신의 주변 환경 모습을 촬영해서 업로드하는 프로젝트를 진행했다.

이후 이 사진을 개발자들이 개발에 사용하도록 제공했다.

또 개발, 혁신, 교육, 사회 영향 연구 등 다양한 부서가 함께 머신러닝 관련 문제점을 해결하고 있다.

화이트는 "사용자들은 구글 번역에서 A.I의 편향성이 줄어들었다는 것을 체감할 수 있다"며 "성 중립적인 단어를 입력할 경우 구글 번역은 여성형과 남성형 문장 두 가지 모두를 결과물로 보여준다"고 설명했다.

 



댓글삭제
삭제한 댓글은 다시 복구할 수 없습니다.
그래도 삭제하시겠습니까?
댓글 0
댓글쓰기
계정을 선택하시면 로그인·계정인증을 통해
댓글을 남기실 수 있습니다.