[이슈] 인공지능과 인식론 - 2

냉정한 판단자, 인공지능 면접관

이슈 l Writer_설동준 upload_관리자 posted_Jul 16, 2018

 

만화 드래곤볼에는 상대방의 전투력을 파악할 수 있는 특수한 고글이 나온다. 한 번 붙어볼만한 상대인지, 얼른 도망을 가야할지 결정을 내리는데 중요한 도움을 준다.

 

그림-1.jpg

드래곤볼 에너지 측정 고글  <출처 https://goo.gl/images/FMrYKm >

 

 

일을 하다보면 적절한 사람을 선발하는 것이 일의 대부분을 좌우한다는 생각을 하게 된다. 하지만 돗자리 깔고 사람의 마음속을 꿰뚫어 보는 게 아니다보니, 괜찮은 사람 알아보기란 쉽지 않다. 요즘에는 어떤지 모르겠지만, 한때 대기업 입사 면접에 점쟁이가 면접관으로 배석했다는 말이 일견 이해가 된다.

 

최근 1~2년 사이에 왕왕 도입되고 있는 인공지능 면접관은 이 같은 채용에서의 어려움에 대한 기술적 대응이라 할 수 있다. 인공지능 면접 시스템은 인간 면접관의 주관적 판단에 영향을 받지 않는 객관적 판단과 선발 프로세스의 실질적인 비용 감소를 목적으로 한다. 채용 비리에 대한 공분 등 ‘공정성’이 중요한 화두가 되고 있는 시대에 나름 적절한 대책 중 하나라고 볼 수도 있다. 다만, 인간이 아닌 기계가 가진 객관성에 대한 오해는 걷어내고 기술을 바라볼 필요가 있다.

 

 

어느 줄에 섰는가?

 

한때 운동권 사이에서는 “PD냐?”, “NL이냐?”로 갈라지던 시절이 있었다. 한쪽에서는 민중민주를, 다른 쪽에서 민족자주를 당대의 최우선 과제로 삼고, 그것의 정당성을 핏대 세워 옹호했었다. 나는 PD의 입장을 옹호했었는데, 항상 마음속에 떠나지 않는 찝찝함이 있었다. ‘내가 NL이 주류인 학과에 들어갔어도 주체적 판단을 통해 PD가 되었을까?’

 

20년 정도 시간이 흘러 만학도로 들어간 교육공학과 대학원에서도 비슷한 상황을 볼 수 있었다. 세부 전공으로 인적자원개발(HRD)을 공부하는 부류와 수업설계(ISD)를 공부하는 부류로 나뉘는데, 입학 시점에서 대단히 주체적인 판단을 통해 선택한다기 보다는 배정된 지도 교수님의 주 연구 분야에 따른 것일 뿐이다. 그런데 한 2년 공부를 하고 나면 같은 학과라도 본인의 세부 전공 외의 내용에 대해 낯설어하고, 때로는 평가절하 하기도 한다. 이런 모습에 대해 학과장 교수님이 한 마디 한 적이 있다.

 

“어차피 입학할 때 양쪽 다 몰랐으면서, 2년 지났다고 마치 원래부터 한쪽이 옳은 양 하는 게 우습지 않니?”

 

그렇다면 사람은 언제나 모든 가능성과 정보에 대한 신중한 고려 끝에 주체적으로 판단하고 선택한 것에 대해서만 옹호해야하는가? 당연히 아니다. 인간이 그런 방식으로 주관성과 우연성의 한계를 넘어설 리 만무하다. 다만 중요한 것은 자기 생각에 환경의 편향이 새겨져있음을 자각하는 것이다.

 

기계학습도 다르지 않다. 인공지능 면접관이 인간 면접관과 달리 주관적 판단과 편견의 오류에서 자유로운 것은 아니다. 학습은 필연적으로 재료인 학습 데이터의 영향을 받게 마련이다. 몇 가지 사례를 살펴보자.

 

2016년 3월 마이크로소프트사에서 신경망 기반 인공지능 챗봇(chatbot) 테이(Tay)를 공개했다가 구동 16시간 만에 서비스를 중단한 사건이 있다. 몇몇 공격적 성향의 인터넷 그룹이 베타 오픈된 테이에게 욕설과 여성 차별, 인종 차별적인 대화법을 훈련시켰던 것이 원인이었다. 태어나자마자 수백의 거친 멘토들에게 차별적 발언, 혐오 표현 등을 배운 테이는 악의 없이 배운 대로 행동했고, 16시간 만에 다수의 사람들에게 의도치 않은(?) 상처를 남기고 짧은 생을 마감했다.

 

2016년 온라인국제미인대회의 프로필 사진 심사를 맡은 인공지능 ‘Beauty.AI’는 예심에서 백인 여성을 제외한 유색인종 여성을 한 명도 선정하지 않았다.

 

이런 사례는 예외적인 사고가 아니라, 기계학습이 가지고 있는 데이터 기반 학습의 본질적 특징이자 한계이다. 2017년 한국여성철학회 학술대회에서는 인공지능에 의한 이와 같은 차별의 문제와 책임에 대한 토론이 열리기도 했다.

 

 

데이터 책무성

 

신경망 기반 인공지능 기술에서 2~3개 수준의 얕은 신경망을 shallow learning이라고 하고, 그 이상의 다층적인 신경망 구조를 deep learning이라고 부른다. 이 딥러닝 기반 인공지능 기술은 데이터의 입력에 따른 출력은 확인할 수 있지만, 특정 결과를 출력한 판단 과정의 추적은 쉽지 않다. 기술적 원리 차원에서 불가능한 것은 아니지만, 역추적 및 원인 분석의 비용 효율성 등을 고려할 때, 사실상 어려운 일이다. 그래서 복잡한 신경망 네트워크의 ‘과정’을 추적하기 보다는 예상한 결과 값에 근사하도록 ‘입력(학습) 데이터’를 잘 다듬거나 선정하는 대안을 택하게 된다.

 

그림-2.png

심층 신경망의 구조  <출처 https://goo.gl/images/zoCMCy>

 

 

이것은 중요한 의미를 가진다. 앞서의 얘기로 돌아가 보자. 사람은 어느 정도의 자율성을 가지지만, 동시에 주어진 경험의 영향에서 자유롭지 않다. 그렇다면 인공지능 면접관은 인간 면접관과 달리 기계라서 객관적일까? 기계학습의 데이터 의존적 성격을 통해 살펴본 것처럼 인공지능이라고 해서 객관적 판단을 내리는 것은 아니다. 오히려 정서적 공감의 차원이 기술적으로 구현되지 않았기 때문에, 아무런 의심도 악의도 없이 데이터에 내재한 편견을 그대로 구현하는 판단을 내린다. 이와 같은 상황에 대해 오세욱 등의 연구자는 ‘데이터 책무성’의 개념이 도입되어야 함을 강조한다. 즉, 가치 판단 영역에 적용되는 기계학습이 사회적 편견을 그대로 실현하는 것을 예방하기 위해 기계학습의 데이터 자체에 사회적 공정성과 책임성을 반영해야 한다는 것이다.

 

 

공존할 것인가, 의존할 것인가

 

아마 머지않은 시기에 학습자의 학업 능력에 대한 평가도 인공지능이 담당하는 때가 올 것이다. 이때 기술적으로 진보한 인공지능 프로세스보다 더 중요한 것은 ‘학습’을 무엇이라고 볼 것인지에 대한 이해관계자의 입장이다. 그 입장에 따라 학습자의 학습을 평가하는 기준과 지표가 만들어질 것이고, 거기에서부터 학습 평가용 인공지능을 훈련하기 위한 기계학습 데이터가 만들어지기 때문이다.

 

기술의 발달은 부인할 수 없는 사실이다. 하지만 발달한 그 기술이 무엇을 할 수 있고, 무엇을 할 수 없는지, 어디에 취약한지를 아는 것은 기술의 신기성에 감탄하는 것 이상으로 중요하다. 특별히 그것이 가치와 책임의 영역에 대한 것일 때에는 기계로 가능하다는 것이 능사가 아니다. 인간이 스스로에게 주어진 선택과 책임의 권리를 포기하고 얻을 수 있는 기계 대리자의 객관성은 실제로 존재하지도 않을뿐더러, 혹여 있다 한들 그것에 인생을 맡기고 싶은 사람이 누가 있겠는가? 지금 시대에 기계는 분명 공존의 대상이지만, 인간의 대리자는 아니다.

 

 

 

설동준
문화예술 기획자 겸 교육공학도. 신앙, 윤리, 교육, 예술 등에 관심을 가지고 있고, 최근에는 스타트업의 조직문화에 대한 생각들을 정리하면서 민간 예술단체 및 스타트업을 위한 일을 모색하고 있다.
?