한국의 카이스트(과학기술원.KAIST) 팀을 비롯해 미국, 중국, 일본, 독일, 이탈리아, 홍콩 등 7개국 25개팀이 참가하는 세계 최고수준의 국제 로봇기술 경진대회가 내달 5,6일 이틀간 미국 캘리포니아에서 열린다.
미국 국방부가 총 상금 350만달러(38억원)을 걸고 주최하는 이 대회는 지난 2011년 일본 후쿠시마 원전폭발 사태를 계기로, 인간이 접근하기 어렵거나 위험한 각종 재난재해 현장에 투입해 필요한 비상응급 조치를 취할 수 있는 로봇 기술의 발전을 촉진시키기 위해 기획됐다.
미 국방부 산하 국방고등연구계획국(DARPA)은 인간이 미치지 못하는 재난지역에서 활동할 수 있는 로봇 개발에 이미 1억 달러를 투자했다.
DARPA 인터넷 사이트는 이 대회에 출전하는 로봇들에게 요구되는 기술 수준으로, 안전지대에서 로봇을 조종하는 인간과 교신이 끊기거나 불안정한 상황에서도 로봇이 주어진 과제를 수행하고 넘어지더라도 스스로 일어날 수 있는 능력 등을 제시했다.
문제는 이러한 자율판단·기동 능력을 갖춘 로봇이 언제든 군사무기 기술로 전용될 수 있는 상황에서, 이런 무기의 사용에 따른 법적, 윤리적, 인권적 측면을 고려한 규제정책의 검토와 수립이 따라갈 수 없을 만큼 무기 기술의 발전 속도가 빠르다는 데 있다.
이러한 우려에 대해 DARPA의 대회 조직위측은 이 로봇이 겉모습은 터미네이터처럼 보이더라도, 네팔 지진의 폐허 속에 묻힌 사람을 구하는 것과 같이 전장이 아니라 재난지역에서 인도주의적인 목적으로 사용되도록 설계됐다는 점을 강조했다고 미국의 워싱턴 포스트는 지난 16일 전했다.
신문은 그러나 이 기술이 발전함에 따라 “언젠가는 용도가 온갖 종류로 확대돼 노약자를 돕거나 생산공정에 투입되는 것은 물론 군인으로도 사용될 수 있다고 관리들은 말한다”고 지적했다.
DARPA의 릭 웨이스 대변인은 DARPA도 로봇 기술의 급속한 발전이 “사회적, 윤리적, 그리고 법적인 난제를 제기하고 있음을 잘 인식하고 있다”고 말했다.
이와 관련, 지난해 11월 제네바에서 열린 유엔 특별회의에선 급속히 발전하는 자율 로봇 기술을 바탕으로 한 살상용 ‘킬러 로봇’의 잠재적 위험에 대한 경고와 함께 이들 로봇을 인간이 통제하도록 국제법에 명시해야 한다는 주장이 나왔다.
킬러 로봇 개발 중단 운동을 펼치고 있는 국제인권단체인 ‘휴먼 라이츠 워치’는 이 회의에서 “기술이 앞서가기 때문에 킬러 로봇은 긴급한 대응이 요구되는 문제”라며 “이를 금지하는 것만이 유일한 해결책”이라고 촉구했다.
같은 해 8월엔 안젤라 케인 유엔군축담당 고위대표가 언론 인터뷰에서 전장에서 인간의 조종을 받지 않고 자동으로 움직이는 킬러 로봇의 등장이 머지 않았다며 살상행위의 책임소재가 불분명해지는 점 등을 들어 역시 금지해야 한다고 주장했다.
그는 “모든 무기가 끔찍한 것은 사실이지만 인간의 개입없이 사용되는 무기는 문제를 악화시키고 인간성을 말살한다는 점에서 더 나쁘다”며 ‘얼굴없는 전쟁’, ‘전쟁의 자동화’ 등에 대한 우려를 나타냈다.
지난 2013년에는 노벨 평화상 수상자인 조디 윌리엄스를 비롯한 로봇·인공지능 전문가, 국제인권단체 등이 “킬러 로봇 연구가 윤리규정이나 국제법의 관심 밖에서 아무 통제도 없이 진행되는 게 문제”라며 킬러 로봇 반대 운동을 조직하기도 했다.
이 운동에 참여한 노엘 샤키 교수는 1949년 체결된 제네바협약엔 전쟁포로와 부상자와 민간인을 보호하는 교전규칙을 담고 있는데 킬러 로봇은 “사탕을 든 아이와 총을 겨누는 군인을 식별할 수 있는 인식체계가 없다”고 지적했다.
그러나 “킬러 로봇에 반대하는 윤리주의자들과 인권운동가들이 인간성에 대해 너무 관대한 가정을 하고 있는 게 아니냐”며 “국제 인도주의법 준수 문제라면 컴퓨터가 인간보다 훨씬 나을 것”이라고 킬러 로봇의 변호인을 자처하고 나선 전문가도 있다.
로자 브룩스 조지타운대 법학교수는 18일 군사안보 전문매체 포린 폴리시에 기고한 ‘킬러 로봇을 변호한다’는 제목의 글에서 인간은 전장의 포연 속에 쉽게 무너지는 허약한 존재이며, 눈은 앞만 볼 수 있고 귀는 특정 주파수대만 들을 수 있고, 뇌의 특정시점 정보처리 양에 한계가 있으며 굉음에 화들짝 놀라기도 하고 두려움에 질리면 인식과 판단이 일시적으로 마비되거나 왜곡되기도 하는 점을 지적했다.
그 결과 인간은 늘 전장에서 거리를 잘못 판단하거나 명령을 잊어먹고 상대방 몸짓을 잘못 이해해 카메라를 무기로, 양떼를 군인들로, 아군을 적군으로, 학교 건물을 병영 막사로, 결혼식 행렬을 테러리스트 행렬로 오인하는 등 늘 어리석은 실수를 저지르지 않느냐고 브룩스 교수는 반문했다.
그는 “미국의 이라크와 아프가니스탄 전쟁에서 엄청난 민간인 사상자가 났다면 그것은 킬러 로봇 때문이 아니라 늘 오류가 잠재된 인간의 결정 때문”이라고 덧붙였다.
반면 컴퓨터는 정신을 잃거나 겁에 질리는 일이 없고 감정에 휘둘려 행동하지 않으며, 짧은 시간에 막대한 양의 정보를 처리하고 적절한 결정을 신속하게 내리는 등 “완벽하지는 않지만” 위기와 전투상황에선 “우리 인간보다 결함이 훨씬 적다”는 것이다.
그는 특히 우리는 기계가 흉내낼 수 없는 ‘판단력과 직관’이라는 특별한 능력을 갖고 있다고 생각하지만, 컴퓨터가 훨씬 나은 판단을 하는 여러 사례를 들고 “국제인도주의법 준수와 관련해 인간을 믿을지 잘 설계되고 프로그램된 로봇을 믿을지 선택하라면 나는 언제든 킬러 로봇에 걸겠다”고 말했다.
그는 ‘완전자율
[매경닷컴 디지털뉴스국]
[ⓒ 매일경제 & mk.co.kr, 무단전재 및 재배포 금지]