인공지능(AI)을 탑재한 컴퓨터나 기계의 발달은 인류에 편의만 가져다 주지는 않는다. 로봇 등장으로 사라지는 사람 일자리 문제에 대한 대책이 필요하다. 다가올 미래에 인류는 AI를 이해하고 자유자재로 다룰 수 있어야 한다. 인간만의 영역과 AI 영역 사이에서 균형을 잡을 수 있어야 한다.
무엇보다 AI가 인간을 대신해 의사결정을 내렸을 때 그 결과에 대한 책임을 누가 져야하는지 여부가 큰 관심거리다.
기계가 내린 의사결정이지만 그 결과 책임은 인간이 져야 하기 때문이다. 더 나아가 결과에 대한 책임을 의사결정을 AI에게 맡기자고 결정한 사람들에게 물을 것인지, 아니면 AI가 그런 의사결정을 내리도록 알고리즘 구조를 설계한 사람에게 있는 것인지에 대한 논란도 불가피하다.
지난 5월 발행된 세계적 과학저널 네이처 지에 따르면 전문가들은 AI로 자동화하는 의사결정과 그 결과에 대한 윤리적 문제에 대해 ‘책임소재’보다는 ‘해결 방법’에 더 중점을 뒀다. 네이처는 “AI 발달로 발생하는 문제들을 부정만 해서는 안된다”면서 “이런 흐름을 인정하고 공존할 수 있는 방법을 다같이 강구해야한다는 의미”라고 설명했다.
스튜어트 러셀 미국 UC버클리 컴퓨터공학과 교수는 “의사결정에 대해 사안별로 법 또는 제도 같은 명확한 기준을 만들어야 한다”고 주장했다. 예를 들면 사람 목숨이나 해고 여부 등을 결정하는 등 특정한 상황에서는 AI 컴퓨터가 결정할 수 없도록 해야 한다는 것이다.
영국 브리스톨대학 로봇공학 강사인 사빈 하우어트 박사는 “이런 문제를 공개적으로 논의해 해결책은 물론 보다 깊이 있고 광범위한 사회적 이해와 공감대를 도출해야 한다”고 말했다. 마누엘라 벨로소 카네기멜론대학 컴퓨터과학 교수도 “AI와 사람이 공존하는 세상을 만들어야 한다”면서도 “인간 활동을 보완하는 존재로 AI를 적절히 활용하되, 로봇이 필요할 때를 명확히 정해야 한다”고 지적했다. 그는 “어떤 기준이나 알고리즘으로 AI가 의사결정을 하는지 내부 논리 구조가 공개돼야 한다”고 주장했다.
토마스 데이븐포트 미국 밥슨대 정보통신경영학과 학과장과 줄리아 커비 하버드 비즈니스리뷰(HBR) 편집자는 “지식 노동자들은 기계와 경쟁하지 말고 기계와 협력하는 방법을 체득해야 한다”고 말했다. 이들은 “결국 자동화 부작용은 ‘증강화(Augmentation)’로 극복해야 한다”고 주장했다
[조희영 기자]
[ⓒ 매일경제 & mk.co.kr, 무단전재 및 재배포 금지]