[생활 속의 기술] 로봇에게 윤리를 가르칠 수 있을까
페이지 정보
작성자 실장 작성일15-02-17 10:49 조회6,350회 댓글0건본문
‘윤리적 민감성’을 갖추지 못한 채 프로그래밍된 행동만 하는 로봇이 인간에게 미치는 해는 예측하기 어렵다. 전투로봇만 해당되는 것이 아니다. 일상 곳곳에 스며든 자동화 시스템은 첫 번째 사례처럼 의도하지 않고도 인간에게 해가 될 행동을 얼마든지 할 수 있기 때문이다. 최근 ‘로봇윤리’가 세계적인 화두로 떠오른 이유다.가장 시급한 분야는 군사용 전투로봇이다. 전장에서 로봇이 활용된 지는 10년이 훌쩍 지났지만, 최근에는 로봇이 스스로 판단해 화기 사용 여부를 결정할 수 있을 만큼 인공지능이 고도화됐기 때문이다. 영국 BBC 방송이 5월 21일에 보도한 바에 따르면, 많은 군사전문가들은 영국의 퀴네티크(QinetiQ) 북미지사가 내놓은 ‘마르스(MAARS)’ 전투로봇에 우려를 표하고 있다. 인간병사를 엄호하는 이 전투로봇은 현재는 인간병사가 원격으로 제어하고 작동 범위도 약 800m로 제한돼 있지만, 인공지능이 발전함에 따라 언제고 ‘터미네이터’처럼 치명적인 로봇으로 변신할 가능성이 크다는 것이다.
영국 셰필드대 로봇인공지능학과 노엘 샤키 교수는 비판의 선봉장이다. 그는 지난해 4월, 로봇학자 및 국제 인권단체들과 함께 ‘킬러로봇 반대(Stop Killer Robot)’ 캠페인을 발족했다. 영국 BBC와의 인터뷰에서 그는 “킬러로봇은 10년 이내에 상용화 될 것”이라며 “전투 로봇이 제네바 협약 같은 국제규칙을 어길 수 있다”고 지적했다. 올해 8월 28일에는 유엔 군축 담당 고위대표인 안젤라 케인이 “킬러로봇의 개발을 법적으로 금지해야 한다”고 강경하게 주장했다.
● 로봇은 아직 장난감 총과 진짜를 구분 못한다
논란의 핵심은 로봇이 사람에게 총을 쏘는 걸 판단할 만큼 충분히 똑똑하거나 윤리적이지 않다는 것이다. 예를 들어 어떤 킬러로봇이 아이와 어른 여부, 총을 들었는지 여부, 군복을 입었는지 여부 등 3가지 항목으로 민간인과 군인을 비교하도록 프로그래밍 됐다면, 장난감 총을 들고 짙은 녹색 옷을 입은 소년을 군인으로 오인해 사격하기 쉽다. 사람은 피부에 스치는 바람, 풍기는 냄새, 들려오는 소리 등 다양한 정보를 종합해 비교적 정확하게 상황을 판단할 수 있지만, 컴퓨터는 2차원 영상을 이용하므로 융통성 있는 판단이 거의 불가능하다.
최종판단은 사람이 했으므로 조금 다른 예지만, 중동 예멘공화국에서 오폭 사고가 몇 차례 있었다. 2012년 9월 2일(현지시간), 알 카에다를 노리던 미군 무인기가 민간인을 오인 사격하는 바람에 최소 13명이 숨졌다. 2011년에도 두 차례 무인기 오폭으로 민간인 40명이 목숨을 잃었다. 김수현 KAIST 기계공학과 교수는 “인간 정찰병 없이 무인기를 통해 전송된 영상의 패턴만 분석하다보니 민간인과 군인을 제대로 구별하지 못한 것”이라고 말했다.
반면, 미국 조지아공대 로널드 아킨 교수는 “전쟁에 관한 국제법이나 교전수칙을 지키도록 로봇의 성능을 개선하는 것도 가능하다”며 “윤리적인 로봇 시스템을 도입하면 전쟁터에서 발생하는 민간인의 희생을 줄일 수 있다”고 반박한다. 그의 말을 증명하려는 듯, 5월 14일 미군은 로봇에 도덕을 가르치는 연구를 위해 미국 예일대와 조지타운대에 5년간 미화 750만 달러(한화 약 79억 원)를 지원할 계획이라고 밝혔다. 과연 로봇에게 윤리를 가르칠 수 있을까?
● 윤리를 배우는 로봇
아직 걸음마 단계이지만, 윤리적 소프트웨어를 만들려는 다양한 시도가 있다. 미국 예일대 생명윤리 학제간 센터웬델 월러치 교수와 인디애나대 과학철학사 및 인지과학과 콜린 알렌 교수는 저서 ‘왜 로봇의 도덕인가’에서 세 가지 접근법을 소개했다. 도덕적인 원칙에 맞춰 로봇의 판단을 결정하는 ‘논리 기반 접근법’, 다양한 사례에서 자신의 판단 근거를 찾아내는 ‘사례 기반 접근법’, 여러 사람의 행동이 맞부딪힐 때 어떤 결과를 낳는지 시뮬레이션해서 최적의 행동을 찾아내는 ‘다중 행위자 접근법’ 등이다.
미국 렌슬레어공대 셀머 브링스요드 박사는 인류의 윤리적 체계를 프로그래밍하는 방법을 연구하고 있다. 예를 들어 현재 이용되는 인공지능은 “눈 앞에 장애물이 나타나면 피해라”라는 ‘행동 규칙’을 넣어주는 데 반해, 브링스요드 박사의 접근법은 “생명은 소중하다”는 큰 원칙을 프로그래밍 해준 뒤, 로봇이 스스로 사고를 피하는 방향으로 행동하게끔 해주는 것이다.
그가 개발한 프로그램 하나는 ‘최대다수의 최대행복’이라는 공리주의 원칙에 따라 결정을 내린다. 이 인공지능을 탑재한 돌봄 로봇은 환자의 생명유지장치를 끌지 여부를 결정해야 할 상황에서 공리주의 규범에 따라 결정을 내릴 것이다. 이런 접근 방법은 사람의 사고체계와 비슷해 윤리적인 인공지능을 만드는 데 가장 옳은 방법이라는 장점이 있다. 그러나 사람도 결정을 내리기 어려운 복잡한 상황에는 적합하지 않다.
기존 사례에서 윤리적 추론을 끌어내는 프로그램도 있다. ‘메드에덱스(MedEthEx)’라는 프로그램이 대표적이다. 컴퓨터 과학자 마이클 앤더슨과 철학자 수전 앤더슨 부부가 설계한 의학윤리 전문가 시스템이다. 이 시스템은 여러 의무가 상충할 때, 과거의 구체적인 사례에서 인간 의료전문가가 내린 결정을 참고해 자신의 의무들을 비교 평가한다.
이 방법은 상충하는 의무들 사이에서 균형을 잡을 수 있다는 게 장점이다. 예를 들어, 앞선 [사례2]와 같이 환자를 돌볼 의무와 환자의 자율성을 존중할 의무 사이에서 딜레마에 빠졌을 때 로봇은 두 의무에 할당된 값을 체크한다. 그리고 환자를 돌볼 의무에 할당된 값이 정해진 값을 넘어가게 되면(즉 환자가 위험한 상태가 되면) 그 때는 환자의 자율성을 존중할 의무를 저버리고 주치의에게 연락한다.
컴퓨터과학자 빈센트 비겔은 미국 델프트대에서 공부하던 2007년, 박사학위 논문을 위해 ‘소포랩(SophoLab)’이라는 플랫폼을 개발했다. 이 프로그램은 윤리적 판단을 할 수 있는 여러 행위자들의 상호작용을 시뮬레이션 한다. 이들은 상황에 따라 다른 의도를 가지고 행동할 수 있다.이런 ‘다중행위자 플랫폼’을 사용하면 실제 사회와 같은 복잡한 네트워크 속에서 윤리적 판단을 내릴 수 있다. 예를 들어, 환자와 의사, 간호사, 보험회사 직원 등 다양한 사람이 환자의 개인 정보에 접속할 때 누구에게 어떤 권리를 주는 것이 바람직한지 이 프로그램을 통해 미리 시뮬레이션 해 볼 수 있다. 비겔 박사는 향후 이 시스템을 무인카에 적용할 수 있을 것으로 보고 있다. 무인카는 사고를 피하기 위해 교통 법규를 위반해야 할 수도 있는데, 이 때 자신의 행동이 다른 차에 미치는 위험을 비교해 융통성 있게 결정할 수 있다.
● 터미네이터의 악몽에서 벗어나려면
일부 로봇 전문가는 윤리적 소프트웨어나 로봇윤리 로드맵(박스 기사 참조)에 거부감을 느끼기도 한다. 로봇에게 윤리를 가르친다는 목표 자체가 인간적이지 않다고 생각하거나, 첨단 로봇기술을 규제하려는 수단으로 보는 것이다. 그러나 로봇윤리 개념을 최초로 세운 이탈리아 국립로봇연구원 장마르코 베루지오 교수는 이런 시각이 오해라고 말한다. 그는 “로봇윤리는 로봇기술을 반대하는 논리가 아니다”라며 “로봇기술의 긍정적 확산을 위해 우리가 지금 무엇을 해야 하는지 논의하자는 것”이라고 말했다.인류의 역사에서 기술윤리는 늘 해당 기술보다 훨씬 늦게 발달해 왔다. 기술의 편리함에 취해 이점을 누리다가 나중에서야 그 부작용과 해악을 깨닫고 소 잃고 외양간 고치듯 윤리를 논한 것이다. 그런 측면에서, 로봇기술이 재앙을 몰고 오기 훨씬 이전에 로봇윤리를 정립하려는 현재의 노력은 매우 바람직하다고 볼 수 있다. 이제 인류는 ‘터미네이터’의 악몽에서 벗어날 때를 맞았다. 마침 올해는 영화 ‘터미네이터’가 나온 지 딱 30년이 되는 해다.
댓글목록
등록된 댓글이 없습니다.