어떻게 로봇 윤리를 규정할것인가?

로보 관련 기사를 검색하던 중 제목과 같은 인터뷰 기사를 발견하였습니다. 변변치않은 번역 솜씨로 한번 번역해보았으나 (구글 번역기의 지대한 도움을 받아가며) 여전히 좀 어렵네요. 하지만 전체적인 문맥을 이해하는데는 큰 어려움이 없었습니다. 좀더 읽어가면서 다듬어야 할 듯합니다.

원문기사: How do we regulate robo-morality?

[참고문서]


2016년 4월 영국 표준협회(British Standards Institution, BSI)는 소셜 로봇의 설계, 생산, 판매 및 사용에 대한 도덕(윤리)적 기준을 세계 최초로 발표하였습니다. “BS 8611:2016 로봇 및 로봇 장치”는 로봇의 윤리적 위험(ethical hazards)을 판단하고 관련 위험을 수용 가능한 수준으로 줄이기위한 지침을 제공합니다. BS 8611은 인간과 로봇 관계의 본질을 결정하는데 중요할 수 있습니다.  그러나 이 문서는 또한 많은 질문을 야기합니다. 보다 안전한 로봇을 설계할때 ISO 13482와 BS 8611을 같이 사용할 경우 충돌점이 없을까요? 과연 우리가 로봇 윤리에 대한 규정를 고려해야 할까요? 만약 그렇다면 어떻게 해야 할까요?

Joanna Bryson 교수(이하  BRYSON)와  Yueh-Hsuan Weng  박사(이하 WENG)의 인터뷰를 통해서 우리는 미래에 로봇-인간과의 관계를 어떻게 규정할 것인가에 대해 이야기 해보도록 하겠습니다.

일시: 2016년 12월 9일


응답인: 조안나 브라이언 (Joanna J. Bryson), 컴퓨터 공학과 교수 (University of Bath), 정보 기술 및 정책 센터 (Princeton University)

질문인: Yueh-Hsuan Weng  박사, RobotLaw.Asia 공동설립자, CLAST AI & 법률 연구 위원회 (Beijing) and 기술 및 법률 센터(Milan) 선임연구원


Q1 (WENG):  먼저 인터뷰에 응해 주신 점 감사드립니다. 먼저 당신에 대해 좀 알려주실 수 있나요?

(BRYSON): 저의 주요 연구 주제는 비교 지능 (comparative intelligence)입니다. 저는 학생 때 특히 동물 행동에 대해 관심이 있었으며, 시카고에서 행동 과학 전공으로 인문학 학사 학위를 받았습니다. 전 지금 인공 지능에 대한 박사 학위(MIT)와 두개의 석사 학위(심리학 석사,  인공지능 석사, 에딘버러)를 보유하고 있습니다. 현재는 Bath 대학에서 조교수로 있으며, Intelligent Systems group를 설립하였습니다. Artificial Models of Natural Intelligence를 개발하는 것이 현재 제 연구실의 목표입니다.

박사 과정일때 저는 휴머노이드 로봇 프로젝트에 참여하고 있었는데, 그때 사람들이 로봇이 제대로 동작하지 않음에도 불구하고, 그에 대한 도덕적 의무가 있다고 생각하는데 대해 놀라움을 금치 못했습니다. 사람의 형태이긴 했지만 그것은 단지 모터들로 이뤄진 덩어리였는데 말이죠. 전 사람들이 인공지능에 대해서 충분히 알지 못하는 것으로 생각하고 위 문제에 대하여 문서를 만들기 시작했습니다. 하지만 최근들어 느낀점은 사람들이 윤리에 대해 충분히 이해하지 못한다는 것을 깨닳았습니다. 그들은 윤리적 책임의 근원이 무엇인지에 대해 혼란스러웠으며, 인공물(로봇)의 본질에 대해 이해하지 못하였습니다.  또한 그들은 우리가 인공지능에 대해 도덕적 의무를 지키든 지키지 않던, 인공지능과 윤리를 함께 구성할 수 있음을 이해하지 못하였습니다. 나는 우리가 도덕적으로 의무화되지 않은 인공지능을 구성해야한다는 도덕적 의무가 있음을 주장하는 것으로 잘 알려졌습니다.

Q2 (WENG): 윤리적 해이(ehtical hazards)이란 무엇을 의미합니까? 속임수(Deception)와 의인화(Anthropomorphism)을 제외하고 BS 8611: 2016에 다른 도덕적 의무가 규정되어 있나요?

(BRYSON): 제가 그 문서를 외우고 있질 않고, 또 지금 다시 읽으러 가기엔 시간이 좀 부족하군요. 양해해 주시기 바랍니다. 아마도 지금 도덕적 해이(moral hazards)을 얘기하시는거겠죠? 도덕적 해이는 당신이 잘못된 행동을 하게 만들 가능성이 있습니다. 특히 저는 윤리적 지위를 인공지능에 적용하는 것을 도덕적 해이라고 주장하였습니다.  왜냐하면 이것을 이용하여 인공지능을 개발하는 제조사, 개발자, 운영자는 책임을 벗어날 수 있기 때문입니다. 이것은 군사용 무기인 경우에 더욱 분명하게 나타납니다. 우리는 군인, 지휘관과 그들에게 위임하는 정부 사이에 책임을 분산시키는데 어려움이 있습니다. 죄책감을 갖기 위해 무기를 폐기하는 것은 정직하거나 유익한 것이 아닙니다. 그러나 “친구”와 “연인”을 소유하는 것과 관련된 도덕적 해이를 생각해보면 – 만약 아이가 대부분 자신의 물건과 관련이 있다면, 배우자 또는 동료 또는 민주주의 회원과 동등한 파트너가 될 수 있도록 어떻게 성장할 수 있을까요?

Q3 (WENG): Bristol Robot Laboratory의 일부 멤버는 “Embedding Intelligence”에 관심이 있다고 하더군요. 이 개념이 왜 중요한가요? BS 8611:2016에 어떤 영향이 있나요?

(BRYSON) 죄송합니다만, 인공지능이 인터넷 또는 공유된 디지털 메모리에 연결될 때 분명히 개인정보에 대한 문제가 있다는 것을 제외하고는 인공지능이 인공물에 포함되어 있거나 클라우드를 통해 채널링되어 있는지 여부가 그다지 중요하지 않다고 생각합니다. 사실 로봇이나 다른 인공 지능에 대한 윤리적 의무가 없다는 것을 확실하게 보장하는 방법 중 제가 추천하는 방법은  이것이 유일한 복사본이 되지 않도록 하는 것입니다. 즉 항상 원격지에 백업해야 한다는 것입니다.

Q4 (WENG): 존 홀랜드 (John Holland) 교수는 “내부 모델은 시스템이 현재의 행동에 대한 미래의 결과를 미리 예측할 수 있게 해준다”라고 말씀하셨습니다.  “내부 모델”에 대한 개념을 말해 줄 수 있습니까? Passive Dynamic Robot에도 고유한 내부 모델이 있습니까?

(BRYSON) Holland 교수님이 말씀하셨듯 내부 모델은 세계를 계획하고  예측 할 수 있는 방법을 제시하는 것입니다. Rodney Brooks 교수는 인공 지능이 모델을 가져서는 안되며, 세계를 자신의 가장 좋은 모델로 사용해야한다고 주장하셨지만 사실 이것은 실용적이지 않습니다. 센서 정보에는 동물과 같은 지성을 창조 할 수 있을 정도로 세상을 분석하기 위한 정보가 부족합니다. 우리는 센서 입력을 해석하기 위한 사전 기대치가 필요합니다. 여전히 Brooks 교수는 인공지능의 천재입니다. 그는 우리가 단지 행동에 필요한 최소한의 행동만 사용한다는 것을 발견하였고 그로 인해 이 분야는 빠르게 진보할 수 있었습니다. 우리는 사람이 만약 센서 정보가 모순될 경우 재빨리 기억에서 지운다는 것과 항상 부분적인 정보를 이용하여 행동한 다는 것을 알아냈습니다. 예전까지 우리는 인공지능은 모든 지식을 가지고 있어서 항상 완벽한 계획만을 만들어 낸다고 생각했습니다만, 이제 는 그게 다루기 쉽지 않다는 것을 알았죠.

Passive Dynamic Robot이 내부 모델을 가지고 있냐구요? 아니라고 생각합니다. 동물의 보행 시스템에 대한 모델을 생각해보죠. 이것은 중력에 대한 기대치는 구체화할 수 있습니다만, 대체로 무계획이거나 제어만하죠. 그저 보행시스템의 움직임에 따라 가는 것이지, 이곳에 도착했다거나  다른 곳에서 왔음을 결코 알지 못하므로, 무엇이든 예측할 수 없습니다. 하지만 이 디자인은 세계에 대한 특별한 규칙성을 예측하기 때문에 설계자들은 보행기에 부분적으로 구현된 모델을 가지고 있습니다.

Q5 (WENG): 저는 와세다 대학의 연구자들과 함께 휴머노이드 로봇에 관한 경험적 사례 연구를 수행하였습니다. 우리는 “Tokku” 특별 구역 내에서 도로 교통, 개인 정보 보호, 원격 통신, 안전, 세금, 고속도로 교통 등에서 로봇을 규제해야 한다는 강한 요구가 있음을 발견했습니다. 그러나 로봇 윤리가 규제되어야 하는지는 분명하지 않습니다. 이것에 대한 의견이 있으십니까?

(BRYSON) 불행히도 저는 아직 당신의 연구를 읽어보진 못하였습니다. 하지만 규제에 관해서는 조금 이야기 할 수 있습니다. 규제에 대해 인식해야 할 중요한 두 가지 사항이 있습니다. 첫째, 정부는 특히 민주주의에서는 세금과 같은 의무, 독재 정부에서는 용인된 범위 내에서만 동작하는 기능과 같이 간주되어서는 안됩니다. 정부와 규제은 우리 시민이 우리의 욕구와 비전을 이뤄내기 위한 방법입니다. 기술 분야의 많은 사람들은 규제를 자유의 한계로 생각하고 실제로는 절충안을 부정적인 방법이나 긍정적인 방법으로 사용할 수 있습니다. 그러나 기술자들은 사람들이 함께 모여 일할 때 종종 협력하는 사람들의 공헌보다 더큰 공공재인 상호 이익이라는 무언가를 창출한다는 것을 이해할 필요가 있습니다. 규제에는 혁신에 정부 자원 (세금)의 투자를 의무화하는 규정이 포함될 수 있습니다. 그들은 자유롭게 할수도, 제약 할수도 있습니다. 개인정보 및 인공지능에 큰 영향을 받는 부의 분배와 같은 필수적인 문제에 대하여 시민들과 합의하는 것이 중요합니다. 네, 합의는 타협이 필요하지만, 이를 통해 평화, 안정 및 풍요를 창출합니다.

이 모든 것을 말하면서, 저는 설문조사로부터 어떠한 규제가 실제로 동작하는지에 대해 시민들이 큰 주의를 가지지 않는다는 것을 알아냈습니다. 정책과 규제는 매우 복잡하고 수세기 동안 연구되어 왔습니다. 평범한 시민들이 핵무기를 만들거나 무작위로 월드컵이나 올림픽에서 나라를 대표하도록 초안을 작성한다는 규정을 세우도록 제안하는것은 위험한 일입니다. 우리는 일반 시민들의 욕구뿐만 아니라 전문 지식을 존중해야합니다. 시민들의 두려움과 목표가 우리에게 말해주는 것은 특정 규정을 이행하는 것이 얼마나 쉽고 어렵고, 그것이 받아 들여지고 존중되어야 할 가능성이 얼마나되는지를 말해주는 것입니다. 행성에 사는 대부분의 사람들은 조상들이 여전히 자신들의 행동에 대해 우려하고 있다고 생각하지만 죽은 조상을 배우로 믿는 정책을 세우고 싶지는 않습니다. 그러나 당신이 통치하는 경우 사람들이 이것을 생각한다는 것을 아는 것은 의미가 있습니다.

Q6 (WENG) “윤리적 로봇”에 대한 당신의 정의는 무엇인가요? 우리는 로봇에게 옳고 그름을 가르쳐야 할까요? 

(BRYSON) 나는 가르치는 것보다 프로그램하는 것이 좀더 합리적이라고 생각합니다. 우리는 시민과 정부가 좋은 일을 하도록 가르치는데 어려움이 있습니다. 대부분의 행동에는 윤리적 인 결과가 있고 인공지능이 인식과 그것에 대한 추론을 할수 있도록 만드는데는 큰 문제가 없습니다. 다만 인공지능이 필연적으로 도덕적 인 결과가있는 행동을 취할 것이라고 생각한다고하더라도 인공지능을 도덕적 책임으로 생각하지는 마십시오. 영국 EPSRC Principles of Robotics에서 분명히 밝히듯이 상업 제품에 대한 책임은 제조업체 (광고 사양을 충족시키지 못하는 경우) 또는 소유자/운영자 (부적절하게 사용하는 경우)에 있습니다. 인공지능의 윤리적 구현, 예를 들면 개인의 프라이버시를 보호하거나 개인이 자율 차량으로 할 수 있는 피해를 제한하는 등 인공지능 자체는 어떠한 경우에도 책임 당사자로 지정되어서는 안됩니다.

Q7 (WENG) 아시모프의 로봇 3원칙이 HRI(Human-Robot Interaction)에서의 안전과 보안을 보장하는 규칙의 방향을 나타낼수 있다고 생각하십니까?

(BRYSON) 아시모프의 원칙은 사람들이 인공지능의 윤리에 대해 어떻게 생각하는지 영향을 줍니다. 5개의 로봇 원칙(Principles of Robotics)중 3개는 아시모프의 원칙에 영향을 받았습니다. 그러나 우리는 이러한 원칙이 인공지능 윤리를 위해 필요하거나 충분하지 않다는 것을 사람들에게 알리기 위해 열심히 노력하고 있습니다. 우선, 아시모프의 법칙은 다루기가 어렵습니다. 책에 설명 된대로 구현하는 것은 계산 상으로 불가능합니다. 우리는 우리 행동의 모든 결과를 결코 알 수 없습니다. 둘째, 책 자체는 원칙이 진정으로 도덕적 인 행동을 만들기에 불충분하다는 것을 반복적으로 보여 주며, 그것은 단편 소설의 재미일뿐입니다. 셋째, 대부분의 공상 과학 작가들과 마찬가지로 아시모프는 인공지능을 인간의 입장에서 사용하고 로봇이 인간이 될수 있는지 검사합니다. 이 법칙은 로봇을 책임감있는 당사자로 묘사합니다. 이것이 바로 제가 이전에 얘기한 실수입니다.

Q8 (WENG) 로봇이 합법적인 사람이 되지 않아야 한다는 것에 대해 동의 하시나요? 그렇다면 왜죠?

(BRYSON) 저는 사람들이 로봇을 합법적인 사람으로 만들어 줄지 확신하지 못하겠습니다. 그러나 저는 그렇게 해서는 안되며, 장기적으로는 그렇지 않을 것이라고 확신합니다. 법적인 사람은 인간 정의의 대상이되는 것입니다. 나는 잘 설계된 시스템에서 인간의 처벌에 내재한 종류의 고통을 만들 수 있다고 믿지 않습니다. 로봇이나 인공 지능이 시간이 지남에 따라 수치와 고통, 후회를 알 필요가 없습니다. 이러한 것들은 인간이 되기 위한 내재적 요소이며, 우리는 이러한 우려가 부족한 사람들이 정신적으로 건강하다고 생각하지 않습니다. 우리가 사회 생물체로 진화했고 우리의 지능으로부터 이러한 특성을 추출 할 수있는 방법이 없기 때문입니다. 그러나 잘 설계된 인공 지능은 모듈식으로 설계자가 고의로 추가한 모든 것을 제거할 수 있습니다. 이것이 인공지능이 합법적인 사람이되는데는 일관성이 없는 이유 중 하나입니다. 또 다른 이유는 인간과 같은 인공지능  또는 로봇의 개별 단위가 없다는 것입니다. 우리는 뇌가 죽거나 결합 된 쌍둥이 인 사람들이 약간의 어려움을 겪을지라도 인간이되는 것이 무엇인지 압니다. 그러나 인공 지능은 인간처럼 깔끔하게 계산 될 수 없으므로 사람과 같이 로봇에 과세한다는 아이디어는 우스꽝스럽습니다. 그리고 다시, 그것은 도덕적 해이입니다. 로봇을 사용하기로 결정한 회사는 로봇이 무엇이든 상관없이 합법적이고 경제적인 책임을 져야합니다. 과학 소설에 대한 우리의 사랑이나 완벽하고 순종적인 사이버 “어린이”를 만들고자하는 우리의 깊은 열망으로 인해 그들이 책임에서 벗어나게해서는 안됩니다.

Q9 (WENG) 박사님의 얘기에서 “잘 설계된 로봇”의 정의가 어떻게 되나요?

(BRYSON) 로봇은 로봇을 생산하는 회사가 자신의 행동에 대해 전적으로 책임을 지도록하고, 정부가 인류 사회에 안전하다고 판단하여 기꺼이 면허를 발동 할 경우 잘 설계된것입니다. 일부 기업은 많은 국가보다 많은 자원을 보유하고 있기 때문에 두 번째 요구 사항이 필요합니다. 따라서 개인 시민이 받지 않기를 희망하는 위험을 기꺼이 받아 들일 수 있습니다.

Q10 (WENG) 마지막으로 다음 10 년 동안 인간-로봇 공존 사회를 개발하는 데 가장 큰 도전은 무엇입니까?

(BRYSON) 우리에게는 여전히 많은 도전이 있습니다. 제 생각으로 우리는 사이버 보안을 해결하기 전에 로봇 기술 및 물리적 안전 문제는 해결할 수 있을 것입니다. 저는 우리가 이미 갖고 있는 인간 사회와 인간 자치권에 어떤 영향을 미칠것인지에 대해  충분히 이해하지 못했다고 생각합니다. 한 번에 많은 것들이 변하기 때문에 이것을 측정하는 것이 어렵습니다. 우리는 또한 기후 변화, 인류 수의 엄청난 증가, 의사 소통의 문제 등 많은 문제를 안고 있습니다. 우리는 현재  소득 불평등과 정치 양극화의시기에 있습니다. 일부 사람들은 인공지능에 대한 책임이 있다고 생각합니다. 그러나 실제로 이것은 불과 한 세기 전에 일어난 일이며 아마도 두 번의 세계 대전과 큰 우울증에 기여했을 것입니다. 따라서 우리가 어떻게 서로에게 영향을주고 우리의 행성과 건강을 해치는 지 이해하는 것이 이 질문에 답이 되지 않을까합니다.

OS X: ValueError: unknown locale: UTF-8 in Python

Homebrew를 이용해서 matplotlib를 설치하고,  python에서 import하여 사용하려고 할때, 제목과 같은 에러가 발생하였습니다. locale 관련하여 환경변수에 LC_CTYPE이 설정되어 있지않아 발생하는 문제로 간단하게 다음과 같이 입력하면 해결이 가능합니다.

매번 입력하는게 불편하시다면, 사용자 환경변수 설정 파일인 ~/.bash_profile (없으면 생성하시면 됩니다.)에 위 구문을 추가해주시면 됩니다.