소셜 로봇이 픽업 아티스트에게 배워야 할 점

현재 사람과 대화하는 로봇을 개발하는 입장에서 도움이 될만한 글입니다. 정해진 문답을 하는 로봇보다는 대화 중간중간 유머를 섞거나, 쉽게 대화를 시작하지 못하는 사용자를 위해 먼저 말을 거는 로봇이라면 인간-로봇간의 교감이 좀더 쉬워질 수 있다고 생각합니다.

원문: What Chatbots Can Learn from Pickup Artists


대화형 UI 시대의 소셜 기술은 네일 스트라우스가 픽업 아티스트[1]에 대해 작성한 저서 “The Game”에서 배울 수 있습니다.

저는 메시지 플랫폼이 사람들에게 새로운 작업대(책상)이 될거라고 믿습니다.

“Wired”지의 크리스 앤더슨은 2010년에 기고한 기사에서 앱(Apps)이 우리가 웹(Web)을 사용하는 방법을 바꿨다고 말하였습니다. 우리는 데스트탑 컴퓨터에서 휴대폰에서 앱을 사용하는 것으로 빠르게 바뀌었습니다. 현재 70% 이상의 사람들이 페이스북 메신저를 매일 사용합니다. 따라서 기존 기업과 스타트업이 진출해야 할 다음 단계는 메시지 플랫폼입니다.  BarkBox[2]와 같은 스타트업, 컨텐츠 개발 및 서비스 업체는 사용자들에게 자사 플랫폼을 이용해여 독점적으로 컨텐츠를 제공하는 대화형 사업을 성공적으로 출시하고 있습니다. BarkBox는 SMS, 메신저 및 채팅을 통해 매월 전체 고객의 약 25%와 상호작용하고 있습니다. 이러한 방법으로 우리는 고객과의 계약을 체결하고 판매를 늘리고 제품을 개발하고 서비스를 제공합니다.

우리는 대화형 UI와 관련하여 고급 UX 관련 고려 사항이나 인터페이스 전문 용어가 많이 없다는 것을 발견하였습니다. 사용자(고객)과 고객 서비스 또는 봇(bots)간은 우주 간단한 상호작용 모델을 통해 단순히 2차원적으로 되어 있습니다. 단순히 당신이 질문을 하면 답을 얻을 수 있습니다. 어떻게 하면 이러한 것을 좀더 좋은 경험, 나아가서는 교류- 대화형 UI를 통해 사용자와의 마찰을 줄이고 좀더 공감을 할 수 있는 -를 만들 수 있을까요?  우리는 이러한 것을 경험으로 바꾸고 싶습니다. 엉뚱하겠지만 저는 픽업 아티스트들로부터 많은 것을 배울 수 있다고 생각합니다.

저는 결혼하기 전에 네일 스트라우스의 “The Game”[3]을 읽었습니다. 이 책은 2005년에 쓰여졌고 많은 논쟁을 일으켰습니다.  네일은 Rolling Stone지의 기자로 픽업 아티스트의 세계에 집중하였습니다. 그는 따분한 기자에서 소셜 기술을 이용하여 여성과 장난삼아 연애하거나 친구가 될수 있는 사람이 되었습니다. 이 기술이 도덕적으로는 의문의 여지가 있지만, 모르는 사람과 대화를 하기 위한 체계적 방법을 강조하였습니다. 다음은 대화형 UI 설계자가 픽업 아티스트로부터 배울 수 있는 몇가지 것들입니다.

  1. The Opener  낯선 사람들이 모여있는 곳으로 걸어갔을 때, 픽업 아티스트는 대화의 시작을 위해 대부분의 사람들이 흥미있을만한 것을 바로 찾아냅니다. 그들은 “Opener”라는 기술을 사용합니다.
    • 시사점: 인공지능 봇은 아이스브레이커를 가지고 있지 않습니다. 대화 초기 단계에 참여를 위한 정서적 방법이 없습니다. 
  2. The Hook  저는 네일의 책 제목이 “더 게임”인 이유는 픽업 아티스트들이 어떠한 루틴을 발견했기 때문이라고 어느 정도 생각합니다. 이 경우 루틴은 특상 상황을 처리하고 관계 형성을 위해 공감대를 형성하는 방법에 대한 스크립트입니다.  픽업 아티스트의 경우 단지 음료를 제공하는 것보다 좀더 흥미있는 대화를 시작하는 것 만큼, 대화의 촛점을 목표(Target) 여성에서 남자 동료로 바꾸는 것이 아주 간단합니다.
    • 시사점: 대화형 UI의 경우 사용자가 암호를 바꾸려고 할 때, 안내 문구(처음, 중간, 시작)를 만듦으로 인해 좀더 좋은 경험을 만들어 낼수 있습니다. 만약 챗봇이 이를 알고 있으면, 대화의 중간 쯤에 “다행인 것은 컴퓨터 키보드가 동물의 발에는 반응하기 않기 때문에 강아지들은 암호를 쓰지 않아도 됩니다.”와 같은 유머 코드를 넣을 수도 있습니다.
  3. The Exchange  The Give는 동시에 다양한 결과를 만들어 냅니다. 픽업 아티스트는 그들이 숫자나 날짜에 물었을때 다양한 답변들에 대해서 알고 있고, 또 이에 대해 받아들일 준비도 되어 있습니다.  감정적인 방법으로 누군가와 계약한 후에 그들을 떠나보내게 하는 것은 그들이 다시 돌아오게 하는 가장 좋은 방법입니다.
    • 시사점: “이 구매에 대해서 아직 확신이 들지 않는다면, 2~3주 후에 제가 다시 연락드려도 괜찮을까요?”
  4. The Context  픽업 아티스트는 대화 상대가 공유된 기억과 대화가 있다면 반응도 호의적으로 될 수 있다는 트릭을 배웠습니다. 다시말해 처음 대화했던 바나 클럽으로 장소를 옮기려고 합니다.
    • 시사점: 비록 사용자들이 다양한 플랫폼을 이용해서 우리에게 접근할지라고 사용자에 대해 알 필요가 있습니다. 사용자가 당신의 인스타그램에 댓글을 남겼어도 나중에 그 사용자가 트위터를 통해 채팅할 때 누군지 알아야 합니다.

요약하자면, 대화형 UI를 개발할 때 다음과 같은 점을 명심해야 합니다.

대화를 시작하는 매력적은 방법은 무엇일까요? 당신의 대화시작 방법은 무엇인가요? 산업에 따라 다양한 방법이 있을 수 있습니다. 비밀번호를 초기화하기 위한 대화는 개 주인이 개의 개성에 따른 선물에 대한 아이디어를 얻으려고 하는 것과 많이 다릅니다.

쳇봇이 서술이 필요하는 것을 명심하십시요. 처음, 중간 그리고 마지막. 우리는 시나리오와 사용자에 따라 재사용될 수 있는 다양한 루틴을 찾고 있습니다. 이게 바로 그 게임입니다. 우리가 처리하는 루틴이 많을수록 다양한 시나리오에서 어떻게 작용하는지를 찾아내고, 어떻게 좀더 매력적이게 만들수 있는지에 대해 찾는 것이 중요합니다. 우리는 사용자가 시간이 부족하고, 유머를 기대하지 않는다는 것을 빨리 판단할 수 있기를 희망합니다. 코드 모듈과 마찬가지로 우리의 봇 혹은 서비스 스태프는 다양한 사용자 유형에 대한 루틴을 테스트하고 개선할 수록 나아질 수 있습니다. 우리는 대화의 초반부에 할인이나 판매에 대한 정보를 제공하는 것이 가장 효과적이라는 것을 루틴의 학습을 통해 알 수 있습니다. 만약에 당신이 마지막에 이런 것들을 제공한다면, 고객은 전체 거래에 대해 불신을 느끼게 됩니다.

픽업 아티스트가 좋아하는 대화를 끝내는 방법은 “The Close”라는 것입니다. 전화번호를 다 알려주고 키스하기와 같은것 말이죠. 하지만 진행됨에 따라 만날수 있는 다른 경우도 있습니다. 출고 일자를 변경하는 것과 같은 것입니다. 픽업 아티스트가 만들고 내가 “The Give”라고 부른 것과 마찬가지고 챗봇은단지 그냥 판매하는 것 외에도다양한 결과를 받아들일 수 있어야 합니다.

자 이제 우리는 소셜 기술 도구를 활용하여 사용자와의 신뢰감을 형성하여야 합니다. 과거 기억 시점을 참조하면 우리는 좀더 강한 유대감을 형성할 수 있습니다. 사용자에게 더 좋은 경험을 제공하는 많은 도구들이 있지만, 마침내 우리는 그들에게 서비스를 제공하고 있다는 점을 명심하여야 합니다. 대화영 UI는 사용자에게 재미와 매력적인 대화를 만들수 있고 이러한 관계에 대한 접근 방법을 분석함으로서 우리는 환상적인 경험을 만들어낼 수 있습니다. 그러나 여느 관계와 마찬가지로 우리는 도덕성이 견제와 균형의 필수적인 역할을 한다는 것을 염두에 둬야 합니다. 당신이 사용자가 필요하지도 않은 제품을 판매하거나 오랜 시간 동안 글자로 사람을 괴롭히는 사람이 되지 않길 바란다면요…

  1. [1]단발적 성행위를 목적으로 사람( 주로 여성)을 꼬시는 행위를 상습적으로 하는 사람들
  2. [2]애완용 강아지를 위한 선물 박스를 공급하는 서비스를 제공. 정기 구독을 통해 매월 강아지의 특성에 따라 맟춤 서비스를 제공한다.
  3. [3]한글 번역서: The Game – 발칙한 남자들의 위험하고 도발적인 작업이 시작된다.

어떻게 로봇 윤리를 규정할것인가?

로보 관련 기사를 검색하던 중 제목과 같은 인터뷰 기사를 발견하였습니다. 변변치않은 번역 솜씨로 한번 번역해보았으나 (구글 번역기의 지대한 도움을 받아가며) 여전히 좀 어렵네요. 하지만 전체적인 문맥을 이해하는데는 큰 어려움이 없었습니다. 좀더 읽어가면서 다듬어야 할 듯합니다.

원문기사: How do we regulate robo-morality?

[참고문서]


2016년 4월 영국 표준협회(British Standards Institution, BSI)는 소셜 로봇의 설계, 생산, 판매 및 사용에 대한 도덕(윤리)적 기준을 세계 최초로 발표하였습니다. “BS 8611:2016 로봇 및 로봇 장치”는 로봇의 윤리적 위험(ethical hazards)을 판단하고 관련 위험을 수용 가능한 수준으로 줄이기위한 지침을 제공합니다. BS 8611은 인간과 로봇 관계의 본질을 결정하는데 중요할 수 있습니다.  그러나 이 문서는 또한 많은 질문을 야기합니다. 보다 안전한 로봇을 설계할때 ISO 13482와 BS 8611을 같이 사용할 경우 충돌점이 없을까요? 과연 우리가 로봇 윤리에 대한 규정를 고려해야 할까요? 만약 그렇다면 어떻게 해야 할까요?

Joanna Bryson 교수(이하  BRYSON)와  Yueh-Hsuan Weng  박사(이하 WENG)의 인터뷰를 통해서 우리는 미래에 로봇-인간과의 관계를 어떻게 규정할 것인가에 대해 이야기 해보도록 하겠습니다.

일시: 2016년 12월 9일


응답인: 조안나 브라이언 (Joanna J. Bryson), 컴퓨터 공학과 교수 (University of Bath), 정보 기술 및 정책 센터 (Princeton University)

질문인: Yueh-Hsuan Weng  박사, RobotLaw.Asia 공동설립자, CLAST AI & 법률 연구 위원회 (Beijing) and 기술 및 법률 센터(Milan) 선임연구원


Q1 (WENG):  먼저 인터뷰에 응해 주신 점 감사드립니다. 먼저 당신에 대해 좀 알려주실 수 있나요?

(BRYSON): 저의 주요 연구 주제는 비교 지능 (comparative intelligence)입니다. 저는 학생 때 특히 동물 행동에 대해 관심이 있었으며, 시카고에서 행동 과학 전공으로 인문학 학사 학위를 받았습니다. 전 지금 인공 지능에 대한 박사 학위(MIT)와 두개의 석사 학위(심리학 석사,  인공지능 석사, 에딘버러)를 보유하고 있습니다. 현재는 Bath 대학에서 조교수로 있으며, Intelligent Systems group를 설립하였습니다. Artificial Models of Natural Intelligence를 개발하는 것이 현재 제 연구실의 목표입니다.

박사 과정일때 저는 휴머노이드 로봇 프로젝트에 참여하고 있었는데, 그때 사람들이 로봇이 제대로 동작하지 않음에도 불구하고, 그에 대한 도덕적 의무가 있다고 생각하는데 대해 놀라움을 금치 못했습니다. 사람의 형태이긴 했지만 그것은 단지 모터들로 이뤄진 덩어리였는데 말이죠. 전 사람들이 인공지능에 대해서 충분히 알지 못하는 것으로 생각하고 위 문제에 대하여 문서를 만들기 시작했습니다. 하지만 최근들어 느낀점은 사람들이 윤리에 대해 충분히 이해하지 못한다는 것을 깨닳았습니다. 그들은 윤리적 책임의 근원이 무엇인지에 대해 혼란스러웠으며, 인공물(로봇)의 본질에 대해 이해하지 못하였습니다.  또한 그들은 우리가 인공지능에 대해 도덕적 의무를 지키든 지키지 않던, 인공지능과 윤리를 함께 구성할 수 있음을 이해하지 못하였습니다. 나는 우리가 도덕적으로 의무화되지 않은 인공지능을 구성해야한다는 도덕적 의무가 있음을 주장하는 것으로 잘 알려졌습니다.

Q2 (WENG): 윤리적 해이(ehtical hazards)이란 무엇을 의미합니까? 속임수(Deception)와 의인화(Anthropomorphism)을 제외하고 BS 8611: 2016에 다른 도덕적 의무가 규정되어 있나요?

(BRYSON): 제가 그 문서를 외우고 있질 않고, 또 지금 다시 읽으러 가기엔 시간이 좀 부족하군요. 양해해 주시기 바랍니다. 아마도 지금 도덕적 해이(moral hazards)을 얘기하시는거겠죠? 도덕적 해이는 당신이 잘못된 행동을 하게 만들 가능성이 있습니다. 특히 저는 윤리적 지위를 인공지능에 적용하는 것을 도덕적 해이라고 주장하였습니다.  왜냐하면 이것을 이용하여 인공지능을 개발하는 제조사, 개발자, 운영자는 책임을 벗어날 수 있기 때문입니다. 이것은 군사용 무기인 경우에 더욱 분명하게 나타납니다. 우리는 군인, 지휘관과 그들에게 위임하는 정부 사이에 책임을 분산시키는데 어려움이 있습니다. 죄책감을 갖기 위해 무기를 폐기하는 것은 정직하거나 유익한 것이 아닙니다. 그러나 “친구”와 “연인”을 소유하는 것과 관련된 도덕적 해이를 생각해보면 – 만약 아이가 대부분 자신의 물건과 관련이 있다면, 배우자 또는 동료 또는 민주주의 회원과 동등한 파트너가 될 수 있도록 어떻게 성장할 수 있을까요?

Q3 (WENG): Bristol Robot Laboratory의 일부 멤버는 “Embedding Intelligence”에 관심이 있다고 하더군요. 이 개념이 왜 중요한가요? BS 8611:2016에 어떤 영향이 있나요?

(BRYSON) 죄송합니다만, 인공지능이 인터넷 또는 공유된 디지털 메모리에 연결될 때 분명히 개인정보에 대한 문제가 있다는 것을 제외하고는 인공지능이 인공물에 포함되어 있거나 클라우드를 통해 채널링되어 있는지 여부가 그다지 중요하지 않다고 생각합니다. 사실 로봇이나 다른 인공 지능에 대한 윤리적 의무가 없다는 것을 확실하게 보장하는 방법 중 제가 추천하는 방법은  이것이 유일한 복사본이 되지 않도록 하는 것입니다. 즉 항상 원격지에 백업해야 한다는 것입니다.

Q4 (WENG): 존 홀랜드 (John Holland) 교수는 “내부 모델은 시스템이 현재의 행동에 대한 미래의 결과를 미리 예측할 수 있게 해준다”라고 말씀하셨습니다.  “내부 모델”에 대한 개념을 말해 줄 수 있습니까? Passive Dynamic Robot에도 고유한 내부 모델이 있습니까?

(BRYSON) Holland 교수님이 말씀하셨듯 내부 모델은 세계를 계획하고  예측 할 수 있는 방법을 제시하는 것입니다. Rodney Brooks 교수는 인공 지능이 모델을 가져서는 안되며, 세계를 자신의 가장 좋은 모델로 사용해야한다고 주장하셨지만 사실 이것은 실용적이지 않습니다. 센서 정보에는 동물과 같은 지성을 창조 할 수 있을 정도로 세상을 분석하기 위한 정보가 부족합니다. 우리는 센서 입력을 해석하기 위한 사전 기대치가 필요합니다. 여전히 Brooks 교수는 인공지능의 천재입니다. 그는 우리가 단지 행동에 필요한 최소한의 행동만 사용한다는 것을 발견하였고 그로 인해 이 분야는 빠르게 진보할 수 있었습니다. 우리는 사람이 만약 센서 정보가 모순될 경우 재빨리 기억에서 지운다는 것과 항상 부분적인 정보를 이용하여 행동한 다는 것을 알아냈습니다. 예전까지 우리는 인공지능은 모든 지식을 가지고 있어서 항상 완벽한 계획만을 만들어 낸다고 생각했습니다만, 이제 는 그게 다루기 쉽지 않다는 것을 알았죠.

Passive Dynamic Robot이 내부 모델을 가지고 있냐구요? 아니라고 생각합니다. 동물의 보행 시스템에 대한 모델을 생각해보죠. 이것은 중력에 대한 기대치는 구체화할 수 있습니다만, 대체로 무계획이거나 제어만하죠. 그저 보행시스템의 움직임에 따라 가는 것이지, 이곳에 도착했다거나  다른 곳에서 왔음을 결코 알지 못하므로, 무엇이든 예측할 수 없습니다. 하지만 이 디자인은 세계에 대한 특별한 규칙성을 예측하기 때문에 설계자들은 보행기에 부분적으로 구현된 모델을 가지고 있습니다.

Q5 (WENG): 저는 와세다 대학의 연구자들과 함께 휴머노이드 로봇에 관한 경험적 사례 연구를 수행하였습니다. 우리는 “Tokku” 특별 구역 내에서 도로 교통, 개인 정보 보호, 원격 통신, 안전, 세금, 고속도로 교통 등에서 로봇을 규제해야 한다는 강한 요구가 있음을 발견했습니다. 그러나 로봇 윤리가 규제되어야 하는지는 분명하지 않습니다. 이것에 대한 의견이 있으십니까?

(BRYSON) 불행히도 저는 아직 당신의 연구를 읽어보진 못하였습니다. 하지만 규제에 관해서는 조금 이야기 할 수 있습니다. 규제에 대해 인식해야 할 중요한 두 가지 사항이 있습니다. 첫째, 정부는 특히 민주주의에서는 세금과 같은 의무, 독재 정부에서는 용인된 범위 내에서만 동작하는 기능과 같이 간주되어서는 안됩니다. 정부와 규제은 우리 시민이 우리의 욕구와 비전을 이뤄내기 위한 방법입니다. 기술 분야의 많은 사람들은 규제를 자유의 한계로 생각하고 실제로는 절충안을 부정적인 방법이나 긍정적인 방법으로 사용할 수 있습니다. 그러나 기술자들은 사람들이 함께 모여 일할 때 종종 협력하는 사람들의 공헌보다 더큰 공공재인 상호 이익이라는 무언가를 창출한다는 것을 이해할 필요가 있습니다. 규제에는 혁신에 정부 자원 (세금)의 투자를 의무화하는 규정이 포함될 수 있습니다. 그들은 자유롭게 할수도, 제약 할수도 있습니다. 개인정보 및 인공지능에 큰 영향을 받는 부의 분배와 같은 필수적인 문제에 대하여 시민들과 합의하는 것이 중요합니다. 네, 합의는 타협이 필요하지만, 이를 통해 평화, 안정 및 풍요를 창출합니다.

이 모든 것을 말하면서, 저는 설문조사로부터 어떠한 규제가 실제로 동작하는지에 대해 시민들이 큰 주의를 가지지 않는다는 것을 알아냈습니다. 정책과 규제는 매우 복잡하고 수세기 동안 연구되어 왔습니다. 평범한 시민들이 핵무기를 만들거나 무작위로 월드컵이나 올림픽에서 나라를 대표하도록 초안을 작성한다는 규정을 세우도록 제안하는것은 위험한 일입니다. 우리는 일반 시민들의 욕구뿐만 아니라 전문 지식을 존중해야합니다. 시민들의 두려움과 목표가 우리에게 말해주는 것은 특정 규정을 이행하는 것이 얼마나 쉽고 어렵고, 그것이 받아 들여지고 존중되어야 할 가능성이 얼마나되는지를 말해주는 것입니다. 행성에 사는 대부분의 사람들은 조상들이 여전히 자신들의 행동에 대해 우려하고 있다고 생각하지만 죽은 조상을 배우로 믿는 정책을 세우고 싶지는 않습니다. 그러나 당신이 통치하는 경우 사람들이 이것을 생각한다는 것을 아는 것은 의미가 있습니다.

Q6 (WENG) “윤리적 로봇”에 대한 당신의 정의는 무엇인가요? 우리는 로봇에게 옳고 그름을 가르쳐야 할까요? 

(BRYSON) 나는 가르치는 것보다 프로그램하는 것이 좀더 합리적이라고 생각합니다. 우리는 시민과 정부가 좋은 일을 하도록 가르치는데 어려움이 있습니다. 대부분의 행동에는 윤리적 인 결과가 있고 인공지능이 인식과 그것에 대한 추론을 할수 있도록 만드는데는 큰 문제가 없습니다. 다만 인공지능이 필연적으로 도덕적 인 결과가있는 행동을 취할 것이라고 생각한다고하더라도 인공지능을 도덕적 책임으로 생각하지는 마십시오. 영국 EPSRC Principles of Robotics에서 분명히 밝히듯이 상업 제품에 대한 책임은 제조업체 (광고 사양을 충족시키지 못하는 경우) 또는 소유자/운영자 (부적절하게 사용하는 경우)에 있습니다. 인공지능의 윤리적 구현, 예를 들면 개인의 프라이버시를 보호하거나 개인이 자율 차량으로 할 수 있는 피해를 제한하는 등 인공지능 자체는 어떠한 경우에도 책임 당사자로 지정되어서는 안됩니다.

Q7 (WENG) 아시모프의 로봇 3원칙이 HRI(Human-Robot Interaction)에서의 안전과 보안을 보장하는 규칙의 방향을 나타낼수 있다고 생각하십니까?

(BRYSON) 아시모프의 원칙은 사람들이 인공지능의 윤리에 대해 어떻게 생각하는지 영향을 줍니다. 5개의 로봇 원칙(Principles of Robotics)중 3개는 아시모프의 원칙에 영향을 받았습니다. 그러나 우리는 이러한 원칙이 인공지능 윤리를 위해 필요하거나 충분하지 않다는 것을 사람들에게 알리기 위해 열심히 노력하고 있습니다. 우선, 아시모프의 법칙은 다루기가 어렵습니다. 책에 설명 된대로 구현하는 것은 계산 상으로 불가능합니다. 우리는 우리 행동의 모든 결과를 결코 알 수 없습니다. 둘째, 책 자체는 원칙이 진정으로 도덕적 인 행동을 만들기에 불충분하다는 것을 반복적으로 보여 주며, 그것은 단편 소설의 재미일뿐입니다. 셋째, 대부분의 공상 과학 작가들과 마찬가지로 아시모프는 인공지능을 인간의 입장에서 사용하고 로봇이 인간이 될수 있는지 검사합니다. 이 법칙은 로봇을 책임감있는 당사자로 묘사합니다. 이것이 바로 제가 이전에 얘기한 실수입니다.

Q8 (WENG) 로봇이 합법적인 사람이 되지 않아야 한다는 것에 대해 동의 하시나요? 그렇다면 왜죠?

(BRYSON) 저는 사람들이 로봇을 합법적인 사람으로 만들어 줄지 확신하지 못하겠습니다. 그러나 저는 그렇게 해서는 안되며, 장기적으로는 그렇지 않을 것이라고 확신합니다. 법적인 사람은 인간 정의의 대상이되는 것입니다. 나는 잘 설계된 시스템에서 인간의 처벌에 내재한 종류의 고통을 만들 수 있다고 믿지 않습니다. 로봇이나 인공 지능이 시간이 지남에 따라 수치와 고통, 후회를 알 필요가 없습니다. 이러한 것들은 인간이 되기 위한 내재적 요소이며, 우리는 이러한 우려가 부족한 사람들이 정신적으로 건강하다고 생각하지 않습니다. 우리가 사회 생물체로 진화했고 우리의 지능으로부터 이러한 특성을 추출 할 수있는 방법이 없기 때문입니다. 그러나 잘 설계된 인공 지능은 모듈식으로 설계자가 고의로 추가한 모든 것을 제거할 수 있습니다. 이것이 인공지능이 합법적인 사람이되는데는 일관성이 없는 이유 중 하나입니다. 또 다른 이유는 인간과 같은 인공지능  또는 로봇의 개별 단위가 없다는 것입니다. 우리는 뇌가 죽거나 결합 된 쌍둥이 인 사람들이 약간의 어려움을 겪을지라도 인간이되는 것이 무엇인지 압니다. 그러나 인공 지능은 인간처럼 깔끔하게 계산 될 수 없으므로 사람과 같이 로봇에 과세한다는 아이디어는 우스꽝스럽습니다. 그리고 다시, 그것은 도덕적 해이입니다. 로봇을 사용하기로 결정한 회사는 로봇이 무엇이든 상관없이 합법적이고 경제적인 책임을 져야합니다. 과학 소설에 대한 우리의 사랑이나 완벽하고 순종적인 사이버 “어린이”를 만들고자하는 우리의 깊은 열망으로 인해 그들이 책임에서 벗어나게해서는 안됩니다.

Q9 (WENG) 박사님의 얘기에서 “잘 설계된 로봇”의 정의가 어떻게 되나요?

(BRYSON) 로봇은 로봇을 생산하는 회사가 자신의 행동에 대해 전적으로 책임을 지도록하고, 정부가 인류 사회에 안전하다고 판단하여 기꺼이 면허를 발동 할 경우 잘 설계된것입니다. 일부 기업은 많은 국가보다 많은 자원을 보유하고 있기 때문에 두 번째 요구 사항이 필요합니다. 따라서 개인 시민이 받지 않기를 희망하는 위험을 기꺼이 받아 들일 수 있습니다.

Q10 (WENG) 마지막으로 다음 10 년 동안 인간-로봇 공존 사회를 개발하는 데 가장 큰 도전은 무엇입니까?

(BRYSON) 우리에게는 여전히 많은 도전이 있습니다. 제 생각으로 우리는 사이버 보안을 해결하기 전에 로봇 기술 및 물리적 안전 문제는 해결할 수 있을 것입니다. 저는 우리가 이미 갖고 있는 인간 사회와 인간 자치권에 어떤 영향을 미칠것인지에 대해  충분히 이해하지 못했다고 생각합니다. 한 번에 많은 것들이 변하기 때문에 이것을 측정하는 것이 어렵습니다. 우리는 또한 기후 변화, 인류 수의 엄청난 증가, 의사 소통의 문제 등 많은 문제를 안고 있습니다. 우리는 현재  소득 불평등과 정치 양극화의시기에 있습니다. 일부 사람들은 인공지능에 대한 책임이 있다고 생각합니다. 그러나 실제로 이것은 불과 한 세기 전에 일어난 일이며 아마도 두 번의 세계 대전과 큰 우울증에 기여했을 것입니다. 따라서 우리가 어떻게 서로에게 영향을주고 우리의 행성과 건강을 해치는 지 이해하는 것이 이 질문에 답이 되지 않을까합니다.