윤리적 문제 예시 - yunlijeog munje yesi

의료 윤리문제 죽어가는 환자가 살인을 고백한다면 [1210]

죽어가는 환자가 수십 년 전에 사람들을 죽였다고 고백하면 의사는 어떻게 해야할까? 이것은 뉴질랜드에 기반을 둔 저자인 Laura Tincknell과 동료들이 Journal of Clinical Ethics에 실린 사례 보고 논문에서 제기 된 질문임.

이 사건의 사실은 매우 간단함. 암을 앓고 있는 70세의 남성이 사망에 임박한 것으로 예상되는 상황에서 심한 통증으로 병원 완화의료 병동에 입원했음. 담당 의사가가 진찰을 하고 있는 동안 그는 "자신의 삶과 그가 선택한 사항 중의 일부"에 대해 이야기하기를 원했음.

그가 말한 내용이 기밀로 유지될 것이라는 확신을 얻은 후, 환자는 청년기에 갱단에 연루되어 있었고, 계약 살인(청부 살인)에서 '여러 명'을 살해했다고 얘기했음. Tincknell과 동료들에 따르면, "그는 이 사람들의 시체가 발견되지 않았을 수도 있다고 생각했다." 환자는 그가 한 일에 대해 죄책감을 표하며, 그의 인생의 지난 40 년간을 그의 범죄에 대해 속죄하려고 애썼다고 말했음.

이 자백은 환자에게 큰 위로를 주는 것 같아서, 환자의 상태와 통증이 상당히 개선되었음. 그는 의사들이 그가 말한 것을 공유해도 좋다는 동의는 거부했지만, 환자는 "사망한 후 경찰에게 전달하기 위한" 정보가 담긴 서신을 써 줄 것을 약속했음. 그는 6주 후 다른 시설에서 사망했음. 편지가 쓰여졌는지 아닌지는 알려지지 않았음.

이 사례에서 명백하게 의료 윤리, 기밀 유지 및 정의에 대한 질문이 제기됨. 의료 윤리학자와 변호사 그리고 완화 의료 전문의를 포함하는 저자들의 공감대는 그의 평생 동안 환자의 기밀 유지를 위반하는 것이 비윤리적이고 불법적이라는 것임.

의료의 기밀성에서 허용된 규범은 환자 또는 다른 사람들에게 해를 끼치는 것을 방지하기 위해 필요한 경우에만 동의 없이 공개 될 수 있다는 것임. 이 사례에서 환자의 범죄는 수십 년 전에 발생했으며, 환자의 상태로는 범죄가 재발할 가능성이 거의 없음. 따라서 기밀성을 위반해서 경찰에 정보 등을 공유하는 것이 해를 방지하는 것은 아님.

Tincknell 등은 환자가 사망 한 후에도 정보를 공유하는 것이 여전히 잘못 될지 여부를 논의를 계속 함. 생명 윤리 학자는 사후 공개가 "윤리적으로 허용 될 수 있다"고 주장함. 변호사는 혼합된 논증을 했음: 법원은 기밀성에 대한 원래 법적 의무가 사망 후에도 여전히 남아 있다고 결론을 내릴 것이라고 말했지만, 그 공개는 공익의 근거로 정당화될 수도 있다고 함. (: 미해결 사건에 대한 조사 지원).

의사들은 결국 사망 한 후 환자의 고백에 대해 경찰에게 말한 것 같음. 적어도 변호사가 의미한대로 "의료팀은 공개를 허락받긴 했지만 공개할 의무는 없다. 재량권이 행사된 것"에 해당되었다고 봄.

이 사례가 대단히 흥미로운 사례인 이유는 Tincknell 등이 거짓 고백을 했을 가능성을 고려하지 않았다는 점이다. 그들의 논의는 환자가 실제로 살인자라는 가정에 근거함. 그러나 때로는 사람들이 저지르지 않은 범죄에 대해 고백함. 이 현상의 심리는 불분명하지만, 살인 사건에서 조차도 자발적인 거짓 자백이 발생하는 것으로 알려져 있음.

이 환자의 자백이 거짓일 가능성이 크다고 말하는 것이 아님. 그러나 그 가능성은 존재하며, 이 사례에서 윤리적 문제와 관련 있다고 생각함. 환자는 살인자 (그리고 정의를 벗어난 사람)이므로 기밀 유지 권리를 상실한 것으로 간주함. 이 견해는 많은 사람들에게 설득력이 있을 수 있지만, 실제로 환자가 살인자가 아닐 경우에는,  이 사례가 환자의 기밀성을 존중해야 한다는 원칙을 강화시키는 논거가 됨. 

* 기사 원문보기:

http://blogs.discovermagazine.com/neuroskeptic/2018/11/18/patient-confesses-murder-ethics/#.XBYYz-R7mhd

* 관련 논문:

https://www.ncbi.nlm.nih.gov/pubmed/30226817

* 사진출처: STAT

Part2. aI 윤리 문제 사례

① 알고리즘 도덕성 문제 : 내 여자친구가 고릴라?

  인공지능의 알고리즘이 갖는 불완전성과 내재적 모순으로 인해 우리 주변에 다양한 위협이 발생할 수 있습니다. 알고리즘의 도덕성 문제 사례를 살펴봅시다.

윤리적 문제 예시 - yunlijeog munje yesi
여자친구의 사진을 고릴라로 분류한 AI (출처: 픽사베이)

  구글 자동인식 프로그램이 뉴욕의 한 흑인 여성을 고릴라로 자동 분류하였습니다남자친구였던 프로그래머 재키 앨신은 이 사실을 트위터에 공개적으로 비판하고 구글에서는 공개적으로 사과 후 긴급 패치로 문제를 해결했습니다

② 로봇의 판단 오류 - 난 위험인물이 아냐!

  위에서 언급한 인공지능의 알고리즘이 갖는 불완전성과 내재적 모순으로 인해 나아가서는 인명 피해까지 일어날 수 있습니다. 인공지능과 로봇의 판단 오류로 일어난 인명 피해 사고를 알아봅시다. 

윤리적 문제 예시 - yunlijeog munje yesi
사람을 공격한 AI (출처: 픽사베이)

  2016년 7미국 캘리포니아 쇼핑센터에서 보안 로봇이 16개월 유아를 공격하는 일이 발생했습니다, 2013중동 예멘에서 결혼식장으로 향하던 차량이 갑작스러운 무인기 공격을 받아 10명이 사망하는 일이 발생했습니다(사진 출처 : 픽사베이)

③ 윤리적 딜레마 : 누구를 살리냐, 그것이 문제로다

  인공지능이 인간이 하던 일의 많은 부분을 대체하고 있습니다. 이에 따라 그동안 인간에게 있었던 행동의 책임을 인공지능에게도 부여할 수 있을 것인지가 논의되고 있습니다.  인공지능에게 의사결정권을 얼마나 부여하고 또 어떻게 인간 사회의 가치와 법칙을 존중하도록 설계할 것인가가 핵심 화두로 떠오르고 있는 것입니다. 자율주행차가 가지는 윤리적 딜레마를 살펴보며 생각해봅시다.

윤리적 문제 예시 - yunlijeog munje yesi
자율주행차의 딜레마 (출처: 픽사베이)

  자율주행차는 돌발 위험 발생 시 자기희생’ 모드와 자기보호’ 모드 중 선택의 딜레마에 빠집니다자기희생 모드는 탑승자가 사망하더라도 다수의 보행자를 보호하고자기보호 모드는 탑승자의 보호를 위해 다수의 보행자를 칩니다만약 자기희생 모드를 법적으로 강제할 경우 아무도 자율주행차를 이용하지 않을 것입니다

④ 프라이버시 문제 : 스피커는 모든 것을 알고 있다

  현재 상용화되고 있는 인공지능 개인비서 서비스(구글의 알로(Allo), 아마존 에코(Echo), 에이수스 젠보(Zenbo) 등)는 사용자의 연락처, 대화 내용, 집안 모습 등 개인정보에 대한 접근 및 저장이 필요한 서비스입니다. 비서인 동시에 감시자가 될 가능성이 존재하는 것이죠.  해킹됐을 경우 사용자의 상세한 개인정보가 실시간으로 유출되는 심각한 프라이버시 침해 가능성이 있습니다. 인공지능의 프라이버시 문제 사례를 살펴봅시다.

윤리적 문제 예시 - yunlijeog munje yesi
개인정보에 접근하는 AI (출처: 픽사베이)

  2015년 11미국 아칸사스주에서 일어난 살인사건을 수사하는 경찰은 용의자가 보유하고 있는 아마존 에코 음성비서인 알렉사의 녹음자료를 요청했습니다서비스를 위해서 개인정보를 제공할 수밖에 없는 인공지능 서비스지만 개인정보가 실시간으로 유출되고 있다는 사실!

⑤ 사용자의 윤리 : AI가 범죄와 살상에?

  인공지능 기술이 사회 혼란 및 범죄, 전쟁 등 악의적인 목적으로 사용될 가능성에 대한 문제가 있습니다. 또, 일부 사람들이 인공지능 채팅봇에게 대화 내용을 악의적으로 학습시키는 조직적 공격이 발생할 수 있습니다. 실제로 인공지능 채팅봇이 부적절한 말을 학습하여 사회에 물의를 일으켰던 사례를 살펴봅시다.

윤리적 문제 예시 - yunlijeog munje yesi
부적절한 말을 학습한 AI (출처: 픽사베이)

  백인 우월주의자와 여성무슬림 혐오자들이 MS 인공지능 채팅봇 테이에게 인종성차별 발언을 학습시킨 일이 발생했습니다테이는 대량학살을 지지한다”, “깜둥이들을 증오한다.” 등의 부적절한 말을 쏟아냈습니다미국 댈러스에서는 2016년 7총격사건 제압에 폭탄 로봇이 사용되면서 경찰에 의한 킬러로봇의 공식적인 사용 선례를 남긴 사건이 있었습니다

⑥ 책임성 문제 : AI에게 책임이 있을까?

  인공지능과 로봇이 법적·도덕적 책임이 부여된 의사결정권을 행사하는 것에 대한 우려와 책임소재 관련 논란이 떠오르고 있습니다. 또 자율적 의사결정을 통한 행위를 수반하는 인공지능/로봇의 법적 지위와 행위 책임에 대한 논의가 진행되고 있습니다. 다음 사례를 통해 AI에게도 책임이 있는 것인지 생각해봅시다.

윤리적 문제 예시 - yunlijeog munje yesi
AI의 책임성 문제 (출처: 픽사베이)

  인천 길병원이 IBM의 왓슨을 도입한 이후 진료를 수행한 85명의 환자들은 의료진의 처방과 왓슨의 처방이 다를 경우 대부분 왓슨의 처방을 선택했다고 합니다의사가 내린 진단 결과와 배치되는 인공지능의 진단 결과를 수용하는 게 맞는 걸까요? 또외국에서는 자율적 판단을 수행하는 인공지능에 대하여 행위자로서의 법적 존재를 인정하기 시작했습니다미국 도로교통안전국은 구글의 자율주행 시스템이 사람처럼 연방 법률에 규정된 운전자로 볼 수 있다고 판단했습니다.

⑦ 인간 고유성 문제 : 인공지능 화가와 작가?

  인공지능의 창작물로 인한 인간 고유의 영역 침해에 대한 우려와 인격화된 인공지능/로봇으로 인한 가치 혼란 문제가 떠오르고 있습니다. 인공지능 화가, 작곡가, 소설가 등장으로 인간의 창의력, 통찰력 등 고유의 영역을 침범하고 있을 뿐 아니라 예술 작품의 가치 질서를 흔드는 문제까지 발생하고 있습니다. 인간 고유성의 관한 문제 사례를 살펴봅시다.

윤리적 문제 예시 - yunlijeog munje yesi
렘브란트의 그림 (출처: 픽사베이)

  MS, ING, 델프트 기술대, 네덜란드의 두 박물관이 공동으로 진행한 넥스트 렘브란트 프로젝트를 통해 렘브란트의 화풍을 모방해 그대로 작품을 제작하는 기술을 개발했습니다. 또 인공지능 작곡가 ‘보이드’가 등장하고 인공지능이 쓴 소설이 일본 문학상 1차 심사를 통과하는 데 성공했습니다. 

⑧ 인공지능 포비아 : 인공지능이 지배하는 세상

  초인적 지능이 탑재된 기계가 인간을 대체하거나 인간의 삶을 제어할 수 있다는 공포감과 거부감이 등장하고 있습니다. 과거 SF 영화에서 주로 등장하는 인공지능은 인간의 통제를 벗어나 위협과 막연한 공포감이 계속돼왔는데, 최근 알파고와 같이 인간의 능력을 훨씬 초월하는 인공지능의 실체가 드러나면서 공포감은 구체화 되고 있습니다. 더 나아가 인공지능이 기존의 일자리를 대체할 것이라는 전망이 등장하면서 우려와 공포는 점차 증가하고 있습니다. 이러한 문제 사례를 살펴봅시다.

윤리적 문제 예시 - yunlijeog munje yesi
인간의 일자리를 대체하는 AI (출처: 픽사베이)

  옥스퍼드 마틴 스쿨(Oxford Martin School)에서는 컴퓨터화될 위험에 처한 일자리 수와 일자리 대체 확률 등을 분석한 결과 전체 미국 고용의 약 47%가 컴퓨터화될 위험에 처해 있다고 발표했습니다. 또 2016년 2월 미국 워싱턴에서 개최된 미국 고등과학협회(AAAS) 연례 미팅에서 모셰 바르디 교수는 “200년 전 산업 혁명이 시작된 이래 우리가 목격했던 것과 전혀 다른 작업장 혁명이 로보틱스와 인공지능에 의해 빚어질 것”이라고 전망했습니다. 

책임성은 인공지능과 로봇이 내린 판단과 행동에 대해 누가 어떻게 책임을 질 것인가에 관한 것입니다.

Please select 2 correct answers

Correct! Wrong!

책임성은 인공지능과 로봇이 내린 판단과 행동에 대해 누가 어떻게 책임을 질 것인가에 관한 것입니다.

가천대 길병원은 국내 의료기관 중 최초로 IBM의 인공지능시스템 왓슨을 도입하였습니다. 도입 이후에 인간 의료진과 왓슨의 의견 일치율은 항상 일치합니다.

Correct! Wrong!

도입 이후에 인간 의료진과 왓슨의 의견 일치율은 점점 올라가고 있지만, 여전히 의료진의 처방과 왓슨의 처방이 다른 경우가 발생하고 있습니다.

모럴머신(Moral Machine)은 자율주행 자동차에서 발생하는 윤리적 딜레마에 관한 자료를 수집하는 사이트입니다.

미국의 MIT 대학교 미디어랩에서는 모럴머신(Moral Machine)이란 웹사이트를 만들어 자율주행 자동차에 대한 윤리적 판단에 대한 사례를 수집하고 있습니다.

Show hint

Correct! Wrong!

모럴머신(Moral Machine)은 자율주행 자동차에서 발생하는 윤리적 딜레마에 관한 자료를 수집하는 사이트입니다.