강: “도덕적 갈등” 열한 번째 시간이에요. 저번엔 도덕적 갈등상황에서 우리 대신 결정을 내려줄 알고리듬을 개발해도 판단할 문제가 여전히 남는다는 말씀을 하셨어요. 

샘: 그랬죠. 도덕적 의사결정은 컴퓨터로 해결할 수 없다고 했죠. 

강: 그래도 의사들이 경험한 도덕적 딜레마 사례들을 자료로 잘 모아두면 어려운 결정을 내려야 하는 의사가 참조해서 도움을 받을 수는 있겠죠? 일일이 다 기억할 순 없으니까요.  

샘: 그래도 결정상황에 직면해서 그 상황을 헤쳐 나갈 수 있도록 무장이 잘 되게 해줄 뿐이지 문제를 회피하고 컴퓨터에 의존한다고 해결이 나지는 않아요. 

강: 예, 선생님. 그러니까 짐을 견디게 해 줄 뿐 짐을 덜어내진 못한다는 말씀이시죠.  

샘: 그렇죠. 그러니 그 학생이 제아무리 원대한 포부를 가지고 ‘도덕 알고리듬’을 프로그래밍해보겠다고 해도 회피행동이라고 할 수밖에 없어요.  

강: 그러면요 선생님. 도덕규칙에 기대는 건 어떤가요? 현실상황에서 의사결정을 내릴 때에 도움이 되라고 있는 도구가 도덕규칙이잖아요?  

샘: 그러면 이제 도덕규칙 하나를 예로 들어서 생각해봅시다. “죽여서는 안 된다.”를 봅시다. 어떻습니까? 이 규칙에 반대할 사람이 있을까요? 

강: 당연히 누구나 동의할 것입니다.

샘: 그런데 그 규칙을 확고부동하게 믿는 사람도 거의 없지 않나요? 국방이나 자기방어나 또 경우에 따라서는 산모를 살리기 위해서 태아가 죽는 것을 내버려두는 상황 등 그대로 적용하지 못할 상황들이 많으니까요.  

강: 예. 그렇다고 그 규칙이 안 믿어지기라도 하는지는 모르겠어요. 선생님.    

샘: 규칙이 약해지죠, 그렇죠? 목숨을 앗아가는 결과를 초래하는 행위가 정당화가능한 상황이 있다는 사실을 믿지 않을 사람이 거의 없잖아요! 

강: 네, 그게 절대적인 규칙은 아니라는 뜻으로요. 그게 약해지는 건지는 모르겠어요.

샘: 정당화가능한 상황이 있다는 걸 믿는다면 규칙을 수정해야죠. “정당화할 근거가 없이 사람의 죽음을 초래해서는 안 된다.” 결국 정당화할 수 있다는 것이죠. 

강: 예, 거기에는 반대하지 않습니다.  

샘: 거리를 걷다가 휘파람을 불 수 있죠? 작정만 하면 할 수 있고 그만큼 자유롭죠. 

강: 예.

샘: 그렇지만, 다른 이의 죽음을 초래하는 행위는 자유롭게 할 수 없는 거죠. 

강: 예, 뭐 그건. 근데 갑자기 왜 휘파람과 살인을 비교하시는지 일단 법도 그렇고요. 

샘: 그런데, 봐요. 그런 법이 철폐된다는 가정을 해 봅시다. 그런 경우가 생길지언정 정당한 사유 없이 사람의 죽음을 초래하는 행위는 여전히 비도덕적인 일이죠. 

강: 아, 그러니깐 선생님의 주장은 그 도덕규칙의 본질이 ‘죽음을 초래한 행위에는 정당한 이유가 반드시 있어야 한다’ 이 말씀이죠? 

샘: 그렇습니다. 그런데 내가 이 뻔해 보이는 도덕규칙에 대해 무슨 이야기를 하려는 건지 그걸 잘 생각해봐요.  

강: 예! “알고리듬은 의존할 수 없다. 그렇다면 도덕규칙은 어떤가?” 이 질문을 배경으로 해서 하시려는 말씀이 뭔지 잘 생각해봐야겠네요. 

 

(다음호에 계속)

저작권자 © 덴탈뉴스 무단전재 및 재배포 금지