안녕하세요 전주 코딩입니다.
요즘 인공지능이라는 말을 모르는 사람은 없을 거예요.저와 코딩 공부를 하고 있는 초등학생들도 인공지능 공부를 하자고 합니다.ㅋㅋㅋㅋ
인공지능의 역사를 살펴보면 두 번의 침체기가 있었습니다.기술적인 문제, 윤리적인 문제 등의 이유로 침체기가 있었네요.
그러나 2021년 현재 기술의 발전으로 인공지능은 매우 발전하고 있으며 인공지능 시대라고 불릴 정도로 생활 곳곳에 우리의 생활을 편리하게 해주고 있습니다.그럼에도 불구하고 여전히 도덕적으로 해결해야 할 상황은 많이 있습니다.
오늘 전주코딩은 인공지능 기술 중 자율주행 관련 글을 올리려고 합니다.자율주행을 위해서는 방대한 양의 빅데이터가 필요합니다.운전 중에 직면하는 이벤트는 다양하니까요.
여러 상황 속에서 피할 수 없는 사고 상황에서 자율주행차가 도덕적 딜레마를 어떻게 해결해야 하는지에 대해 결정하기란 쉽지 않을 것입니다.
이것을 트롤리 딜레마라고 합니다.트롤리 딜레이머
트롤리 딜레마란 윤리학 분야의 사고 실험으로 5명을 구하기 위해 1명을 죽이는 것이 도덕적으로 허용 가능하냐는 질문이다.영국 철학자 필리파 풋(Philippa Foot)과 미국 철학자 주디스 자비스 톰슨(Judith Jarvis Thomson)이 고안한 사고 실험에서 다음과 같은 윤리적 딜레마를 말한다.
사례 트롤리 사례: 트롤리 전철이 철도 위에서 일하고 있는 5명의 인부들을 향해 빠른 속도로 돌진한다. 당신은 이 트롤의 방향을 오른쪽으로 바꿀 수 있는 레일 컨버터 옆에 서 있다. 당신이 트롤리의 방향을 오른쪽으로 바꾸면 오른쪽 철도에서 일하는 한 노동자는 죽게 된다. 이런 선택은 도덕적으로 허용되는가.
육교 사례 : 트롤리가 철도 위에서 일하고 있는 근로자 5명을 향해 빠른 속도로 달린다. 당신은 선로 위의 육교에서 이 상황을 바라보고 있다. 트롤리를 멈추려면 큰 것을 전철 앞에 던져야 한다. 마침 당신 앞에 덩치가 큰 사람이 난간에 기대어 아래를 보고 있다. 트롤리를 세우려면 그 사람을 밀어야 해. 떨어진 사람 때문에 트롤리가 멈추고 철도에서 일하던 노동자 5명의 목숨을 구할 수 있다. 이런 선택은 도덕적으로 허용되는가.[네이버 지식백과] 트롤리 딜레마 [Trolley Dilemma] (두산백과)
트롤리 딜레마(트롤리 사례)
트롤리 딜레마(육교 사례)의 여러분이라고 해서 이런 상황에서 어떤 것을 선택할까요?정말 어려운 문제인 것 같아요.
하지만 자율주행을 위해서는 뭐든지 선택해야겠죠?
그래서 오늘 전주 코딩은 트롤리 딜레마를 경험할 수 있는 사이트를 소개해 드리도록 하겠습니다.
모럴 머신이라는 사이트입니다.
인공지능에 의한 윤리적 판단에 대해 인간적 관점을 일반 대중이 참여와 토론을 나눌 수 있는 공간입니다.www.moralmachine.net
모럴머신은 MIT 라황 교수가 대규모 데이터를 수집하기 위해 제작한 플랫폼입니다.
총 13개의 질문에 답할 수 있으며 결과를 다른 사람의 질문과 비교할 수 있습니다.전주 코딩에도 참여했지만 쉽게 결정할 수 있는 상황이 없었어요.
인공지능이 우리 생활을 편리하게 하는 것은 틀림없지만 윤리적인 측면의 위험도 감수해야 한다는 것을 아이들에게도 반드시 인지시켜야 한다는 생각이 들었습니다.
모럴머신 사이트에 가면 요즘 코로나19로 인한 윤리적인 문제에 대해 답변할 수도 있으니 참여해 보시면 좋을 것 같습니다.
이상 전주코딩 인공지능 자율주행 트롤리 딜레마를 체험할 수 있는 모럴머신을 소개했습니다.다음에 또 만나요~~~~~~