Skip to content

AIFocus | AI Insights

AI관련 기술/비즈니스전략을 연구하고 인사이트를 제시합니다.

cropped-cropped-ChatGPT-Image-Aug-8-2025-07_44_35-PM.png
Primary Menu
  • Business
  • Tech
  • Opinion
  • Korea Watch
  • Home
  • Opinion
  • 트롤리 문제, 자율주행차가 남긴 질문
  • Editor's
  • Opinion

트롤리 문제, 자율주행차가 남긴 질문

Jono Hey, Sketchplanations
Tigris Lee 2025년 09월 10일
image

글 한눈에 보기

Toggle
  • 1. 일상에서 발생하는 선택의 순간
  • 2. 트롤리 문제란 무엇인가
  • 3. Moral Machine Experiment
  • 4. 생각해볼 문제

1. 일상에서 발생하는 선택의 순간

우리는 매일 크고 작은 선택을 반복하게 됩니다. 점심에 무엇을 먹을지, 약속에 나갈지 말지를 고민하는 일상적인 선택은 대체로 가볍게 지나갑니다. 그러나 이런 작은 선택 속에서도 나의 성향과 가치관이 드러나 보입니다. 예를 들어 선배와 후배가 사소한 문제로 다툴 때, 누구의 말을 들어줄 것인지 고민하게 됩니다. 혹은 아들과 딸이 서로 잘못을 주장할 때, 어느 쪽의 편을 들어야 할지 순간적으로 판단하게 됩니다.

이처럼 우리는 무심코 ‘편들기’의 상황에 놓이게 되고, 그 선택은 관계를 풀어주기도 하고 갈등을 더 키우기도 합니다. 작은 문제처럼 보이지만 사실은 나의 기준에 따라 선택을 하고, 누군가는 그 선택에 따라 기분이 나쁘거나 좋아질 수 있습니다. 그런데 만약 이러한 선택의 상황을 조금 더 복잡하게 꼬아 보면 어떻게 될까요? 자동차를 운전하고 가는데 브레이크가 고장 났고, 오른쪽에는 고양이가 있고 왼쪽에는 강아지가 있다면, 어떤 방향으로 핸들을 돌려야 할까요?

선택의 상황은 곧 복잡한 문제로 바뀌게 됩니다. 더 나아가 고양이가 아니라 사람이면, 1명이 아니라 여러 명이면, 그리고 내가 운전하는 것이 아니라 자율주행 중이었다면 고민은 훨씬 무거워집니다. 이렇게 생각을 넓혀 보면 단순한 선택이 단숨에 본질적인 문제로 바뀌게 됩니다. 철학자와 사회학자들은 ‘트롤리 문제’라는 주제로 이러한 논의를 오랫동안 진행해 왔습니다. 그동안 사람이 주체이던 논의에 최근 AI와 로봇이 새로운 주제로 등장하면서, 논의는 더 복잡하고 진지하게 발전하고 있습니다.

2. 트롤리 문제란 무엇인가

일상의 작은 편들기에서 출발한 고민은 이제 철학 교과서 속의 대표적 사고실험으로 이어집니다. 바로 ‘트롤리 문제’라 불리는 장면입니다. 상황은 단순합니다. 달리는 전차가 선로 위에 묶여 있는 다섯 명을 향해 돌진하고 있습니다. 그 옆에는 다른 선로가 있고, 그곳에는 한 사람이 있습니다. 만약 내가 스위치를 당겨 전차를 다른 선로로 돌린다면 다섯 명은 살지만 한 명이 희생됩니다. 아무것도 하지 않으면 다섯 명이 목숨을 잃게 됩니다. 질문은 간단합니다. “당신은 레버를 당기겠습니까?”

이 질문은 단순한 듯 보이지만 사람들의 반응은 다양합니다. 많은 이들은 다섯 명을 살리기 위해 한 명을 희생하는 것이 옳다고 답합니다. 하지만 상황이 조금만 바뀌면 고민은 훨씬 복잡해집니다. 예를 들어 다리를 건너던 당신 옆에 아주 덩치 큰 남자가 서 있습니다. 전차를 멈출 유일한 방법은 그 남자를 밀어 떨어뜨려 전차를 막는 것입니다. 결과적으로 다섯 명은 살지만, 직접 누군가를 죽여야만 합니다. 이른바 ‘Fat Man’ 변형에서 대부분의 사람들은 선택을 주저하거나 거부합니다. 단순히 스위치를 당기는 것과 직접 손을 대어 사람을 죽이는 것 사이에는 심리적으로 큰 간극이 있기 때문입니다.

이 외에도 여러 변형 사례가 존재합니다. 폭도들이 특정인을 희생하지 않으면 다수를 해치겠다고 위협하는 경우, 조종사가 비행기를 덜 인구가 많은 지역으로 몰아야 하는 경우 등이 있습니다. 겉으로는 비슷해 보이지만 사람들의 판단은 매번 달라집니다. 결국 트롤리 문제는 단순히 “몇 명을 살릴 것인가”라는 수학적 계산의 문제가 아니라, 인간이 책임과 의도, 감정과 도덕을 어떻게 다루는가에 관한 문제로 확장됩니다.

흥미로운 점은, 이 문제가 단지 철학 교실에 머무르지 않았다는 사실입니다. 2000년대 이후 심리학과 뇌과학 연구는 사람들이 트롤리 문제에 어떻게 반응하는지 실험을 통해 탐구했습니다. 스위치를 당기는 상황에서는 이성적 판단 영역이, 사람을 직접 밀어야 하는 상황에서는 감정을 관장하는 영역이 더 강하게 반응한다는 결과가 제시되었습니다. 즉, 사람들은 이성적 계산과 감정적 반응 사이에서 끊임없이 줄다리기를 하며 판단을 내리게 됩니다.

이처럼 트롤리 문제는 인간의 도덕적 직관과 사고방식의 차이를 드러내는 창이 됩니다. “무엇이 옳은가”라는 질문에 대한 우리의 한계와 모순을 비추어 주고, 철학자·심리학자뿐 아니라 법학자와 인공지능 연구자들까지 이 문제에 주목하도록 이끕니다. 자율주행차와 같은 AI 기술이 실제 도로 위에 등장하면서 트롤리 문제는 현실에서 반드시 풀어야 할 과제가 되고 있습니다.

3. Moral Machine Experiment

철학적 질문은 기술의 발전과 함께 현실의 질문으로 바뀌게 됩니다. 실제 도로 위에서 자율주행차가 사람의 생명을 두고 선택해야 하는 순간이 찾아올 수 있기 때문입니다. 이를 본격적으로 연구하기 위해 MIT 미디어랩은 전 세계인을 대상으로 흥미로운 온라인 실험을 진행했습니다. 바로 Moral Machine Experiment입니다.

방식은 간단하면서도 직관적입니다. 웹사이트 참가자는 다양한 교통사고 상황을 마주합니다. 화면에는 자율주행차가 멈출 수 없는 상태로 달리고 있고, 두 가지 선택지가 제시됩니다. 직진하면 보행자가 다치고, 방향을 틀면 차 안의 승객이 다칩니다. 참가자는 둘 중 어떤 결과가 더 낫다고 생각하는지 클릭합니다. 이렇게 축적된 데이터는 상상 이상의 규모가 되었습니다. 무려 233개국에서 230만 명 이상이 참여했고, 약 4천만 건의 선택이 기록되었습니다.

연구의 구조는 단순한 “한 명 대 다섯 명”의 문제가 아니었습니다. 연구진은 아홉 가지 주요 요소를 설정했습니다. 사람과 동물 중 누구를 살릴 것인가, 보행자와 승객 중 누구를 우선할 것인가, 법규 준수와 위반 중 누구를 살릴 것인가, 젊은 사람과 노인 중 누구를 우선할 것인가 등이 포함되었습니다. 또한 성별, 건강 상태, 사회적 지위 등 현실적 속성도 반영되었습니다. 참가자들은 이러한 상황에서 본능적으로 혹은 숙고 끝에 버튼을 눌렀고, 그 선택들이 방대한 데이터로 쌓였습니다.

결과는 흥미롭고 의미심장합니다. 전 세계적으로 공통된 경향이 관찰되었습니다. 대체로 사람들은 동물보다 인간을, 소수보다 다수를, 노인보다 젊은이를 살리려는 선택을 했습니다. 그러나 세부적으로 보면 문화권별 차이가 뚜렷합니다. 서구권은 개인주의 성향이 반영되어 다수를 살리는 선택을 더 선호했고, 동아시아와 이슬람 문화권에서는 전통과 공동체 존중의 가치가 반영되어 노인을 더 살리려는 경향이 나타났습니다. 남미권에서는 여성과 건강한 사람을 우선하려는 성향이 두드러졌습니다.

이러한 결과는 단순한 통계적 흥미거리에 그치지 않습니다. 자율주행차가 실제 도로 위에 본격적으로 등장할 때, 어떤 윤리적 기준을 따를 것인가는 사회 전체가 합의해야 할 문제이기 때문입니다. 예를 들어 독일의 자율주행 윤리 지침은 “연령이나 성별에 따른 차별은 허용되지 않는다”고 명시합니다. 그러나 Moral Machine 데이터에서는 “아이를 먼저 살려야 한다”는 강한 대중적 직관이 드러났습니다. 법과 제도가 지향하는 가치와 시민들이 실제로 원하는 가치 사이에 간극이 있음을 보여줍니다.

이 연구가 던지는 메시지는 분명합니다. 첫째, 인간은 보편적 직관을 어느 정도 공유하면서도 문화적 배경에 따라 상이한 판단을 내립니다. 둘째, 기술적 문제로 보였던 자율주행 알고리즘은 사실상 윤리 문제입니다. 셋째, AI의 윤리 기준을 설계할 때 철학적 논리뿐 아니라 시민들의 집단적 가치관을 반드시 고려해야 합니다. 결국 Moral Machine은 전 세계인의 윤리적 직관을 데이터화한 전례 없는 사회 실험이자, 앞으로의 정책과 기술 개발이 참고해야 할 중요한 출발점이 됩니다.

4. 생각해볼 문제

Moral Machine 실험은 거대한 데이터를 남겼지만, 동시에 더 근본적인 질문을 던집니다. 이제 자율주행차와 같은 인공지능이 도로 위에서 실제로 판단을 내릴 수 있는 시대가 다가오고 있습니다. 문제는 이 판단이 단순한 기술적 계산이 아니라 생명과 윤리에 관한 선택이라는 점입니다. 그렇다면 우리는 어떤 기준을 마련해야 할까요?

먼저 개인적 차원에서 생각해 볼 수 있습니다. 만약 내가 운전대를 직접 잡고 있다면 어떤 선택을 할 수 있을까요? 다섯 명을 구하기 위해 한 명을 희생시킬 수 있을까요? 혹은 내 가족이 차 안에 타고 있다면 그 순간의 판단은 달라지지 않을까요? 같은 상황이라도 내가 누구와 함께 있느냐, 어떤 위치에 있느냐에 따라 결정은 크게 달라질 수 있습니다. 윤리적 판단은 추상적 이론이 아니라 구체적 맥락 속에서 만들어진다는 점을 시사합니다.

다음은 사회적 차원입니다. AI가 따르는 윤리는 누구의 가치관을 기준으로 해야 합니다. 어떤 나라는 전통과 나이 듦을 존중하는 결정을 더 지지할 수 있고, 또 다른 나라는 다수의 생명을 살리는 결정을 더 중시할 수 있습니다. 이렇게 문화권마다 다른 직관이 존재하는데, 전 세계가 공유할 수 있는 단일한 기준이 가능할까요? 혹은 각 국가와 사회가 서로 다른 윤리 기준을 반영한 자율주행 시스템을 가져야 할까요? 만약 그렇다면 글로벌 시장에서 통용되는 자동차는 어떻게 설계되어야 할까요?

마지막으로 우리는 기술과 인간의 관계를 돌아보게 됩니다. 트롤리 문제는 일상의 작은 선택처럼 보이지만, 그 안에는 인간의 가치관과 사회의 방향이 담겨 있습니다. 그리고 이제 그 선택을 사람 대신 AI가 내려야 할지도 모릅니다. 그렇다면 AI의 윤리적 판단은 인간이 미리 정한 규칙과 원칙을 그대로 따르는 것이 옳을까요, 아니면 AI가 스스로 학습을 통해 윤리적 직관을 형성하도록 맡겨야 할까요?

트롤리 문제는 오래된 철학적 퍼즐이 아니라, 지금 우리가 마주한 기술 시대의 진짜 질문이며 앞으로 사회 전체가 함께 답해야 할 과제가 됩니다. 작은 클릭 하나가 수백만 번 모여 세계인의 윤리를 드러냈듯, 앞으로 우리의 작은 논의와 합의가 AI의 기준을 만들어 가게 될 것입니다.

참고자료

  1. Awad, E., Dsouza, S., Kim, R., Schulz, J., Henrich, J., Shariff, A., Bonnefon, J.-F., & Rahwan, I. (2018). The Moral Machine experiment. Nature, 563(7729), 59–64.
  2. 위키백과, 트롤리 문제 개요 문서.

About the Author

Tigris Lee

Tigris Lee

Editor

View All Posts

Continue Reading

Previous: Anthropic의 Claude, 문서 편집의 새 시대를 열다
Next: Born, 1,500만 달러 투자 유치: 외로움 해소 위한 소셜 AI 동반자 개발

Related Stories

Abstract representation of large language models and AI technology.
  • Opinion
  • Editor's

AI 셧다운 하라 : 극단적 우려와 두려움의 주장

Ethan Park 2025년 09월 15일
pocket watches, chains, vintage, accessories, timepieces, watches, time, metal, brass, antique, retro, vintage, time, time, time, time, time
  • Tech
  • Opinion

AI의 시계 읽기 한계: 인간과 AI, 무엇이 다른가?

Audrey Ko 2025년 09월 15일
unsplash_image
  • Opinion

AI의 부상과 청년의 고민: 일자리에 미치는 영향

Ethan Park 2025년 09월 12일
AD

최신 글

  • Chrome에서 Gemini AI 기능 확장
  • ChatGPT Go: 인도 AI 시장을 향한 OpenAI의 전략
  • Google Cloud의 AI 스타트업 전략: 생성형 AI로
  • Andrej Karpathy, 강화학습에 회의적
  • 구글 AI 요약 문서, 출판사 소송으로 광고 수익 논란
AD

보관함

  • 2025년 9월
  • 2025년 8월
  • 2025년 7월
  • 2025년 6월

You may have missed

image
  • Tech

Chrome에서 Gemini AI 기능 확장

Audrey Ko 2025년 09월 19일
image
  • Tech

ChatGPT Go: 인도 AI 시장을 향한 OpenAI의 전략

Liam Kim 2025년 09월 19일
image
  • Tech

Google Cloud의 AI 스타트업 전략: 생성형 AI로

Liam Kim 2025년 09월 19일
unsplash_image
  • Tech

Andrej Karpathy, 강화학습에 회의적

Audrey Ko 2025년 09월 18일
  • About
  • Privacy Policy
  • Terms of Use
  • Contact
Copyright © All rights reserved. | MoreNews by AF themes.
AIFocus — AI & Robotics Trends & Research
서울특별시 강남구 논현로79길 916 | 편집인: Tigris Hr Lee | 이메일: info@aifocus.co.kr
© 2025 AIFocus. All Rights Reserved.