AI가 판단하고, 인간의 통제 없이 목표를 제거한다면… 그건 여전히 ‘전쟁’이라 부를 수 있을까? 최근 전쟁터에서 실제로 보고된 ‘킬러 로봇’의 자율적 작동 소식은 단순한 기술 뉴스가 아니라 인류의 통제 능력에 대한 불안을 자극한다. 지금 당신이 이 글을 찾은 이유도 아마 그 불안에서일 것이다. 이 글에서는 실제 사례와 윤리 논쟁, 그리고 통제권 회복의 실마리를 차근히 짚어본다.
전쟁터에 투입된 ‘킬러 로봇’은 언제 등장했나: 1980s→2020s 사례 연대표
1980년대부터 자율살상무기의 초기 개념이 등장했습니다. 하푼(Harpoon) 미사일과 토마호크(Tomahawk) 미사일은 표적 탐지·추적 기능을 갖췄으나 발사 전후 인간 승인을 전제로 설계되었습니다. 2000년대에 들어서는 함정 방어 체계인 Phalanx CIWS와 지상 기지 방어 체계인 C-RAM이 자동 추적·요격 능력을 선보였으며, 짧은 시간 내 자동 대응이 가능해졌습니다. 다만 최종 교전 결정은 human-on-the-loop 수준에서 인간의 감독·승인 하에 이뤄집니다.
2010년대에는 로이터링 뮨(loitering munition)인 Harop과 같은 자살형 드론이 전술적 자율 표적획득 기능을 시연했고, 러시아의 Uran-9 UGV 같은 지상 무인전투차량도 시험 운용 단계에 접어들었습니다. 이 시기에 DMZ 경계 자동화 장비가 탐지·조준 단계까지 자동화되면서, 실제 발포 명령은 여전히 인간 승인이 필수인 모델로 성숙했습니다.
2020년대 초반 나고르노-카라바흐 충돌과 우크라이나 전역에서 소형 상용·군용 드론과 로이터링 뮨이 대규모로 투입되며 전투 양상이 급변했습니다. 반복 정찰·타격이 일상화된 가운데 DARPA의 CODE 프로그램은 GPS·위성통신이 차단된 환경에서도 드론 팀의 자율 협업을 지원하는 소프트웨어 연구를 진행하며 통제 범위를 확장하고 있습니다.
| 연도/시기 | 전장/프로그램 | 시스템/유형 | 자율성 특징(인간 개입 수준) | 주요 이슈/결과 |
|---|---|---|---|---|
| 1980s | – | Harpoon 미사일 | human-in-the-loop | 표적 자동 탐지·발사 전 인간 승인 |
| 1980s–1990s | – | Tomahawk 미사일 | human-in-the-loop | 사전 경로 유도·감독 필요 |
| 1970s–80s | 함정 방어 | Phalanx CIWS | human-on-the-loop | 자동 추적·요격, 긴급 상황 자동 발사 |
| 2000s 중반 | 기지 방어 | C-RAM | human-on-the-loop | 로켓·박격포 요격, 사후 인간 승인 |
| 2016–2017 | 시리아 | Uran-9 UGV | human-on-the-loop | 통신·신뢰성 문제, 원격조종 의존 |
| 2019–2020 | 리비아 | KARGU-2 | 조건부 자율 | 자율 표적획득 모드 보고 |
| 2020 | 나고르노-카라바흐 | 로이터링 뮨·TB2 | 부분 자율 | 방공망 무력화, 전술 변화 |
| 2022–현재 | 우크라이나 | 상용·군용 드론 혼합 | human-in/on-the-loop | 대량 반복 타격·정찰 |
| 2013–현재 | 연구 프로그램 | DARPA CODE | human-in-the-loop | 통신 차단 환경 드론 협업 소프트웨어 |
전쟁터에 투입된 '킬러 로봇', 인류는 통제권을 잃었나? — 인간의 역할을 되찾는 길
처음 이 주제를 마주했을 때 저 역시 “이제 정말 기계가 사람 대신 전쟁을 결정하는 걸까?”라는 불안한 생각이 앞섰어요. 실제로 리비아 내전에서 자율살상무기가 인간 지시 없이 목표를 추격했다는 유엔 보고가 있었죠. 그때부터 ‘킬러 로봇’은 더 이상 영화 속 가상이 아니라, 현실의 위협으로 다가왔습니다.
하지만 취재와 자료 조사를 이어가면서 느낀 건 한 가지예요. 완전한 자율살상무기는 아직 ‘개념적 영역’에 머물러 있다는 점이었어요. 현재 대부분의 무기는 제한된 자율성, 즉 “인간이 승인하고 기계가 보조하는 단계”에 머물러 있습니다. 문제는 이 경계가 기술 발전과 함께 점점 흐려지고 있다는 사실이에요.
국제사회는 이미 이를 통제하려는 움직임을 가속화하고 있어요. 유엔 차원의 ‘자율살상무기 금지 협약’ 논의, 그리고 미국·유럽 각국의 윤리규범 수립이 그 예입니다. 다만 기술은 규제를 기다리지 않기 때문에, 인간의 역할을 어디까지 유지할지가 핵심 쟁점으로 떠올랐어요.
결국 우리가 통제권을 잃었다기보다, 통제의 방식을 새롭게 설계해야 하는 시점에 이르렀다고 생각합니다. AI 판단 체계를 설계하는 사람들도, 정책을 만드는 정부도, 관심을 두는 시민들도 모두 같은 질문을 놓고 고민해야 해요 — 인간이 기술의 ‘결정권’을 끝까지 쥘 수 있을까?
이 글을 끝까지 읽은 당신도 아마 저와 비슷한 불안을 느끼셨을 거예요. 하지만 확실한 건, 통제권은 저절로 사라지지 않습니다. 우리가 관심을 두고 감시하며 윤리적 기준을 요구할 때, 기술 역시 인간 중심으로 발전할 수 있습니다. 그것이 결국 AI 시대의 평화 유지를 위한 가장 현실적인 시작점이라고 믿습니다.

