
시스템이 완벽하다면, 왜 우리는 여전히 사고를 걱정할까요? 저는 금융회사 리스크 관리팀에서 일하면서 이 질문을 자주 떠올립니다. 영화 하우스오브다이너마이트를 보고 나서는 그 질문이 훨씬 더 무겁게 다가왔습니다. 핵전쟁은 의도가 아니라 오판 하나로도 시작될 수 있다는 전제가, 제 일상과 생각보다 가까이 맞닿아 있었기 때문입니다.
오판 리스크: 시스템을 믿는다는 착각
일반적으로 군사 방어 시스템은 완벽에 가깝다고 알려져 있습니다. 하지만 영화 하우스오브다이너마이트가 보여주는 현실은 그렇지 않습니다. 알래스카 미사일 방어 기지에서 북한의 ICBM 발사가 감지되는 순간부터, 시스템은 완벽하게 작동하지 않습니다. 정보는 불완전하고, 판단은 제한된 시간 안에서 이루어지고, 그 판단이 틀릴 경우 결과는 돌이킬 수 없습니다.
여기서 ICBM이란 대륙간탄도미사일(Intercontinental Ballistic Missile)을 의미합니다. 사거리가 5,500km 이상으로, 북미 대륙까지 직접 타격할 수 있는 핵탄두 탑재 미사일입니다. 이 한 발이 감지되는 순간부터 요격까지 허용된 시간은 극히 짧고, 그 안에서 내려야 하는 결정은 단 하나입니다.
미국이 시도하는 요격 수단은 GBI 시스템입니다. GBI란 지상발사요격미사일(Ground-Based Interceptor)로, 대기권 밖에서 적 미사일과 직접 충돌하는 방식으로 파괴하는 체계입니다. 쉽게 말해 총알로 총알을 맞추는 방식입니다. 그 성공률이 실전에서 얼마나 보장되는지는 여전히 논쟁 중입니다. 실제로 미 의회 예산처(CBO) 보고서에서도 GBI 시스템의 실전 신뢰도에 대해 지속적인 우려를 표명한 바 있습니다(출처: 미 의회 예산처:https://www.cbo.gov).
제가 직접 겪어보니, 이런 불확실성이 얼마나 판단을 왜곡하는지 압니다. 몇 달 전 저희 팀 시스템에서 해외 거래의 비정상적인 패턴이 감지됐습니다. 자동 차단을 걸지 말지 판단해야 하는 상황이었는데, 문제는 오탐(False Positive)일 가능성도 충분했다는 점이었습니다. 오탐이란 실제로는 정상인 거래를 비정상으로 잘못 판단하는 오류를 말합니다. 팀 내부 의견도 갈렸고, 저는 결국 차단을 선택했습니다. 결과적으로 정상 거래였고, 고객 컴플레인과 내부 문제가 크게 일었습니다.
그때 느낀 건 하나였습니다. 시스템이 신호를 보냈다고 해서, 그 신호가 진실을 의미하지는 않는다는 것. 영화에서도 감지된 미사일이 정말 공격인지, 아니면 오탐인지를 확신하는 사람은 아무도 없습니다. 그런데도 결정은 내려져야 합니다.
오판 가능성을 높이는 구조적 요인을 정리하면 다음과 같습니다.
• 정보 과부하: 짧은 시간 안에 쏟아지는 불완전한 데이터
• 시간 압박: 검증할 여유 없이 결정을 강요받는 구조
• 책임 분산 실패: 최종 판단이 소수 또는 한 사람에게 집중되는 문제
• 확증 편향: 이미 기울어진 판단을 강화하는 방향으로 정보를 해석하려는 경향
핵억지와 시스템 오류: 균형이 아니라 도박에 가까운 것
핵억지(Nuclear Deterrence)란 적국이 선제 핵공격을 감행할 경우 자국도 보복 핵공격을 가할 수 있다는 위협을 통해 실제 공격을 억제하는 전략 개념입니다. 냉전 이후 국제 안보의 기본 축으로 자리 잡았지만, 이 전략이 전제하는 것은 '상대방이 합리적으로 행동한다'는 가정입니다. 그 가정이 흔들리는 순간, 억지 전략 전체가 무너집니다.
영화에서 상황이 악화되자 미국 정부 내부에서는 플랜 B, 즉 보복 핵공격 논의가 시작됩니다. B-2 스텔스 폭격기와 핵무기 등 공격 자산이 준비되고, 러시아와 중국 등 다른 핵보유국들도 동시에 경계 태세에 들어갑니다. 대통령은 핵벙커로 이동하고, 핵가방이라 불리는 대통령 비상 통신 장비와 코드 승인 절차를 통해 최종 결정을 눈앞에 두게 됩니다.
일반적으로 핵 발사 결정 절차는 철저한 이중·삼중 통제 체계를 갖추고 있다고 알려져 있습니다. 그런데 제 경험상 이건 좀 다릅니다. 어떤 통제 체계도 극도의 시간 압박과 정보 혼선이 동시에 발생할 때 제대로 작동한다는 보장이 없습니다. 미국 과학자연맹(FAS)의 분석에 따르면, 역사적으로 핵전쟁 직전까지 간 사례 상당수가 의도적 공격이 아닌 시스템 오류나 오판에서 비롯됐습니다(출처: 미국 과학자연맹:https://www.fas.org). 1983년 소련의 핵경보 오작동 사례가 대표적입니다.
솔직히 이건 예상 밖이었습니다. 저는 막연하게 핵전쟁 시나리오란 어느 한쪽의 명백한 의도에서 출발할 거라 생각했습니다. 그런데 시스템 오류와 오판이 실제로 더 위험한 경로였다는 사실이, 영화를 보는 내내 불편하게 따라다녔습니다.
에스컬레이션 사다리(Escalation Ladder)란 개념도 이 영화에서 중요하게 작용합니다. 에스컬레이션 사다리란 갈등이 단계적으로 고조되는 과정을 계단처럼 표현한 분석 모델로, 한 단계씩 올라갈수록 되돌리기 어려워지는 구조를 보여줍니다. 영화 속 상황은 바로 이 사다리를 무서운 속도로 오릅니다. 그리고 그 속도를 만드는 건 누군가의 악의가 아니라, 불완전한 정보와 제한된 시간이었습니다.
제 리스크 관리 업무와 구조적으로 닮아 있는 부분이 바로 이 지점입니다. 리스크 관리에서 VaR(Value at Risk)이라는 지표를 자주 씁니다. VaR이란 특정 신뢰 수준 하에서 일정 기간 동안 발생할 수 있는 최대 예상 손실액을 의미합니다. 문제는 VaR이 '정상 범위 내'의 리스크를 계량화할 뿐, 테일 리스크(Tail Risk)라고 불리는 극단적 사건의 손실은 제대로 담아내지 못한다는 점입니다. 테일 리스크란 발생 확률은 낮지만 한 번 발생하면 회복이 불가능할 정도의 손실을 유발하는 극단적 위험입니다. 핵전쟁은 인류 차원의 테일 리스크입니다. 그리고 우리는 그 리스크를 억지력이라는 이름으로 관리하고 있다고 믿고 있습니다.
결국 하우스오브다이너마이트가 남기는 질문은 하나입니다. 우리가 신뢰하는 시스템은 진짜 안전한가, 아니면 단지 아직 실패하지 않았을 뿐인가. 저는 그 질문에 쉽게 답하기 어렵습니다. 군사 시스템이든 금융 시스템이든, 한 번의 판단이 모든 것을 결정하는 구조는 그 자체로 위험합니다. 중요한 건 완벽한 결정을 기대하는 것이 아니라, 오류가 발생했을 때 어떻게 책임을 분산하고 손실을 제한할 것인지를 미리 설계해두는 일입니다. 그 설계가 없는 시스템은, 잘 작동하는 것처럼 보이는 동안에도 이미 위험 속에 있습니다.
이 글은 개인적인 경험과 의견을 공유한 것이며, 전문적인 금융 또는 안보 분야의 조언이 아닙니다.