2026년 3월 12일, 워싱턴 DC에서 샘 올트먼 OpenAI CEO와 미국 의원들 간의 긴장감 넘치는 만남이 있었습니다. 최근 국방부와의 계약 체결 이후, 과연 인공지능이 전쟁터에서 어떤 역할을 하게 될지, 그리고 그 책임은 어디까지인지에 대한 날카로운 비판과 질문이 쏟아진 것입니다. 단순히 기술의 발전을 넘어 윤리적, 법적 경계선이 어디인지 확인하려는 시도였습니다.

왜 의회는 OpenAI의 국방 행보를 주시하는가
마크 켈리 상원의원은 이번 만남에서 OpenAI의 전쟁에 대한 접근 방식에 대해 매우 직접적인 의문을 제기했습니다. 기술 기업이 군사적 목적에 개입할 때 발생할 수 있는 잠재적 위험 때문입니다. 특히 인공지능이 킬 체인(kill chain) 시스템에 통합될 경우, 인간의 통제권을 어떻게 확보할 것인지가 가장 큰 논란의 중심입니다. 의회는 기술이 속도를 내는 만큼 안전장치도 속도감 있게 마련되어야 한다는 입장을 견지하고 있습니다.
감시와 살상 시스템, 기술의 경계는 어디인가
이번 논의에서 가장 뜨겁게 다뤄진 주제는 인공지능의 감시 능력과 살상 무기로의 전용 가능성입니다. 의원들은 다음과 같은 구체적인 우려를 표명했습니다.
- 인공지능 시스템이 군사 작전의 감시망으로 활용될 때 발생하는 사생활 침해 문제
- 적대적 상황에서 인간의 개입 없이 공격을 결정하는 자율 무기 체계의 위험성
- 헌법적 가치를 준수하며 인공지능을 운용할 수 있는 제도적 근거 부족

앤스로픽과의 계약 실패가 가져온 여파
사실 이번 국방부 계약 과정에서 경쟁사인 앤스로픽은 ‘국가 안보 공급망 위험’으로 분류되며 배제된 바 있습니다. 앤스로픽은 군사적 용도로 기술을 제공하되, 자율 살상 무기나 국내 감시에는 절대 활용하지 않겠다는 확고한 안전 보장을 요구했기 때문입니다. 반면, OpenAI는 국방부와 ‘모든 합법적 목적’으로 기술을 사용한다는 계약을 맺었습니다. 이 차이가 의원들이 OpenAI를 향해 더 엄격한 잣대를 들이대는 이유가 되었습니다.
올트먼이 제시한 안전 원칙은 실효성이 있는가
샘 올트먼은 SNS를 통해 국내 대량 감시 금지와 무기 사용에 대한 인간의 책임 원칙을 고수하겠다고 밝혔습니다. OpenAI는 국방부와의 계약서에도 이러한 안전 원칙이 반영되었다고 설명합니다. 그러나 의원들은 문서상의 약속을 넘어, 실제 현장에서 기술이 어떻게 통제될지에 대한 실질적인 입법 조치가 필요하다고 강조합니다. Congress가 직접 나서서 AI 국방 계약의 가이드라인을 작성하려는 움직임은 바로 이러한 불신에서 시작되었습니다.

국방 AI 계약에 대한 의회의 역할은 무엇인가
마크 켈리 의원은 의회가 더 이상 방관할 수 없다는 태도를 보이고 있습니다. 기술 발전 속도는 매우 빠르지만, 이를 뒷받침할 법적 안전장치는 턱없이 부족하기 때문입니다. 의회는 향후 인공지능 기업이 국방 계약을 맺을 때 지켜야 할 엄격한 경계선과 의무 사항을 법제화할 계획입니다. 이는 기술 기업이 국가 안보라는 미명 아래 윤리적 책임을 회피하지 못하도록 견제 장치를 마련하겠다는 강력한 메시지입니다.

AI 기술의 책임 있는 운용을 향하여
결국 이번 사태는 인공지능이 더 이상 실험실 수준의 도구가 아니라, 국가 생존과 직결된 무기가 되었음을 보여줍니다. 올트먼과 OpenAI는 국방 사업이라는 거대한 파도 속에서 기술적 우월성과 윤리적 책임이라는 두 가지 숙제를 모두 증명해야 하는 상황입니다. 기술이 인간의 통제 범위를 벗어나지 않도록 하는 것, 그것이 의회와 대중이 AI 산업 전체에 요구하는 핵심 과제입니다.
이어서 보면 좋은 글
#OpenAI #샘올트먼 #인공지능 #국방기술 #AI안전 #국방부 #의회청문회 #기술윤리 #자율무기 #미국정치