OpenAI가 최근 미국 국방부와 체결한 계약을 두고 샘 올트먼 CEO가 이례적인 사과를 내놓았습니다. 계약 과정이 지나치게 서둘러졌으며 허술했다는 점을 인정한 것인데요. 앤스로픽과의 갈등 상황에서 급하게 추진된 이번 OpenAI 펜타곤 계약의 배경과 수정된 주요 조항들을 구체적으로 살펴보겠습니다.

OpenAI 펜타곤 계약 무엇이 문제였나?
이번 논란은 OpenAI가 국방부와 새로운 계약을 맺었다고 발표한 시점에서 시작되었습니다. 공교롭게도 백악관이 경쟁사인 앤스로픽의 AI 도구 사용 중단을 지시한 지 몇 시간 만에 계약이 성사되었기 때문입니다. 당시 미국이 이란에 대한 공습을 단행하기 직전이었다는 상황도 긴장감을 더했습니다.
많은 전문가는 OpenAI가 경쟁사의 공백을 틈타 기회주의적으로 움직였다고 비판했습니다. 샘 올트먼 역시 소셜 미디어를 통해 당시 상황이 기회주의적이고 엉성해 보였다는 점을 인정하며 수습에 나섰습니다. 기술이 아직 준비되지 않은 분야에서 성급하게 국방 사업에 뛰어들었다는 인상을 남긴 것이 화근이었습니다.
샘 올트먼이 직접 밝힌 3가지 실책과 수정 사항
샘 올트먼은 이번 계약 추진 과정에서 발생한 세 가지 핵심적인 실수를 언급하며 계약 내용을 수정하겠다고 밝혔습니다. 이는 단순한 사과를 넘어 AI의 윤리적 사용에 대한 기준을 재정립하겠다는 의지로 풀이됩니다.
- 계약 시점의 성급함: 충분한 검토 없이 경쟁사 규제 직후에 계약을 발표하여 기회주의적으로 비춰진 점
- 감시 활동 제한 문구 누락: AI 시스템이 미국인에 대한 국내 감시 용도로 사용되지 않도록 하는 명확한 조항이 초기 계약에 빠져 있었던 점
- 기술적 안전장치 검토 부족: 기술적으로 준비되지 않은 영역에 대한 트레이드오프를 충분히 이해하지 못한 상태에서 진행된 점

앤스로픽과의 갈등이 계약에 미친 영향
이번 사건의 이면에는 앤스로픽과 미국 정부 간의 깊은 갈등이 자리 잡고 있습니다. 앤스로픽은 자사의 AI 도구인 클로드가 국내 감시나 자율 무기 개발에 사용되지 않겠다는 보장을 요구해 왔습니다. 이 과정에서 국방부와의 협상이 결렬되었고 OpenAI가 그 빈자리를 채우게 된 것입니다.
피트 헤그세스 국방장관이 앤스로픽을 공급망 위협으로 지정하겠다고 언급하면서 상황은 더욱 악화되었습니다. 하지만 올트먼은 앤스로픽이 공급망 위험으로 지정되어서는 안 된다고 주장하며 국방부가 앤스로픽에도 동일한 계약 조건을 제시하기를 희망한다고 덧붙였습니다.
OpenAI 펜타곤 계약에 새롭게 포함된 감시 제한 조항
비판 여론을 의식한 OpenAI는 계약서에 매우 구체적인 방어막을 설치했습니다. 가장 눈에 띄는 변화는 AI 시스템이 미국인 및 미국 거주자를 대상으로 하는 국내 감시 활동에 의도적으로 사용되어서는 안 된다는 문구를 명시한 것입니다.
- 미국 국적자 대상 국내 감시 금지 명문화
- NSA와 같은 정보 기관의 도구 사용 배제 확인
- 펜타곤과의 협력을 통한 기술적 안전장치 마련

사용자들이 ChatGPT 대신 클로드를 선택한 이유
OpenAI의 이번 행보는 일반 사용자들 사이에서도 큰 반향을 일으켰습니다. 펜타곤과의 계약 소식이 전해진 후 앱스토어에서는 챗GPT를 삭제하고 앤스로픽의 클로드를 설치하는 움직임이 나타나기도 했습니다. 이는 사용자들이 AI 기업의 윤리적 태도를 서비스 선택의 중요한 기준으로 삼고 있음을 보여줍니다.
올트먼은 주말 동안 진행된 대화를 통해 이러한 민심을 확인했으며 기술이 가진 위험성과 안전 사이의 균형을 맞추는 것이 얼마나 어려운지 재차 강조했습니다. 특히 군사적 활용에 있어 투명성이 결여될 경우 대중의 신뢰를 잃을 수 있다는 점을 뼈아프게 실감한 것으로 보입니다.
OpenAI 펜타곤 계약 사례로 본 국방 AI 활용 3원칙
앞으로 국방 분야에서 AI가 활용될 때 반드시 지켜져야 할 원칙들이 이번 사례를 통해 구체화되고 있습니다. 기술의 발전 속도가 규제나 윤리적 합의보다 빠르기 때문에 기업 스스로 엄격한 기준을 세우는 것이 중요합니다.
- 투명한 계약 조건 공개: 어떤 용도로 사용될 것인지 대중에게 명확히 알리기
- 인간의 통제권 유지: 자율 무기 체계 등 인간의 판단이 배제된 영역으로의 확장을 경계하기
- 정치적 중립성 확보: 특정 정치적 상황이나 군사 작전 시점과 연동된 기회주의적 행보 지양하기

미래의 국방 AI 협력을 위한 올바른 접근 방법
국방과 AI의 결합은 피할 수 없는 흐름이지만 그 과정은 매우 신중해야 합니다. 샘 올트먼이 인정한 것처럼 상황을 악화시키지 않으려는 의도가 있었더라도 겉으로 보이는 모습이 허술했다면 신뢰를 얻기 어렵습니다.
단순히 계약을 따내는 것이 목적이 아니라 기술적 한계를 인정하고 안전장치를 먼저 구축하는 자세가 필요합니다. 이번 수정 계약이 향후 다른 AI 기업들과 정부 간의 협력 모델에서 중요한 선례가 될 것으로 보입니다.

OpenAI의 진정성 있는 행보를 기대하며
샘 올트먼의 이번 사과는 기술 기업이 정부 기관과 협력할 때 겪을 수 있는 현실적인 고충을 잘 보여주었습니다. OpenAI 펜타곤 계약 논란을 계기로 AI 기술이 무분별한 감시나 공격용이 아닌 국가 안보와 안전을 위한 올바른 도구로 자리 잡기를 바랍니다. 기술의 고도화만큼이나 윤리적 책임감을 갖춘 기업의 모습이 그 어느 때보다 필요한 시점입니다.
출처: https://www.cnbc.com/2026/03/03/openai-sam-altman-pentagon-deal-amended-surveillance-limits.html
이어서 보면 좋은 글
#OpenAI #샘올트먼 #펜타곤 #국방부계약 #인공지능윤리 #챗GPT #앤스로픽 #클로드 #AI안보 #디지털감시