2024년 초, 인류의 미래를 책임질 것으로 기대받던 AI 선두 기업들, 즉 Anthropic, Google, Meta, 그리고 OpenAI는 한 가지 중요한 원칙 아래 단결되어 있었습니다. 바로 자신들의 AI 도구를 군사적 목적으로 사용하지 않겠다는 윤리적 선언이었죠. 그러나 불과 12개월 만에 이 철옹성 같던 약속은 급격히 무너져 내렸습니다. 업계의 날카로운 시선으로 이 중대한 변화의 배경과 파급력을 분석해 보고자 합니다.
갑작스러운 피봇: 윤리적 경계의 붕괴
정말 놀라운 속도로 상황은 변했습니다. 지난 1월, OpenAI는 돌연 ‘군사 및 전쟁’ 목적의 AI 사용 금지 조항을 조용히 철회했습니다. 그리고 이어진 보도에 따르면, OpenAI는 이미 미 국방부(Pentagon)와 여러 프로젝트를 진행 중인 것으로 알려졌습니다. 11월에는 도널드 트럼프 전 대통령이 재선에 성공한 주에 맞춰 Meta가 Llama 모델을 미국 및 일부 동맹국들의 국방 용도로 활용할 수 있게 허용하겠다고 발표했습니다. 며칠 뒤 Anthropic 역시 자사 모델의 군사적 활용을 허용하고, 국방 기업 팔란티어(Palantir)와 파트너십을 맺었다고 밝혔습니다. 연말에는 OpenAI가 다시 한번 국방 스타트업 안두릴(Anduril)과의 협력을 발표하며, 이 거대한 흐름의 선두에 섰습니다. 그리고 마침내 2025년 2월, 구글마저 AI 원칙을 개정하여 인명 피해를 야기할 수 있는 무기 및 기술 개발을 허용하는 대열에 합류했습니다. 단 1년 남짓한 시간 동안, AGI(범용인공지능)의 존재론적 위험에 대한 우려는 사실상 사라지고, AI의 군사적 활용은 새로운 ‘정상’으로 자리 잡게 된 것입니다.
비용 압박과 국방 섹터의 매력: 피할 수 없는 현실
이러한 급격한 변화의 첫 번째이자 가장 강력한 동력은 바로 막대한 AI 모델 구축 비용에 있습니다. 최신 LLM(대규모 언어 모델) 하나를 개발하고 운영하는 데는 천문학적인 연구개발비와 컴퓨팅 자원이 소모됩니다. 이러한 ‘범용 기술(General-Purpose Technologies, GPTs)’은 역사적으로도 국방 분야의 지원을 통해 빠른 발전을 이루는 경우가 많았습니다. 경제학자 데이비드 J. 티스(David J. Teece)는 2018년 이미 “GPT는 크고, 수요가 많으며, 수익을 창출하는 응용 분야(예: 미 국방부의 초기 트랜지스터 및 마이크로프로세서 구매)가 있을 때 더 빠르게 발전한다”고 강조한 바 있습니다.
국방 계약의 ‘유연한 예산 제약(soft budget constraints)’과 ‘장기적인 특성’, 그리고 ‘모호한 성공 측정 기준’은 신기술 기업, 특히 막대한 초기 투자가 필요한 AI 스타트업에게는 군을 더할 나위 없이 매력적인 고객으로 만듭니다. 벤처캐피탈 시장의 냉각기와 맞물려 안정적이고 장기적인 대규모 투자가 절실했던 AI 스타트업들에게 군사 자금으로의 전환은 어쩌면 피할 수 없는 수순이었을 것입니다. 하지만 이러한 경제적 요인만으로는 모든 선도적인 미국 AI 연구소들이 거의 동시에, 이처럼 빠르게 같은 방향으로 움직인 이유를 온전히 설명하기는 어렵습니다.
지정학적 지각변동: 국가 자본주의의 부활
지난 몇 년간 자본주의 경쟁의 지형은 신자유주의적 자유 시장 이념에서 지정학적 고려 사항이 지배하는 시대로 극적으로 변화했습니다. 이러한 변화를 이해하기 위해서는 국가와 거대 기술 기업 간의 관계를 파악해야 합니다. 역사적으로도 이러한 국가-자본가 관계는 제국주의 형성의 핵심이었으며(레닌은 당대 제국주의를 독점 자본과 강대국의 융합으로 규정했죠), 20세기 내내 막강한 영향력을 유지해 왔습니다. 최근까지는 디지털 기술이 혁신, 성장, 그리고 국가 권력에 미치는 역할에 대해 기술 엘리트와 정치 엘리트 사이에 광범위한 합의, 즉 ‘실리콘밸리 컨센서스’가 존재했습니다. 글로벌화된 통신, 자본, 데이터, 기술이 모두의 이익에 부합한다는 믿음이었습니다.
그러나 2010년대 중반부터 이러한 엘리트 집단 간의 이해관계 조화는 급속히 무너져 내렸습니다. 미국과 중국을 중심으로 한 복합적인 과정들이 기존 질서를 해체하고, 잠재적으로 새로운 배열의 파편들을 남기고 있습니다. 이는 기술이 단순히 경제적 도구를 넘어 국가 안보와 패권 경쟁의 핵심 무기로 간주되기 시작했음을 의미합니다. AI 기술 선점은 단순한 시장 경쟁을 넘어 국가 생존 전략의 일환이 된 것입니다. 따라서 AI 기업들은 이제 순수한 기술 개발을 넘어, 국가 전략의 큰 틀 안에서 움직일 수밖에 없는 상황에 놓였습니다.
에디터의 시선
AI 거물들의 군사 AI 개발 허용은 단순히 기업의 윤리 강령 수정 이상의 의미를 가집니다. 이는 AI 산업의 미래 방향을 결정짓는 중대한 이정표이며, 지정학적 경쟁 심화와 맞물려 AI 기술의 ‘양날의 검’이라는 본질을 다시금 일깨우는 사건입니다. 막대한 개발 비용과 국가 안보라는 명분 아래, AI 기술은 이제 인류 전체의 이익보다는 특정 국가의 전략적 이익에 더욱 밀접하게 복무하게 될 것입니다.
이러한 변화는 몇 가지 질문을 던집니다. 첫째, 과연 AI 개발에서 윤리적 고려는 얼마나 지속될 수 있을까요? ‘존재론적 위험’에 대한 우려가 빠르게 희석된 것처럼, 다른 윤리적 가이드라인 역시 시장 논리와 국가 전략 앞에서 뒷전으로 밀려날 가능성이 큽니다. 둘째, AI 기술의 민간 부문 활용은 어떻게 변할까요? 군사 부문의 막대한 투자는 AI 기술 발전을 가속화하겠지만, 그 발전 방향이 민간의 필요와 항상 일치하지 않을 수 있습니다. 셋째, AI 군비 경쟁은 피할 수 없는 현실이 될까요? 이미 미국-중국 간 기술 패권 경쟁이 심화되는 상황에서, AI의 군사적 활용이 확대되는 것은 전 세계적인 군비 경쟁을 촉발하고 국제 안보를 더욱 불안정하게 만들 위험이 있습니다.
전문 테크 칼럼니스트로서 저는 AI의 윤리적 사용에 대한 지속적인 논의와 국제적 협력이 절실하다고 강조하고 싶습니다. 그러나 동시에, 이러한 흐름이 이미 거대한 파도로 변했음을 인지해야 합니다. 이제 우리는 AI가 더 이상 순수한 연구의 영역에 머물지 않으며, 강력한 국가적 이해관계와 시장 논리에 의해 움직이는 ‘전략 자산’이 되었음을 인정하고, 그 파장이 가져올 미래를 냉철하게 대비해야 할 것입니다. AI가 인류를 위한 도구가 될지, 아니면 새로운 갈등의 불씨가 될지는 이제 우리 모두의 손에 달려 있습니다.