AI 학습 기반 인공지능(AI)은 경제의 상업 및 정부 부문 전반에 걸쳐 빠르게 기업에 도입되고 있으므로 전 세계 군대에서도 AI 학습을 통한 전쟁 AI 학습 기술이 주목받고 있는 것은 그리 놀라운 일이 아니다.
수십 년간 공상과학 소설을 통해 대중의 상상 속에 터미네이터 스타일의 자율 로봇 병사의 이미지가 가장 먼저 떠오르지만, AI학습은 정보 수집, 물류, 의료 서비스 등 광범위한 사용 사례에 걸쳐 개발되고 있다.
그럼에도 불구하고 스마트 무기는 그 혼합의 일부이며, 이 방향으로 진행되는 연구의 대부분은 기밀로 분류되어 있다. 따라서 더 나아가기 전에 AI 학습 기반 전쟁의 현재 상태와 우려할 만한 원인이 있는지 살펴보는 것이 도움이 될 수 있다.
주요 내용
- 일부 평론가들에 따르면 러시아-우크라이나 전쟁과 같이 현재 진행 중인 분쟁이 ‘AI 전쟁의 리빙랩’ 역할을 하면서 AI가 군사 작전에 점점 더 많이 통합되고 있다.
- 전쟁에서 AI 학습을 사용하면 특히 의사 결정의 투명성과 급격한 확전 가능성과 관련하여 많은 우려와 윤리적 고려 사항이 제기된다.
- 군사 작전의 ‘OODA 루프’로 인해 가속화되는 AI 학습기반 의사 결정의 속도는 인간의 통제와 감독에 대한 의문을 제기한다.
- 또한 지능형 군사 기술에는 명확한 규칙과 보호 장치가 부족하며, 군사 AI 개발의 비밀스러운 특성과 맞물려 가시성 문제가 발생한다.
현실 기반의 AI 학습
내셔널 디펜스 매거진에 따르면 러시아-우크라이나 전쟁은 이미 “AI 전쟁의 리빙랩“으로 간주되고 있다. 이 잡지는 AI가 중심 무대는 아니지만, 최전방에 있는 부대와 사령부 후방 부대 간의 긴밀한 결속력을 강화하는 등 다양한 군사 능력에 적용하기 위해 AI 학습 기술을 조정하고 미세 조정하는 데 사용되고 있다고 주장한다. 이는 보다 역동적이고 민첩한 전투력을 만들기 위한 것이다.
우크라이나에 배치된 것으로 알려진 역량 중에는 감시 및 정찰에 사용되는 지리 공간 정보뿐만 아니라 안면 인식, 사이버 기술(공격 및 방어), 딥페이크 등이 있다. 이러한 모든 도구는 실제 전쟁에서 얻은 실제 데이터로 학습되고 있으므로 다음 분쟁에서는 더욱 효과적일 것이다.
다른 관점에서 보면, AI 학습은 상업적 환경에서와 마찬가지로 현대전에서 오류를 줄이고 많은 비효율성을 제거할 수 있는 가능성이 있다. 이는 민간인 사상자와 아군 사격을 줄일 수 있는 보다 정확한 조준의 가능성을 제시할 뿐만 아니라 전쟁을 단축하고 파괴를 줄이며 전후 경제에 미치는 영향을 완화할 수 있어 양측 모두에게 긍정적인 영향을 미칠 수 있다.
하지만 민간에서 AI 학습 사용할 때 직면하는 윤리적 문제와 동일한 많은 문제가 군사용 애플리케이션에도 존재하며, 무기 시스템의 특성과 기능을 고려할 때 더욱 중요하다.
AI 의사결정은 투명해질까?
유엔대학이 지적했듯이, 이러한 시스템을 공정하고 편향되지 않도록 AI 학습시킬 수 있는 방법이 있을까? 의사 결정 과정은 투명할까? 방대한 양의 데이터로 AI 학습 알고리즘을 훈련시켜야 하는 군대에도 동일한 개인정보 보호 규정이 적용되어야 할까?
안타깝게도 지능형 군사 기술의 개발에는 “규칙도 없고 보호 장치도 거의 없다“고 Foreign Policy는 지적하며, 이는 전 세계 국가들이 완전한 비밀 속에서 온갖 종류의 무기를 고안하고 있음을 의미한다.
특히 무기 시스템의 지휘 및 통제와 관련하여 의사 결정권자가 AI에 지나치게 의존하여 사고를 유도할 수 있다는 점이 우려의 주요 원인이다.
예를 들어 ChatGPT와 같은 기술은 AI 학습 알고리즘에 의해 구동되지만 감성을 거의 모방한다. 유사한 기술이 군사 인프라에 침투할 경우 적대 행위가 과거보다 훨씬 빠르게 발생할 수 있으며, 이는 핵무기를 고려할 때 특히 문제가 된다.
누가 책임자인가?
전 미국 합참의장 마크 밀리 장군은 AI 학습이 어떻게 ‘OODA 루프'(관찰, 방향 설정, 지시, 행동)의 속도를 높이는지 지적하며 이러한 우려를 반영했다. 이는 군대가 적을 상대로 사용하는 기본 프로세스다.
현재 미국의 정책은 이 과정을 인간이 담당하고 자율 무기의 사용도 인간에게 맡기는 것이다.
그러나 AI가 이러한 결정에 어느 정도 영향을 미칠 수 있을지는 불분명하다. 물론 다른 국가들이 지휘 구조에 AI를 구현하는 데 있어 얼마나 엄격한지 알 수 있는 방법은 없다.
결론
인공지능이 새로운 형태의 전쟁을 불러온 최초의 기술은 아니며, 아마도 마지막이 되지도 않을 것이다. 하지만 핵무기, 기계전, 잠수정, 인공위성 및 기타 여러 기술과 마찬가지로 새로운 무기를 어떻게 사용하고 어떤 도덕적/윤리적 금지선을 그어야 하는지에 대한 결정이 필요하다.
그러나 AI 학습 기술은 대부분의 사람들이 생각하는 것보다 빠르게 진화하고 있으며, 그 최종 결과가 어떻게 될지는 아직 명확하지 않다. 군사 분야는 개발 프로그램을 비밀에 부치고자 하는 욕구를 고려할 때 가장 규제하기 어려운 분야가 될 가능성이 높다. 하지만 수백만 명의 목숨이 걸려 있는 가장 중대한 문제이기도 하다.
참고자료
- Ukraine “A Living Lab for AI Warfare” (National Defense)
- Militarization of AI Has Severe Implications for Global Security and Warfare (UNU.edu)
- How AI Will Revolutionize Warfare (Foreign Policy)
- AI in the military: Gen. Milley on the future of warfare (CBS News)