'AI 미-중 패권 다툼' 새 기술이 바꿀 군사적 균형과 안보 리스크
본문 바로가기
시사, 경영

'AI 미-중 패권 다툼' 새 기술이 바꿀 군사적 균형과 안보 리스크

by 소식쟁이2 2024. 10. 10.

'AI 미-중 패권 다툼' 새 기술이 바꿀 군사적 균형과 안보 리스크

하버드대의 조지프 나이 명예교수가 인공지능(AI)의 군사적 이용에 따른 안전보장상의 리스크에 대해 경고하는 논설을 2024년 7월 31일자 Project Syndicate에 게시하고 있다.

1940년대 오펜하이머 등이 최초의 핵무기를 개발했을 때 그들은 핵무기가 인류를 멸망시킬까봐 걱정했다. 그 이후 핵무기 관리는 영원한 과제다.
현재 많은 과학자들이 AI도 변혁을 가져오는 도구라고 생각하지만 AI에게는 선(善)과 악(悪)이 거대해 질 가능성이 있다. 인간의 팀이 몇 달 걸리는 작업을 AI는 몇 분 만에 할 수 있다. 그러나 AI는 테러리스트 외의 악질 행위자의 진입비용과 장벽을 낮춘다.

그리고 일부 전문가들은 고도의 AI가 인간을 통제하게 되지 않을까 우려하고 있다. 그런 초지능 머신을 개발하는 데 걸리는 시간은 수년에서 수십 년으로 추산되고 있다. 오늘날의 AI가 가져올 리스크 증대는 이미 큰 관심을 끌고 있다.

아스펜 전략그룹은 올해 AI가 국가안보에 미치는 영향에 초점을 맞춰 그 장점과 위험을 검증했다. 장점은 방대한 정보분석 데이터의 선별능력의 향상, 조기경계시스템의 강화, 복잡한 후방지원 시스템의 개선, 사이버보안의 향상 등이다. 그러나, 자율형 병기의 진보, 프로그래밍·알고리즘에 있어서의 우발적인 에러(실책), 적대적인 사이버 공격 등은 큰 리스크이기도 하다.

중국은 광범위한 AI 확전 경쟁에 대규모 투자를 하며 구조적 우위도 자랑하고 있다. AI에 있어서 AI 모델을 훈련하기 위한 데이터, 알고리즘을 개발하기 위한 우수한 엔지니어, 그것을 실행하기 위한 연산능력은 중요한 3가지 자원이다. 중국에는 데이터 접근에 대한 제한이 거의 없어 우수한 젊은 엔지니어를 충분히 거느리고 있다.

자율형 무기는 특히 심각한 위협이다. 유엔에서의 10년이 넘는 외교협상에서도 자율형 치사무기 금지에 합의하지 못했다.

AI의 가장 무서운 위험 중 하나는 생물무기 전쟁과 테러리즘(terrorism)에 대한 응용이다. 1972년 각국이 생물무기 금지에 합의했을 때 그런 무기는 자국에 대한 반격의 위험성 때문에 유용하지 않다는 게 통설이었다. 그러나 합성생물학을 이용하면 어느 그룹만 파괴하는 무기를 개발하는 것이 가능할지도 모른다.

핵기술의 경우 1968년 각국이 비확산조약에 합의해 현재 191개국이 당사국이다. IAEA는 각국의 원자력 에너지계획이 평화적 목적으로만 사용되고 있음을 검증하기 위해 정기적으로 사찰을 실시하고 있다.

또 냉전하의 치열한 경쟁에도 불구하고 원자력 기술 주요국들은 1978년 가장 기밀성이 높은 장치나 기술적 지식의 수출을 자제하기로 합의했다. 이 같은 전례는 AI에 대해서도 가야 할 길을 시사한다.

기술의 진보는 치열한 시장경쟁에 의해 추진되는 경우에는 정책이나 외교보다 빠르다는 것이 정설이다. 올해 아스펜전략그룹 회의의 중요한 결론이 하나 있다면 각국 정부가 속도를 낼 필요가 있다는 것이다.

************

■ 'AI로 판단' 위험성
이 논설은 최근 AI 기술의 급속한 진보에 의한 공과, 특히 다양한 분야에서의 사회 진보에 대한 공헌과 동시에 잠재적인 리스크에 대한 대응강화의 필요성을 호소하는 동시에, AI의 군사이용이 안보정책에 미치는 중대한 영향에 대해 경종을 울리는 것으로서 참고가 된다.

안보면에서는 AI 기술에는 정보처리능력 향상 등의 장점과 함께 자율적 치사무기의 문제 등의 리스크가 있다는 점을 지적하고, 또한 중국이 AI군 확대를 위해 대규모 투자를 실시하고 있다는 점에 주의를 환기시키고 있다. 중국은 정보처리 능력에 필요한 데이터량과 풍부한 인력을 보유해 현재 미국에 의해 마이크로칩 접근이 제한되고 있지만 이 역시 1~2년이면 따라잡을 가능성이 있어 AI의 군사이용 첨단기술을 둘러싼 미·중의 패권 다툼은 계속될 것이다.

AI 기술 수준에 차이가 생기면 군사 균형에도 큰 영향을 미치게 되므로 모든 국가에 방위력 강화를 위한 과제가 되고 있다.

조지프 나이 명예교수는 AI 군사이용의 문제점으로 인간의 의사결정을 거치지 않고 발동되는 자율형 치사무기가 무력분쟁 하에서 문민의 보호에 악영향을 미치는 것과 AI 기술이 생물무기 개발이나 테러리즘에 활용될 위험에서 국제적 제동의 필요성을 지적하고 있다.

현대 전쟁에서는 의사결정의 신속성이 승패의 열쇠가 되기도 한다. AI는 이 면에서 중요한 역할을 하지만 날아오는 미사일 대응 등 의사결정 시간이 지극히 짧을 경우 기계에 판단을 맡길 수도 있다.

AI의 군사적 이용규제에는 핵 비확산체제와 같은 글로벌 규제와 지뢰 및 특정 재래식 무기사용 제한금지 조약과 같은 인도적 관점에서의 접근이 있을 것이다. 전자에 대해서는 AI 기술의 범용성이 높고, 애초에 각국 내에서의 규제나 관리도 불충분하며, 실효성을 담보하는 사찰제도도 어렵다고 생각되어 핵 비확산체제를 참고로 한다는 조지프 나이 명예교수의 시사는 현실성이 부족하다고 생각된다.

한편, 인도적 측면의 접근에서는 AI를 이용한 군사행동의 최종 판단에 인간의 의사를 개입시킬 의무나 문민의 보호에 충분한 배려를 할 수 없는 자율적 치사 병기의 사용형태의 금지를 정하는 조약 등을 생각할 수 있다. 그러나, 러시아나 중국은 그러한 조약에는 반대하는 것이기도 하고, 또, 지뢰금지 조약처럼 조약이 생겨도 참여하지 않을 것이기 때문에 실현 가능성은 낮다. 단지, 예를 들면, 핵무기의 사용의 판단에 대해서는 AI에 맡겨서는 안 된다고 하는 규범은 의미가 있고 실현 가능성도 있는 것일 수도 있을 것이다.

■ 군사에 국한되지 않는 우려
유의해야 할 것은, 정보수집·처리능력, 체제구축, 무기의 선택, 작전능력, 후방지원 체제의 강화나 효율화 등, 모든 면에서 AI의 활용의 여지가 있지만, 동맹국간에서는, 이러한 면에서의 협력관계의 강화와 동시에 범용성 있는 AI 기술의 비우호국으로의 유출 방지등이 과제가 되는 것이다.

그리고 국방부가 「인지영역」이라고 부르는 평시의 정보전에 있어서의 AI의 활용도 중요해, 주변국에는, 정보조작에 열심인 나라도 있어, SNS 그 외의 수단을 이용한 가짜 정보나 눈치채지 못하는 사이에 여론조작이 행해질 가능성도 있으며, 이러한 수법은 AI 기술을 이용하는 것에 의해 더욱 교묘해질 것이다. 이러한 정보전에 대항해 정보조작을 파헤쳐 시정하기 위해서도 AI 기술의 활용은 유효하다고 생각된다.

*재미있거나 도움이 되셨다면 '구독' 꾹 눌러 주시기를 부탁드립니다. 늘 행복하세요.

반응형

댓글