AI를 탑재한 탱크나 미사일의 개발이 진행되고 있는, 「AI의 군사적 이용」에 대한 윤리적 문제점
기술의 진보에 따라 인공지능(AI)을 군사적으로 이용하는 연구개발이 각국에서 이뤄지고 있다. 그러나 인간에게 직접 명령을 받지 않아도 상황을 판단해 적을 죽이거나 거점을 파괴할 수 있는 자율형 무기에는 인간과 같은 도덕관을 갖지 않는 컴퓨터의 사고로는 예측불가능해 실용상 큰 문제가 있다는 지적이 나오고 있다.
미국 국방부에서는 AI 연구가 적극적으로 이뤄지고 있으며 무기개발을 포함한 AI 관련 프로젝트에 2020년에는 9억2700만달러, 2021년에는 8억4100만달러의 예산을 들여 왔다. 또한 국방부 고도연구프로젝트청은 AI 관련 프로젝트를 2019년~2023년까지 5년간 계획하고 있으며, 20억달러의 예산을 예상하고 있다.
이외에도 뉴욕주의 육군사관학교에서는 적을 쓰러뜨리도록 프로그래밍할 수 있는 로봇 전차훈련이 이루어지고 있으며 알고리즘 다루는 방법뿐만 아니라 자율형 무기에 대한 경각심도 가르키고 있다. 그러나 이 로봇전차를 실제로 전장에 투입할 준비는 아직 되어 있지 않다고 한다.
2020년 12월, 미 공군은 고고도전술 정찰기인 U-2에서 적의 미사일과 미사일 발사장치를 탐지하기 위해 Deep Mind가 개발한 MuZero를 기반으로 한 AI를 이용하는 실험을 수행했다. U-2의 조종 자체는 인간에 의한 것이었는데, 이 실험은 미군의 항공기에서 AI를 본격적으로 이용한 첫 사례라고 한다.
또, 무기에 탑재하는 것 뿐만 아니라, 전술·전략을 AI로 생각하는 시스템도 개발되고 있다. 국방부 공동 인공지능센터 초대 선장이었던 잭 섀너핸 중장에 따르면 AI를 이용해 목표물을 선택하는 프로세스를 간소화하고 공격에 걸리는 시간을 단축하는 시스템이 2021년경부터 전장에 투입 계획을 밝히기도 하였다.
인권단체 휴먼 라이츠 워치에 소속된 메리 웨어햄는 각국 정부에 집속탄과 지뢰 등 대인무기 제조와 사용을 금지시키자고 압박해 왔다. 그리고 웨어햄은 자율무기에 근본적인 제한을 부과하도록 각 정부에 촉구하고 있다.
웨어햄은 '기계에는 배려가 없고 인간도 판단하기 어려운 윤리적 선택을 고려할 수 없기 때문에 자율무기에 의한 살인은 도덕적 한계를 넘는다'며 로봇 살인은 책임 소재가 모호해지기 때문에 전쟁이 일어나기 쉽다고 주장하고 있다.
예를 들어 상대의 셔츠에 기름이 묻어 있거나 평소와는 다른 위장(camouflage) 패턴을 사용하거나 상정한 상황과의 약간의 차이가 컴퓨터를 혼란시키고, 그 혼란이 원인으로 우군과 적군을 구별할 수 없게 되어 버릴 수도 있다.
카네기멜론대학에서 행해진 실험에서는, 테트리스에서 「상대에게 지지 마라」라고 지시받은 AI가, 최종적으로 「게임을 일시정지함으로써 지지 않는 상황으로 만든다」다는 판단에 이르기도 하였다. 즉, AI는 조건을 만족시키기 위해서는 공평성이나 규범을 완전히 무시할 수 있으므로, 전쟁터에서는 전혀 도움이 되지 않게 될 가능성마저 있다.
국방부의 전 방위 당국장으로, 국방부내에서 AI 관련의 프로젝트를 추진하고 있던 윌 로퍼는 「우리의 AI 기술은 세계를 따라잡지 못하고 있는 것은 아닌가 하는 우려가 있어, AI의 테스트는 진행시킬 필요가 있다. 다만 윤리기준이나 도덕기준을 잃을 우려는 없다」라고 덧붙였다.
하지만 AI 기술이 진보한다는 것은 AI가 가진 윤리적 문제에 직면한다는 것을 의미한다. AI의 군사적 이용에 있어서는, '사령관은 「전장에서 사람을 죽여라」라고 하는 결정에 대해, 기계에 얼마만큼의 제어를 맡겨야 하는가'라고 하는 문제가 부상한다.
기계는 인간과 달리 피로감이나 스트레스로 인한 감각의 둔화가 없다. 인간 병사들은 동료들이 살해당할 경우 '어떤 화력으로 누구를 표적으로 삼을 것인가'에 대해 잘못된 선택을 할 수 있지만 기계는 감정적으로 되지 않고 계속 임무에 집중한다.
U-2 실험을 견학한 에릭 슈밋 전 구글 CEO는 인간의 생명이 위협받는 상황을 포함해 생각할 수 있는 모든 상황에서 AI가 어떻게 작동하는지 보여주기는 어렵기 때문에 군이 당장 AI를 채용할 가능성은 낮다고 보고 있다.
물론 AI 군사적 이용에 대해서는 단속해야 한다는 의견도 제기되고 있다. 2012년 10월 휴먼 라이츠 워치 등 여러 인권단체들은 드론의 급속한 진보와 인공지능 기술의 급성장을 우려하여 사람의 살상을 목적으로 한 로봇을 폐지하자는 캠페인을 전개하였다. 아울러 2013년 열린 '특정 재래식무기 사용금지협정(CCW)'에 관한 국제회의에서는 자율형 살상무기의 제조·판매·사용을 완전히 금지해야 할지가 논의되었다.
자율형 살상무기 금지를 CCW에 담은 초안을 유엔에 제출하기 위해서는 CCW를 체결한 125개국 모두의 동의를 얻어야 한다. 그러나 2021년 초 현재 동의한다고 답한 곳은 불과 30개국에 그치고 있다.
또, Google 사내에서는, 이러한 군사 프로젝트에의 참가에 반대하는 소리도 나왔다. 2018년 4월에는 약 4000명의 Google 사원이 드론의 영상이나 위성으로부터 객체를 AI로 식별해 추적하는 시스템을 개발하는 「Porject Maven」으로부터 철수를 요구하는 청원서의 서명을 Google에 제출했다. 같은 해 6월에 구글은 Project Maven의 계약갱신을 하지 않겠다고 발표했으며, 무기에 직접 사용하는 시스템에는 관여하지 않는다고 말했다. 아마존이나 Microsoft에도 같은 청원서가 제출됐지만 양사 모두 여전히 국방부와 밀접한 관계를 맺고 있다는 것이다.
샤나한은 Google 직원의 항의를 불쾌하게 생각하는 한편, 국방부가 민간기업에 의존하고 있는 것을 통감했다고 말한다. Project Maven에서의 소동을 계기로 펜타곤은 미국 국방 이노베이션위원회에 AI 윤리 가이드라인 제안을 요구하고 AI 사용과 관련된 윤리적 문제를 조사하도록 명령했다.
구글의 슈미트 전 CEO는 "인간이 실수를 저질러 민간인을 죽인다면 그것은 비극이다. 하지만 자율시스템이 민간인을 죽인다면 그것은 비극 이상의 것이다. 사람들은 일반적으로 말한 대로 실행할 수 있을지 확신이 서지 않는 시스템을 책임질 생각은 없다. AI의 신뢰성은 앞으로 수십 년 안에 수정될 수 있지만 내년에는 무리일 것이라고 말했다.
Future warfare will feature automous weaponry - The Washington Post
https://www.washingtonpost.com/magazine/2021/02/17/pentagon-funds-killer-robots-but-ethics-are-under-debate/
Air Force uses artificial intelligence on U-2 Dragon Lady spy plane - The Washington Post
https://www.washingtonpost.com/business/2020/12/16/air-force-artificial-intelligence/
In a first, Air Force uses AI on military jet
Officials described the test flight as a step toward the eventual use of human-AI teaming in military aircraft.
www.washingtonpost.com
'시사, 경영' 카테고리의 다른 글
왜 AI는 인간에게 위협이 될 수 있나? (2) | 2022.10.01 |
---|---|
구글 전 에릭 슈미트 회장이 생각하는 인공지능의 앞날 (1) | 2022.10.01 |
윤리에 어긋나는 인공지능(AI) 개발은 막을 수 있어야 하나? (1) | 2022.10.01 |
상장회사의 [반기보고서 작성 관련] 대주주 등과의 거래내용 기재 (1) | 2022.10.01 |
윤리에 어긋나는 인공지능(AI) 개발은 막을 수 있어야 하나? (1) | 2022.09.30 |
댓글