윤리에 어긋나는 인공지능(AI) 개발은 막을 수 있어야 하나?
본문 바로가기
시사, 경영

윤리에 어긋나는 인공지능(AI) 개발은 막을 수 있어야 하나?

by 소식쟁이2 2022. 9. 30.

윤리에 어긋나는 인공지능(AI) 개발은 막을 수 있어야 하나?

인공지능(AI)은 인간이 가진 편견과 차별을 계승하기 때문에 최근에는 윤리적 측면에서 AI의 위험성에 대한 우려를 낳고 있다. 역사적으로 컴퓨터 사이언스 분야 연구에서는 윤리적인 논쟁을 불러오지 않았다고 하지만 상황이 크게 변하고 있다고 과학계의 변용에 대해 사이언스계 작가인 매튜 핸슨이 정리한 내용이다. 

컴퓨터 사이언스의 판독 논문이 발표되는 주된 기회는 저널이 아닌 콘퍼런스이며, 이는 다른 학술연구와는 다른 점이라고 핸슨은 설명했다. 

2019년 한 컨퍼런스 때 핸슨은 목소리에서 화자의 얼굴 이미지를 생성하는 AI 'Speech2Face' 포스터를 보게 됐다. Speech2Face가 예측하는 '얼굴'은 성별·나이·민족 같은 특징이 일치하는 정도로 '특별히 인상적인 기술은 아니었다'고 하지만 나중에 Speech2Face는 큰 논란을 불러 일으켰다. 

사회학자 알렉스 한나는 트위터 상에서 Speech2Face는 생물학적 특성과 정체성을 연결한다는 점에 문제가 있다고 지적하며 '트랜스포비아(Transphobia.  트랜스젠더에 대한 불관용, 부정적인 태도, 언동, 혐오를 의미한다.)'한 아이디어라고 말했다. 한편 다른 사용자들로부터는 이 기술이 범죄수사에 도움이 될 가능성도 시사했다. 

이 같은 AI와 윤리문제는 최근 주목받고 있으며 실제로 컴퓨터 사이언스의 논문이 윤리문제에 직면하는 경우가 늘고 있다. '윤리적 알고리즘'의 저자인 마이클 칸 는 AI를 둘러싼 이런 상황에 대해 우리는 맨해튼계획의 목전에 있다고 말한다. 

AI와 윤리에 관한 논의 가운데 컴퓨터 사이언스 분야의 논문공개 프로세스에 대한 윤리위원회(IRB)의 관여방식에 대해서도 언급이 있었다고 한다. 생물학·심리학·인류학 등 인간을 대상으로 하는 연구의 대부분은 연구를 진행하는 프로세스에 IRB에 의한 정밀조사가 포함되지만, 컴퓨터 사이언스의 연구에는 인간의 피험자가 관여하지 않는다고 해서 관례적으로 IRB가 설치되는 경우는 거의 없었다. 이 점이 AI 연구에 윤리적 관점이 결여된 원인으로 지적된 것이다. 

또, 컴퓨터 사이언스의 연구는 순수하게 학술적이지 않고, 기업이나 조직이 기술을 이용하는 것이 전제가 되고 있는 점이나, AI 기술의 영향은 광범위한 한편, 미국 보건복지부는 IRB에 대해 「연구가 가져오는 장기적인 영향은 평가해서는 안 된다」라고 명시하고 있는 것도, 문제에 관련되어 있다. 

예를 들어 중국에서는 위구르인을 식별하는 얼굴인식 클라우드 서비스가 제공된다고 보도되고 있다. 얼굴인식을 하는 AI 자체는 문제가 있는 것은 아니지만 기술이 민족박해에 이용되고 있다. 

또 경찰이 범죄수사에서 얼굴인식 기술을 도입한 결과 특히 흑인에 대한 오인체포가 잦아 문제가 됐다. 이것도 기술이 개발된 시점에서는 문제가 없었음에도 불구하고 실제로는 차별을 조장하는 결과가 된 예라고 할 수 있다. 

이 때문에 학술적인 연구 프로세스를 윤리적으로 개선하는 것이 요구되는 상황이기는 하지만, 한편으로 학술분야에서의 시스템을 개선하는 것만으로는, 그 기술이 가져오는 사회적 악영향을 억제할 수 없다는 지적도 있다. 

한편 IRB의 관여가 AI 연구에 직접적인 영향을 준다고 생각하는 연구자도 있다. 예를 들어 연구의 윤리적 측면을 고려할 때 알고리즘이 사진의 공개 데이터베이스를 사용해 학습을 할 경우 연구를 수행하기 전에 피사체에 동의를 구할 필요가 있을 수 있다. 많은 연구자는 「연구에 인간의 피실험자가 관여하고 있지 않다」는 것을 전제로 하고 있지만, 「인간의 관여」가 인정될 경우, 기술을 개발하기 위한 연구 자체가 지금까지와는 크게 다른 프로세스를 밟게 된다. 

아직까지 규제당국의 기술에 대한 이해가 따라가지 못하고 있다는 이유로 민간기업이 사용하는 AI가 감사대상이 되는 경우는 거의 없다. 이 때문에 AI 연구는 대부분 자율규제에 의존하고 있으며 몇몇 회의에서는 새로운 규범이 만들어지려 한다는 것이다. 계산언어학회는 논문 검토확인자에 대해 연구의 윤리적인 영향을 검토하도록 요구하고 있으며, AI 분야의 유력한 국제학회인 NeurIPS도 제출 논문에 '연구가 주는 폭넓은 잠재적 임팩트'를 긍정·네거티브 양 측면에서 논의하도록 요구하고 있다. 

NeurIPS의 요구는 연구자들 사이에서 화제가 되었고, 실제로 군사적 이용이 예측되는 기술의 연구자들은 연구를 완전히 포기하기에 이르렀다. 한편, 실제로 논문을 검토한 이아손 가브리엘는, 연구의 영향을 논한 내용은 양호한 것이었다고 말하고 있다. 많은 연구자들이 개인적으로 갖고 있던 '도덕적 위기'를 공개적으로 논의할 수 있게 된 것에 안도감을 갖고 있다는 인상이 있다고 한다. 

역사적으로 과학의 규제나 자율규제는 비극이 일어난 후에 만들어져 왔다. IRB 설치의 길을 연 국가연구법은 흑인을 피험자로 한 매독 임상시험 '태스키기 매독 실험(Tuskegee syphilis experiment.  앨라배마주의 타스키기에서 미국 공중위생국이 주도해 1932년부터 1972년까지 실시되었으며, 매독의 임상연구이다. 

 

의료 윤리적으로 큰 문제를 안고 있으며, 이것은 비윤리적인 인체실험의 하나다)'을 계기로 만들어진 것이며, 인플루엔자 바이러스 등의 위력을 높이는 연구는 미국 정부로부터 자금제공을 일시 중지당했다. AI에 관해서는 아직 큰 비극이 일어나지 않았지만, 그렇기 때문에 빠르게 진화하는 분야의 다양한 연구에서 큰 사건이 일어나지 않도록 현재 진행형으로 규칙이나 규범이 만들려는 상황이다. 


Who Should Stop Unethical a.i.? | The New Yorker
https://www.newyorker.com/tech/annals-of-technology/who-should-stop-unethical-ai

 

Who Should Stop Unethical A.I.?

At artificial-intelligence conferences, researchers are increasingly alarmed by what they see.

www.newyorker.com

 

반응형

댓글