인류와 외계인이 만나지 않는 것은 「고도의 문명은 전부 AI에 의해 멸망되었기 때문」이라고 하는 설
본문 바로가기
시사, 경영

인류와 외계인이 만나지 않는 것은 「고도의 문명은 전부 AI에 의해 멸망되었기 때문」이라고 하는 설

by 소식쟁이2 2024. 4. 13.

인류와 외계인이 만나지 않는 것은 「고도의 문명은 전부 AI에 의해 멸망되었기 때문」이라고 하는 설

우주에는 인류 이외의 지적생명체가 존재할 가능성이 높은데도 지금까지 인류와 접촉한 외계인이나 외계문명이 존재하지 않는다는 모순은 페르미의 역설(Fermi paradox)이라고 합니다. 이 모순에 대해 맨체스터대학의 우주물리학자인 마이클 가렛 교수가 '고도의 문명은 모두 AI에 의해 멸망당하기 때문에 인류와 외계문명이 접촉할 수 없다'는 설을 주장하고 있습니다.
  *페르미 : 이탈리아의 원자 물리학자(1901-1954). 파시즘을 피하여 미국에 망명. 통계 역학·베타 붕괴이론을 연구, 또 중성자에 의한 원소의 인공 전환 실험을 하였음. 1938년 노벨 물리학상 수상. 1942년 최초의 원자로 건설에 성공. 원자폭탄 제조에 공헌.

이 넓은 우주에는 인류 이외의 지적생명체가 존재할 가능성이 충분히 있지만, 현 시점에서는 인류와 우주인이 접촉한 증거나, 지구외의 지적문명이 존재한다는 확신은 얻을 수 없습니다. 이 페르미의 역설이 존재하는 이유에 대해서는 '태양계가 외계생명체에게 매력적이지 않기 때문에' '문명은 생존전략을 위해 다른 문명을 멸망시키기 때문에' 등의 설이 있습니다.

가렛은 우주과학에 관한 논문을 다루는 학술지인 Acta Astronautica에 제출한 논문에서 AI가 지적문명의 발전을 방해하는 그레이트 필터(great filter)로서 기능하기 때문에 성간(星間) 이동을 할 수 있을 정도의 문명이 존재하지 않는다는 설을 주장했습니다.

그레이트 필터(great filter)란 지적문명이 여러 행성이나 항성계를 이동할 수 있을 정도의 수준에 도달하는 것을 방해하거나 혹은 거기까지 발전하기 전에 문명을 멸망시켜 버리는 사건이나 상황을 가리키는 말입니다. 예로는 행성 규모의 기후변화나 핵전쟁, 소행성 충돌, 초신성 폭발, 역병 같은 것을 들 수 있는데, 가렛은 'AI의 급속한 발전'이 이 그레이트 필터(great filter)로서 기능하지 않을까 생각하고 있는 것입니다.

지적문명이 단 하나의 행성에만 존재하는 경우, 그 행성이 괴멸적인 상황에 빠져버리면 문명 정체나 멸종의 위험이 높아집니다. 개럿은 "이들 문명이 여러 행성에서 안정적으로 발달하기 전에 그레이트 필터(great filter)가 출현하는 것이 아니냐는 제안을 하고 있으며, 기술문명의 전형적인 수명은 200년 미만임을 시사하고 있습니다"라고 말합니다.

이미 AI는 챗봇과 자율주행차, 방대한 데이터 분석, 온라인 사기 검출 등 다양한 분야에서 활약하기 시작했습니다. 이러한 기술은 인간에게 큰 혜택을 가져다 주는 반면, 많은 일자리를 빼앗을 위험성이 있다는 점도 지적되는 것 외에도, AI가 인간의 지능을 넘어 통제할 수 없게 되어 버릴 위험도 우려되고 있습니다.

영국의 이론물리학자인 스티븐 호킹 박사는 2017년에 "나는 AI가 인간을 대체할까 봐 우려됩니다. 컴퓨터 바이러스를 설계하듯 누군가가 자기를 개량하고 복제하는 AI를 설계할 것입니다. 이는 인간을 능가하는 새로운 생명 형태가 될 것입니다'라고 말했습니다.

개릿도, AI가 급속히 발전해 새로 생겨나는 「Artificial Superintelligence(ASI:인공 초지능)」는 그것을 만들어 낸 생물학적 생명체를 필요로 하지 않기 때문에, 생물에 의한 감시를 넘은 속도로 진화를 계속한 결과, 생물학적인 윤리나 장점에 맞지 않는 예기치 않은 결과를 가져올 위험이 있다고 지적합니다.

자칫 ASI가 생물학적 감시자의 존재가 합리적이지 않다고 생각해 치명적인 바이러스를 만들거나, 농작물의 생산과 유통을 방해하고, 원자력 발전소를 붕괴시키고, 전쟁을 시작해 창조주를 멸종시킬 수 있다고 주장했습니다.

AI를 둘러싼 문제가 복잡한 것은 A가 의료용 이미지에 기반한 진단 정확도 개선부터 안전한 운송 시스템 구축까지 모든 분야에서 장점을 가져오기 때문입니다.만약 AI가 단점밖에 초래하지 않는다면 전면적으로 규제하기만 하면 되지만 AI가 가져올 장점이 너무 크기 때문에 정부에는 'AI 피해를 줄이면서 윤리와 책임을 가진 AI의 발전을 뒷받침한다'는 어려운 정책이 요구된다고 한다.

AI로 인해 문명이 멸망해버리는 것을 방지하는 방법으로 꼽히는 것이 지구뿐만 아니라 기타 행성이나 항성계에 진출해 하나의 행성이 멸망해도 다른 행성에 사는 집단이 살아남을 수 있도록 하는 것입니다. 개럿은 "예를 들어, 여러 행성에 걸친 생물종은 서로 다른 행성에서의 독립적인 경험을 바탕으로 생존 전략을 다양화하고, 하나의 행성에 묶인 문명이 직면하는 장애를 회피할 수 있을 가능성이 있습니다." "이 분산형 존재 모델은 필요하게 장황함을 만들어냄으로써 AI가 일으키는 대참사에 대한 생물 문명의 회복력을 높입니다."라고 말합니다.

또한 여러 행성에 진출함으로써 특정 천체를 '고도의 AI 실험 환경'으로 활용할 수 있을 수도 있습니다. 고립된 소행성이나 준행성 등 인류문명과 직접 관련이 없는 곳에서 AI의 진화를 지켜봄으로써 멸종 위험을 감수하지 않고 AI의 가능성을 연구할 수 있다는 것입니다.

그러나 여기서 큰 문제가 되고 있는 것이 AI 개발과 우주개발 사이에는 큰 간극이 존재한다는 점입니다. AI는 컴퓨팅 능력과 데이터가 있으면 앞으로도 순조롭게 발전할 수 있지만, 우주개발에는 인간의 생물학적 제약이나 에너지 문제 등 아직 극복하지 못한 다양한 과제가 존재합니다. 개럿은 AI는 이론상 물리적 제약을 거의 받지 않고 스스로의 능력을 향상시킬 수 있습니다. 그러나 우주여행은 에너지의 제한, 재료과학의 한계, 우주환경의 어려운 현실과 싸워야 합니다."라고 말했습니다.

AI에 의해서 인류가 멸망하는 것을 막기 위해서, 개릿은 인류가 우주개발에 보다 열심히 하는 것과 동시에, 세계 각국이 보조를 맞추어 AI의 윤리적인 규제의 구조를 갖추어 AI의 폭주를 막는 시도도 필요하다고 주장합니다.

"실제적인 규제가 없다면 AI가 우리 기술문명뿐만 아니라 모든 기술문명의 진로에 큰 위협이 될 수 있다고 믿을 충분한 이유가 있습니다" "우주에서 지적 생명체의 존속은 이러한 국제적인 규제 조치와 기술적 노력의 시의적절하고 효과적인 추진에 달려 있습니다"라고 말했습니다.

*재미있거나 도움이 되셨다면 '구독' 꾹 눌러 주시기를 부탁드립니다. 늘 행복하세요.

 


Is artificial intelligence the great filter that makes advanced technical civilisations rare in the universe? - - ScienceDirect
https://www.sciencedirect.com/science/article/pii/S0094576524001772

Does the Rise of AI Explain the Great Silence in the Universe? - - Universe Today
https://www.universetoday.com/166544/does-the-rise-of-ai-explain-the-great-silence-in-the-universe/

반응형

댓글