인공지능은 핵무기보다 잠재적으로 위험, 스티븐 호킹이 100년 안에 인공지능은 인간을 넘어설 것이라고 경고
2015년 5월 런던에서 개최된 'Zeitgeist 2015' 컨퍼런스에서 스티븐 호킹 박사가 인공지능이 크게 향상되고 통제할 수 없기 때문에 인류가 해야 할 일을 말했다. 호킹 박사는 2014년 BBC News와의 인터뷰에서도 "인공지능의 진화는 인류의 종언을 의미한다"고 발언한 바 있으며, 인공지능 개발에 대해 경종을 울린 바 있다.
2015년 1월 일론 머스크, 빌 게이츠, 스티븐 호킹 박사 및 학자와 연구자 등이 인공지능을 다루는 산업의 안전기준에 대한 공개장을 쓰고 인공지능의 오동작으로 인해 인간에게 위험이 미치는 것을 막기 위해 언제든지 인공지능을 안전하게 제어할 수 있는 페일세이프 시스템(fail safe system. 어떠한 장치·시스템에서도, 오조작·오ㅈ작동에 의한 장해가 발생했을 경우, 항상 설계시에 상정한 안전하게 동작하도록 하는 것 또는 그렇게 하는 디자인기법으로 신뢰성 설계의 하나. 이는 장치나 시스템이 '반드시 고장난다'는 것을 전제로 한다)을 개발 연구해야 한다고 요구했다.
인공지능 연구는 한때 수그러들었지만 IBM이 사람처럼 스스로 학습·사고·분석을 하는 인공지능 '왓슨'의 의료와 관련하여 개발하면서 다시 주목받기 시작했다. 인공지능은 세계에 매우 큰 영향력을 가지고 있고, 구글과 페이스북 등 글로벌 테크놀로지 기업에 의해 개발이 진행되며 애플이 개발하고 있는 아이폰·아이패드에 탑재된 음성인식 어시스턴트 '시리'와 구글의 자율주행 시스템 등에 인공지능이 이미 사용되고 있다. Financial Times에 따르면 실리콘밸리에 있는 150개 스타트업은 인공지능을 개발하고 있다.
2014년 옥스퍼드 대학의 연구자인 빈센트 뮐러와 닉 보스트롬이 수행한 인공지능에 대한 조사에 따르면 170명의 연구자 중 18%가 "앞으로 인공지능은 인간의 존재를 위협할 가능성이 충분히 있다"고 답했고, 13%가 "앞으로 인공지능이 인간에게 불이익이 될 것"이라고 응답했다. 또 대부분의 연구자들은 인공지능이 인간의 지능을 넘어서는 것이 불가피하다고 생각한다는 것이다.
일론 머스크는 2014년 트위터를 통해 인공지능은 핵무기보다 잠재적인 위험을 내포하기 때문에 우리는 세심한 주의를 기울일 필요가 있다고 적은 바 있다.
또 일론 머스크는 인류가 고도의 인공지능을 창출하는 계기가 되는 부트로더(boot loader)가 되지 않기를 바라지만 그 운명을 걸을 가능성은 높다고도 했다.
2015년 5월 런던에서 개최된 'Zeitgeist 2015' 컨퍼런스에서 호킹 박사는 앞으로 100년 안에 인공지능이 인간을 넘어설 것이라고 경고했다. 인공지능이 인류를 넘어설 때 인공지능이 인류와 협력할 목적을 갖게 해야 하고, 또 인공지능 개발은 인류가 통제할 수 있도록 해야 한다고 호킹 박사는 생각한다. 그리고, 우리의 미래는 기술의 신흥세력과 기술을 이용하는 지혜의 싸움이 될 것이라고 호킹 박사는 말했다.
옥스퍼드 대학의 인공지능 전문가인 닉은 인공지능이 인간의 지적수준에 도달한 후에 단기간에 더 지적수준이 올라갈 것이라고 지적한다. 단기적으로는 '누가 인공지능을 컨트롤하느냐가 문제'가 되지만 장기적으로 보면 '인공지능을 제어할 수 있느냐 없느냐 자체가 문제'가 된다고 호킹 박사는 생각하고 있으며 과학자와 기술자가 인간의 통제를 넘어서지 않는 인공지능을 조정할 필요가 있다는 것이다.
FLI-Future of Life Institute
http://futureoflife.org/misc/open_letter
Stephen Hawking warns computers will overtake humans with in 100 years | Operating Systems | Techworld
http://www.techworld.com/news/operating-systems/stephen-hawking-warns-computers-will-overtake-humans-within-100-years-3611397/
What Experts Think About the Existential Risks of Artificial Intelligence
http://www.theepochtimes.com/n3/1366189-what-ai-experts-think-about-the-existential-risk-of-ai/
AI Open Letter - Future of Life Institute
Stuart Russell, Berkeley, Professor of Computer Science, director of the Center for Intelligent Systems, and co-author of the standard textbook Artificial Intelligence: a Modern Approach. Tom Dietterich, Oregon State, President of AAAI, Professor and Direc
futureoflife.org
The Epoch Times - Truth & Tradition. Fact Based. Unbiased. Accurate News
Reporting important news other media ignore. Clear, fact-based journalism without spin or hidden agendas: US, politics, China, world, opinion, business, science, art…
www.theepochtimes.com
'시사, 경영' 카테고리의 다른 글
컴퓨터가 자동차를 운전하는 세상에서 인간이 생각해야 할 문제 (0) | 2022.10.07 |
---|---|
고도로 발달한 AI는 인간보다 세계를 더 잘 운영할 수 있지만 충분한 대책과 정비가 필요 (0) | 2022.10.07 |
상법상 대통령령으로 정하는 상장회사의 기준 (0) | 2022.10.05 |
왜 AI는 인간에게 위협이 될 수 있나? (2) | 2022.10.01 |
구글 전 에릭 슈미트 회장이 생각하는 인공지능의 앞날 (1) | 2022.10.01 |
댓글