애플이 직면한 'AI 시대의 데이터 보호(보안)'라는 난제
이 내용은 해외 Red Ventures에서 나온 기사를 편집하여 정리한 것입니다.
이제 기술 업계의 거의 모든 기업이 인공지능(AI) 열풍에 휩싸이고 있다. Apple도 예외는 아니다. Apple이 다른 회사와 조금 다른 것은, AI가 가져오는 데이터 보호(보안)와 프라이버시의 문제에의 대처방법이다.
애플은 지난 6월 연례 개발자 회의 'WWDC'에서 자체 AI 'Apple Intelligence'를 발표하며, AI의 프라이버시와 보안에 새로운 기준을 세우겠다고 약속했다. 그러면서도 애플은 자사의 제품이나 소프트웨어를 OpenAI가 개발하는 'ChatGPT'와 '원활하게 통합'할 계획도 추진하고 있다.
Apple의 의도를 의심하는 것은 아니다. 그러나 일부의 보안전문가는, Apple이 업계에서는 드물게 공공의 이익을 배려하고 있는 것을 인정하면서도, Apple이 하지 않으면 안 되는 과제는 많으며, 사이버 범죄의 새로운 표적이 될 가능성도 있다고 지적한다.
AI를 도입함에 있어서, Apple이 보호(보안)나 프라이버시, 투명성의 확보를 약속하고 있는 것은 「올바른 방향으로의 일보다」라고 Wing Security의 최고집행책임자(COO), Ran Senderovitz는 말한다. 윙시큐리티는 기업 시스템에 사용되는 외주업체(third party) 소프트웨어의 보안 확보를 지원하는 기업이다.
이러한 약속은, 최소한의 데이터만을 수집하고, 또 영리목적으로 사용하지 않는다고 하는 Apple의 오랜 방침과도 일치하고 있다고 Senderovitz는 말한다. 그리고, 이것이야말로 명확한 규제가 아직까지 존재하지 않고, 독자적인 규범이나 기준조차 없는 무법지대와 같은 업계에서, Apple을 두드러지게 하고 있는 것이기도 하다.
애플과 대조적으로 Meta나 Google은 AI가 보급되기 훨씬 전부터 사용자의 데이터를 수집·공유해 업체나 광고주에게 판매하는 비즈니스 모델을 구축해왔다.
그러나 대규모 언어모델(LLM)이나 기계학습 등의 AI 툴은, 비약적인 진보나 혁신을 가능하게 하는 반면, 프라이버시나 정보의 기밀성의 측면에서는 중대한 문제를 일으킬 우려가 있다고 Senderovitz는 말한다.
ChatGPT 같은 툴에 데이터를 제공하는 것은 친구에게 비밀을 털어놓으면서 그 비밀을 잊어달라고 바라는 것과 같다. 하지만 한 번 들은 비밀을 친구들이 잊어버리지는 않을 것이라고 그는 말한다. LLM에 데이터를 제공해 버리면, 데이터의 행선지를 알기도 컨트롤하기도 어려워진다. 입력한 데이터가 즉시 파기된다고 해도, LLM이 그 데이터로부터 배운 것은 사라지지 않는다.
Apple Intelligence에서는 널리 사용되는 ChatGPT가 큰 역할을 하게 된다. 2024년 내에는 시리(Siri)와 문장 작성 툴에서 Apple Intelligence를 이용할 수 있게 될 예정이다. Apple은 ChatGPT를 사용할지 말지는 사용자가 결정할 수 있으며 정보를 공유할 때는 반드시 사용자의 허락을 구할 것을 약속하고 있다.
애플은 그동안 소프트웨어와 디바이스 동작에 필요한 최소한의 데이터만 수집함으로써 소비자 데이터의 보안과 프라이버시를 지켜왔다. 또 기밀 데이터를 클라우드 서버에 보내지 않고 디바이스 상에서 처리할 수 있을 만큼의 연산능력을 갖춘 스마트폰이나 컴퓨터를 개발해 왔다.
애초에 데이터를 수집하지 않으면 데이터 분실이나 도난, 판매도 생기지 않는다. 그러나 AI의 성질상 이 상황은 달라질 것이다. LLM을 훈련하고 그 성능을 높이기 위해서는 데이터가 필요하다. 또 일부 AI 처리는 일반적인 스마트폰이나 노트북으로 실행할 수 없다.
WWDC의 기조강연에서 Apple의 소프트웨어 엔지니어링 담당 시니어 바이스 프레지던트의 Craig Federighi는, 정말로 도움이 되는 AI를 실현하기 위해서는, 사용자의 평상시의 행동이나 인간관계라고 하는 퍼스널 콘텍스트를 이해하는 것이 반드시 필요하지만, 그것은 올바른 방법으로 이루어져야 한다고 말했다.
"자신의 생활에 관한 세부사항이 모두 공개돼 누군가의 AI 클라우드에 저장되거나 분석되는 일이 일어나서는 안 된다"고 페데리는 말한다.
이러한 사태를 피하기 위해서, Apple은 향후도 AI 처리를 가능한 한 디바이스상에서 실시한다고 약속한다. 스마트폰이나 컴퓨터로는 연산능력이 부족한 경우에 한해 더 높은 처리능력을 갖고, 더 큰 규모의 AI 모델을 이용할 수 있는 'Private Cloud Compute' 시스템에 데이터가 전송된다.
Federighi는, 보낸 데이터를 Apple이 보존하거나 접속하거나 하는 일은 없다고 하청받았다. 또 다른 애플 기기와 마찬가지로 독립적인 전문가가 서버상에서 실행된 코드를 검증해 애플이 이 약속을 이행하고 있는지 확인할 수 있다고 말했다.
◆ Private Cloud Compute의 프라이버시
트렌드 마이크로의 보안 연구자로 AI 시스템 분야에서 20년이 넘는 경험을 가진 조시아 하겐은 애플이 약속을 이행하기 위해 최선을 다할 것이라고 의심하지는 않는다. 또, Private Cloud Compute에는 보안 측면의 이점이 있다는 것도 인정한다. 규모가 크기 때문에 이상을 발견하기 쉽고, 분쟁의 싹을 일찍 틔울 수 있기 때문이다.
중요한 것은, 사이버 범죄자가 AI를 악용하고, AI를 이용하고 있는 앱에 예상 외의 동작을 시키는 것을 막는 구조를 넣을 수 있을지 여부라고 Hagen는 말한다.
그는 "앞으로는 AI 모델이 탈취돼 부정한 목적으로 이용되는 경우가 나올 것"이라고 예측한 뒤, 사이버 범죄자는 ChatGPT를 사용해 훔친 데이터 더미를 파헤칠 수 있지만 무료 AI 봇을 대량으로 사용하는 것이 이 작업을 빠르고 저렴하게 실행할 수 있다고 했다.
하젠은 애플이 자사 클라우드 보안 확보에 외부 기업을 활용하지 않는 점도 우려하고 있다. 자사에서 구축한 보안체제의 구멍을 자사에서 찾는 것은 어렵다. 사이버 공격자보다 먼저 구멍을 찾기 위해서는 외부의 관점을 도입할 필요가 있다.
「Apple은 보안 회사가 아니다」라고 Hagen는 말한다.「자사의 에코 시스템의 보안을 자사에서 확보하는 것은 곤란하다. 어떤 기업에도 맹점은 있다」
그리고 지금까지는 PC나 윈도 시스템을 연구해 온 사이버 범죄자들이 최근에는 악성코드를 이용해 iOS 시스템을 공격하는 사례가 늘고 있다. Apple의 폐쇄적인 시스템이 이러한 공격을 막을 수 있는 보증은 없다. Hagen이 우려하고 있는 것은, ChatGPT와의 제휴보다도, 오히려 Apple의 폐쇄적인 시스템 모델이다.
애플이 방어력을 높이기 위해서는 시스템의 버그를 찾아내 기업에 보고하고, 포상금을 받는 프리 보안 전문가들이 그 어느 때보다 중요한 역할을 하게 될 것으로 헤이겐은 보고 있다.
프라이버시에 관해서는, 법률상 혹은 비용상의 문제로부터, Apple이 프라이버시 관행을 재검토해, 소비자의 데이터를 차세대 AI의 트레이닝에 활용할 수 있도록 이용 규약을 변경할 가능성이 있다고 Hagen는 말한다.
Senderovitz도 이 점을 우려하고 있다. 그의 팀은 Apple의 규약, 특히 OpenAI와 같은 외주업체(third party)와의 데이터 공유에 관한 규약의 변경에 주목하고 있다. Apple은 사용자의 프라이버시를 지킨다고 장담하고 있지만, 그 자세한 것은 거의 알려져 있지 않다.
「작은 글씨로 쓰여진 세칙을 주시해 갈 필요가 있다」라고 그는 말했다.
*재미있거나 도움이 되셨다면 '구독' 꾹 눌러 주시기를 부탁드립니다. 늘 행복하세요.
'시사, 경영' 카테고리의 다른 글
중국 경제 '5% 성장'은 새빨간 거짓말로, 사실 '상상을 초월한 마이너스 성장'에 빠져있을지도 모르는 이만한 이유 (73) | 2024.07.09 |
---|---|
중(中) '부동산 거품 붕괴'로 지방재정에 불똥, 말문이 막히는 징세 방법 (79) | 2024.07.09 |
실패는 성공의 어머니라는 말은 거짓이고, 실패한 사람이 성공을 할 확률은 사람들이 믿는 것보다 훨씬 낮다 (74) | 2024.07.08 |
대만을 AI의 섬으로--정부가 추진하는 '아시아 실리콘밸리 계획(Asia Silicon Valley Plan)'은 무엇? (82) | 2024.07.08 |
이제 일본은 중국을 이길 수 없다…어느덧 중국의 반도체가 무시무시하게 진화하고 있다! (68) | 2024.07.08 |
댓글