AI 챗봇에 공유해서는 안 되는 5가지 사항
생성형 AI 챗봇은 훌륭한 기술이지만 완벽하다고는 단언할 수 없습니다.
AI 이용이 증가하는 가운데 '특정 정보는 사적으로 보안을 유지하고 AI 챗봇과 공유하지 않는 편이 좋다'는 점을 이해해야 합니다.
◆ AI 챗봇의 프라이버시 리스크(The Privacy Risks of AI Chatbots)
ChatGPT나 구글의 제미니(Google's Gemini)와 같은 AI 챗봇은 인간다운 응답을 생성할 수 있어 인기가 있습니다.
그러나 대규모 언어 모델(LLM)에 의존하고 있기 때문에 프라이버시(개인정보) 및 보안 위험이 수반됩니다.
다음과 같은 취약성이나 우려가, 주고 받는 가운데 공유된 개인정보가 누설되거나 악용되거나 할 가능성을 부각시키고 있습니다.
• 데이터 수집 실태(Data Collection Practices): AI 챗봇은 사용자와의 상호작용을 포함할 수 있는 방대한 교육 데이터를 사용합니다. OpenAI와 같은 기업은 사용자가 데이터 수집을 거부할 수 있는 옵션을 제공하고 있지만 완전한 프라이버시를 확보하기 어려울 수 있습니다.
• 서버 취약성(Server Vulnerabilities): 저장된 사용자 데이터는 해킹 표적이 되기 쉽고, 사이버 범죄자가 이 정보를 훔쳐 악의적인 목적으로 악용할 수 있습니다.
• 제3자에 의한 접근(Third-Party Access): 챗봇과의 교환을 통해 얻은 데이터는 제3자의 서비스 제공자와 공유되거나 권한 있는 담당자에 의해 접근될 수 있으며, 이것이 보안 침해의 위험을 높입니다.
• 광고 이용('없음' 주장)(No Advertising Use (Claimed)): 기업은 데이터를 마케팅 목적으로 판매하지 않는다고 주장하지만 시스템 유지관리나 운영 목적으로 공유될 수 있습니다.
• 생성형 AI에 대한 우려(Generative AI Concerns): 비평가들은 생성 AI의 도입이 진행됨에 따라 이러한 보안 및 프라이버시 위험이 악화될 수 있다고 주장합니다.
Advertisement
ChatGPT나 기타 AI 챗봇을 사용할 때 데이터를 보호하고 싶다면 관련된 프라이버시 리스크를 이해하는 것이 중요합니다.
OpenAI와 같은 기업은 일정한 투명성과 관리 수단을 제공하고 있지만, 데이터 공유의 복잡성이나 보안상의 취약성에는 경계가 필요합니다.
프라이버시와 보안을 확보하기 위해 생성형 AI 챗봇과 결코 공유해서는 안 되는 5가지 중요한 데이터 종류가 있습니다.
1. 재무정보(Financial Details)
AI 챗봇의 광범위한 이용으로 많은 사용자가 재무 상담 및 개인적 재무관리를 위해 이러한 언어모델을 이용하게 되었습니다.
이들은 금융 활용능력(literacy) 향상에 도움을 주는 반면 AI 챗봇과 재무정보를 공유할 때 잠재적 위험성을 이해하는 것이 중요합니다.
챗봇을 재무 자문으로 이용할 경우, 재무정보가 사이버 범죄자에게 유출될 위험이 있고, 그것이 악용되어 계좌에서 자금을 인출될 수도 있습니다.
기업이 대화 데이터를 익명화하고 있다고 주장하더라도 제3자나 일부 직원이 그 데이터에 접근할 수 있는 가능성은 여전히 남아 있습니다.
예를 들어 챗봇이 지출 습관을 분석해 조언을 제공하는 경우에도, 이 데이터가 부정한 제3자에게 접근되면 은행을 가장한 피싱 메일 등의 사기에 이용될 수도 있습니다.
재무정보를 보호하기 위해 AI 챗봇과의 교류는 일반적인 정보나 폭넓은 질문으로 제한해야 합니다.
특정 계좌정보, 거래내역 또는 비밀번호를 공유하면 취약성이 발생할 수 있습니다.
개별 재무 자문이 필요한 경우 자격을 갖춘 재무 전문가가 더 안전하고 신뢰할 수 있는 선택지입니다.
2. 개인적인 사고(생각)(Personal and Intimate Thoughts)
많은 사용자들이 AI 챗봇을 이용해 해결책(therapy)을 찾고 있지만, 그것이 정신건강에 미치는 잠재적인 영향에 대해서는 충분히 인식하지 못하는 경우가 있습니다. 이러한 챗봇에 개인적이고 친밀한 정보를 공개할 위험성을 이해하는 것은 매우 중요합니다.
AI 챗봇은 현실 세계 지식이 부족해 정신건강과 관련된 질문에 대해서는 일반적인 답변만 제공할 수 있습니다.
이는 AI 챗봇이 제안하는 약이나 치료법이 당신의 특정 요구에 적합하지 않을 수 있으며 건강을 해칠 수 있음을 의미합니다.
게다가 AI 챗봇에 개인적인 사고(생각)를 공유하는 것은 중대한 프라이버시 우려를 야기합니다. 당신의 사생활은 비밀이나 개인적인 사고(생각)가 온라인으로 유출되거나 AI의 훈련 데이터의 일부로 사용됨으로써 침해될 수 있습니다.
악의적인 인물은 이 정보를 이용하여 당신을 감시하거나 다크 웹에서 데이터를 판매할 수 있습니다. 따라서 AI 챗봇과의 소통에 있어 개인적인 사고(생각)의 프라이버시를 지키는 것은 중요합니다.
AI 챗봇은 전문적인 해결책(therapy)을 대체하는 것이 아니라 일반적인 정보제공 및 지원을 위한 도구입니다.
정신건강에 대한 조언이나 치료가 필요한 경우에는 자격을 갖춘 정신건강 전문가와 상담해야 합니다.
자격있는 전문가라면 당신의 프라이버시(개인정보)와 건강을 최우선으로 하면서 개별적이고 신뢰할 수 있는 안내를 해 줄 것입니다.
3. 기밀의 직장 정보(Confidential Workplace Information)
AI 챗봇과의 소통에서 피해야 할 또 다른 실수는 기밀 직장 정보를 공유하는 것입니다.
애플(Apple), 삼성(Samsung), 구글(Google)과 같은 유명한 기술 기업들은 직원들이 직장에서 AI 챗봇을 사용하는 것을 제한하고 있습니다.
블룸버그 보도에서는 삼성 직원이 코딩 목적으로 ChatGPT를 사용하다 실수로 기밀코드를 생성형 AI 플랫폼에 업로드해버린 사례가 거론됐습니다.
이 건으로 인해 삼성에 대한 기밀정보가 무단으로 공개되었고, 이 회사는 AI 챗봇 사용 금지를 강제하게 되었습니다. 만약 AI를 사용하여 코딩의 문제(또는 다른 직장의 문제)를 해결하고 싶다면, 기밀정보를 AI 챗봇에 맡겨서 신뢰해서는 안됩니다.
마찬가지로 많은 직원들이 AI 챗봇을 사용해 회의록을 요약하거나 반복적으로 작업을 자동화하는데, 그 결과 의도치 않게 기밀 데이터가 유출될 위험이 있습니다.
직장 관련 데이터를 공유할 때의 리스크에 주의함으로써, 기밀정보를 지키고, 조직을 의도하지 않은 누설이나 데이터 침해로부터 지킬 수 있습니다.
4. 비밀번호(Passwords)
비밀번호를 온라인으로 공유하는 것은 비록 대규모 언어모델이라도 절대 피해야 합니다. 이 모델들은 데이터를 서버에 저장하고 있으며 비밀번호를 공개하는 것은 사생활을 위험에 빠뜨리게 됩니다.
2022년 5월 ChatGPT와 관련한 중대한 데이터 침해가 발생하면서 챗봇 플랫폼의 보안에 대한 우려가 높아졌습니다.
그리고 ChatGPT는 유럽 연합의 일반 데이터보호규칙(GDPR)에 의해 이탈리아에서 금지되었습니다. 이탈리아 규제당국은 AI 챗봇이 프라이버시법을 준수하지 않는다고 판단하고 플랫폼 상에서의 데이터 침해 위험을 부각시켰습니다.
그 금지 조치는 이미 해제됐지만 기업들이 데이터 보안대책을 강화하고 있음에도 불구하고 취약점이 여전히 존재함을 보여줍니다.
로그인 인증 정보를 지키기 위해 문제 해결을 위한 목적이라도 챗봇과 공유하지 않도록 합니다.
비밀번호 재설정이나 관리가 필요한 경우는 전용 비밀번호 관리자나 조직의 안전성이 확보된 IT 프로토콜을 사용해야 합니다.
5. 주거정보 및 기타 개인정보(Residential Details and Other Personal Data)
소셜미디어나 다른 온라인 플랫폼과 마찬가지로 AI 챗봇에는 개인을 특정할 수 있는 정보(PII)를 공유해서는 안 됩니다.
PII(개인을 식별할 수 있는 정보)에는 당신의 위치정보, 사회보장번호(주민등록번호), 생년월일, 건강정보 등의 기밀 데이터가 포함되며, 이들은 당신을 식별하거나 위치를 알아내는 데 사용될 수 있습니다.
예를 들어 챗봇에게 인근 서비스를 물어볼 때 집 주소를 가볍게 언급하는 것이 의도치 않게 위험에 노출되는 원인이 될 수 있습니다.
만약 이 데이터가 감청되거나 누출되면 누군가가 그것을 이용해 신원을 훔쳐 보거나 실제 위치를 알아내거나 할 가능성이 있습니다.
마찬가지로 스냅챗과 같은 AI와 통합된 플랫폼에서의 과도한 정보공유는 의도하지 않은 형태로 자신에 대한 정보를 과도하게 밝혀버릴 수 있습니다.
AI 챗봇과 소통할 때 데이터 프라이버시(개인정보)를 보호하기 위해 다음과 같은 중요한 실천사항을 지킵시다.
• 챗봇의 개인정보보호 정책을 확인하고 관련된 위험을 이해합시다.
• 자신의 개인신상이나 개인정보가 의도치 않게 드러나는 질문은 피합시다.
• 신중하게 행동하고 AI 봇에 의료정보를 공유하는 것은 피합시다.
• 스냅챗과 같은 소셜 플랫폼에서 AI 챗봇을 사용할 때는 데이터의 잠재적 취약성에 주의합시다.
AI 챗봇은 많은 용도에 있어 훌륭하지만 동시에 심각한 프라이버시(개인정보 침해) 위험도 동반합니다.
ChatGPT나 Copilot, Claude, 기타 AI 챗봇을 사용할 때 개인 데이터를 보호하는 것은 사실 그리 어렵지 않습니다.
공유하고 있는 정보가 누출된 경우에 무슨 일이 일어날지 조금 생각해 보시기 바랍니다. 어떻게 이야기해도 좋다는 것과 자신만이 알고 있어야 한다는 것을 알 수 있을 것입니다.
(출처) 5 Things You Must Not Share With AI Chatbots
https://www.makeuseof.com/things-you-must-not-share-with-ai-chatbots/
*재미있거나 도움이 되셨다면 '구독' 꾹 눌러 주시기를 부탁드립니다. 늘 행복하세요.
'시사, 경영' 카테고리의 다른 글
'세상 구조' 탐구를 시작한 인공지능 ... 노벨 물리학상과 화학상을 수상한 '사이언스 AI' 연구의 현재 (32) | 2024.12.31 |
---|---|
최면술에 얽힌 '6가지 속설' 전문가의 과학적 반증 (10) | 2024.12.31 |
우리는 왜 일하나 ... '50대에 일하는 것의 의미를 잃는' 사람이 많아진다는데 ... (21) | 2024.12.30 |
비트코인, 투자자 '불안과 기대' 교차 (16) | 2024.12.30 |
2025년의 세계와 동북아를 잠시 생각해 보면...... (24) | 2024.12.30 |
댓글