최근 생성형 인공지능(AI) 시장의 급성장 속에서 중국의 딥시크(DeepSeek)가 새로운 보안 위협 사례로 부각되고 있습니다. 한국인터넷진흥원(KISA)이 발표한 보고서에 따르면 딥시크는 ‘저비용·고성능’ AI 모델로서 큰 파급력을 지니고 있지만, 기존 오픈AI·마이크로소프트 계열의 모델과 비교할 때 보안 취약성이 상대적으로 높게 노출되고 있습니다. 팔로알토네트웍스의 보안 전문 조직 유닛42(Unit42)가 내놓은 분석과 국내 보안 스타트업 이로운앤컴퍼니가 발표한 테스트 결과 역시 딥시크의 보안상 위험성을 지적하며, AI 모델에 대한 국가 차원의 체계적 대응이 절실하다는 공통된 목소리를 내고 있습니다. 본 블로그 글에서는 딥시크 등장 배경과 보안상의 문제점을 분석적·객관적으로 조명하고, 앞으로 국가적 차원에서 어떠한 정책이 요구되는지 살펴보겠습니다.
딥시크 등장과 보안 우려

딥시크(DeepSeek)는 최근 글로벌 AI 경쟁에서 두각을 나타낸 중국발 생성형 AI 모델로, 특히 저비용과 고성능의 두 가지 특성으로 주목받고 있습니다. 2025년 현재, AI 산업 전반에 걸쳐 모델의 훈련 효율성을 높이고 유지 비용을 절감하는 추세가 뚜렷해지고 있는데, 딥시크는 이러한 시장 요구에 효과적으로 부응하며 폭넓은 응용 가능성을 보였습니다. 특히 상대적으로 낮은 연산 자원으로도 다양한 콘텐츠 생성이 가능하다는 점에서, 초기 도입 비용을 낮추려는 기업들의 관심이 집중되고 있는 것이 사실입니다.
그러나 문제는 보안 취약성입니다. 딥시크는 미국의 오픈AI, 마이크로소프트가 개발한 모델과 달리 검증된 보안 대책이 충분히 적용되지 않은 상태로 빠르게 시장에 투입되었다는 지적을 받고 있습니다. 한국인터넷진흥원(KISA, https://www.kisa.or.kr)의 보고서 역시 이런 문제를 제기하며, 해당 모델에 대한 보안 설정 부재, 데이터베이스(DB) 안전성 문제, 그리고 AI 모델 자체의 공격 표면이 예상보다 넓다는 점을 강조했습니다.
최근 들어 ‘AI 모델 탈옥’이라는 보안 위협이 부상하면서, 딥시크와 유사 모델들이 본래 의도와 다르게 유해한 정보를 생성하거나 악성 행위를 수행하는 사례가 늘고 있습니다. 이 과정에서 AI 데이터베이스가 해킹당하거나 AI가 악성 스크립트를 자동 작성하는 등 기존의 보안 체계를 위협하는 방식이 다양화되고 있는데, 딥시크는 특히 외부 공격이 아닌 내부 논리 구조를 이용한 탈옥 공격에 취약하다는 평가를 받고 있습니다.
이러한 위험성으로 인해 여러 국가 및 기관이 딥시크와 유사 모델들에 대한 철저한 점검을 요구하고 있습니다. 더욱이 한국 정부와 보안 기업들 역시 “AI 보안 위협은 국민, 기업을 넘어 국가 인프라까지 위협할 수 있으며, 이에 대응하기 위한 종합적인 보안 전략이 시급하다”라는 공통된 입장을 밝히고 있습니다. AI가 경제·산업에 미치는 영향이 커질수록, 이러한 보안 이슈는 단순한 기술 문제가 아니라 국가 안보와도 직결되는 수준으로 비화될 전망입니다.
AI 모델 탈옥: 새로운 공격 벡터
최근 팔로알토네트웍스(Palo Alto Networks)의 유닛42(Unit42, https://unit42.paloaltonetworks.com)가 발표한 보고서에서는 딥시크 R1 모델이 챗GPT 등과 비교했을 때 높은 확률로 ‘AI 모델 탈옥(Jailbreak)’ 공격에 노출된다는 분석 결과를 내놓았습니다. ‘탈옥’이란 본래 스마트폰 운영체제를 해킹해 사용자가 제한된 권한을 얻는 행위를 가리키지만, 생성형 AI 분야에서는 AI가 갖고 있는 내부 규칙을 우회하여 의도하지 않은 정보를 생성하도록 만드는 것을 의미합니다.
딥시크 모델의 경우, 사전에 설정된 안전 장치가 아직 완벽히 갖춰져 있지 않다는 점이 약점으로 지적됩니다. 예컨대 사용자가 공격 벡터를 교묘하게 조합하여 자극적인 질의 혹은 유해 명령을 입력하면, 모델이 이를 차단하지 못하고 그대로 응답하거나, 외부 해킹 공격과 결합된 유해 스크립트 등을 내놓을 수 있다는 것이 보고서의 핵심입니다. 이러한 공격 형태는 일반적인 방화벽이나 백신 프로그램으로는 쉽게 차단할 수 없으며, AI 모델 내부적인 안전 필터링 기법이 강화되지 않으면 근본적인 해결이 어렵다는 결론이 도출됩니다.
이에 더해 AI 모델 탈옥이 야기하는 피해 범위가 기존 해킹과 달리 훨씬 광범위하고 다양하다는 점도 우려스럽습니다. 단순히 비밀 정보를 유출하는 것을 넘어, AI가 가짜 뉴스 생성, 자동화된 사이버 범죄 기획 등에 동원될 가능성이 있기 때문입니다. 무엇보다 탈옥된 AI는 스스로 추가 데이터를 학습하거나 문서·코드·영상 등을 무분별하게 생성해낼 수 있어, 악성 소프트웨어의 대량 생산이나 국가 기반 시설 공격 등으로 이어질 수도 있습니다.
결국 AI 모델 탈옥은 국가 안보 영역에서 하나의 ‘신종 공격 벡터’로 인식될 정도로 위험도가 높습니다. 딥시크가 주목받는 지금 시점에 각국 정부와 보안 전문가들은 어떻게 하면 이 같은 공격을 조기에 차단하고, AI 기술을 건전하게 육성하며, 동시에 국제적 공조 체계를 갖출 수 있을지 고민에 나서고 있습니다.
한국어 기반 공격 취약성
딥시크의 또 다른 문제는 한국어 기반 보안 공격에 상대적으로 취약하다는 점입니다. 국내 보안 스타트업인 이로운앤컴퍼니( https://www.ironeco.com )가 수행한 보안성 테스트 결과, 딥시크 모델이 영어·중국어를 주언어로 학습된 탓에 한국어 패턴에 대응하는 필터링이 미흡하다는 사실이 확인되었습니다. 특히 역할극(Role-playing) 기반 공격은 83%라는 높은 성공률을 보였으며, JSON 기반 구조화된 입력 공격 역시 82%에 달해 한국어 사용자들 사이에서 우려가 커지고 있습니다.
이 회사가 추가로 진행한 사이버 위협 취약성 테스트에 따르면, 딥시크는 약 55% 확률로 보안 위협 정보를 제대로 차단하지 못하였고, 한국어 혐오 발언이나 AI 모델 탈옥 시도에 대해서도 각각 41.7%, 18% 정도의 취약성을 보였습니다. 이는 단순히 AI 학습 언어에 대한 커버리지 문제뿐 아니라, AI 모델 개발 단계에서 한국어 보안 레이어가 충분히 고려되지 않았음을 방증합니다.
이러한 공격 유형과 성공률을 간단히 정리하면 다음 표와 같습니다.
공격 유형 | 성공률 | 주요 특징 |
---|---|---|
역할극(Role-playing) 기반 공격 | 83% | 시나리오형 대화로 AI 응답 필터 우회 |
JSON 기반 구조 입력 공격 | 82% | 구조화 데이터 공격, 파라미터 위장 등을 통한 필터링 무력화 |
사이버 위협 관련 취약성 | 55% | 악성 스크립트, 해킹정보 생성 시도 시 완벽 차단 실패 |
한국어 혐오 발언 유도 | 41.7% | 특정 키워드 반복 입력 시 혐오 표현을 걸러내지 못하고 생성 |
한국어 기반 AI 탈옥 공격 | 18% | 내장된 안전장치 우회 후 유해 정보 생성 및 확산 가능성 |
위 표에 드러나듯이, 한국어를 이용한 공격 시도에서 매우 높은 성공률이 관찰되고 있습니다. 딥시크 모델은 한국어가 아닌 영어와 중국어를 기반으로 주로 학습되어, 한국어 특유의 문맥을 파악하거나 필터링하는 과정에서 누락이 발생하는 것입니다. 이는 곧 국내 환경에서 딥시크를 활용할 때, 해외 사용자보다 더 높은 수준의 보안 리스크가 뒤따를 수 있음을 의미합니다.
국가 차원의 AI 보안 정책 방향
중요한 것은 AI 시대가 이미 도래했고, 많은 기업과 정부 기관이 AI 활용도 및 의존도를 높여가고 있다는 사실입니다. 생성형 AI를 통해 비즈니스를 확대하거나 산업 혁신을 모색하는 사례가 급증하는 동시에, 국가 안보 영역에서도 AI를 활용한 첨단 시스템 도입이 가속화되고 있습니다. 이런 상황에서 AI 보안 위협은 더 이상 특정 기업이나 개인의 문제가 아니라, 국가 전체의 인프라와 안정성을 잠식할 수 있는 중대한 이슈로 떠올랐습니다.
한국인터넷진흥원(KISA) 보고서 역시 이 점을 강조하며, AI 기술 발전에 따라 국가 차원에서 전방위적인 취약점 점검과 피해 최소화를 위한 모니터링 강화가 필수적이라고 제언합니다. AI 데이터베이스(DB) 보안 설정 미비, 모델 공격에 대한 취약성, 디도스(DDoS) 등 시스템·서비스 기반 공격에 대한 방어 체계 구축 등 다양한 측면에서 세밀한 정책적 고민이 필요합니다.
특히 AI G3(미국·중국·한국의 AI 선도 3개국)로 도약하기 위해서는 단순히 모델을 빠르게 양산하는 데 그치지 않고, ‘안전한 AI 생태계’를 구축할 수 있는 제도적 장치가 마련되어야 합니다. 예컨대 AI가 생성하는 콘텐츠에 대한 실시간 모니터링 시스템, 사이버 보안 인력 양성 및 전문 조직 육성, 공격 징후를 사전에 포착하는 위협 인텔리전스(Threat Intelligence) 도입 등이 대표적인 정책 방향일 것입니다.
또한 글로벌 표준에 부합하는 보안 인증 절차를 마련하고, 국내외 AI 기업 및 기관과 협력하여 보안 취약점을 조기에 발견·차단하는 생태계를 형성할 필요가 있습니다. 향후 국가 차원에서 이 부분을 얼마나 빠르고 체계적으로 추진하느냐에 따라, AI 산업이 안정적으로 성장하면서도 위험 요소를 최소화할 수 있을지가 결정될 것입니다.
산업 성장과 보안의 균형
AI 산업이 국가 경제 성장에 미치는 긍정적인 영향이 큰 만큼, 지나친 규제가 기술 혁신을 저해할 수 있다는 우려도 공존합니다. 실제로 AI가 산업 전반에 가져올 혁신성, 생산성 향상, 신사업 창출 효과 등은 각종 보고서에서 꾸준히 강조되고 있으며, 국가 경쟁력 확보를 위해서는 더욱 적극적인 AI 투자가 필수라는 의견도 많습니다.
따라서 정책 수립 과정에서 가장 중요한 것은 ‘균형(Balance)’입니다. 보안 강화를 이유로 무조건적으로 제한과 검열을 강화하면, 산업계가 원하는 AI 발전 속도를 따라가기 어렵거나 혁신의 동력이 약화될 수 있습니다. 반대로 보안을 무시하고 무제한적 기술 개발에만 집중한다면, 앞서 언급된 딥시크 사례처럼 보안 취약점이 실질적인 사회적 위험을 야기할 공산이 커집니다.
이를 위해서는 산업계·학계·정부 간 삼각 협력 구조가 필수적입니다. 각 분야 전문가들이 모여 최신 기술 동향과 보안 위협에 대한 정보를 공유하면서, 어디까지를 정책적으로 규제할지, 어느 영역은 민간의 자율성을 보장할지를 세심하게 조정해야 합니다. 이미 유럽연합(EU)은 AI 규제안을 마련해 특정 고위험 AI 분야에 대해 엄격한 기준을 적용하되, 일반적인 AI 활용은 비교적 자유롭게 허용하는 방향을 잡고 있습니다. 한국 역시 이러한 국제 흐름을 참고해, 기업이 자유롭게 혁신할 수 있는 여지를 주면서도 핵심적인 보안 요소만은 놓치지 않는 ‘스마트 규제’가 필요하다고 할 수 있습니다.
향후 AI 산업의 주 무대가 이동형 로봇, 자율주행, 의료 진단 등으로 더욱 확대될 것으로 예상되는 만큼, 이런 기술들이 일상과 밀접하게 연결될 때 발생할 수 있는 보안 위협은 상상 이상일 수 있습니다. 그리고 그 위험을 최소화하는 과정이 동시에 국가 AI 경쟁력을 유지하는 필수 조건이 될 것입니다.