딥시크와 글로벌 AI 경쟁

중국 기업이 내놓은 생성형 AI 플랫폼 ‘딥시크’가 미국발 챗GPT 열풍과 맞물리며, 전 세계적으로 AI 기술 경쟁에 불을 지피고 있다. 미국과 중국이 이끌어가는 AI 산업의 급격한 확산 속에서, 유럽과 한국을 비롯한 여러 국가 또한 자국 산업 경쟁력을 강화하기 위해 다양한 지원책과 전략을 내놓는 상황이다. 딥시크는 중국 정부의 전폭적 지원 아래 빠르게 대규모 데이터를 수집·분석해 사용자 친화적 인터페이스를 구축함으로써, 전 세계 AI 시장에서 가시적인 성과를 내고 있다는 평가를 받는다.
이러한 글로벌 AI 경쟁 양상은 단순히 인프라 구축이나 하드웨어 확보에 국한되지 않는다. 소프트웨어, 알고리즘, 서비스 운영 능력 등 다양한 부문에서 종합적인 경쟁력을 요구한다. 실제로 한국 정부 역시 이 흐름에 발맞춰 AI 생태계를 확장하고, 국가 전략산업을 집중 지원하는 계획을 밝히고 있다. 예를 들어, 최상목 대통령 권한대행은 “배터리·바이오 등 첨단산업과 기술을 지원하는 ‘첨단전략산업기금’을 산업은행에 신설하겠다”고 공언했고, 이를 통해 4차 산업혁명 시대를 이끌어갈 여러 혁신 기술들을 적극적으로 육성하고자 한다는 의지를 보였다.
하지만 AI가 경제 발전을 견인할 것이라는 기대감 이면에는, 미국 신정부의 관세 정책부터 중국 딥시크의 급격한 시장 확대까지 다양한 변수가 공존한다. 특히 AI 기술이 발전할수록 보안 문제와 개인정보 보호 우려도 덩달아 커지고 있으며, 정책·법제 차원의 대응이 시급하다는 지적이 제기된다. 이는 기존에 서버나 네트워크 보안에 국한되었던 문제에서 더 나아가, 생성형 AI가 만들어낼 수 있는 허위 정보나 데이터 오남용 문제까지 포괄하기 때문이다. 다시 말해, 기술 발전에 대한 기대와 함께 사회적·정치적 영향을 고려하는 균형 잡힌 시각이 필요해지고 있다.
이렇듯 글로벌 AI 경쟁이 가속화되는 가운데, 주요 선진국들은 AI 컴퓨팅 센터 건설, AI 전문인력 육성, 빅데이터 분석 플랫폼 구축 등 다각적인 정책을 펴고 있으며, 중국의 딥시크 또한 이를 겨냥한 대표적 사례로 지목된다. 한국 정부가 17조 원 규모의 반도체 금융지원 프로그램을 넘어 34조 원 이상의 첨단전략산업기금을 추진하고 있는 것도 같은 맥락에서 이해할 수 있다. 앞으로는 AI 투자와 지원뿐만 아니라, AI가 초래하는 사회적 영향과 위험 요소를 다각도로 모니터링해 정책 결정에 반영해야 한다는 의견이 높아지고 있다.
정부의 첨단전략산업기금과 AI 인프라 확장
최근 정부는 산업은행을 중심으로 ‘첨단전략산업기금’을 신설하여, AI·배터리·바이오 등 핵심 미래산업 분야에 대한 지원을 획기적으로 늘리겠다는 계획을 발표했다. 기존 반도체 지원책으로 알려졌던 17조 원 규모의 금융지원 프로그램을 넘어, 약 34조 원 이상의 대규모 기금 조성을 목표로 하고 있다는 점이 주목된다. 이는 사회 전반에 걸쳐 AI 활용도가 높아지고 있는 시점에서, 해당 분야의 경쟁력을 강화하고 외부 충격에 대비하고자 하는 정책적 시도라고 볼 수 있다.
정부가 이러한 기금을 통해 집중적으로 지원하려는 분야는 크게 네트워크 인프라 확장, AI 컴퓨팅센터 설립, 핵심 알고리즘 연구개발, 그리고 보안 기술 확보로 압축된다. 최근 글로벌 AI 경쟁에서 가장 중요한 화두가 ‘데이터 주권’과 ‘보안 역량’이라는 평가가 나오고 있는데, 한국 역시 클라우드 기반 AI 컴퓨팅 자원을 확대하고, 고성능 GPU·TPU 등의 인프라를 안정적으로 공급하려는 움직임을 보인다. 또한, 국내외 연구기관 및 기업과의 협업 체계를 구축해 소프트웨어와 하드웨어를 동시에 육성해야 한다는 지적도 이어진다.
아울러 정부는 오는 20일로 예정된 ‘국가AI위원회’를 통해 AI 3대 강국 도약을 위한 세부 전략을 논의할 예정이라고 밝혔다. 이 위원회에서는 국가 차원에서 필요한 법·제도 정비, 연구개발(R&D) 투자 방향, 윤리 및 개인정보 보호 방침 등에 대한 종합적인 로드맵이 제시될 것으로 기대된다. 특히 국내 대기업과 스타트업이 협력하여 AI 기술 생태계를 확대하고, 궁극적으로 AI가 국민 생활 전반에 긍정적 영향을 미칠 수 있도록 유도하겠다는 전략이다.
아래 표는 주요국의 AI 정책과 투자 규모, 그리고 보안 및 규제 접근 방식을 간단히 비교한 내용이다.
구분 | 국가 | 주요 AI 정책 | 투자 규모(예상) | 보안·규제 접근 |
---|---|---|---|---|
1 | 미국 | AI 전략법, NIST 프레임워크 개발 | 100조 원 이상(추정) | 민간 주도 혁신, 자율 규제 기본, 필요시 강력 제재 |
2 | 중국 | 정부 주도 5개년 계획, 딥시크 전폭 지원 | 50~70조 원(추정) | 국가 검열 및 통제, 기업별 보안 규제 강화 |
3 | 유럽연합 | AI Act 제정 추진, 윤리·공정성 강조 | 약 30조 원(추정) | 개인정보 보호 중점, AI 윤리 가이드라인 설정 |
4 | 한국 | 국가AI위원회, 첨단전략산업기금 신설 | 34조 원 이상(추정) | 보안·윤리 병행 강화, 공공부문 적용 확대 |
[출처: 각국 정부 보도자료 및 산업연구원 보고서 (2025.03 기준)]
표에서 볼 수 있듯, 각국의 투자 규모나 규제 방식은 정치·경제 상황에 따라 달라지지만, 공통적으로 AI 분야에 대한 대규모 투자를 단행하고 있다. 한국의 경우 이미 반도체, 배터리, 바이오 등 첨단산업 분야에서도 글로벌 경쟁력을 입증해왔지만, 앞으로는 AI라는 ‘기술 중추’를 확보해 이들 산업과 융합해야 더욱 높은 부가가치를 기대할 수 있다는 분석이 제기된다.
AI 보안: 국가 및 기업의 대응 전략
전 세계적으로 AI에 대한 관심이 높아지면서, AI 기술이 가져올 수 있는 부작용과 보안 문제도 함께 spotlight를 받고 있다. 특히 중국 딥시크처럼 막대한 데이터를 수집하고, 이를 기반으로 빠른 연산 능력을 자랑하는 생성형 AI 서비스가 등장하면서 정부와 기업의 대응이 분주해지고 있다. 실제로 한국 정부 주요 부처는 AI 프로그램의 접속을 일부 차단하거나, 내부망에서의 사용을 제한하는 등 선제적 조치를 취하기 시작했다. 국방부, 외교부, 산업통상자원부 등이 대표적 사례로 언급된다.
이러한 조치는 AI가 제공하는 편의성과 효율성만을 보장하는 것이 아니라, 그 반대급부로 데이터 도용, 기업 기밀 정보 유출, 신종 사이버 공격 등의 심각한 문제가 발생할 수 있기 때문이다. 딥시크가 빠르게 글로벌 시장을 잠식하면서, AI 모델을 악용해 사이버 위협을 일으키는 시도가 현실화될 가능성이 제기된다. 특히 금융권이나 통신사와 같은 인프라 핵심 산업은 이미 내부망 차단을 통해 AI 서비스 사용을 제한하고 있으며, 특정 AI 모델에 데이터 접근 권한을 허용할지 말지는 기업의 중대 의사결정 사안으로 떠올랐다.
정부 차원에서도 AI 관련 보안 가이드라인을 마련해 공공기관에 배포하고 있다. 행정안전부는 생성형 AI 사용 시 유의사항을 담은 공문을 배포했으며, 개인정보보호위원회 역시 중국 딥시크 본사를 상대로 데이터 처리 방식 등에 대한 질의를 진행 중이다. 국가정보원은 AI 보안 가이드라인을 마련해 각 부처와 지자체가 이를 준수하도록 당부하고 있는데, 여기에는 데이터 무단 전송 여부, 분석 과정에서의 개인정보 식별 가능성, 외국 기업의 서버 의존에 따른 위협 요소 등이 포함된다.
민간 기업들도 자체적으로 AI 보안 솔루션을 도입하고 전문가를 채용하는 등 적극적인 대응에 나서는 추세다. 예컨대, 은행권에서는 고객정보 유출을 방지하기 위해 사내망에서의 AI 접속을 전면 차단하는 동시에, 장기적으로는 자체 AI 알고리즘을 개발해 고객 데이터를 외부 서비스에 노출하지 않으려는 움직임을 보인다. 통신업계나 대형 포털기업들도 AI 모델 학습 단계부터 보안 취약성을 점검하고, 대규모 트래픽 유입 시도나 악의적 데이터 삽입 가능성을 사전에 탐지할 수 있는 시스템을 구축하고 있다.
빅데이터 분석을 통해 본 AI 보안 감성 추이
빅데이터 분석 도구인 썸트렌드(SomeTrend) 결과에 따르면, 최근 AI 보안과 관련된 주요 연관어로 “성장하다”, “위협”, “강세”, “범죄”, “우려”, “기대”, “강화하다”, “위험”, “새롭다”, “해결하다”, “피해”, “도움”, “윤리적”, “안전”, “효율적” 등이 도출되었다고 한다. 이 중에서 “위협”, “범죄”, “우려” 등은 AI 보안 문제가 이미 광범위하게 인식되고 있음을 시사한다. 반면 “기대”, “강세”, “도움” 등은 AI 기술의 긍정적 측면도 무시할 수 없다는 사실을 반영한다.
이러한 양가적 반응은 AI가 단순히 기술적 혁신에서 그치는 것이 아니라, 사회·정치·경제 전반에 깊숙이 관여하게 될 것이라는 점을 보여준다. 예컨대, AI는 과거에 사람이 처리하던 대규모 데이터를 자동화함으로써 업무 효율성을 높일 수 있다. 동시에 잘못된 정보나 편향된 알고리즘이 사회적 갈등을 초래할 가능성을 높이기도 한다. 생성형 AI가 콘텐츠 제작부터 의료, 금융, 교육 등으로 확산됨에 따라, 이에 대한 윤리적·법적 기준 마련이 시급하다는 의견이 대두되는 것도 같은 맥락이다.
사회적 관점에서 볼 때, AI 보안 문제는 기업과 정부만의 문제가 아니라 시민사회 전반에 걸쳐 영향을 미치는 이슈다. 기술이 편리함을 제공하는 것은 분명하지만, 개인정보가 함부로 유출되거나, 국가 핵심 산업이 잠재적 공격에 노출될 경우 시민의 안전과 국가 안보에도 직결될 수 있다는 점에서 신중한 접근이 요구된다. 한편, 빅데이터 분석 결과 “조심하다”, “악화되다” 같은 단어도 함께 나타나는 것은, 사용자가 이미 AI 보안 문제를 상당히 우려하고 있다는 방증이 될 수 있다.
결국, AI와 보안 사이의 균형을 어떻게 맞추느냐가 중요한 과제가 될 전망이다. 글로벌 AI 경쟁이 점점 치열해지는 와중에, 각 국가는 자국의 산업과 기술 생태계를 보호하기 위해 더욱 정교하고 종합적인 보안 체계를 마련할 것으로 보이며, 이 과정에서 공공 영역과 민간 기업, 시민단체가 협력하는 다층적 거버넌스가 필요하다는 지적이 설득력을 얻는다.
지속 가능한 AI 발전을 위한 사회적 과제
AI가 경제·산업 분야에서 파급력 있게 확산되는 현상은 부정하기 어렵다. 생성형 AI 플랫폼은 초당 수십억 건 이상의 연산을 처리하며, 인간이 구현하기 어려운 수준의 대량 데이터 분석을 수행한다. 이를 통해 의료 진단 보조, 재난 예측, 자율주행, 에너지 효율 개선 등 사회적으로 유익한 활용 사례가 늘어나고 있다. 그러나 기술력이 발전할수록 관련 정책과 제도가 이를 따라잡지 못해 사회적 갈등이 발생하기도 한다.
정부 차원에서 대응해야 할 우선 과제는 크게 세 가지다. 첫째, AI 관련 법과 규제를 재정비하여 개인정보 및 민감정보를 적절히 보호해야 한다. 둘째, AI 모델의 신뢰성과 투명성을 높이기 위한 공개적 검증 체계를 구축해야 한다. 셋째, AI 서비스 운영 주체가 불법 행위나 기술 오남용을 방지할 수 있도록 감시·감독할 제도적 장치를 마련해야 한다. 만약 이러한 제도적 틀이 부실하다면, AI 기술이 급속도로 발전하면서 발생할 수 있는 역기능을 적시에 통제하기 어려울 것이다.
사회적 차원에서 시민은 AI 기술의 편익을 충분히 누리는 동시에, 기술 남용이나 보안 침해에 대해 경각심을 가져야 한다. 언론·교육 기관·시민단체 등도 AI 활용과 그 보안 문제를 다각도로 검토하고, 일반 대중이 알기 쉽게 정보를 전달하는 역할을 수행해야 한다. 기업 역시 단순히 시장 선점을 목적으로 AI 기술을 경쟁적으로 도입하기보다는, 보안 인프라를 강화하고 윤리 기준을 준수하며 사회적 책임을 다해야 한다.
결국, AI 보안은 국가 안보와도 밀접히 연결되며, 산업 경쟁력, 개인 정보보호, 사회적 신뢰라는 복합적 가치를 동시에 추구해야 하는 과제다. 한국 정부가 첨단전략산업기금 확대, 국가AI위원회 개최 등을 통해 AI 개발·활용을 촉진하려 한다면, 그만큼 AI 보안 역량도 발전시켜야 한다는 지적은 당연하다. 나아가 글로벌 무대에서 AI 기술 리더십을 확보하고, 이를 통해 사회 구성원이 안전하고 효율적인 디지털 미래를 맞이하기 위해서는, 체계적이고 장기적인 관점이 절실히 요구된다고 하겠다.