AI 시대의 보안위협 10가지, 어떻게 대비할 것인가
1. 프롬프트 인젝션 공격과 불안전한 출력 처리 프롬프트 인젝션 공격 대비는 초거대 언어 모델(LLM)의 작동 원리를 악용하는 대표적인 수법입니다. LLM이 사용자의 입력(프롬프트)을 기반으로 답변을 생성한다는 점에 착안하여, 공격자가 고의적으로 조작된 질문이나 지시문을 삽입함으로써 AI를 부적절한 방향으로 유도하거나 금지된 정보를 생성하도록 만드는 것이 핵심입니다. 이 공격은 크게 **다이렉트 인젝션(Direct Injection)**과 **인다이렉트 인젝션(Indirect Injection)**으로 구분됩니다. 다이렉트 인젝션은 … Read more