최근 LLM의 가파른 발전 속도에 힘입어 소프트웨어 개발은 그 어느 때보다 빨라지고, 릴리즈 주기도 짧아졌습니다. 이에 발맞춰 AI 생성 코드 보안의 중요성도 더욱 높아졌는데요. AI에 기반한 빠른 개발 속도만큼이나, 정확하고 효율적으로 작동하며, 보안을 철통같이 지키는 솔루션 니즈도 커지고 있죠. DevSecOps는 그 해답으로 다시 주목받고 있습니다. 이 글에서는 AI 개발 환경에서 DevSecOps의 필요성, AI 기반 DevSecOps의 코드 보안 강화 방식과 주요 솔루션, AI와 DevSecOps 통합 시 유의 사항을 살펴보겠습니다.
AI 개발 환경에서 DevSecOps의 필요성

오늘날 DevSecOps는 AI 개발의 품질을 높이는 핵심 해법으로 주목받고 있습니다. 그 배경에는 AI 생성 코드의 보안 문제가 있는데요. 오픈 소스 코드 의존도 증가와 소프트웨어 릴리즈 주기 단축이 더해지면서 보안 위험은 심화하고 있죠. DevSecOps는 보안을 사후 대응이 아닌, ‘개발 초기부터 내재화해야 할 요소’로 다루는데요. 이러한 원칙에 따라 AI 생성 코드의 보안 취약 점을 조기에 발견하고, 선제적으로 대응할 수 있습니다. 지금부터 AI 개발 환경에서 DevSecOps가 필요한 이유와 그 가치를 알아보겠습니다.
AI 생성 코드의 보안 문제 지속
가장 큰 이유는 여전히 지속되는 AI 생성 코드의 보안 문제입니다. 글로벌 보안 기업 Snyk의 ‘2023 Snyk AI-Generated Code Security Report’에 따르면, 응답자 91.6%가 “AI 코딩 도구가 안전하지 않은 코드 제안을 가끔 생성했다”고 답했죠. 글로벌 보안·신흥 기술 싱크탱크인 CSET의 2024년 보고서에서도 비슷한 조사 결과를 발표했습니다. 연구진의 평가 결과, 5개의 LLM이 생성한 코드 스니펫의 절반 가까이가 치명적인 버그를 포함했고요. 이는 악의적 악용으로 이어질 수 있어 심각했습니다.
올해도 상황은 개선되지 않고 있습니다. 글로벌 보안 기업인 Veracode는 “2025 GenAI Code Security Report”에서 Java, Python, C#, JavaScript에 100개 이상의 LLM을 테스트한 결과를 공유했는데요. AI 생성 코드 샘플의 45%가 보안 테스트에 실패했고, 코드에 OWASP* Top 10에 해당하는 보안 취약점을 유발한 걸로 나타났습니다. LLM이 테스트의 45%에서 보안 취약점을 일으켰다는 의미죠. 가장 흔한 보안 취약점은 ‘크로스-사이트 스크립팅’이었는데요. 관련 코드 샘플의 86%에서 AI 도구가 이를 방어하지 못했습니다.
*OWASP: 웹 애플리케이션 보안 분야의 글로벌 비영리 단체