우리는 AI 에이전트를 개발할 때, 성능을 높이기 위해 다양한 모델을 실험합니다. 동일한 AI 에이전트 안에서 모델을 바꿔가며 비슷한 주제로 대화를 시도하죠. 보통 최신 고성능 모델이 좋은 답을 줄 거로 기대하지만, 그렇지 않을 때도 있습니다. 그때마다 이런 의문이 듭니다. "이 모델은 왜 이렇게 응답하지?"
그 원인은 바로 ‘시스템 프롬프트’에 있습니다. 시스템 프롬프트는 AI의 역할과 행동 방식, 응답 형식을 정의하는 초기 지시 사항입니다. 이는 AI가 사용자와 상호작용을 하기 전에 미리 설정되죠. 시스템 프롬프트 내용과 구성에 따라 같은 입력에도 AI 답변이 달라집니다. 고성능 모델에 잘 설계된 시스템 프롬프트를 적용하면, AI 응답 품질은 극도로 향상됩니다.
이러한 이유로 AI 에이전트 개발자는 시스템 프롬프트 작성에 큰 노력을 기울입니다. 효과적인 시스템 프롬프트를 효율적으로 만들려면, 모범 사례를 참고하는 게 중요하죠. 다행히 웹에서는 인기 모델의 시스템 프롬프트를 쉽게 찾을 수 있습니다. Anthropic은 공식 문서에 Claude Sonnet 4의 시스템 프롬프트를 공개했고요. GPT-4.1, Gemini 2.5 Pro의 시스템 프롬프트는 GitHub의 ‘system_prompts_leaks’ 와 ‘leaked-system-prompts’ 리포지터리에서 볼 수 있습니다*.
이 글에서는 Claude Sonnet 4, GPT-4.1, Gemini 2.5 Pro 등 주요 모델의 시스템 프롬프트를 살펴보려 합니다. 아울러 각 모델의 프롬프트를 응용해 역할별 AI 에이전트의 시스템 프롬프트를 설계하고, 응답 품질을 테스트한 결과를 공유하겠습니다.
*GPT-4.1, Gemini 2.5 Pro의 시스템 프롬프트는 Open AI, Google이 공식 제공한 것이 아니므로 실제와 다를 수 있습니다.

Claude Sonnet 4: 23,000 토큰으로 만든 완벽주의
Claude Sonnet 4의 시스템 프롬프트는 23,000 토큰에 달합니다. 전체 컨텍스트의 11%를 차지할 정도로 방대한 분량이죠. 이렇게 세밀하게 설계된 프롬프트 덕분에 Claude Sonnet 4는 신중하게, 윤리적으로 답변합니다. Claude Sonnet 4 프롬프트의 주요 특징은 다음과 같습니다.

헌법적 AI(Constitutional AI) 원칙
헌법적 AI는 인간의 가치와 원칙을 명문화한 '헌법'과 같은 규칙을 바탕으로, AI가 안전하고 윤리적인 답변을 생성하도록 훈련하는 Anthropic의 기술입니다. Anthropic은 2022년 "Constitutional AI: Harmlessness from AI Feedback"이라는 논문에서 이 개념을 제시했습니다.
Claude Sonnet 4의 시스템 프롬프트는 Anthropic의 핵심 철학인 ‘HHH 원칙’을 따릅니다.
- Helpful(도움이 되는): 사용자의 목표 달성을 적극 지원
- Harmless(무해한): 위험하거나 해로운 콘텐츠 생성 거부
- Honest(정직한): ‘모르는 건 모른다’고 인정