우리는 AI 에이전트를 개발할 때, 성능을 높이기 위해 다양한 모델을 실험합니다. 동일한 AI 에이전트 안에서 모델을 바꿔가며 비슷한 주제로 대화를 시도하죠. 보통 최신 고성능 모델이 좋은 답을 줄 거로 기대하지만, 그렇지 않을 때도 있습니다. 그때마다 이런 의문이 듭니다. "이 모델은 왜 이렇게 응답하지?"
그 원인은 바로 ‘시스템 프롬프트’에 있습니다. 시스템 프롬프트는 AI의 역할과 행동 방식, 응답 형식을 정의하는 초기 지시 사항입니다. 이는 AI가 사용자와 상호작용을 하기 전에 미리 설정되죠. 시스템 프롬프트 내용과 구성에 따라 같은 입력에도 AI 답변이 달라집니다. 고성능 모델에 잘 설계된 시스템 프롬프트를 적용하면, AI 응답 품질은 극도로 향상됩니다.
이러한 이유로 AI 에이전트 개발자는 시스템 프롬프트 작성에 큰 노력을 기울입니다. 효과적인 시스템 프롬프트를 효율적으로 만들려면, 모범 사례를 참고하는 게 중요하죠. 다행히 웹에서는 인기 모델의 시스템 프롬프트를 쉽게 찾을 수 있습니다. Anthropic은 공식 문서에 Claude Sonnet 4의 시스템 프롬프트를 공개했고요. GPT-4.1, Gemini 2.5 Pro의 시스템 프롬프트는 GitHub의 ‘system_prompts_leaks’ 와 ‘leaked-system-prompts’ 리포지터리에서 볼 수 있습니다*.
이 글에서는 Claude Sonnet 4, GPT-4.1, Gemini 2.5 Pro 등 주요 모델의 시스템 프롬프트를 살펴보려 합니다. 아울러 각 모델의 프롬프트를 응용해 역할별 AI 에이전트의 시스템 프롬프트를 설계하고, 응답 품질을 테스트한 결과를 공유하겠습니다.
*GPT-4.1, Gemini 2.5 Pro의 시스템 프롬프트는 Open AI, Google이 공식 제공한 것이 아니므로 실제와 다를 수 있습니다.

Claude Sonnet 4: 23,000 토큰으로 만든 완벽주의
Claude Sonnet 4의 시스템 프롬프트는 23,000 토큰에 달합니다. 전체 컨텍스트의 11%를 차지할 정도로 방대한 분량이죠. 이렇게 세밀하게 설계된 프롬프트 덕분에 Claude Sonnet 4는 신중하게, 윤리적으로 답변합니다. Claude Sonnet 4 프롬프트의 주요 특징은 다음과 같습니다.

헌법적 AI(Constitutional AI) 원칙
헌법적 AI는 인간의 가치와 원칙을 명문화한 '헌법'과 같은 규칙을 바탕으로, AI가 안전하고 윤리적인 답변을 생성하도록 훈련하는 Anthropic의 기술입니다. Anthropic은 2022년 "Constitutional AI: Harmlessness from AI Feedback"이라는 논문에서 이 개념을 제시했습니다.
Claude Sonnet 4의 시스템 프롬프트는 Anthropic의 핵심 철학인 ‘HHH 원칙’을 따릅니다.
- Helpful(도움이 되는): 사용자의 목표 달성을 적극 지원
- Harmless(무해한): 위험하거나 해로운 콘텐츠 생성 거부
- Honest(정직한): ‘모르는 건 모른다’고 인정
다층 가드레일 시스템
가드레일(Guardrail)은 AI가 부적절하거나 위험한 답변을 하지 않도록 여러 단계의 안전장치를 두는 시스템입니다. Claude Sonnet 4는 윤리적인 AI를 추구하는 모델답게 가드레일을 시스템 프롬프트에 세밀하게 적용하는데요. 인용 무결성 시스템부터 저작권 보호, 유해 콘텐츠 차단까지 다양하게 설정합니다. 내용은 다음과 같습니다.
## 원문
# Citation Integrity System
When using search results, cite sources with <cite> tags
Include DOC_INDEX and SENTENCE_INDEX for every claim
Maximum 15 words can be quoted directly from source
# Copyright Protection
- Never reproduce song lyrics or copyrighted content
- Block extremist organization content
- Refuse harmful information (self-harm, illegal activities)
## 한국말 번역
# 인용 무결성 시스템
검색 결과를 사용할 때는 <cite> 태그로 출처를 인용하세요
모든 주장에 대해 DOC_INDEX와 SENTENCE_INDEX를 포함하세요
출처에서 최대 15단어까지만 직접 인용할 수 있습니다
# 저작권 보호
- 가사나 저작권이 있는 콘텐츠를 복제하지 마세요
- 극단주의 조직 콘텐츠를 차단하세요
- 유해한 정보(자해, 불법 활동)를 거부하세요
출처 표기로 신뢰성을 보장하고, 인용 글자 수 제한으로 표절을 방지하는 게 인상적입니다. 또한 참고 자료의 적합성과 품질 관리로 저작권을 보호하고, 문제 콘텐츠 차단으로 책임감 있게 정보를 제공하려는 노력이 돋보입니다.
검색 복잡도 관리 시스템
검색 지침도 구체적입니다. 질문의 난이도와 복잡성에 따라 검색의 필요성과 횟수를 4단계로 구분하죠. 검색 지침은 전체 시스템 프롬프트의 70%를 차지합니다. 환각을 최소화하고, 정확한 정보를 전달하는 데 도움이 되는 방식입니다.
- Level 0: 검색 불필요 (일반 지식)
- Level 1: 1회 검색 (간단한 사실 확인)
- Level 2: 2-5회 검색 (복잡한 질문)
- Level 3: 5-20회 검색 (심층 연구)
아첨 없이 균형 잡힌 답변
GPT 등 일부 경쟁 모델에서 나타나는 과도한 긍정이나 아첨 표현도 시스템 프롬프트로 배제합니다. Claude Sonnet 4 출시와 함께 다음 지침을 추가했는데요. 객관적이고 균형 있는 답변으로 신뢰성을 보장하는 모습입니다.
# 원문
"Claude never starts its response by saying a question or idea or observation was good, great, fascinating, profound, excellent, or any other positive adjective. It skips the flattery and responds directly."
# 한국말 번역
"Claude는 응답을 시작할 때 질문이나 아이디어, 관찰이 좋다, 훌륭하다, 흥미롭다, 심오하다, 뛰어나다거나 다른 긍정적인 형용사로 표현하지 않는다. 아첨을 건너뛰고 직접적으로 응답한다"
이런 시스템 프롬프트 때문인지 Claude Sonnet 4는 GPT와 달리 질문할 때마다 "와, 정말 좋은 질문이네요!"와 같은 사탕 발림 표현을 하지 않습니다. 사용자로서 어조와 스타일까지 세심하게 신경 써 인상 깊습니다.
이렇듯 Claude Sonnet 4는 헌법적 AI 원칙에 따라 프롬프트를 투명하게 공개합니다. 또 방대한 토큰을 투자해 시스템 프롬프트를 정교하고 엄격하게 구성했는데요. Claude Sonnet 4의 시스템 프롬프트를 의인화한다면, 모든 세부 사항을 확인하고, 원칙을 지키는 ‘꼼꼼한 완벽주의자’의 모습이 떠오릅니다.