오늘은 7월 진행된 n8n 최신 버전의 주요 업데이트와 개선사항을 소개합니다. 버전 1.101부터 1.104까지의 핵심 기능, 버그 수정 및 성능 향상에 대한 정보를 확인하세요. 특히 웹훅 html 응답부터 AI 평가를 위한 내장지표, 다양한 AI 에이전트까지! 향상된 AI기능과 노드, 보안을 통해 워크플로우를 더 효율적으로 관리하고 구축할 수 있습니다.
버전 하이라이트
이번 릴리스에는 핵심 업데이트, 에디터 개선, 새로운 노드, 노드 개선 및 버그 수정이 포함되어 있습니다.
웹훅 HTML 응답
이번 릴리스부터 워크플로우가 웹훅에 HTML 응답을 보내면, n8n은 자동으로 콘텐츠를 아이프레임으로 감싸게 됩니다. 이는 인스턴스 사용자를 보호하기 위한 보안 메커니즘입니다.
이로 인해 다음과 같은 영향이 있습니다:
- HTML은 부모 문서에 직접 렌더링되는 대신 샌드박스 아이프레임 내에서 렌더링됩니다.
- 최상위 창이나 로컬 스토리지에 접근하려는 JavaScript 코드는 실패하게 됩니다.
- 인증 헤더는 샌드박스 아이프레임에서 사용할 수 없습니다(예: 기본 인증). HTML 내에 단기 액세스 토큰을 포함하는 등 대체 접근 방식을 사용해야 합니다.
- 상대 URL은 작동하지 않습니다. 절대 URL을 사용하세요.
AI 평가를 위한 내장 지표

평가는 모든 AI 솔루션에서 모범 사례이며, 특히 신뢰성과 예측 가능성이 비즈니스에 중요한 경우에는 필수적입니다. 이번 릴리스에서는 내장 지표 세트를 도입하여 n8n에서 평가를 더 쉽게 설정할 수 있게 되었습니다. 이러한 지표를 통해 AI 응답을 검토하고 정확성, 유용성 등의 요소를 기준으로 점수를 매길 수 있습니다.
AI 워크플로우의 성능을 모니터링하려면 정기적인 평가를 실행하고 시간에 따른 점수 변화를 검토하면 됩니다. 또한 다양한 모델 간의 결과를 비교하여 최적의 모델을 선택하거나, 프롬프트 변경 전후에 평가를 실행하여 데이터 기반의 반복적인 개선을 할 수 있습니다.
n8n의 모든 평가와 마찬가지로, 테스트하려는 입력이 포함된 데이터셋이 필요합니다. 일부 평가에서는 비교를 위한 예상 출력(근거 진실)도 데이터셋에 포함해야 합니다. 평가 워크플로우는 테스트 중인 부분을 통해 각 입력을 실행하여 응답을 생성합니다. 내장 지표는 측정하려는 측면에 따라 각 응답에 점수를 매겨, 변경 전후의 결과를 비교하거나 Evaluations 탭에서 시간에 따른 추세를 추적할 수 있게 해줍니다.
여전히 사용자 정의 지표를 정의할 수 있지만, 일반적인 사용 사례에서는 내장된 옵션을 사용하면 구현 시간을 크게 단축할 수 있습니다.
사용 방법:
- 여기에 설명된 대로 평가를 설정하고, Evaluation 노드를 트리거로 사용하고 Set Metrics 작업이 있는 또 다른 노드를 사용합니다.
- Set Metrics 노드에서 드롭다운 목록에서 지표를 선택합니다.
- 선택한 지표에 필요한 추가 매개변수를 정의합니다. 대부분의 경우 데이터셋 열을 적절한 필드에 매핑하는 작업이 포함됩니다.
사용 가능한 내장 지표:
- 정확성(AI 기반): AI 워크플로우가 생성한 응답을 예상 답변과 비교합니다. 다른 LLM이 심사관 역할을 하여 프롬프트에 제공한 지침에 따라 응답에 점수를 매깁니다.
- 유용성(AI 기반): LLM과 프롬프트에 정의된 점수 기준을 사용하여 사용자 쿼리와 관련하여 응답의 유용성을 평가합니다.
- 문자열 유사성: 문자열을 비교하여 응답이 예상 출력과 얼마나 일치하는지 측정합니다. 명령 생성이나 출력이 특정 구조를 따라야 할 때 유용합니다.
- 분류: 응답이 예상 라벨과 일치하는지 확인합니다. 예를 들어 항목을 올바른 카테고리에 할당하는 경우에 유용합니다.
- 사용된 도구: AI 에이전트가 데이터셋에 지정한 도구를 호출했는지 확인합니다. 이를 활성화하려면 에이전트에서 Return Intermediate Steps를 켜서 평가가 실제로 호출한 도구에 접근할 수 있도록 하세요.
참고 사항