GitLab이 최근 ‘AI 투명성 센터’를 선보였습니다. 여기에는 GitLab의 제품 개발을 위한 AI 윤리 원칙, AI 지속성 계획 등이 있는데요. GitLab은 고객, 커뮤니티, 팀원이 GitLab의 AI 기능 윤리, 투명성 준수 방식을 이해하도록 돕고자 이 센터를 만들었습니다.

오늘날 생성형 AI는 급속도로 발전하고 있는데요. 이 기술의 개인정보 보호 수준과 안전성을 두고 우려가 많습니다. GitLab은 이를 고려해 AI 기능을 구축할 때 투명성과 개인정보 보호 우선 접근 방식을 취하죠. AI 기능 모음인 GitLab Duo에도 이를 적용하는데요. 이로써 고객이 자산을 보호하며, AI를 자신 있게 도입하도록 지원한다는 계획입니다.

지금부터 AI 투명성 센터에 공유된 GitLab의 제품 개발을 위한 AI 윤리 원칙, AI 지속성 계획을 자세히 살펴보겠습니다.

제품 개발 위한 AI 윤리 원칙

GitLab의 핵심 가치 ‘CREDIT(Collaboration, Results for Customers, Efficiency, Diversity, Inclusion & Belonging, Iteration, Transparency)’ 계층 구조. 출처=GitLab | 인포그랩 GitLab
GitLab의 핵심 가치 ‘CREDIT(Collaboration, Results for Customers, Efficiency, Diversity, Inclusion & Belonging, Iteration, Transparency)’ 계층 구조. 출처=GitLab

GitLab은 AI 기능을 구축할 때 의사 결정을 안내하고, 이러한 기능이 회사의 핵심 가치인 ’CREDIT(Collaboration, Results for Customers, Efficiency, Diversity, Inclusion & Belonging, Iteration, Transparency)’을 올바르게 구현하도록 보장하고자 ‘제품 개발을 위한 AI 윤리 원칙’을 수립했습니다. 구체적인 내용은 아래와 같은데요.

1. 불공정한 편견 방지

AI 시스템은 인종, 성별, 생물학적 성 등에 따라 추천하고 의사결정을 내려 인간과 사회의 편견을 답습할 수 있습니다. GitLab은 이 문제를 중요하게 고려하는데요. AI 기능을 구축할 때 ‘다양성, 포용성, 소속감’을 우선시하며, 편향된 결과를 방지하려 하죠. 구체적으로 다음 4가지 조치를 취합니다.

  • 가능한 한 다양성, 포용성, 소속감을 언제, 어디서나 개발 프로세스에 통합합니다.
  • ‘AI 시스템이 불공정한 편견에 빠지기 쉬운지’, ‘AI 시스템이 이미 편견 또는 왜곡된 데이터 사례를 나타낸 적이 있는지’ 질문합니다.
  • AI 기능을 배포하기 전에 AI 시스템의 편견을 테스트합니다.
  • AI 시스템의 편견이 분명하게 나타나면 AI 기능 배포를 거부합니다.

2. 보안 위험에서 보호

GitLab은 DevSecOps 플랫폼으로, 소프트웨어 개발 라이프사이클 전반에 보안을 통합합니다. AI에 보안 이점은 많지만 제대로 배포되지 않으면 데이터 침해, 모델 오염 등과 같은 보안 위험을 일으킬 수 있는데요. GitLab은 AI 기능에 이러한 보안 위험을 완화하기 위해 다음 4가지 노력을 기울입니다.

  • 최신 보안 트렌드와 모범 관행을 파악합니다.
  • GitLab 일부 AI 보안 기능에 ‘사람 감독이 필요할 수 있음’을 유념합니다.
  • GitLab AI 기능에 보안 침해를 표시하는 비정상적 행동 패턴을 모니터링합니다.
  • GitLab 테스트와 배포 기준을 충실히 지켜 ‘GitLab AI 기능이 강력하고, 적대적 위협을 이겨냄’을 보장합니다.

3. 잠재적으로 유해한 사용 방지

GitLab은 ‘회사와 고객이 달성하는 결과’를 개선하는 AI 기능을 제공하는 데 주력합니다. 책임 있게, 전반적으로 손해를 끼치지 않으면서 이 업무를 수행하는 걸 목표로 삼죠. AI 관련 피해는 다양한 상황에서 발생할 수 있는데요. GitLab은 AI 기능의 유해한 사용을 방지하기 위해 다음 4가지 접근법을 취합니다.

  • AI 기능을 책임 있게 발전시키기 위해 노력합니다.
  • ‘다른 사람이 AI 기능을 오남용하는지’ 여부와 그 방식을 고려합니다.
  • AI 기능이 초래하는 결과를 신중하게 평가합니다.
  • 전반적인 손해를 끼치거나, 다른 사람이 피해를 줄 수 있는 기능을 출시하지 않습니다.

4. 스스로 책임지는 자세

GitLab은 ‘AI 기능이 사람 검토와 개입을 받는 게 중요하다’고 판단합니다. GitLab의 사명은 ’모두가 기여하도록 하는 것’인데요. GitLab 커뮤니티의 AI 기능 피드백을 환영합니다. 가능하면 업계의 다른 이들과 AI 윤리 관련 발견 사항을 공유하려 하죠. GitLab은 AI 기능을 스스로 책임지기 위해 다음 3가지 노력을 기울입니다.

  • 자기 비판적 태도를 유지합니다.
  • AI 개발을 스스로 계속 학습합니다.
  • AI 환경은 빠르게 변하며, GitLab은 업계 최신 위험과 모범 관행을 반영해 이러한 원칙을 계속 업데이트합니다.

5. AI 기능이 사용하는 데이터와 사용 방식 고려

GitLab은 AI 기능이 사용하는 데이터, 이 데이터를 사용하는 목적, 데이터의 지식재산권과 기타 권리가 있는 사람을 신중하게 고려합니다. 아울러 ‘승인된 장소와 제한된 목적으로만 데이터를 처리한다’는 약속을 포함해 AI 기능의 사용자 개인 데이터 처리가 ‘GitLab Privacy Statement’를 따르도록 보장합니다.

AI 지속성 계획

GitLab에서 다양한 컴포넌트가 상호작용을 하는 방식을 나타낸 다이어그램. 출처=GitLab | 인포그랩 GitLab
GitLab에서 다양한 컴포넌트가 상호작용을 하는 방식을 나타낸 다이어그램. 출처=GitLab

GitLab은 단일 AI 모델 제공업체에 종속되지 않습니다. AI 기능에 여러 서드 파티 AI 제공업체의 모델을 사용하죠. AI 지속성 계획은 GitLab이 새로운 서드 파티 AI 제공업체를 검토하고 선정하는 프로세스, 고객 데이터 사용과 관련해 서드 파티 AI 제공업체의 관행을 변경할 때 이를 처리하는 방식을 설명합니다. 핵심 절차는 다음과 같습니다.

1. 서브프로세서 목록 사용해 AI 제공업체 변경 사항 확인

GitLab은 고객 데이터를 처리하는 AI 제공업체를 서브프로세서 목록에 문서화합니다. 이로써 누구나 서브프로세서 변경 사항의 알림을 신청할 수 있죠. 이 배포 목록에 가입한 사람은 고객에게 부정적 영향을 미칠 수 있는 AI 제공업체를 삭제하는 등 GitLab이 서브프로세서 목록을 수정할 일이 발생할 때마다 알림을 받습니다.

2. AI 모델 추가 프로세스

GitLab은 AI 시장을 계속 평가해 현재와 미래 GitLab AI 기능을 발전시키는 데 유용한 독점, 오픈 소스 AI 모델을 확인합니다. GitLab은 ‘새로운 모델을 테스트하는 기술을 개발’하는 전담 모델 평가 그룹이 있는데요. 이 그룹은 품질, 성능과 관련된 AI 모델 사용을 확인, 검증해 ‘GitLab의 요구사항을 충족하는지’ 파악합니다. 모델이 검증되면, GitLab AI 아키텍처 안에서 선택한 모델을 구현하도록 AI 프레임워크 그룹에 권장하고요. 그러면 새로운 AI 모델 조달과 알림, 구현, 배포 작업이 진행됩니다.

3. AI 모델 전환 프로세스

GitLab은 ‘AI 추상화 계층’을 개발했습니다. 이는 GitLab AI 기능을 실행하는 기본 모델을 전환하는 데 쓰이죠. 이 추상화 계층은 변경 사항의 기술 복잡성을 줄이는 데 도움이 됩니다. 아울러 이는 GitLab의 AI 제공업체 변경 사항과 장애 대응 속도를 높이며, GitLab Rails 애플리케이션과 AI 모델 상호작용 방식을 표준화하죠. AI 추상화 계층은 중앙 집중식 텔레메트리와 모니터링을 제공해 ‘모든 AI 제공업체가 GitLab AI 기능의 프로덕션 요구사항을 충족하도록’ 돕습니다.

GitLab은 AI 기능을 실행하는 AI 모델을 전환할 필요성을 확인할 때, ‘해당 모델이 기존 AI 제공업체의 모델이고 프로세스에 중요한 변경 사항이 없다’고 가정하면 고객에게 변경 사항 알림을 트리거하지 않는데요. 그러나 관련 문서는 AI 모델의 변경 사항을 반영하도록 업데이트합니다. 한편, 모델이 새로운 AI 제공업체의 모델이면, 앞서 설명한 AI 제공업체 추가 프로세스를 트리거하고요.

4. AI 제공업체 약관이 크게 변경될 때 프로세스

GitLab은 서브프로세서 정책과 약관 알림, 검토 프로세스를 수립했습니다. AI 제공업체가 약관을 변경하면, GitLab 법무팀에 알리고 ‘변경 사항이 고객에게 중대한 영향을 미치는지’ 판단하기 위해 변경 사항을 검토하죠. 약관 변경 사항이 고객에게 부정적 영향을 미치면 이렇게 대응합니다.

  • ‘영향을 받은 AI 제공업체의 모델을 사용해 영향을 받은 AI 기능’을 일시적으로 비활성화하는 걸 고려합니다.
    • AI 추상화 계층에 이미 구현된 대체 모델을 평가합니다.
      • 대체 모델이 ‘해당 AI 기능의 합리적 대체재’로 검증되면, 코드 변경 사항이 새로운 모델로 트래픽을 라우팅하도록 즉시 구현됩니다.
    • 관련 대체 모델이 없으면, GitLab AI 기능 요구사항에 적합한 모델이 있는 새로운 AI 제공업체를 확인하고 선정합니다.

5. AI 제공업체 보안 인시던트 프로세스

보안 인시던트 대응팀이 참여해 문제를 분류하고 해결하도록 지원합니다.

참고

GitLab은 서드 파티 AI 제공업체를 선정하기 전에 ‘이 업체가 자신들의 언어 모델 개발, 학습, 재학습, 파인 튜닝을 위해 GitLab과 GitLab 고객 콘텐츠를 사용하는지’ 평가합니다.

맺음말

지금까지 AI 투명성 센터에 공유된 GitLab의 제품 개발을 위한 AI 윤리 원칙, AI 지속성 계획을 살펴봤습니다. 저는 GitLab이 AI의 윤리적 책임과 투명성을 강화하기 위해 ‘무슨 원칙에 따라 어떤 기술적 노력을 기울이는지’ 자세히 알 수 있어 좋았습니다. 기술 발전이 가속화되면서 개인정보 보호와 보안 문제의 중요성은 날로 높아지는데요. GitLab이 AI 윤리 원칙과 AI 지속성 계획을 투명하게 공개하고, 자세하게 문서화한 걸 보며 신뢰가 생겼습니다. 이러한 노력이 DevOps 생태계에 긍정적 영향을 미치길 바라고요. 더 많은 기업이 AI를 개발, 도입할 때 투명성과 윤리를 최우선으로 삼길 희망합니다.

참고 자료

  1. Introducing the GitLab AI Transparency Center
  2. GitLab AI Ethics Principles for Product Development
  3. AI Continuity Plan

인포그랩은 GitLab과 DevOps를 맞춤형으로 기술 지원합니다. GitLab(Omnibus/Cloud Native Hybrid) 구축 지원이 필요하시면 문의하기로 연락해 주십시오.