GitLab이 최근 ‘AI 투명성 센터’를 선보였습니다. 여 기에는 GitLab의 제품 개발을 위한 AI 윤리 원칙, AI 지속성 계획 등이 있는데요. GitLab은 고객, 커뮤니티, 팀원이 GitLab의 AI 기능 윤리, 투명성 준수 방식을 이해하도록 돕고자 이 센터를 만들었습니다.
오늘날 생성형 AI는 급속도로 발전하고 있는데요. 이 기술의 개인정보 보호 수준과 안전성을 두고 우려가 많습니다. GitLab은 이를 고려해 AI 기능을 구축할 때 투명성과 개인정보 보호 우선 접근 방식을 취하죠. AI 기능 모음인 GitLab Duo에도 이를 적용하는데요. 이로써 고객이 자산을 보호하며, AI를 자신 있게 도입하도록 지원한다는 계획입니다.
지금부터 AI 투명성 센터에 공유된 GitLab의 제품 개발을 위한 AI 윤리 원칙, AI 지속성 계획을 자세히 살펴보겠습니다.
제품 개발 위한 AI 윤리 원칙

GitLab은 AI 기능을 구축할 때 의사 결정을 안내하고, 이러한 기능이 회사의 핵심 가치인 ’CREDIT(Collaboration, Results for Customers, Efficiency, Diversity, Inclusion & Belonging, Iteration, Transparency)’을 올바르게 구현하도록 보장하고자 ‘제품 개발을 위한 AI 윤리 원칙’을 수립했습니다. 구체적인 내용은 아래와 같은데요.
1. 불공정한 편견 방지
AI 시스템은 인종, 성별, 생물학적 성 등에 따라 추천하고 의사결정을 내려 인간과 사회의 편견을 답습할 수 있습니다. GitLab은 이 문제를 중요하게 고려하는데요. AI 기능을 구축할 때 ‘다양성, 포용성, 소속감’을 우선시하며, 편향된 결과를 방지하려 하죠. 구체적으로 다음 4가지 조치를 취합니다.
- 가능한 한 다양성, 포용성, 소속감을 언제, 어디서나 개발 프로세스에 통합합니다.
- ‘AI 시스템이 불공정한 편견에 빠지기 쉬운지’, ‘AI 시스템이 이미 편견 또는 왜곡된 데이터 사례를 나타낸 적이 있는지’ 질문합니다.
- AI 기능을 배포하기 전에 AI 시스템의 편견을 테스트합니다.
- AI 시스템의 편견이 분명하게 나타나면 AI 기능 배포를 거부합니다.
2. 보안 위험에서 보호
GitLab은 DevSecOps 플랫폼으로, 소프트웨어 개발 라이프사이클 전반에 보안을 통합합니다. AI에 보안 이점은 많지만 제대로 배포되지 않으면 데이터 침해, 모델 오염 등과 같은 보안 위험을 일으킬 수 있 는데요. GitLab은 AI 기능에 이러한 보안 위험을 완화하기 위해 다음 4가지 노력을 기울입니다.
- 최신 보안 트렌드와 모범 관행을 파악합니다.
- GitLab 일부 AI 보안 기능에 ‘사람 감독이 필요할 수 있음’을 유념합니다.
- GitLab AI 기능에 보안 침해를 표시하는 비정상적 행동 패턴을 모니터링합니다.
- GitLab 테스트와 배포 기준을 충실히 지켜 ‘GitLab AI 기능이 강력하고, 적대적 위협을 이겨냄’을 보장합니다.
3. 잠재적으로 유해한 사용 방지
GitLab은 ‘회사와 고객이 달성하는 결과’를 개선하는 AI 기능을 제공하는 데 주력합니다. 책임 있게, 전반적으로 손해를 끼치지 않으면서 이 업무를 수행하는 걸 목표로 삼죠. AI 관련 피해는 다양한 상황에서 발생할 수 있는데요. GitLab은 AI 기능의 유해한 사용을 방지하기 위해 다음 4가지 접근법을 취합니다.
- AI 기능을 책임 있게 발전시키기 위해 노력합니다.
- ‘다른 사람이 AI 기능을 오남용하는지’ 여부와 그 방식을 고려합니다.
- AI 기능이 초래하는 결과를 신중하게 평가합니다.
- 전반적인 손해를 끼치거나, 다른 사람이 피해를 줄 수 있는 기능을 출시하지 않습니다.
4. 스스로 책임지는 자세
GitLab은 ‘AI 기능이 사람 검토와 개입을 받는 게 중요하다’고 판단합니다. GitLab의 사명은 ’모두가 기여하도록 하는 것’인데요. GitLab 커뮤니티의 AI 기능 피드백을 환영합니다. 가능하면 업계의 다른 이들과 AI 윤리 관련 발견 사항을 공유하려 하죠. GitLab은 AI 기능을 스스로 책임지기 위해 다음 3가지 노력을 기울입니다.
- 자기 비판적 태도를 유지합니다.
- AI 개발을 스스로 계속 학습합니다.
- AI 환경은 빠르게 변하며, GitLab은 업계 최신 위험과 모범 관행을 반영해 이러한 원칙을 계속 업데이트합니다.
5. AI 기능이 사용하는 데이터와 사용 방식 고려
GitLab은 AI 기능이 사용하는 데이터, 이 데이터를 사용하는 목적, 데이터의 지식재산권과 기타 권리가 있는 사람을 신중하게 고려합니다. 아울러 ‘승인된 장소와 제한된 목적으로만 데이터를 처리한다’는 약속을 포함해 AI 기능의 사용자 개인 데이터 처리가 ‘GitLab Privacy Statement’를 따르도록 보장합니다.