GitLab이 최근 ‘AI 투명성 센터’를 선보였습니다. 여기에는 GitLab의 제품 개발을 위한 AI 윤리 원칙, AI 지속성 계획 등이 있는데요. GitLab은 고객, 커뮤니티, 팀원이 GitLab의 AI 기능 윤리, 투명성 준수 방식을 이해하도록 돕고자 이 센터를 만들었습니다.
오늘날 생성형 AI는 급속도로 발전하고 있는데요. 이 기술의 개인정보 보호 수준과 안전성을 두고 우려가 많습니다. GitLab은 이를 고려해 AI 기능을 구축할 때 투명성과 개인정보 보호 우선 접근 방식을 취하죠. AI 기능 모음인 GitLab Duo에도 이를 적용하는데요. 이로써 고객이 자산을 보호하며, AI를 자신 있게 도입하도록 지원한다는 계획입니다.
지금부터 AI 투명성 센터에 공유된 GitLab의 제품 개발을 위한 AI 윤리 원칙, AI 지속성 계획을 자세히 살펴보겠습니다.
제품 개발 위한 AI 윤리 원칙
GitLab의 핵심 가치 ‘CREDIT(Collaboration, Results for Customers, Efficiency, Diversity, Inclusion & Belonging, Iteration, Transparency)’ 계층 구조. 출처=GitLabGitLab은 AI 기능을 구축할 때 의사 결정을 안내하고, 이러한 기능이 회사의 핵심 가치인 ’CREDIT(Collaboration, Results for Customers, Efficiency, Diversity, Inclusion & Belonging, Iteration, Transparency)’을 올바르게 구현하도록 보장하고자 ‘제품 개발을 위한 AI 윤리 원칙’을 수립했습니다. 구체적인 내용은 아래와 같은데요.
1. 불공정한 편견 방지
AI 시스템은 인종, 성별, 생물학적 성 등에 따라 추천하고 의사결정을 내려 인간과 사회의 편견을 답습할 수 있습니다. GitLab은 이 문제를 중요하게 고려하는데요. AI 기능을 구축할 때 ‘다양성, 포용성, 소속감’을 우선시하며, 편향된 결과를 방지하려 하죠. 구체적으로 다음 4가지 조치를 취합니다.
- 가능한 한 다양성, 포용성, 소속감을 언제, 어디서나 개발 프로세스에 통합합니다.
- ‘AI 시스템이 불공정한 편견에 빠지기 쉬운지’, ‘AI 시스템이 이미 편견 또는 왜곡된 데이터 사례를 나타낸 적이 있는지’ 질문합니다.
- AI 기능을 배포하기 전에 AI 시스템의 편견을 테스트합니다.
- AI 시스템의 편견이 분명하게 나타나면 AI 기능 배포를 거부합니다.