[OECD] AI 개방성 보고서 발표
최근 OECD는 ‘AI 개방성 : 정책 입안자를 위한 입문서'(AI OPENNESS: A PRIMER FOR POLICYMAKERS)를 발표했다.
이번 보고서는 AI의 개방성(openness) 개념과 다양한 수준의 개방성이 어떻게 존재할 수 있는지를 살펴본다. 또한 소프트웨어 분야에서 유래한 “오픈소스”(open source)라는 용어가 AI 특유의 복잡성을 완전히 반영하지 못하는 이유도 설명한다.
특히 이번 보고서에서는 실험 데이터를 사용하여 개방형 기반모델의 현재 동향에 대한 분석과 개방형 모델의 잠재적 이점 및 위험을 제시하고 있으며, 관련 논의를 더욱 심화시키기 위해 한계성(marginality) 개념을 포함하고 있다.
이를 통해 본 보고서는 생성형 AI 기반 모델의 개방성과 책임 있는 거버넌스 간의 균형을 맞추는 방법에 대한 정책적 논의를 뒷받침하고자 했다.
아래는 이번 보고서의 주요 내용이다.
- AI 개방성에 대한 공통된 이해를 증진하기 위해 연구자, 개발자, 정책 입안자에게 있어 AI 개방성에 대한 핵심 개념과 용어에 대한 명확한 이해가 필수적이다.
- “오픈 소스”(open source)라는 용어는 소프트웨어 개발에서 유래되었지만, AI 시스템을 정확하게 설명하지 못한다. 기존 소프트웨어와 달리 AI “소스 코드”는 추론 코드, 학습 코드 또는 둘 다를 의미할 수 있으며, 각각은 독립적으로 공개될 수 있다.
- AI 개방성은 이분법적인 것이 아니라 스펙트럼으로 존재한다. 접근이 제한된 완전 폐쇄 시스템부터 제한 없는 접근, 수정 및 사용을 허용하는 완전 개방 모델까지 다양하며, 다양한 수준의 개방성이 정책에 미치는 영향을 이해하려면 이러한 범위(스펙트럼)를 인식하는 것이 필수적이다.
- 본 보고서에서는 공개적으로 이용 가능한 학습된 가중치(publicly available trained weights)를 가진 기반 모델을 지칭하기 위해 ‘공개 가중치 AI 모델'(open-weight AI models)이라는 용어를 사용한다.
- 2023년 초부터 기반 모델의 수가 급증하여 공개 가중치 모델이 현재 시장의 절반 이상을 차지하고 있는데, 미국의 경우 공개 가중치 기반 모델 개발을 선도하고 있으며, 중국과 프랑스가 그 뒤를 따르고 있는 상황을 분석하는 등 시장 동향 및 글로벌 유통 현황을 검토한다.
- 개방형 가중치 기반 모델은 2024년 초 이후 성능이 크게 향상되어 상당한 이점을 제공하고 있지만, 잠재적 위험 또한 증가시키고 있다는 점에서 AI 개방성 모니터링의 중요성을 강조한다.
- 개방형 가중치 모델의 모델 가중치를 공개하면 외부 평가 및 책임성 강화, 연구와 혁신 가속화, 경쟁 촉진, AI 기술 접근성 향상, 민감한 데이터 관리 지원 등 상당한 이점을 얻을 수 있다. 그러나 이러한 이점을 얻으려면 충분한 컴퓨팅 리소스, 데이터 및 숙련된 인력에 대한 접근성이 확보될 필요가 있다.
- 개방형 가중치 모델은 딥페이크, 지능형 사이버 공격, 아동 성 학대 영상(CSAM), 동의 없는 은밀한 이미지(NCII) 생성 등의 악의적인 활동을 포함해 상당한 위험을 초래할 수 있다. 또한 모델 가중치를 활용하면 악의적인 행위자가 의도치 않은 용도나 유해한 목적으로 모델을 미세 조정할 수 있으며, 모델 가중치를 수정하면 악의적인 행위자가 최초 개발자가 마련한 일부 안전 장치를 우회할 수도 있다.
*Source : https://www.oecd.org (보고서 다운로드)


