[기고] ‘챗GPT’와 인공지능 윤리(서울파이낸스, ‘23.4.4일자)

image_print

무오류 만능시스템 환상 경계해야

최근 오픈AI사가 개발한 인공지능 언어 모델인 ‘챗GPT’의 등장으로 인공지능에 대한 관심이 뜨겁다. 챗GPT는 기존의 인공지능 챗봇의 기능을 뛰어넘는 대화형 정보제공으로 출시된 지 두 달 만에 가입자 1억 명을 돌파하면서 인공지능산업의 성장가능성을 보여주고 있으며, 오픈AI사 또한 기존의 AI개념을 넘어 ‘인공일반지능(artificial general intelligence, AGI)’, 즉 인간이 할 수 있는 어떠한 지적인 업무도 성공적으로 해낼 수 있는 (가상적인) 기계지능 연구를 가속화하고 있다. 

이처럼 인공지능은 최근 제조, 의료, 금융, 교육 및 엔터테인먼트에 이르기까지 다양한 산업영역에 적용되어 우리의 삶을 빠르게 변화시키고 있으며, 민간·공공 영역에 있어서 의사결정 개선, 생산성 향상 등 무한한 성장 잠재력을 보여 주고 있다.

하지만, 인공지능의 무한한 잠재력에 대한 기대와 함께 인공지능 오류 및 오용으로 인한 사회적 위험성을 우려하는 목소리도 높아지고 있다. 실제로 2018년 아마존의 컴퓨터 비전 서비스인 ‘레코그니션(Rekognition)’은 유색인종을 범죄자로 오인하는 편향된 결과를 보여줬고, 2016년 마이크로소프트의 AI 챗봇인 ‘테이(Tay)’는 사용자의 유해하고 혐오스러운 콘텐츠에 노출된 이후 인종 차별적이고 공격적인 반응을 보여 악의적 행위자에 의한 AI 조작가능성을 드러냈다. 우리나라의 경우에도 2021년 인공지능 챗봇 ‘이루다’ 서비스가 혐오 발언 및 개인정보 유출 논란으로 출시 20일 만에 중단되는가 하면, 최근 챗GPT 기술을 적용한 ‘빙(Bing)’에서도 혐오 표현이 등장해 논란이 일고 있다.

그런데 이러한 반윤리적인 인공지능 활용과 AI기술의 사회적·윤리적 영향에 주목한 것은 사실 AI 연구 초기 시절까지 거슬러 올라간다. AI 연구의 발상지로 알려진 1956년 ‘다트머스 회의’에서는 ‘인공지능(artificial intelligence)’ 개념을 처음 사용하면서 AI의 잠재적 이점과 위험성에 대해 논의했고, 본격적으로 2017년 1월 비영리 연구단체인 생명미래연구소(Future of Life Institute)가 주최한 ‘Beneficial AI 2017’ 콘퍼런스에서는 ‘아실로마(Asilomar) AI 원칙’을 도출하기도 했다. 이후로도 다양한 AI 윤리 연구가 진행되고 있다.

‘아실로마 AI원칙’은 AI 개발 및 사용에 대한 23개의 윤리적 지침으로 크게 △ 연구문제 △ 윤리와 가치문제 △ 장기적 문제에 관한 지침을 제공하고 있다. 예컨대 ‘연구문제’와 관련해서는 AI연구 목표가 ‘이로운 지능(beneficial intelligence)’을 창조하는 것에 있고, AI투자도 AI의 유익한 사용을 보장하기 위한 방식으로 지원돼야 함을 제시하고 있다. 또한 ‘윤리와 가치문제’에 대해서는 AI 시스템의 설계자와 개발자는 AI 사용(오용)의 도덕적 영향에 대한 이해관계자로서 책임을 져야 하고, AI 작동 전반에 걸쳐 인간의 존엄성, 권리, 자유 및 문화적 다양성과 같은 인간의 가치와 양립할 수 있도록 설계·운영할 것을 요구하고 있다.

마지막으로 ‘장기적 문제’와 관련해서는 아직 AI의 능력에 대한 합의가 없는 상태이기 때문에 미래 AI 능력의 상한(上限)에 대한 강한 추정을 피하고, 진보된 AI의 경우 지구 역사에 있어서 중대한 변화를 초래할 수 있기 때문에 이에 상응하는 자원으로 계획·관리해야 함을 강조하고 있다. 

이처럼 인공지능이 마치 무오류의 만능시스템이라는 환상에서 벗어날 필요가 있다. 오히려 인공지능이 편향되거나 불완전한 데이터로 훈련될 경우 기존의 사회적 편견과 차별을 오히려 증폭시킬 수 있고(혐오 심화), AI 시스템을 통해 처리되는 민감한 개인정보 유출(프라이버시 침해)이나 잘못된 의사결정에 의한 생명 침해(자율주행차 사고) 등 다양한 사회적 문제를 야기할 수 있다. 

물론 인공지능 기술 자체는 가치 중립적이다. 하지만 사람이 어떤 의도를 가지고 이를 만들고 사용하느냐에 따라 우리에게 ‘득’이 될 수도, ‘독’이 될 수도 있기 때문에 인공지능의 설계·개발과 활용에 관한 윤리적 기준 마련이 절실하다.

이런 점에서 앞에서 언급한 ‘아실로마 AI원칙’은 인공지능 커뮤니티의 합의된 견해일 뿐 법적 구속력은 없지만 인공지능 연구자, 개발자 및 운영자 등에 대한 지침을 제공해 주고 있기 때문에 이를 참고해 미래 인공지능의 오용 위험성을 최소화할 수 있는 인공지능 윤리기준을 시급히 마련할 필요가 있다.

출처 : 서울파이낸스(http://www.seoulfn.com)

image_print

답글 남기기

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다