|
인공지능 개발과 활용에 있어서 인권 보호를 위해 인권영향평가 실시 필요 |
- 인권위 「인공지능 인권영향평가 도구」 마련, 「인공지능 인권 가이드라인」(’22)에 이은 구체적인 인권 보호 기준 제시 -
□ 국가인권위원회(위원장 송두환, 이하 ‘인권위’)는 2024년 5월 23일 과학기술정보통신부장관에게, 인공지능의 개발과 활용으로 인한 인권침해 및 차별이 발생하지 않도록 관련 정책·사업계획의 수립·이행 시에 「인공지능 인권영향평가 도구」를 활용하고, 인권영향평가가 법제화되기 전까지 공공기관이 직접 개발하거나 활용하는 모든 인공지능과 민간 부문의 고위험 인공지능에 대한 자율적 인권영향평가가 수행될 수 있도록 위 평가 도구를 보급할 필요가 있다는 의견을 표명하였다.
□ 인공지능 기술의 발전과 확산이 우리 사회와 인간의 삶에 끼칠 긍정적 변화와 영향에 대한 기대가 높아지는 반면, 인공지능으로 인한 인권침해와 차별 등 부정적 영향에 대한 우려도 점점 커지고 있다.
○ 인공지능 시스템은 특유의 불투명성과 파급효과 등으로 인하여 사후적인 피해구제나 제재가 어렵기 때문에 인공지능의 개발 및 활용에 있어 사전예방적 인권영향평가의 도입 및 실시가 필요하다.
○ 특히 유엔과 세계 각국은 공공부문 인공지능과 민간부문 고위험 인공지능이 사람들에게 미치는 부정적 영향에 주목하고, 이를 사전에 예방하고 관리하기 위한 방안으로 단순한 윤리기준을 넘어서는 다양한 영향평가를 제안하고 도입하는 추세에 있다.
○ 인권위는 ‘인공지능 인권 가이드라인 권고’(2022년), ‘인공지능 법률안에 대한 의견표명’(2023년) 등을 통해 정부와 국회에 ?「인공지능 인권영향평가」?의 도입을 촉구한 바가 있다.
□ 이에 인권위는 인권적 관점에서 인공지능 시스템의 부정적 영향을 식별, 방지, 완화하고, 피해를 구제하기 위하여 개발 및 활용 주체가 적용할 수 있는 구체적인 기준으로서 「인공지능 인권영향평가 도구」를 마련하였다.
○ 총 4단계 72개의 문항으로 구성된 평가 도구를 통해 인공지능의 개발 및 활용 주체가 기술적 위험성뿐만 아니라 인권에 미치는 영향 및 심각도를 총체적으로 점검할 수 있도록 하는 한편, 별도의 해설을 제공하는 등 가급적 평가 부담이 완화될 수 있도록 노력하였다.
□ 인권위는 「인공지능 인권영향평가 도구」의 보급을 통해 인공지능 기술이 인권친화적으로 개발·활용되는 한편, 인공지능 인권영향평가가 법제화되는 계기가 마련되기를 기대한다.
□ 판단 1. 인공지능 인권영향평가 도구의 필요성 인권영향평가(Human Rights Impact Assessment, HRIA)는 일반적으로 국가, 기업 등 공적, 사적 주체가 시행, 추진하는 정책이나 사업과정 등에서 인권에 미치는 부정적 영향을 식별, 방지, 완화하고, 긍정적인 영향을 장려하기 위해 정책 및 사업 등의 계획과 활동이 인권의 보호와 증진에 부합하는지를 사전에 평가하고 검토하는 것을 말한다. 인공지능 시스템의 경우, 그 특유의 불투명성과 파급효과 등으로 인하여 사후적인 피해구제나 제재가 어렵다는 특성 때문에 사전예방적인 인권영향평가 도입 및 실시가 바람직하다. 특히 유엔과 세계 각국은 공공부문 인공지능과 민간부문 고위험 인공지능이 사람들에게 미치는 부정적 영향에 주목하고 이를 사전에 예방하고 관리하기 위한 방안으로 단순한 윤리기준을 넘어서는 다양한 영향평가를 제안하고 도입하는 추세에 있다. 이에 국가인권위원회도 인공지능 인권 가이드라인 권고(2022년), 인공지능 법률안에 대한 의견표명(2023년) 등을 통해 정부와 국회에 인공지능 인권영향평가 의 도입을 강조한 바가 있으나 아직까지 법제화는 이뤄지지 않고 있다. 우리나라의 경우, 기존의 개별법령에 따른 각종 영향평가 등이 있으나, 이들은 평가기준, 평가대상, 평가 시기 및 주기, 평가주체 등에서 인공지능으로 인한 인권침해 문제를 사전에 예방하기에 부족한 측면이 있다. 또한 각 부처별로 윤리기준 자율점검표 등 인공지능에 특화된 점검기준을 제시하고 있으나, 이러한 기준 등은 점검항목을 단순하게 나열하는 데 그치거나 이해관계인의 참여와 평가의 객관성을 담보할 수 있는 장치가 없는 등, 고위험 인공지능의 인권침해 위험성을 효과적으로 통제하기 위한 완성도 높은 인권영향평가 기준을 제공한다고 보기 어렵다. 따라서 인공지능의 개발과 활용 시 인권에 미치는 부정적인 영향을 식별, 방지, 완화,개선하고, 피해를 구제하기 위해서는 기존의 제도나 기준이 가지는 한계를 극복하고, 총체적인 인권적 관점에서 명확한 기준을 제시할 수 있는 구체적이고 실천적인 방안으로서 인공지능 인권영향평가 도구를 마련하여 제시할 필요가 있다
2. 인공지능 인권영향평가 도구의 주요 내용 국가인권위원회는 “인공지능 인권영향평가 도입 방안 연구”(2022년)를 통해 다양한 영향평가 도구를 토대로 만든 평가 도구 초안에 대하여 외부 전문가 검토 및 의견수렴, 정보인권전문위원회 논의를 거쳐 국가인권위원회 상임위원회의 심의?의결로 [붙임]과 같이 인공지능 인권영향평가 도구를 확정하였다. 본 평가 도구는 평가제도를 설명하는 개요 부분과 총 4단계 72개의 평가 문항으로 구성되어 있으며, 주요 내용은 다음과 같다.
가. 평가 대상 인권영향평가는 공공기관이 직접 개발하거나 조달하는 모든 인공지능 및 민간에서 활용하는 인권침해 위험성이 높은 이른바 ‘고위험 인공지능’을 대상으로 하며, 위험의 완화 내지 제거가 근본적으로 불가능한 ‘금지대상 인공지능’은 평가 대상에서 제외한다.
나. 평가 시기 인공지능 시스템의 개발 전 계획 단계 또는 시행 전 단계에서 평가하는 것을 원칙(사전영향평가)으로 하되, 평가 결과 일정 기준 이상의 구체적인 위험이 확인된 경우 정기적, 사후적 평가를 통해 지속적인 관리가 이루어질 수 있도록 하여야 한다.
다. 평가 수행주체 평가 실시결정 자체는 개발, 활용 기관(또는 기업)에서 정할 사안이나, 결정 이후 평가 수행은 개발 주체 및 관련 사업부서와는 독립된 별도의 내부 조직 또는 인권 분야 및 인공지능 기술에 대한 전문성과 독립성을 갖춘 제3의 기관에서 수행하는 것이 바람직하다.
라. 평가 절차 인권영향평가는 평가 수행계획을 수립하고 사전 준비하는 ‘계획 및 준비 단계’(1단계), 부정적 영향에 대한 분석 및 평가를 실시하는 ‘분석 및 평가 단계’(2단계), 식별된 위험에 대해 방지,완화 및 구제조치를 확인하는 ‘개선 및 구제 단계’(3단계), 평가에 대해 점검하는 ‘공개 및 점검 단계’(4단계) 순으로 수행하며, 모든 단계에서 이해관계자의 참여가 권장된다.
마. 평가 문항 구성 평가 문항은 평가 절차를 반영하여 4단계로 구성하였으며, 일부 주관식을 제외하고 대부분 객관식으로 답변하되 관련 내용에 대한 설명을 덧붙일수 있도록 하였다. 또한 인공지능 인권가이드라인 권고 에서 강조한 인권 및 인간 존엄성의 존중에 기반하여 개인정보보호 및 데이터 관리, 알고리즘의 신뢰성, 차별금지, 설명가능성과 투명성 등에 대한 영향 분석 및 식별, 위험에 대한 방지, 완화 및 구제, 이해관계자의 참여, 평가 결과의 공개 및 평가에 대한 점검 등 주요 주제들로 문항을 구성하였다.
|
|
|