인권누리 뉴스레터

인권누리 웹진 제81호 인권누리에서 불어오는 인권바람이야기

인권누리 2022. 10. 27. 10:19

인권누리에서 불어오는 인권바람이야기

웹진 제81호 인권바람 – 국가인권위원회 권고
국가인권위원회의 인공지능 개발과 활용에 관한 인권 가이드라인

국가인권위원회는 국가인권위원회법 제25조 제1항의 규정에 따라 다음과 같이 권고합니다.

I. 권고의 배경
인공지능(AI: Artificial Intelligence) 기술의 빠른 발전은 고용, 금융, 행정, 복지 등 사회 전반에 걸쳐 인간의 기본적인 삶과 인권에 영향을 미치고 있다.
인공지능의 발전과 확산으로 인해 개인 삶의 질이 높아질 것으로 기대되지만, 안면인식기술이나 인공지능에 의한 채용, 플랫폼 노동, ‘이루다’ 사태에서 보듯이 개인정보 및 사생활에 관한 권리 침해, 차별 등과 같은 인권 문제도 발생하고 있다.
그러나 인공지능으로 영향을 받는 당사자들은 인공지능의 도입, 운영, 결정에 대하여 의견 제시와 참여의 기회를 보장받고 있지 못하며, 인공지능에 의해 인권침해가 발생한 경우에도 효과적인 권리구제를 받을 수 있는 절차와 방법이 미흡한 상황이다.
따라서 인공지능을 개발할 때부터 개인의 삶과 사회적 공익에 기여할 수 있도록 개발하고, 인간의 존엄성과 자기결정권의 보장 및 차별받지 않을 권리 등 인권에 기반하여 활용하며, 인공지능 기술로 발생할 수 있는 인권침해의 예방 및 권리구제 절차를 마련하는 것이 중요하다.
이에, 국가인권위원회는 국가인권위원회법 제25조 제1항에 따라 인권적 관점에서 인공지능의 개발과 활용 시 준수해야 할 내용을 다음과 같이 검토하였다.

Ⅱ. 판단 및 참고기준
○ 대한민국헌법 제10조, 제11조, 제17조, 제18조
○ 경제적, 사회적 및 문화적 권리에 관한 국제규약 제15조
○ EU의 인공지능 가이드라인(2019), OECD의 인공지능 권고(2019) 등

Ⅲ. 판단
1. 인공지능에 관한 국제 인권 기준
인공지능에 관한 여러 국제 인권 기준은 ‘인권 및 인간 존엄성의 존중’을 최우선적 가치로 명시하고 있고, 인공지능을 개발하고 활용하는 모든 이해관계자는 인공지능의 개발, 배치, 활용 등 전 과정에서 인권을 존중하고 보호해야 하며, 이에 위배되는 결과에 대해 적절한 보호수단을 강구하도록 하고 있다.
또한 인공지능이 부정적인 편견이나 고정관념을 학습한 결과로 차별을 조장하거나 지속시킬 위험성이 있음을 지적하고, 인공지능이 사용하는 데이터의 편향, 불완전성 등에 대한 사전적 식별과 조치를 강조하고 있다.
국제 인권 기준은 인공지능 시스템에 대한 ‘설명가능성과 책임성의 확보’를 중요시하고 있다. 설명가능성 또는 투명성이란 인공지능 시스템에 의해 내려진 판단이나 결정에 대해 그 이유, 과정, 결과 등을 인간이 이해하고 설명을 들을 수 있어야 한다는 것이고,
책임성은 인공지능의 판단이나 결정에 대해 책임을 질 수 있는 주체와 절차를 명확히 하고 그에 맞는 법적·제도적 근거를 갖출 것을 요구하는 것이다.
일부 인공지능 기반의 시스템은 대량의 개인정보 수집 및 활용 기술과 관련이 있고, 개인의 민감한 정보나 사생활을 추적, 감시하는 데 활용될 여지가 있어 ‘개인정보 및 사생활의 보호’를 강조하고 있으며, 동시에 인공지능 알고리즘의 보안과 안전성 확보가 중요하다.

2. 인권 가이드라인의 필요성
인공지능으로 인해 발생할 수 있는 문제를 예방하기 위하여 국제사회는 인공지능의 개발과 활용에 있어 인권에 대한 보호 기준이 마련되어야 한다는 데 인식을 같이하고, 각 분야에서 인공지능 관련 제도와 지침을 개발하고 있다.
반면 우리나라의 법률 및 제도는 선진국과 비교해 인공지능 기술 및 산업의 성장에 중점을 두어 인공지능으로 인한 인권 문제를 다루는 데 부족한 측면이 있고, 각 정부 부처와 기관은 각자의 소관 업무와 관련하여 개별적 이슈로 접근하고 있다.
인공지능과 관련하여 총체적인 인권적 접근이 이루어지지 못하면 표현의 자유, 혐오와 차별, 개인정보 보호 등 사회적 관심을 받는 주제는 더욱 주목을 받게 되지만, 정보 및 서비스 접근성, 개인의 선택권 및 자기결정권 등 중심 주제에서 벗어나 있는 문제는 해결이 더욱 어려워질 수 있다.
또한 각 정부 부처에서 발표하는 다양한 인공지능 관련 윤리 기준은 역사적 배경과 문화적 차이에 따라 자의적으로 해석될 수 있어, 국제적으로 인정되고 국가의 법률 등에서 명확히 밝히고 있는 인권 기준과는 의미와 규범성이 다르다고 할 수 있다.
인공지능의 개발로 인해 예상치 못한 사회적 문제점이 점차 증가할 것을 고려할 때 인공지능의 개발과 활용에 있어 인권적 가치를 훼손하지 않고, 인간의 존엄성과 기본권 보장을 위한 인권 가이드라인의 필요성이 커지고 있다.
따라서 인권 가이드라인은 기존의 제도나 기준이 가지는 한계를 극복하고, 인공지능이 영향을 미치는 영역에 대해 총체적인 접근과 명확한 기준을 제시할 수 있다는 점에서 그 필요성이 더 크다고 할 수 있다.

3. 인권 가이드라인의 주요 내용
1) 인간의 존엄성
대한민국헌법 제10조에서 보장하고 있는 인간의 존엄과 가치는 누구나 누려야 할 불가침의 기본적 인권으로, 어떠한 활동도 인간의 존엄에서 유래하는 다양한 권리의 희생을 강요해서는 안 되며, 모든 활동은 인간의 존엄과 가치를 향상시키는 방향으로 수행되어야 한다.
인공지능은 인간의 존엄과 가치 및 행복을 추구할 권리에 부합하는 방향으로 개발 및 활용되어야 하며, 개인의 선택과 판단 및 결정을 강요하거나 자율성을 침해할 수 없다.

2) 투명성과 설명 의무
인공지능 기술을 활용한 판단 과정과 그 결과에 대해 적절하고 합리적인 설명이 보장되어야 한다. 공공기관이 인공지능을 통한 의사결정을 할 때 설명 가능한 인공지증이 활용되어야 하며, 특히 조달의 경우 입찰 단계부터 설명가능성이 보장되어야 한다.
공공기관이 개발하고 활용하는 모든 인공지능과 민간이 개발하고 활용하는 인공지능 중 개인의 생명이나 안전 등 기본적 인권에 중대한 영향을 미치는 인공지능은 사용된 데이터와 인공지능 알고리즘의 주요 요소를 일반에게 공개하고 설명하여야 한다.
특히 완전히 자동화된 의사결정으로만 개인에게 법적 효력 또는 생명, 신체, 정신, 재산에 중대한 영향을 미치는 일은 제한되어야 하고, 이러한 의사결정이 이루어진 경우에는 당사자가 해당 방식을 거부하거나 인적 개입을 요구할 수 있는 권리를 보장해야 한다.

3) 자기결정권의 보장
개인정보자기결정권은 정보주체의 자기 정보에 대한 통제력을 보장하기 위한 것이고, 가장 중요한 정보주체의 동의는 단순한 외형적 의사 표시만이 아니라 정보주체가 개인정보 처리에 대한 제반 상황을 충분히 설명받고 자유의사에 따라 결정하는 것을 의미한다.
정보주체는 인공지능 서비스가 언제, 어디서 자신의 개인정보를 수집하고, 어떻게 개인정보를 처리하여 사용, 보관, 삭제하는지에 대해 알고 참여할 권리가 있다.
인공지능의 개발과 활용에서 개인정보는 목적에 필요한 최소한의 범위에서 처리되고, 처리목적 달성에 필요한 기간 동안만 보관되어야 한다.
인공지능을 활용한 의사결정의 내용과 관련성이 없거나, 부정확한 데이터에 기반한 의사결정이 이루어지지 않도록 데이터의 정확성, 완전성, 최신성을 보장해야 한다.

4) 차별 금지
인공지능을 개발하고 활용할 때는 인공지능으로 인해 영향을 받는 사람의 다양성과 대표성을 반영하기 위해 노력해야 하고, 성별, 종교, 장애, 나이, 출신 지역, 신체조건, 피부색, 성적 지향, 사회적 신분 등 개인과 집단의 특성에 따라 편향적이고 차별적인 결과가 나오지 않아야 한다.
데이터의 수집 및 시스템 설계, 활용 등 인공지능 개발 전반에 걸쳐 편향이나 차별을 배제해야 하고, 데이터 요소를 검사하고 차별적인 데이터를 조정하는 등의 조치를 해야 한다.
개발한 인공지능에 대해 주기적인 모니터링을 거쳐 데이터 품질과 위험을 관리하고, 차별적 결과나 의도하지 않은 결과에 대해 개선의 조치를 주기적으로 수행하여야 한다.

5) 인공지능 인권영향평가 시행
국가는 인공지능의 개발과 활용에 있어서 인권침해와 차별의 가능성 및 정도, 영향을 받은 당사자의 수, 사용된 데이터의 양 등을 고려하여 인권영향평가를 실시해야 한다.
인공지능 인권영향평가 내용에는 인공지능의 특성, 상황, 범위 및 목적을 감안하여 인권 가이드라인이 제시한 원칙 및 내용, 국제 인권 기준, 관련 법률에서 정한 의무 등이 포함되어야 하며, 인권침해 위험요인의 분석 및 개선 사항 등을 도출해야 한다.
인공지능 인권영향평가 결과에서 인권에 미치는 부정적인 영향이나 편향성 및 위험성이 드러난 경우 이를 방지하거나 완화하기 위한 조치사항을 수립하여 적용하여야 하며, 원칙적으로 그 내용이 공개되어야 한다.

6) 위험도 등급 및 관련 법, 제도 마련
국가는 공공기관과 민간이 개발하고 활용하는 인공지능이 인권과 책임성을 보장할 수 있도록 관련 법률과 감독 체계를 보완해야 하며, 구체적인 지침과 정책을 마련해야 한다.
국가는 개인의 인권과 안전에 미치는 위험성이 매우 높아 인공지능이 금지되는 영역, 상당한 제한이 필요한 인공지능 고위험 영역, 일정 정도의 제한이 필요한 제한적 위험성을 가진 영역, 위험성이 거의 없는 영역 등 적절하게 인공지능의 위험성 단계를 구분하고, 그에 맞는 규제 수준과 인적 개입이 이루어지도록 법과 제도를 마련하여야 한다.
국가는 인공지능을 독립적이고 효과적으로 감독할 수 있는 체계를 수립하여 개인의 인권과 안전을 보장하고, 인공지능에 의해 피해를 입은 사람이 진정을 제기하는 등의 방법으로 권리 구제를 받을 수 있는 기회를 제공하여야 한다.

IV. 결론
위와 같은 이유로 국가인권위원회법 제25조 제1항의 규정에 따라 국무총리에게 인공지능 개발과 활용에 관한 인권 가이드라인에 기초하여 인공지능 관련 정책이 수립, 이행되고, 관계 법령이 제, 개정되도록 관련 부처들을 유기적으로 조정하고 통할할 것을 권고합니다.