공공정책 위키(Public Policy Wiki)에 오신 것을 환영합니다


공공정책 위키 시작하기

인공지능 윤리기준

Public Policy Wiki
박세준 (토론 | 기여)님의 2024년 6월 19일 (수) 02:15 판 (→‎개요)
둘러보기로 이동 검색으로 이동

개요

'사람 중심의 인공지능’을 위한 최고 가치인 인간성(Humanity)를 위해 정부,공공기관, 기업, 이용자 등 모든 사회구성원이 함께 지켜야할 3대 기본원칙과 10대 핵심요건으로 구성하여 인공지능 시대에 바람직한 인공지능 개발,활용을 제시하기 위한 기준이다. 2020년 12월 23일 대통령 직속 4차산업혁명위원회 전체회의에서 과학기술정보통신부와 정보통신정책연구원에 의해 마련되었다.

배경[1]

오늘날 인공지능 기술은 컴퓨팅 파워의 성장, 데이터의 축적, 5G 등 네트워크 고도화 같은 ICT 기술의 발전을 토대로 급 성장하고 있다. 인공지능은 제조, 의료, 교통, 환경 등 산업 전반에서 본격적으로 활용, 확산되고 있으며, 우리 생활에서도 쉽게 인공지능 기술을 접할 수 있게 되었다. 이러한 인공지능 기술의 발전, 확산은 생산성, 편의성을 높여 국가 경쟁력을 높이고 국민의 삶의 질을 높일 것으로 기대되지만, 한편으로는 기술 오용, 데이터 편향성과 같은 인공지능 윤리 이슈도 제기되고 있다. 이에 기업의 자율성을 존중하고 기술 발전을 장려하고자 법적 구속력이 없는 인공지능 윤리를 제시하여 분야별 혹은 사안별 특징에 맞게 윤리기준을 중심으로 세부 지침을 수립해나갈 수 있는 자율 규범 환경 조성을 목적으로 한다.

아래 표는 인공지능 활용 과정에서 발생한 부작용 사례이다.

인공지능 활용 사례 주요 내용
한국 인공지능 챗봇 ‘이루다’ (2021) 스타트업 ‘스캐터랩’의 챗봇 ‘이루다’는 데이터 구축·학습 과정에서의 개인정보유출, 장애인·성소수자·인종 등에 대한 혐오 발언, 이용자의 챗봇 성희롱 대화로 젠더편견 강화 등 사회적 논란을 빚어 서비스 중단
영국 대입 시험 점수산정 시스템 (2020) 영국 시험감독청은 코로나19로 취소된 대입 시험 ‘A레벨’을 대신하여 알고리즘으로 성적을 산출하였으나 편향된 알고리즘 결과에 대해 강한 사회적 반발이 일어나자 이를 철회함
미국 경찰 범죄수사용안면인식 시스템 (2020) 미국 경찰국은 안면인식 기술을 활용한 범죄 수사 사건에 흑인 3명을 범죄자로 오인하여 부당 고소·체포함으로써 인권침해와 인종차별 논란을 빚음
네덜란드 복지수당 사기탐지 시스템 (2020) 네덜란드 정부는 복지혜택 부정수급과 세금 사기를 단속하기 위해 위험탐지시스템(SyRi)을 개발·활용하였으나 국가·지방자치단체의 데이터를 활용한 사생활 침해, 저소득층이나 이민자 등 소수·취약집단 차별, 비공개 인공지능 모델·데이터의 투명성 부족 문제를 지적한 법원 판결로 철회됨

목표 및 지향점[2]

모든 사회 구성원이 모든 분야에서 자율적으로 준수하며 지속 발전하는 윤리기준을 지향한다.

1) 인공지능 개발에서 활용에 이르는 전 단계에서 정부, 공공기관, 기업, 이용자 등 모든 사회 구성원이 참조하는 기준

2) 특정 분야에 제한되지 않는 범용성을 가진 일반원칙으로, 이후 각 영역별 세부 규범이 유연하게 발전해나갈 수 있는 기반 조성

3) 구속력 있는 법이나 지침이 아닌 도덕적 규범이자 자율규범으로, 기업 자율성을 존중하고 인공지능 기술발전을 장려하며 기술과 사회변화에 유연하게 대처할 수 있는 윤리 담론을 형성

4) 사회경제, 기술 변화에 따라 새롭게 제기되는 인공지능 윤리 이슈를 논의하고 구체적으로 발전시킬 수 있는 플랫폼으로 기능

또한 사람중심의 인공지능의 구현을 위해 지향되어야 할 최고 가치로 인간성을 설정한다. 이는 아래와 같은 사실을 의미한다.

모든 인공지능은 ‘인간성을 위한 인공지능(AI for Humanity)’을 지향하고, 인간에게 유용할 뿐만 아니라 나아가 인간 고유의 성품을 훼손하지 않고 보존하고 함양하도록 개발되고 활용되어야 한다. 인공지능은 인간의 정신과 신체에 해롭지 않도록 개발되고 활용되어야하며, 개인의 윤택한 삶과 행복에 이바지하며 사회를 긍정적으로 변화하도록 이끄는 방향으로 발전되어야 한다. 또한 인공지능은 사회적 불평등 해소에 기여하고 주어진 목적에 맞게 활용되어야 하며, 목적의 달성 과정 또한 윤리적이어야 하고, 궁극적으로 인간의 삶의 질 및 사회적 안녕과 공익 증진에 기여 하도록 개발되고 활용되어야 한다.

3대 기본원칙[2]

인간성을 구현하기 위해 인공지능의 개발 및 활용 과정에서 다음과 같은 원칙을 고려해야 한다.

인간 존엄성 원칙

  • 인간은 신체와 이성이 있는 생명체로 인공지능을 포함하여 인간을 위해 개발된 기계제품과는 교환 불가능한 가치가 있다.
  • 인공지능은 인간의 생명은 물론 정신적 및 신체적 건강에 해가 되지 않는 범위에서 개발 및 활용되어야 한다.
  • 인공지능 개발 및 활용은 안전성과 견고성을 갖추어 인간에게 해가 되지 않도록 해야 한다.

사회의 공공선 원칙

  • 공동체로서 사회는 가능한 한 많은 사람의 안녕과 행복이라는 가치를 추구한다.
  • 인공지능은 지능정보사회에서 소외되기 쉬운 사회적 약자와 취약 계층의 접근성을 보장하도록 개발 및 활용되어야 한다.
  • 공익 증진을 위한 인공지능 개발 및 활용은 사회적, 국가적, 나아가 글로벌 관점에서 인류의 보편적 복지를 향상시킬 수 있어야 한다.

기술의 합목적성 원칙

  • 인공지능 기술은 인류의 삶에 필요한 도구라는 목적과 의도에 부합되게 개발 및 활용되어야 하며 그 과정도 윤리적이어야 한다.
  • 인류의 삶과 번영을 위한 인공지능 개발 및 활용을 장려하여 진흥해야 한다

10대 핵심요건[2]

3대 기본원칙을 실천하고 이해할 수 있도록 인공지능 개발 활용 전 과정에서 충족되어야 할 요건은 다음과 같다.

인권보장

  • 인공지능의 개발과 활용은 모든 인간에게 동등하게 부여된 권리를 존중하고, 다양한 민주적 가치와 국제 인권법 등에 명시된 권리를 보장하여야 한다.
  • 인공지능의 개발과 활용은 인간의 권리와 자유를 침해해서는 안 된다.

프라이버시 보호

  • 인공지능을 개발하고 활용하는 전 과정에서 개인의 프라이버시를 보호해야 한다.
  • 인공지능 전 생애주기에 걸쳐 개인 정보의 오용을 최소화하도록 노력해야 한다.

다양성 존중

  • 인공지능 개발 및 활용 전 단계에서 사용자의 다양성과 대표성을 반영해야 하며, 성별·연령·장애·지역·인종·종교·국가 등 개인 특성에 따른 편향과 차별을 최소화하고, 상용화된 인공지능은 모든 사람에게 공정하게 적용되어야 한다.
  • 사회적 약자 및 취약 계층의 인공지능 기술 및 서비스에 대한 접근성을 보장하고, 인공지능이 주는 혜택은 특정 집단이 아닌 모든 사람에게 골고루 분배되도록 노력해야 한다.

침해금지

  • 인공지능을 인간에게 직간접적인 해를 입히는 목적으로 활용해서는 안 된다.
  • 인공지능이 야기할 수 있는 위험과 부정적 결과에 대응 방안을 마련하도록 노력해야 한다.

공공성

  • 인공지능은 개인적 행복 추구 뿐만 아니라 사회적 공공성 증진과 인류의 공동 이익을 위해 활용해야 한다.
  • 인공지능은 긍정적 사회변화를 이끄는 방향으로 활용되어야 한다.
  • 인공지능의 순기능을 극대화하고 역기능을 최소화하기 위한 교육을 다방면으로 시행하여야 한다.

연대성

  • 다양한 집단 간의 관계 연대성을 유지하고, 미래세대를 충분히 배려하여 인공지능을 활용해야 한다.
  • 인공지능 전 주기에 걸쳐 다양한 주체들의 공정한 참여 기회를 보장하여야 한다.
  • 윤리적 인공지능의 개발 및 활용에 국제사회가 협력하도록 노력해야 한다.

데이터 관리

  • 개인정보 등 각각의 데이터를 그 목적에 부합하도록 활용하고, 목적 외 용도로 활용하지 않아야 한다.
  • 데이터 수집과 활용의 전 과정에서 데이터 편향성이 최소화되도록 데이터 품질과 위험을 관리해야 한다.

책임성

  • 인공지능 개발 및 활용과정에서 책임주체를 설정함으로써 발생할 수 있는 피해를 최소화하도록 노력해야 한다.
  • 인공지능 설계 및 개발자, 서비스 제공자, 사용자 간의 책임소재를 명확히 해야 한다.

안전성

  • 인공지능 개발 및 활용 전 과정에 걸쳐 잠재적 위험을 방지하고 안전을 보장할 수 있도록 노력해야 한다.
  • 인공지능 활용 과정에서 명백한 오류 또는 침해가 발생할 때 사용자가 그 작동을 제어할 수 있는 기능을 갖추도록 노력해야 한다.

투명성

  • 사회적 신뢰 형성을 위해 타 원칙과의 상충관계를 고려하여 인공지능 활용 상황에 적합한 수준의 투명성과 설명 가능성을 높이려는 노력을 기울여야 한다.
  • 인공지능기반 제품이나 서비스를 제공할 때 인공지능의 활용 내용과 활용 과정에서 발생할 수 있는 위험 등의 유의사항을 사전에 고지해야 한다.

해외 사례[1]

발표 주체 발표시기 제목
유럽연합 2020 The Assessment List for Trustworthy Artificial Intelligence for self assessment
영국 개인정보보호감독기구 2020 Guidance on Artificial Intelligence and Data Protection
세계경제포럼, 싱가포르 정부 2020 Companion to the Model AI Governance Framework- Implementation and Self-Assessment Guide for Organizations

참고문헌

  1. 1.0 1.1 과학기술정보통신부·정보통신정책연구원 (2023), 「2023 인공지능 윤리기준 실천을 위한 자율점검표 (안)」, https://www.kisdi.re.kr/bbs/view.do?bbsSn=114068&key=m2101113055944
  2. 2.0 2.1 2.2 과학기술정보통신부. (2020), 사람이 중심이 되는 인공지능 윤리기준[보도자료], https://www.msit.go.kr/bbs/view.do?sCode=user&mPid=112&mId=113&bbsSeqNo=94&nttSeqNo=3179742