공공정책 위키(Public Policy Wiki)에 오신 것을 환영합니다


공공정책 위키 시작하기

AI 규제법: 두 판 사이의 차이

Public Policy Wiki
둘러보기로 이동 검색으로 이동
209번째 줄: 209번째 줄:
최소한의 위험에 분류된 AI는 사람과 직접 상호작용하지 않거나 상호 작용할 때 실질적인 영향이 거의 없는 AI 도구 등이 있다. 이메일 스팸 필터나 비디오 게임의 AI가 이에 해당한다. AI 법의 규칙 대부분은 이 분류에 속하는 AI에 적용되지 않는다. (일부만 위에 나열된 투명성 의무를 충족해야 한다)
최소한의 위험에 분류된 AI는 사람과 직접 상호작용하지 않거나 상호 작용할 때 실질적인 영향이 거의 없는 AI 도구 등이 있다. 이메일 스팸 필터나 비디오 게임의 AI가 이에 해당한다. AI 법의 규칙 대부분은 이 분류에 속하는 AI에 적용되지 않는다. (일부만 위에 나열된 투명성 의무를 충족해야 한다)


==== 미국 – AI 행정명령 + 캘리포니아 법안 통과 ====
==== 미국 ====


* 미국 AI 행정명령
* 미국 AI 행정명령

2024년 12월 3일 (화) 03:00 판

AI의 발달과 규제의 필요성

AI(인공지능, Artificial Intelligence)란

학습, 적응, 논증 등 인간의 지능적인 기능을 기계나 컴퓨터 시스템이 모방하거나 구현하는 기술을 말한다. AI는 기계학습을 통해 데이터를 분석하고, 경험을 쌓으며 점점 더 효율적으로 작동한다. 인공지능은 기능과 능력에 따라 여러 가지 유형으로 분류된다. 대표적으로는 다음과 같다.

(1) 역량과 지적능력 기준

  • 약한 인공지능 (Weak AI)

– 인간의 특정 지능 활동을 모방하여 한정된 범위 내에서 문제를 해결하는 AI

- 자율주행차, 음성인식 시스템, 추천 알고리즘 등

  • 강한/일반 인공지능 (Strong AI / AGI)

– 인간과 동일한 수준의 사고, 문제 해결, 학습능력을 가질 수 있는 AI

- 현재 이론적으로만 존재

  • 좁은 인공지능 (Narrow AI)

– 특정 작업이나 문제 해결에 특화된 AI, 현재 우리가 흔히 접하는 AI

- 시리나 빅스비 등의 음성 비서, 스팸 필터, 게임 AI 등

  • 초지능 (Superintelligence)

– 인간의 지능을 넘어 독립적으로 문제를 해결하고 의사결정을 할 수 있는 AI

- 현재 존재하지 않지만 미래에 등장할 가능성이 있는 AI 유형


(2) 특정 응용 분야에 따른 분류

  • 대화형 AI

- 인간과의 자연스러운 상호작용에 특화된 AI.

- 챗봇, 가상 비서 등

  • 비즈니스 AI

- 기업 운영 및 의사결정 지원에 사용되는 AI.

- 고객 관리 시스템(CRM), 데이터 분석 도구 등

  • 의료 AI

- 의료 진단, 치료 계획, 약물 개발 등 건강 관리 분야에 특화된 AI.

- 암 진단 알고리즘, 로봇 수술 시스템 등

  • 창작 AI

- 예술, 음악, 글쓰기 등 창의적인 작업을 수행하는 AI.

- 그림 생성, 음악 작곡 등

이 외에도 기술 구현 방식, 기능기반 등 여러 기준으로 AI를 분류할 수 있다.

AI의 발달과정

  • 초기이론 ( 1940 – 1950년대 )

AI의 기초 개념은 앨런 튜링의 튜링 기계와 튜링 테스트에서 시작되었고 1956년, 다트머스 회의에서 AI라는 용어가 처음 사용되었고 이때부터 AI 연구가 본격화되었다. 여기서 튜링기계는 AI가 해결할 수 있는 계산 문제를 정의한 이론적 모델이며, 튜링 테스트는 AI가 인간처럼 사고하고 대화할 수 있는지를 평가하는 방법이다. 이 두 개념은 컴퓨터 과학의 근본적인 질문들을 다루고 있으며, AI의 발전에 중요한 철학적, 이론적 토대를 제공해 주었다는 점에서 의의가 있다.

  • AI 겨울 ( 1970 – 1980년대 )

AI는 초기에 큰 기대를 모았으나, 기술적 한계와 기대 속에서 AI 겨울이라 불리는 침체기를 겪음. 컴퓨터 처리 능력의 한계, 제한적인 알고리즘, 데이터의 부족 등 당시의 기술력으로는 한계가 있어 큰 발전을 이루지 못하였다.

  • AI의 재도약 ( 1990 – 2000년대 )

1997년 IBM의 체스 특화 인공지능 컴퓨터인 딥블루가 당시 체스 챔피언을 이기면서 AI는 다시 주목받기 시작했다. 이는 AI가 실생활에서 적용이 가능하다는 것을 보여주었고, 기계학습 및 강화학습과 같은 알고리즘의 발전을 이끌어냈다. 또한 인터넷과 빅데이터의 출현으로 AI의 발전은 더욱 가속화었다.

  • 딥러닝과 AI 혁명 ( 2010년대 )

2010년대 초, 딥러닝의 발전으로 대규모 데이터와 그래픽 처리 장치(GPU)의 발전으로 인공신경망을 이용한 학습이 가능해졌고, 이미지 인식, 자연어 처리, 음성인식 등에서 획기적인 성과를 달성했다. 대표적으로 알파고의 바둑 승리는 AI가 인간의 직관적 능력을 뛰어넘을 수 있는 것을 보여주었다.

  • 현재의 AI ( 2020년대 )

현재 AI는 자율주행차, 음성 비서, 헬스케어 등 다양한 분야에서 실용적으로 활용되고 있다. GPT와 같은 대형 언어 모델은 인간과 유사한 텍스트 생성 능력을 보유하고 있으며, 딥러닝 기술을 통해 점점 더 복잡한 작업 수행이 가능해졌다.

  • 미래의 인공지능

AI의 미래는 강한 인공지능과 초지능의 출현을 예고하고 있고, 이러한 발전이 이루어진다면 AI는 경제, 사회, 정치 등 현재보다 더 광범위하게 다양한 분야에서 활용될 것으로 보인다.

AI의 문제점과 규제의 필요성

(1) AI의 문제점

  • 편향과 차별

AI 시스템은 데이터를 기반으로 학습하기에 훈련 데이터가 편향되어 있으면 AI도 편향된 데이터를 그대로 학습한다. AI 데이터에 성별, 인종, 나이 등에 대한 편향이 반영되어 있다면 AI는 이를 그대로 학습하고 동일한 편향을 새로운 데이터에 적용할 수도 있는 것이다. AI가 흑인을 고릴라로 인식하거나, 흑인의 재범률을 백인보다 높게 예측하는 등 인종차별적인 판단을 내리는 경우, AI 채용 프로그램이 여성 지원자보다 남성 지원자에게 계속해서 높은 점수는 주는 경우 등이 대표적이다.

  • 개인 정보 침해

AI 시스템은 대규모 데이터를 활용해 학습하고 예측을 수행하는데, 이 과정에서 개인 정보가 무단으로 수집되거나 잘못 처리될 수 있다. AI가 많은 양의 데이터를 수집하기 위해 스마트폰 활동 기록 등에서 개인의 정보가 동의 없이 수집되거나 유출될 가능성이 있다. 이렇게 수집된 개인의 정보는 무단으로 사용되고 심할 경우, 해킹 등 악의적인 목적으로 이용될 가능성도 있다. 페이스북의 카메라 데이터 유출 사건, 구글의 위치 추적 및 개인 정보 수집 등의 사례가 있다.

  • AI의 거짓 정보 제공 및 손해와 배상 문제

AI는 각종 손해와 배상 문제 및 상반된 의견들을 불러왔다. 특히 CHAT GPT(이하 GPT)가 출시된 이후, 여러 문제들이 있었다. GPT가 호주 시장이 뇌물 수수 스캔들에서 유죄로 지목되었다는 거짓 정보를 내줘 GPT 본사를 상대로 소송한 사례, 대학교수가 학생을 성희롱하고 부적절한 접촉을 하려 시도했다는 거짓 정보를 내준 사례 등이 있다. 이런 경우에 손해 배상의 법적 판단의 기준이 무엇인지의 문제가 생긴다. 특히 법대 교수, 국회의원 등 전문가들 사이에서도 어떠한 기준으로, 누구에게 책임을 물어야 하는가에 대한 의견이 상반된다.

  • 일자리 대체

현재 AI의 발전으로 많은 직업들이 자동화 되어가고 있다. 특히 반복적인 업무나 제조업 분야에서 인간 대신 AI가 일을 하게 되면서, 일부 직종은 사라지거나 인공지능에 의해 대체될 가능성이 크다. 이로 인해 미래에는 실업 문제와 경제적 불평등이 더욱 심화 될 가능성이 높아질 것이다.

  • AI 기술의 악용 가능성

AI의 발달에 따라 기술이 악용될 가능성이 커지고 있다. 대표적으로 딥페이크, 자동화 사이버 공격 등은 현대사회에서 가장 큰 문제 중 하나이다. 딥페이크는 AI 기술을 통해 사람의 얼굴, 음성 등을 조작해 실제와 구분하기 어려운 가짜 콘텐츠를 생성한다. 이로 인해 허위 정보를 확산시키고, 명예를 훼손하는 등 많은 사람들에게 피해를 주고 있다. 또한 AI 기술을 사용해 피싱을 자동화 시키거나 봇넷을 강화해 사이버 공격을 수행하는 등의 문제를 일으킨다.


(2) AI 규제법의 필요성

이 외에도 AI의 여러 윤리적, 사회적 문제를 해결하기 위해 AI 규제법은 필수적으로 도입되어야 한다. AI는 혁신적인 가능성을 지니고 있지만, 크고 작은 부작용을 초래하기도 한다. 이러한 문제를 예방하고, AI 기술이 사회에 미치는 부정적인 영향을 최소화하기 위해서는 명확한 법적 기준과 규제가 필요하다. AI 규제법은 기술 발전의 속도를 저해하지 않으면서도, AI 시스템이 윤리적이고 책임감 있게 운영될 수 있도록 보장할 수 있다. 이를 통해 AI의 긍정적인 가능성을 안전하게 활용하고, 사회적 책임을 다하는 방향으로 나아갈 수 있다.

AI 규제법의 정의

AI 법이란

  • 등장배경

2022년 말 챗GPT 등장 이후 생성형 AI 기술 발전이 급격하게 진행되고 있고, 리걸테크, AI챗봇, AI헬스케어, AI에듀테크 등 인공지능 기술에 기반한 다양한 서비스들이 발전하고 있다. 이러한 인공지능 기술의 급격한 발달에 대응하여 인공지능을 규범적으로 규율하려는 움직임이 전 세계에서 활발하게 전개되고 있다. 유럽연합(EU)은 인공지능의 규제에 초점을 맞춘「인공지능법(Artificial Intelligence Act)」을 제정하였고, 미국은 「미국인공지능진흥법(Advancing American AI Act)」을 재정하고 행정명령을 통해 AI분야의 주도권을 잡기 위한 노력을 진행중이다. 우리나라에서도 2019년 「인공지능 국가전략」을 수립(2019. 12. 17.)한 이후, 2024년 5월 과학기술정보통신부(이하 ‘과기부’)와 외교부가 ‘인공지능(AI) 서울 정상회의(5. 21. ~ 22.)’와 ‘AI 글로벌 포럼(5. 22.)’을 서울에서 개최하여 ‘안전’, ‘혁신’, ‘포용’이라는 AI 거버넌스 3대 원칙을 국제사회에 제시하는 등 AI와 관련하여 국제적 주도권을 잃지 않기 위한 노력을 계속하고 있다.

  • 정의

유럽연합(EU)의 AI Act는 2024년 5월 21일 최종 승인한 세계 최초의 인공지능 규제 법이다. 이 법은 AI를 위험도에 따라 분류해 단계별 규제를 시행하며 기술 개발 과정에서의 투명성을 강화하는 것을 핵심 내용으로 한다. 즉, AI 규제법이란 AI 시스템의 안전과 윤리적 원칙을 보장하고 위험을 최소화하여 신뢰할 수 있는 AI를 육성하는 것이 목적이며, AI 개발, 배포, 제공 주체에게 AI 활용 사례에 대한 요건과 의무를 명시함과 동시에 국가 내 조화로운 AI 기술의 혁신 투자 환경을 조성하기 위해 고안된 것이다.

국내에서의 AI 법의 내용

  • 21대 국회 인공지능 법제 동향

국내 인공지능법안은 21대 국회에서 2020년부터 발의되어 왔다. 2020년 4건(과방위 3건, 산자위 1건), 2021년 4건(과방위 3건, 교육위 1건), 2022년 3건(과방위 1건, 산자위 1건, 교육위1건), 2023년 2건(과방위)으로 총 13건(과방위가 9건, 산자위 2건, 교육위 2건)의 법안이 발의되었는데, 이 중 인공지능 자체의 진흥이나 규제 등을 목적으로 발의된 법안은 총 9건이고, 2023년에 발의된 2개 법안에는 교통, 의료, 서비스 등 인공지능이 일상 깊이 파고들며 다양한 분야에서 활용되는 환경을 고려하여 사업자의 책무와 이용자의 권리를 구체적으로 규정하는 내용 등이 포함되어 있었다.

9건의 법안 소관 상임위(과방위)에서는 2022년까지 발의되었던 7건의 인공지능 관련 법률안을 병합하여 심사(2023. 2. 14.)한 이후, 이를 통합·조정하여 위원회의 대안을 제시하기로 하였으나, 비공개로 수정보완 중인 상태에서 21대 국회 회기가 종료되면서 폐기되었다.

  • 현행 법령상 인공지능 규정 현황

현행 법령상 ‘인공지능’이라는 문언이 규정되어 있는 법령은 50개(2024. 6. 25. 기준)인데, 이중 각 부처의 조직과 직무범위에 관하여 규정하고 있는 직제 성격의 규정을 제외하면 인공지능에 관하여 실질적으로 규율하고 있는 법령은 23개라고 할 수 있다.

인공지능의 활용에 관한 일반적인 규정은 「행정기본법」에 있다. 같은 법 제20조에서는 ‘행정청은 법률로 정하는 바에 따라 완전히 자동화된 시스템(인공지능 기술을 적용한 시스템을 포함한다)으로 처분을 할 수 있다’고 규정함으로써 제4차 산업혁명에 선제적으로 대응하여 행정의 디지털화를 촉진하고 행정 효율성과 국민 편의를 높이기 위해 자동적 처분에 관한 입법적 기준을 마련하였다.

그 외 개별법의 경우 정보주체가 완전히 자동화된 시스템(인공지능 기술을 적용한 시스템을 포함)으로 개인정보를 처리하여 이루어지는 결정이 자신의 권리 또는 의무에 중대한 영향을 미치는 경우에는 해당 개인정보처리자에 대하여 해당 결정을 거부할 수 있는 권리 및 자동화된 결정에 대한 설명 등을 요구할 수 있는 권리를 규정하고 있는 「개인정보 보호법」(제37조의2), 선거운동을 위하여 인공지능 기술 등을 이용하여 만든 실제와 구분하기 어려운 가상의 음향, 이미지 또는 영상 등 이른바 딥페이크 기술을 활용한 영상 등의 제작ㆍ편집ㆍ유포ㆍ상영 또는 게시 행위를 금지하는 내용을 규정하고 있는 「공직선거법」(제82조의8) 등 인공지능의 활용에 대해 일정 부분 규제를 하고있는 일부 법률을 제외하고는 인공지능의 도입ㆍ활용이 촉진되도록 하였다.

  • 현재 정부 인공지능 정책 동향

최근 정부는 정부합동으로 수립한 「새로운 디지털 질서 정립 추진계획」을 발표(2024. 5. 21.)하였는데, 추진계획에는 「디지털 권리장전」의 철학과 5대 원칙(자유, 공정, 안전, 혁신, 연대)을 토대로 52개의 쟁점을 해소하기 위한 20대 정책과제를 담았고, 그 중 국민 관심사가 크거나 파급성ㆍ시급성이 높은 정책과제 8개를 핵심과제로 지정하여 집중 관리할 계획이다. AI와 연관된 핵심과제로는 ‘인공지능 기술의 안전성, 신뢰·윤리 확보’, ‘딥페이크를 활용한 가짜뉴스 대응’, ‘AI 개발ㆍ활용 관련 저작권 제도 정비’를 중점 추진할 것으로 보인다.

  • 22대 국회 인공지능 법제 발의 현황

22대 국회가 시작(2024. 5. 30.)되면서 AI 법안 관련해서 재발의에 관심이 끌리고 있다. 2024년 5월 31일 안철수 의원이 「AI산업 육성 및 신뢰 확보에 관한 법률안」을 대표 발의했는데, 이 법안에서는 고위험 AI로부터 이용자 보호를 위한 정부 역할, 사업자 책무, 이용자 권리 등을 규정하고 있다. 6월 17일에는 정점식 의원이 인공지능의 발전을 지원하는 「인공지능 발전과 신뢰 기반 조성 등에 관한 법률안」을 대표 발의하였으며, 같은 달 19일에는 김성원 의원이 「인공지능산업 육성 및 신뢰확보에 관한 법률안」을 대표 발의하였다. 현재 제22대 국회에서 발의된 4개 법률안(2024. 6. 20. 기준)의 주요 내용은 다음과 같다.

법률명(대표발의 의원, 발의인) 주요내용
인공지능 산업 육성 및 신뢰 확보에 관한 법률안

(안철수 의원 대표발의, 2024.5.31.)

대통령 소속의 국가인공지능위원회 설치, 고위험영역 인공지능 확인 제도, 생성형 인공지능 이용 제품과 서비스 제공자의 사전고지 및 표시 제도 도입
인공지능 발전과 신뢰 기반 조성 등에 관한 법률안

(정점식 의원 대표발의, 2024.6.17.)

국가인공지능센터지정 제도 도입, 고위험영역 인공지능 제품 또는 서비스 제공 시 사전고지 의무화, 생성형 인공지능 운용 사실 고지 및 표시 의무화
인공지능산업 육성 및 신뢰 확보에 관한 법률안

(김성원 의원 대표발의, 2024.6.19.)

인공지능제품과 서비스의 우선허용, 사후규제 원칙, 고위험 영역에서 활용되는 인공지능의 확인 및 고지 의무, 인공지능집적단지 지정, 대한인공지능협회 설립
인공지능산업 육성 및 신뢰 확보에 관한 법률안

(조인철 의원 대표발의, 2024.6.19.)

인공지능기술 표준화사업 추진, 인공지능 실증 규제특례 도입, 고위험영역 인공지능의 고지 의무, 인공지능 제품의 비상정지, 민간자율인공지능윤리위원회 설치

해외 AI 규제 현황

EU – 인공지능법(EU AI Act)

EU 인공 지능법(EU AI Act)는 유럽연합에서 인공지능의 개발 및 사용을 규제하는 법률이다. 이 법은 규제에 대한 위험 기반 접근 방식을 취하여 인간의 건강, 안전 및 권리에 대한 위협에 따라 AI 시스템에 다른 규칙을 적용한다. 법 위반 시 벌금은 3,500만 유로 또는 회사의 연간 전 세계 매출의 7% 중 더 높은 금액에 달할 수 있다.

AI Act는 AI 시스템을 네 개의 범주로 분류하여 단계별 규제를 시행한다. 분류 범주는 허용할 수 없는 위험, 고위험, 제한적 위험, 최소한의 위험으로 총 4단계가 있다.

  • 허용할 수 없는 위험

허용할 수 없는 수준의 위험을 초래하는 AI 애플리케이션은 금지된다. AI Act에 의하면 여기에 속하는 시스템으로는 예측 치안 시스템, 의도적으로 사람들을 조작하는 시스템, 비표적 스크래핑을 수행하는 얼굴 인식 데이터베이스, 민감한 개인 정보를 추론하는 생체 인식 분류 시스템 등이 있다.

  • 고위험

고위험으로 간주 되는 방법은 규제 대상 제품에 사용되거나 명시적으로 고위험으로 명명되는 경우로 두 가지가 있다. 예시로는 중요한 인프라의 안전 구성 요소로 사용되는 시스템, 교육 및 직업 훈련에 사용되는 시스템, 채용 환경에서 사용되는 시스템, 법 집행에 사용되는 시스템, 사법 및 민주적 절차에 사용되는 시스템 등이 있다.

고위험으로 분류된 AI가 따라야 할 규칙

  • 지속적인 위험 관리 시스템 구현을 통한 AI 모니터링
  • 엄격한 데이터 거버넌스 표준을 채택하여 데이터가 적절하게 수집, 처리 및 보호되도록 관리
  • 시스템 설계 사양, 기능, 제한 사항 및 규정 준수 노력에 대한 포괄적인 기술 문서 유지, 관리
  • 자동화된 이벤트 로그를 구현하여 위험 및 심각한 사고 식별
  • AI 시스템 배포자에게 명확한 지침을 포함하여 규정을 준수하는 데 필요한 정보 제공
  • 사람의 감독을 지원하고 가능하게 하는 시스템 설계
  • AI 시스템이 합리적으로 정확하고 견고하며 안전한지 확인
  • 제한적 위험

제한적 위험 AI 시스템은 특정 투명성 의무가 부과되는 시스템으로, 투명성 의무란 위험 수준에 관계 없이 특정 유형의 AI가 따라야 하는 규칙이다.

투명성 의무

  • AI 시스템은 사용자가 인공지능과 상호작용할 때 사용자에게 명확하게 알려야 함
  • 조직은 감정 인식 또는 생체 인식 분류 시스템을 사용할 때마다 사람들에게 이를 알려야 함
  • 생성형 AI 시스템은 워터마크 또는 기타 기계가 읽을 수 있는 신호를 사용하여 해당 콘텐츠가 AI로 생성된 것임을 표시해야 함
  • 배포업체는 딥페이크에 명확하게 라벨을 지정하고 이 사실을 청중에게 알려야 함
  • 공익 문제에 대한 텍스트를 생성하는 배포업체는 인간 편집자가 검토하고 책임을 지지 않는 한 텍스트에 AI 생성 라벨을 지정해야 함
  • 최소한의 위험

최소한의 위험에 분류된 AI는 사람과 직접 상호작용하지 않거나 상호 작용할 때 실질적인 영향이 거의 없는 AI 도구 등이 있다. 이메일 스팸 필터나 비디오 게임의 AI가 이에 해당한다. AI 법의 규칙 대부분은 이 분류에 속하는 AI에 적용되지 않는다. (일부만 위에 나열된 투명성 의무를 충족해야 한다)

미국

  • 미국 AI 행정명령

미국의 경우 아직 연방정부 차원에서는 EU AI Act에 상응하는 포괄적 규제 법률이 존재하지 않는다. 바이든 정부는 2023년 10월 30일에 AI 산업의 진흥에 따라 발생한 부작용을 해결하고자 “안전하고 보안성 있는 개발과 활용을 위한 행정명령”을 발표했다.

행정명령의 주요 내용

  • AI 안전성 평가 의무화
  • 도구의 안전성 표준 마련
  • 콘텐츠인증표준 수립
  • 개인정보 보호 강화

행정명령을 통해 연방정부 차원에서 AI 개발과 활용을 안전하고 책임감 있게 촉진하고, 국가안보, 건강과 안전을 위협하는 AI 기술 개발과 이용을 규제할 수 있고, AI가 가지는 잠재성은 극대화하고, 국가안보, 허위정보 생성, 일자리 등에 미칠 위험성을 최소화할 수 있다.

  • 캘리포니아주 AI 규제 법안 통과

2024년 9월 캘리포니아주 뉴섬(Gavin Newsom) 주지사는 다수의 AI 규제 법안들에 서명했다. 통과된 법안은 다음과 같다.

  • AI 훈련 데이터 투명성의 강화 (AB 2013)

- AI 시스템 개발자가 사용하는 데이터의 출처와 내용을 명확히 공개하도록 요구

  • 성적인 딥페이크 규제 (SB 926, SB 981)

- SB 926: 식별 가능한 사람의 신체나 성행위를 묘사하는 이미지나 영상을 그 사람이 심각한 정서적 피해를 입을 것을 알면서도 생성하는 행위를 불법으로 규정

- SB 981: 소셜 미디어 플랫폼에 성적인 딥페이크 신고 채널을 마련하도록 의무화, 플랫폼이 신고된 콘텐츠를 신속히 조사하고 삭제

  • AI 투명성법 (SB 942)

- 매월 100만 명 이상의 방문자 또는 사용자가 있는 AI 시스템 개발자에게 AI 콘텐츠 탐지 도구와 AI 워터마크 표시 기능을 제공하도록 요구

  • AI를 통한 개인의 디지털 복제물 사용에 대한 보호(AB 2602, AB 1836)

- AB 2602: 개인이 자신의 인격을 활용해 디지털 복제물을 생성할 때 계약상의 투명성을 보장하고 계약 협상 시 전문적인 대리인의 조력을 받아야 함

- AB 1836: 배우의 사후 최대 70년 동안 디지털 복제물의 사용을 보호할 수 있는 권리를 상속인에게 부여

  • 기타 AI 선거 악용 방지, 소비자 보호 (AB 2655, AB 2839, AB 1008, AB 3030, SB 1120 등)

중국

  • 생성형 인공지능서비스 관리 잠정방법

중국에서는 최근 2023년 7월 13일 생성형 AI 서비스를 규제하기 위한 규정인 “생성형 인공지능서비스 관리 잠정방법”이 공포되었다. 2023년 8월 15일부터 시행되는 이 법을 통해 생성형 AI 서비스를 체계적으로 규제하기 시작했다. 이 법의 내용으로는 AI를 사용하여 콘텐츠를 생성하는 기술의 허용 범위, 준수 의무, 위반 시 조치, 벌칙 등이 있다.

본건 규정 제3조에 의하면 생성형 AI 기술의 규제에 대해 포용과 신중, 기술의 유형과 중요성 등급에 따른 차등 감독관리를 원칙으로 한다. 이는 기술의 유형과 중요성 등급에 따라 중요 데이터, 개인 정보, 일반 데이터를 구분하여 규제한다는 것이다. 차등 감독관리하는 이유는 생성형 AI 산업이 빠르게 성장하고 있기는 시기에 이를 엄격히 규제하면 AI 산업 발전에 해가 될 수 있기 때문이다. (이와 관련된 규정으로는 제5조와 제6조가 있다)

제3조: 국가는 발전과 안전을 동등하게 중시하고, 혁신 촉진과 법에 따른 규제를 결합하는 원칙을 고수하며, 효과적인 조치를 통해 생성형 인공지능 혁신 발전을 장려하고, 생성형 인공지능 서비스에 대해 포용적이고 신중한 분류 등급 규제를 시행한다.

제5조: 다양한 산업 및 분야에서 생성형 인공지능 기술의 혁신적인 응용을 장려하여, 긍정적이고 건강하며, 상향적이고 선한 양질의 콘텐츠를 생성하고, 응용 시나리오를 최적화하고, 응용 생태계를 구축하도록 한다….

제6조: 생성형 AI 알고리즘, 프레임워크, 칩 및 지원 소프트웨어 플랫폼 등의 기초 기술의 자주적 혁신을 장려하며, 평등과 상호 이익을 바탕으로 국제 교류와 협력을 추진하고, 생성형 인공지능 관련 국제 규칙 제정에 참여한다…

본 규정은 대중에게 생성형 AI 기술을 이용한 텍스트, 이미지, 오디오, 비디오 등의 콘텐츠를 제공한 경우 적용된다. 여기서 대중에게 제공한다는 것은 불특정 다수 군중에게 공개적으로 제공하는 것으로, 공공이익과 관련된 경우에 한하여 규제를 받는다는 것이다.

  • 인터넷 정보서비스 심층합성 관리규정

중국은 딥페이크와 생성형 AI를 구분하여 규제하고 있다. “인터넷 정보서비스 심층합성 관리규정”은 딥페이크 서비스 공급자에게 텍스트, 이미지, 영상 등 5가지 유형의 딥페이크 서비스를 제공할 때 딥페이크 콘템츠임을 표시할 것을 의무화하고 있고, 딥페이크 서비스를 이용하여 법령상 제작‧복제‧배포‧전파가 금지된 정보의 제작과 법령상 금지된 활동에 대한 종사, 딥페이크 서비스 제공자와 이용자에 대하여 딥페이크를 사용한 허위 뉴스의 제작 등을 금지하고 있다.

딥페이크 서비스 제공자 및 해당 서비스의 딥페이크 기술 지원자의 의무

  • 얼굴, 목소리 등 생체정보의 편집 기능 제공 시, 딥페이크 서비스 이용자에게 해당 정보 주체에게 편집에 대해 별도 동의를 받아야 한다는 점을 고지
  • 생체정보, 국가안보, 국가 이미지, 국익 및 사회 공익과 관련될 수 있는 특수 물체 및 장면 등의 정보의 생성‧편집 도구 제공 시 보안 평가 수행(자체 및 전문기관 위탁)
  • 딥페이크 서비스를 제공하는 경우딥페이크 되었음을 알 수 있도록 딥페이크된 콘텐츠에 합리적 방식으로 표시

그 외

  • 영국

영국 과학혁신기술부(DSIT)에서 2023년 3월 AI 백서 “AI 구제에 대한 친혁신적 접근”을 발표했다. 백서는 혁신을 억제할 수 있는 강압적인 법안의 도입을 피하고, AI 규제에 적용 가능한 접근방식을 취할 것이며, 새로운 단일 규제 기관을 만들어 전권을 부여하는 대신 기존 관련 기관이 상황별로 맞춤형 접근방식을 채택할 방침이라고 설명하고 있다.

  • 일본

일본은 생성형 AI 규제를 위한 특정 법률이 아직 없다. 하지만 2019년 “인간 중심 AI 사회원칙”을 책정한 이후 각 부처에서 실천적 내용의 가이드라인을 공표하였다. 또한, 2023년 5월 AI 업계 지식인으로 구성된 “AI 전략회의”를 발족하고, AI의 이용 및 리ㅡ크, 개발에 관한 논의를 진행 중이다.

  • 러시아

AI 분야의 관계를 규정하는 법적 근거나 법률은 없으나 “2024년 AI 기술 및 로봇공학 분야의 규제 개발에 관한 구상”을 공식화하여 시행하고 있다. 이 구상의 목적은 신기술의 적극적 개발, 러시아의 선도적 위치 보장, 국민 안전보장 등이고, AI 시스템의 이용 시 법적 책임, 정보의 보호, 개발자를 위한 재정지원과 관련된 내용을 담고 있다.

  • 캐나다

캐나다 정부는 “인공지능 및 데이터법(안)”을 포함한 법률안 제 C-27호를 2022년 6월 16일 의회 하원에 제출하였다. 법안의 주요 내용은 AI의 위험을 파악하고 이를 완화할 수 있는 제도적 장치 마련, AI 규제 전담 부서 신설, AI와 관련한 불법 행위와 그에 대한 처벌 규정 등이 있다.

찬성여론

윤리적 문제

AI는 사람들의 사생활을 침해하거나 차별적인 결정을 내릴 수 있다. 예를 들어, AI 기반의 알고리즘이 특정 인종, 성별, 연령에 대해 편향된 결정을 내릴 수 있다. AI 규제는 이러한 문제를 예방하고 윤리적인 기준을 확립하는 데 도움을 줄 수 있다.

윤리적 문제와 관련된 해당 기사

프라이버시 보호

AI는 많은 데이터를 수집하고 분석하는 데 사용된다. 이 과정에서 개인의 민감한 정보가 유출되거나 악용될 가능성이 있다. AI 규제는 개인의 프라이버시를 보호하고, 데이터 처리에 대한 명확한 기준을 마련할 수 있다.

프라이버시 보호와 관련된 해당 기사

안전성

AI 기술이 인간의 안전에 영향을 미칠 수 있는 분야(예: 자율주행차, 의료 AI)에서 예기치 못한 사고나 문제를 일으킬 수 있다. 이러한 사고를 예방하고, AI 시스템의 신뢰성과 안전성을 확보하기 위해 규제가 필요하다.

안전성과 관련된 해당 기사

투명성 및 책임

AI가 중요한 결정을 내릴 때 그 과정이 불투명하거나 이해하기 어려운 경우가 많다. 규제는 AI의 결정 과정에 대한 투명성을 확보하고, 만약 AI가 잘못된 결정을 내린 경우 책임을 명확히 할 수 있도록 도와준다.

IBM 기술 업체의 AI의 투명성 강조 [1]

마이크로소프트의 책임 있는 AI [2]

사회적 영향

AI 기술이 노동 시장에 미치는 영향(예: 일자리 감소, 불평등 심화)에 대한 우려도 존재한다. 규제는 AI의 사회적 영향을 관리하고, 이를 공정하게 분배할 수 있는 방법을 모색할 수 있다.

코리안리의 AI의 경제적 영향 시사 [3]

반대여론

기술 혁신 저해

AI 규제법이 지나치게 엄격하거나 포괄적이면 혁신적인 AI 기술 개발이 억제될 수 있다는 우려가 존재한다. 빠른 기술 발전에 적응 어려움: AI 기술은 빠르게 변화하며 새로운 연구와 애플리케이션이 지속적으로 나온다. 규제가 이 속도를 따라가지 못하면, 신기술이 시장에 출시되기 전에 제약을 받을 수 있다.

스타트업과 중소기업에 대한 부작용: 초기 단계 기업들은 자금이나 자원이 부족한 경우가 많아, 규제를 준수하기 위한 비용과 절차가 지나치게 부담될 수 있다. 이는 시장 진입을 가로막아 혁신 생태계를 약화시킬 가능성이 있다.

산업 경쟁력 약화

AI는 국가 및 기업 간 경쟁의 핵심 기술로 자리 잡고 있으며, 과도한 규제는 경쟁력을 약화시킬 수 있다.

  • 글로벌 경쟁력 상실

국가마다 규제 수준이 다르다면 규제가 강한 국가의 기업들이 상대적으로 불리한 위치에 놓일 수 있다. 유럽연합의 AI법은 기업들의 국제 경쟁력을 약화시킬 수 있다는 우려가 나온다.

  • 기술 탈중심화 우려

기업들이 규제가 적은 국가로 이전하여 기술 탈중심화 현상이 발생할 가능성도 있다. 이는 지역 경제와 기술 생태계에 부정적인 영향을 줄 수 있다.

규제의 실효성과 부작용

  • 규제의 모호성

AI의 복잡성과 다양성을 고려할 때, 규제 법안이 지나치게 모호하거나 포괄적이면 실효성을 가지기 어렵다. 이러한 모호성은 법적 분쟁을 일으키거나, 기업들이 규제를 회피하는 방향으로 움직이게 할 가능성이 있다.

  • 경제적 비용 증가

기업들이 규제 준수를 위해 많은 비용을 사용하게 되면, 이는 최종 제품 및 서비스의 가격 인상으로 이어질 수 있어 소비자에게도 영향을 끼칠 수 있다.

해결방안 및 시사점

해결방안

  • 위험 기반 접근법의 강화

AI 규제는 각 분야 AI의 위험도를 세분화하여 위험 수준에 적합한 규제를 적용하는 방식으로 설계되어야 한다. 예컨대, 유럽연합의 AI법(EU AI Act)과 같이 AI를 단계적으로 분류하고 각 단계에 맞는 규제 조치를 적용함으로써 기술 혁신과 사회적 안전 간의 균형을 도모할 필요가 있다.

  • 글로벌 표준 마련 및 국제 협력 강화

국제 기구를 통한 AI 관련 규제 협약을 체결하거나 주요 국가 간 협력 체계를 강화하여 규제의 일관성과 효율성을 확보할 수 있다.

  • 투명성과 책임성

AI의 설계, 개발, 배포, 활용 과정에서 투명성을 보장하기 위해 데이터 출처 공개, 학습 알고리즘 설명, AI 생성 콘텐츠 워터마크 표시 등 국가적 차원에서 의무를 부과해야 한다.

  • 윤리적 설계 원칙 강화

AI 시스템이 편향, 차별, 프라이버시 침해 등의 문제를 예방할 수 있도록 개발 초기 단계에서부터 윤리적 설계 원칙을 도입해야 한다.윤리적 AI 가이드라인을 법제화하고, 이에 따른 개발자 및 기업의 의무를 명확히 규정함으로써 책임 있는 AI 기술 개발을 유도해야 한다.

  • 규제와 지원의 균형

과도한 규제는 기술 혁신을 저해할 가능성이 있으므로, 규제의 유연성을 보장하고 신기술 개발에 대한 지원 정책을 병행해야 한다. 특히, 스타트업 과 중소기업이 규제 준수 비용을 감당할 수 있도록 재정적 지원과 기술 컨설팅을 제공해야 한다.

  • 교육 및 인식 제고

AI 기술과 관련된 윤리적, 사회적 문제를 대중과 산업 관계자들에게 교육하여 AI 사용의 책임감을 증대시키고 올바른 활용을 유도해야 한다. 또한, AI 기술의 한계와 잠재적 위험에 대한 인식을 제고함과 동시에 기술의 안전한 활용 방안을 적극적으로 홍보해야 한다.

시사점

  • 기술과 규제의 균형

AI는 사회 전반에 걸쳐 긍정적인 영향을 미칠 잠재력을 보유하고 있으나, 적절한 규제가 없다면 심각한 위험을 초래할 수 있다. 따라서 기술 발전을 억제하지 않으면서도 윤리적이고 책임 있는 AI 활용을 유도할 수 있는 균형 잡힌 규제 정책이 요구된다.

  • 국가 경쟁력

글로벌 AI 경쟁이 심화되는 상황에서 AI 규제는 기술 발전을 저해하지 않으면서도 혁신 생태계를 유지할 수 있는 방향으로 설계되어야 한다. 이는 AI시대의 국가 및 기업의 경쟁력 강화를 위한 핵심 요소로 작용할 것이다.

  • 지속 가능한 생태계 조성

AI 규제는 단기적 문제 해결에 그치지 않고, 장기적으로 AI 기술이 사회적, 경제적, 윤리적 측면에서 지속 가능한 발전을 이루도록 돕는 역할을 수행해야 한다. 이를 위해 정책, 산업, 학계의 협력이 필수적이다.

출처(참고문헌)

https://www-dbpia-co-kr.libproxy.catholic.ac.kr/pdf/pdfView.do?nodeId=NODE11443614- AI의 윤리적 문제

https://ko.wikipedia.org/wiki/%EC%9D%B8%EA%B3%B5%EC%A7%80%EB%8A%A5- AI의 개요 및 역사

https://www-dbpia-co-kr.libproxy.catholic.ac.kr/pdf/pdfView.do?nodeId=NODE11857304- AI의 역사

https://terms.naver.com/entry.naver?docId=3580383&cid=59088&categoryId=59096- AI의 유형 및 윤리적 문제

https://www.ibm.com/kr-ko/topics/eu-ai-act- EU AI 법이란 무엇인가요? | IBM

https://www.lawtimes.co.kr/LawFirm-NewsLetter/201999- 미국 캘리포니아 AI 규제 도입

https://www.lawtimes.co.kr/LawFirm-NewsLetter/198930- 중국의 AI 관련 법률 규제 현황

https://world.moleg.go.kr/web/dta/lgslTrendReadPage.do?CTS_SEQ=50807&AST_SEQ=3891&ETC=2- 세계 각국의 AI 규제 관련 입법동향 <World <법제동향 <동향 보고서 | 세계법제정보센터

https://www.seoul.co.kr/news/society/2024/03/25/20240325002002- ‘이루다’ 논란 겪고도… AI 법적 규제 없고, 윤리 규범은 ‘사각지대’ | 서울신문

https://www.aitimes.com/news/articleView.html?idxno=135396-

https://www.ibm.com/kr-ko/think/topics/ai-transparency-

https://learn.microsoft.com/ko-kr/azure/machine-learning/concept-responsible-ai?view=azureml-api-2-

https://www.koreanre.co.kr/webzine/InsuranceWorld_426/insur1.html-


「8 EU, 인공지능법(AI Act) 발효」 , 한국과학기술기획평가원(KISTEP)

「인공지능(AI) 관련 국내외 법제 동향」, 법제처 미래법제혁신기획단 24.07.


장진보 and 노소우. (2023). 중국의 생성형AI 법적 규제에 관한 연구. 중국법연구,  52, 173-211.