공공정책 위키(Public Policy Wiki)에 오신 것을 환영합니다


공공정책 위키 시작하기

불법유해정보차단

Public Policy Wiki
Purple (토론 | 기여)님의 2024년 11월 23일 (토) 14:46 판
둘러보기로 이동 검색으로 이동

불법·유해 정보의 정의

불법·유해 정보의 개념

불법 유해 정보의 개념에 대하여는 특별히 정해진 것이 없지만, 사이버 범죄로서 법적 규제를 받는 관련 정보들은 모두 불법 정보로 볼 수 있을 것이고, 사이버 범죄의 차원은 아니지만 자살, 폭력 등을 유발할 수 있는 내용들의 정보들은 충분히 유해한 정보라고 평가할 수 있을 것이다.

불법·유해 정보의 범위

불법 정보와 유해 정보의 개념을 어떻게 구분하는가에 따라 유형 및 범위, 규제시스템 및 개선방안도 달라진다. 일반적으로 불법 정보는 유통이 금지되는 정보를 말하며, 유해 정보는 유통은 가능하나 특정 계층에 유해한 정보이다.

불법 정보와 유해 정보의 개념은 이분법적으로 구분할 수밖에 없다. 헌법과 형법 등에서 금지하는 내용의 불법 정보와 유해 정보를 동일 또는 유사하게 규제하는 경우에는 표현의 자유의 본질적 내용을 침해함으로 헌법 제 37조 제2항 과잉금지원칙에 위반할 여지가 있다. 유해 정보를 불법 정보의 범주에 포함시키면 법의 범위가 너무 확대되어 규율자체가 곤란해지거나, 정보 접근권 및 자기결정권 등이 침해되어 표현의 자유가 침해될 수 있다.

국내 불법·유해 정보 차단 정책 추진과정은 1994년부터 한국통신(현KT)이 인터넷상용서비스(KORNET)를 제공하기 시작한 시기로, 해외에서 유입되는 불법·유해정보가 사회적 문제로 제기되었다. 정보통신부(현 방송통신위원회)는 정보통신윤리위원회(현 방송통신심의위원회)를 신설하였다. 그리고 방송통신심의위원회를 주축으로 민간 중심의 자율 규제 제도 도입 시기로 인터넷내용등급서비스 도입과 IP차단과 DNS 변조 차단기술을 상쇄하는 우회기술이 보급되어 URL기반의 새로운 차단 정책이 필요하게 된 시기로, 정보통신부에서 「해외 불법정보 차단업무 처리지침」을 마련하여 해당 사업자에게 적용하고 있다.

불법·유해 정보 차단의 필요성

사회적 문제

불법·유해 정보 차단은 개인의 안전과 사회 질서를 보호하기 위해 필수적이다. 최근 급증하고 있는 딥페이크 기술은 음란물 제작, 허위 정보 유포, 사기 등 다양한 형태로 악용되며, 피해자에게 심각한 정신적, 사회적 피해를 초래하고 있다. 특히, 딥페이크 기반 음란물은 동의 없는 얼굴 합성으로 명예훼손과 인격권 침해를 일으키며, 피해자들에게는 회복하기 어려운 상처를 남긴다. 더불어 이러한 기술은 사회적 혼란을 조장하고 신뢰를 훼손하며, 범죄와 폭력으로 이어질 가능성도 높다. 따라서 불법·유해 정보를 조기에 발견하고 차단하는 것은 기술의 악용을 방지하고, 건강하고 신뢰할 수 있는 디지털 환경을 구축하기 위해 필수적이다. 다음은 불법·유해 정보의 현 실태를 알 수 있는 기사 내용이다.

불법 합성(딥페이크) 성범죄 영상·도박·마약 등 각종 불법 유해 정보가 온라인에서 급격히 확산되고 있지만 이를 규제하는 방송통신심의위원회(방심위)의 인력과 예산은 오히려 줄어들고 있는 것으로 밝혀졌다. 유해 정보의 확산을 효과적으로 막기 위해서는 관련 인력과 예산의 대폭적인 확충이 필요하다는 목소리가 높아지고 있다. 23일 국회 과학기술정보방송통신위원회 소속 박충권 국민의힘 의원이 방심위로부터 받은 자료에 따르면 방심위의 통신 심의 모니터 인력은 2019년 100명에서 2024년 72명으로 감소했다. 세부적으로 보면 도박·불법 금융 감시 인력은 11명에서 7명으로, 마약·불법 의약품 감시 인력은 10명에서 7명으로, 폭력·혐오·비하 감시 인력은 48명에서 29명으로 줄어드는 등 전반적인 감소세를 보였다. 예산도 감소 추세다. 2019년 10억4000만 원이었던 도급계약 예산이 2021년 7억9000만 원으로 크게 축소되었고, 2022년에 8억 원대로 다소 회복됐지만 여전히 부족한 실정이다. 한편 방심위가 심의한 불법 콘텐츠는 급증하고 있다. 올해 심의 건수는 8만4900건에 달했으며 이 중 접속 차단은 7만8298건·이용 해지 3871건·삭제는 2701건이었다. 특히 디지털 성범죄물의 삭제는 방심위의 심의를 거쳐야만 가능한데 심의 절차가 복잡해 실제 삭제·차단까지 시간이 오래 걸린다. 빠른 대응이 필요한 디지털 성범죄에는 부족하다는 비판이 제기된다. 올해 방심위에 접수된 디지털 성범죄 정보 신고 건수는 3000건을 훌쩍 넘어섰다. 1월은 669건·2월은 347건·3월은 171건·4월은 273건·5월은 328건·6월은 459건·7월은 417건이었다가 8월에는 817건으로 급증했다. 박 의원은 “딥페이크 성범죄와 같은 불법 유해 정보의 신속한 차단을 위해서는 모니터링 인력과 예산을 확대해야 한다”며 방심위의 감시 기능을 강화해야 할 필요성을 강조했다.[1]

개인 보호 및 안전

법적 근거

관련 법률 및 규정

국제적 기준 및 협약

차단 방법 및 기술

필터링 기술

'차단'과 '필터링'이라는 용어는 종종 동의어로 사용되는데, 인터넷에서 이용 가능한 특정 형식이나 특정 부분의 콘텐츠로의 접속을 막는 기술을 가리킨다. 모든 불법·유해 인터넷 콘텐츠 접속을 차단하는 것이 기술적으로 가능하다 하더라도, 어떠한 인터넷 차단 혹은 필터링 기술도 100% 효과가 있을 수는 없다. 의도적이고 정보력으로 무장한 공격자를 막아낼 수는 없지만 차단 기술의 대부분은 일반적인 불법·유해 정보 차단 용도로 사용하는 데 문제가 없다.

인터넷 차단과 필터링 기술이 진정으로 효과가 있으려면 인터넷 콘텐츠가 배포되는 가능한 모든 경로를 다루어야 한다. 필터링 된 인터넷 서비스는 알려져 있는 불법·유해 웹 사이트 뿐만 아니라 FTP, 대화방으로의 접속 또한 차단해야 한다. 완벽하게 안전한 인터넷이 있다면 그것은 굉장히 제한적인 인터넷일 것인데, 신형 콘텐츠와 새로운 배포 기술이 새롭게 등장하는 경우에는 특히 그러하다.

비록 필터링 기술의 성능이 음란물이나 다른 불법·유해 콘텐츠로의 접속을 얼마나 잘 차단 하냐에 초점이 맞추어져 있긴 하지만, 일부 제품들은 스포츠나 다른 취미와 같은 광범위한 콘텐츠의 차단 기능을 제공하기도 한다. 이러한 제품들은 업무 환경에서 사용하기 위한 의도로 만드는 것인데, 직원들이 업무와 관련 없는 활동을 위해 인터넷에 접속하는 것을 관리자들이 원치 않을 경우 그러하다. 그런 제품은 관리자들이 차단할 콘텐츠의 카테고리를 선택할 수 있는 기능을 제공한다. 필터링 기술 작동 방식의 구체적인 내용은 다음과 같다.

  1. 식별 기술: 필터 제품들은 인터넷 사용자의 콘텐츠 접근을 제한하기 위해 두 가지 기본 기능을 수행한다. 이들은 차단(또는 허용)할 콘텐츠를 식별하고 해당 내용물로의 접속을 차단(또는 허용)한다. 콘텐츠 식별 방법은 필터 제품을 이용하는 것이 가장 일반적이지만, 이러한 차단 방법은 필터가 설치된 장치, 예를 들어 가정용 컴퓨터, ISP 서버 또는 휴대전화 네트워크 유형 등에 따라 차이를 보인다.
  2. 인덱스 기반 필터링: 인덱스 기반 필터링 기술은 웹 자원 인덱스(또는 리스트) 상에 포함된 사항을 근거로 웹 페이지 접속을 허용하거나 차단하는 기술이다. 이 기술은 '허용 리스트(Whitelist)'와 '차단 리스트(Blacklist)'에 바탕을 둘 수 있다. 인덱스는 휴먼 검색과 콘텐츠 분석을 통해 수동적으로 개발할 수도 있고, 분석을 기반으로 한 필터링 기술을 통해 자동적으로 개발할 수도 있다.
  3. 분석 기반 필터링: 분석 기반 필터링 기술은 컴퓨터 소프트웨어를 사용하는 콘텐츠의 동적 분류 방법을 말하며, 이는 인덱스 기반 필터링 기술의 단점을 보완하기 위해 등장했다. 다시 말해, 인덱스 기반 필터링 기술만이 사전에 등급 제한 웹 페이지에 적용할 수 있다.

신고 및 모니터링 시스템

주요 사례

국내 차단 사례

관련 해외 사례

공적인 차단 및 그 효과

비판 및 논의

표현의 자유와의 충돌

차단의 한계 및 문제점

참고 문헌

예영선. 불법유해정보의 우회접속 기술 동향 조사 및 기술 보급. (사)한국인터넷진흥협회 방송통신정책연구. 2010.