공공정책 위키(Public Policy Wiki)에 오신 것을 환영합니다
불법유해정보차단
불법·유해 정보의 정의
불법·유해 정보의 개념
불법 유해 정보의 개념에 대하여는 특별히 정해진 것이 없지만, 사이버 범죄로서 법적 규제를 받는 관련 정보들은 모두 불법 정보로 볼 수 있을 것이고, 사이버 범죄의 차원은 아니지만 자살, 폭력 등을 유발할 수 있는 내용들의 정보들은 충분히 유해한 정보라고 평가할 수 있을 것이다.
불법·유해 정보의 범위
불법 정보와 유해 정보의 개념을 어떻게 구분하는가에 따라 유형 및 범위, 규제시스템 및 개선방안도 달라진다. 일반적으로 불법 정보는 유통이 금지되는 정보를 말하며, 유해 정보는 유통은 가능하나 특정 계층에 유해한 정보이다.
불법 정보와 유해 정보의 개념은 이분법적으로 구분할 수밖에 없다. 헌법과 형법 등에서 금지하는 내용의 불법 정보와 유해 정보를 동일 또는 유사하게 규제하는 경우에는 표현의 자유의 본질적 내용을 침해함으로 헌법 제 37조 제2항 과잉금지원칙에 위반할 여지가 있다. 유해 정보를 불법 정보의 범주에 포함시키면 법의 범위가 너무 확대되어 규율자체가 곤란해지거나, 정보 접근권 및 자기결정권 등이 침해되어 표현의 자유가 침해될 수 있다.
국내 불법·유해 정보 차단 정책 추진과정은 1994년부터 한국통신(현KT)이 인터넷상용서비스(KORNET)를 제공하기 시작한 시기로, 해외에서 유입되는 불법·유해정보가 사회적 문제로 제기되었다. 정보통신부(현 방송통신위원회)는 정보통신윤리위원회(현 방송통신심의위원회)를 신설하였다. 그리고 방송통신심의위원회를 주축으로 민간 중심의 자율 규제 제도 도입 시기로 인터넷내용등급서비스 도입과 IP차단과 DNS 변조 차단기술을 상쇄하는 우회기술이 보급되어 URL기반의 새로운 차단 정책이 필요하게 된 시기로, 정보통신부에서 「해외 불법정보 차단업무 처리지침」을 마련하여 해당 사업자에게 적용하고 있다.
불법·유해 정보 차단의 필요성
사회적 문제
불법·유해 정보 차단은 개인의 안전과 사회 질서를 보호하기 위해 필수적이다. 최근 급증하고 있는 딥페이크 기술은 음란물 제작, 허위 정보 유포, 사기 등 다양한 형태로 악용되며, 피해자에게 심각한 정신적, 사회적 피해를 초래하고 있다. 특히, 딥페이크 기반 음란물은 동의 없는 얼굴 합성으로 명예훼손과 인격권 침해를 일으키며, 피해자들에게는 회복하기 어려운 상처를 남긴다. 더불어 이러한 기술은 사회적 혼란을 조장하고 신뢰를 훼손하며, 범죄와 폭력으로 이어질 가능성도 높다. 따라서 불법·유해 정보를 조기에 발견하고 차단하는 것은 기술의 악용을 방지하고, 건강하고 신뢰할 수 있는 디지털 환경을 구축하기 위해 필수적이다. 다음은 불법·유해 정보의 현 실태를 알 수 있는 기사 내용이다.
불법 합성(딥페이크) 성범죄 영상·도박·마약 등 각종 불법 유해 정보가 온라인에서 급격히 확산되고 있지만 이를 규제하는 방송통신심의위원회(방심위)의 인력과 예산은 오히려 줄어들고 있는 것으로 밝혀졌다. 유해 정보의 확산을 효과적으로 막기 위해서는 관련 인력과 예산의 대폭적인 확충이 필요하다는 목소리가 높아지고 있다. 23일 국회 과학기술정보방송통신위원회 소속 박충권 국민의힘 의원이 방심위로부터 받은 자료에 따르면 방심위의 통신 심의 모니터 인력은 2019년 100명에서 2024년 72명으로 감소했다. 세부적으로 보면 도박·불법 금융 감시 인력은 11명에서 7명으로, 마약·불법 의약품 감시 인력은 10명에서 7명으로, 폭력·혐오·비하 감시 인력은 48명에서 29명으로 줄어드는 등 전반적인 감소세를 보였다. 예산도 감소 추세다. 2019년 10억4000만 원이었던 도급계약 예산이 2021년 7억9000만 원으로 크게 축소되었고, 2022년에 8억 원대로 다소 회복됐지만 여전히 부족한 실정이다. 한편 방심위가 심의한 불법 콘텐츠는 급증하고 있다. 올해 심의 건수는 8만4900건에 달했으며 이 중 접속 차단은 7만8298건·이용 해지 3871건·삭제는 2701건이었다. 특히 디지털 성범죄물의 삭제는 방심위의 심의를 거쳐야만 가능한데 심의 절차가 복잡해 실제 삭제·차단까지 시간이 오래 걸린다. 빠른 대응이 필요한 디지털 성범죄에는 부족하다는 비판이 제기된다. 올해 방심위에 접수된 디지털 성범죄 정보 신고 건수는 3000건을 훌쩍 넘어섰다. 1월은 669건·2월은 347건·3월은 171건·4월은 273건·5월은 328건·6월은 459건·7월은 417건이었다가 8월에는 817건으로 급증했다. 박 의원은 “딥페이크 성범죄와 같은 불법 유해 정보의 신속한 차단을 위해서는 모니터링 인력과 예산을 확대해야 한다”며 방심위의 감시 기능을 강화해야 할 필요성을 강조했다.[1]
개인 보호 및 안전
불법 유해 정보 차단은 개인 보호와 안전을 위해 매우 중요하다. 특히 온라인 환경에서의 유해 정보는 빠르게 확산되며, 다양한 형태로 개인의 안전을 위협하고 있다. 예를 들어, 청소년은 SNS나 메타버스에서 디지털 성범죄, 마약류 유통, 사이버 폭력 등 위험에 쉽게 노출되고 있다. 최근 조사에 따르면, 청소년의 사이버 폭력 피해 경험률과 디지털 성범죄 피해 건수가 증가하고 있으며, 이는 유해 정보 차단이 필요하다는 점을 강조한다. 또한, 유해 정보는 단순히 개인의 정신적 피해뿐 아니라 금전적, 법적 위험을 초래하기도 한다. 대표적인 예로 불법적인 금융 사기나 개인정보 유출 사례를 이야기할 수 있다. 이를 방지하기 위해 유해 정보 차단 기술과 더불어, 사용자 친화적인 신고 시스템 및 자율 등급 서비스를 도입해 효율성을 높이는 정책적 제안이 나오고 있다. 이러한 배경에서 불법 유해 정보를 차단하는 기술 및 법적 제도는 단순히 특정 콘텐츠를 억제하는 것을 넘어, 안전한 디지털 환경 조성과 개인 권익 보호를 위한 핵심 요소로 작용하고 있다.
법적 근거
관련 국내 법률 및 규정
인터넷상의 건전하고 안전한 이용, 정보통신서비스 제공자 및 게시판 관리·운영자에 대한 규정, 이용자 보호 및 청소년 보호 등 인터넷상의 불법유해정보와 직접적으로 관련 있는 규정은 '정보통신망이용촉진및정보보호등에관한법률(이하 '정보통신망법')에 근거하고 있으며, 그 외 청소년 보호법, 형법, 성폭력 범죄의 처벌 및 피해자보호 등에 관한 법률, 정보통신 기반보호법, 물류정책기본법 등에서 정보통신망법을 보완하여 불법유해정보를 규정하고 있다. 국내 실정법에서 규정하고 있는 불법유해정보 관련 법률 현황은 다음과 같다.
(1) 정보통신망이용촉진및정보보호등에관한법률
인터넷상의 불법정보 유통금지에 관련된 사항은 정보통신망법 제 44조 7(불법정보의 유통금지 등)에 의하여 규정하고 있으며, 정보통신망법 제 44조의7제1항제1호는 '음란한 부호·문언·음향·화상 또는 영상을 배포·판매·임대하거나 공연히 전시하는 내용의 정보유통행위를 금지하고 있다.
(2) 청소년보호법
청소년보호법 제 10조에서는 '청소년에게 성적인 욕구를 자극하는 선정적인 것이나 음란한 것'에 대해서 심의를 거쳐 청소년유해매체물로 결정하여야 한다고 규정하고 있다.
(3) 기타 불법 정보 유형에 따른 법률 현황
정보통신망법 제 44조의 7항에서 규정한 불법 정보 분류에 따른 국내 실정법은 다음과 같다.
음란한 부호·문언·음향·화상 또는 영상을 배포·판매·임대하거나 공연히 전시하는 내용의 정보 등 음란한 전기통신 정보를 생산, 유통, 배포하는 사업자 및 생산자에 대해 정보통신망법 제44조의7 1호에서 규정한 음란한 전기통신에 대해 성폭력범죄의 처벌 및 피해자 보호 등에 관한 법률 제 14조(통신매체 이용음란)및 제 14조의 2(카메라 등 이용촬영), 형법 제 242조(음행매개)및 제 243조(음화반포) 등에서 규정하여 처벌하고 있다.
사람을 비방할 목적으로 공연히 사실 또는 허위의 사실을 적시하여 타인의 명예를 훼손하는 내용의 정보 등 명예훼손과 관련하여서는 정보통신망법 제 44조(정보통신망에서의 권리보호), 제 44조의 2(정보의 삭제요청 등), 제 44조의 3(임의의 임시조치), 제 61조(벌칙) 등에서 규정하여 처벌하고 있다.
공포심이나 불안감을 유발하는 부호·문언·음향·화상 또는 영상을 반복적으로 상대방에게 도달하게 하는 내용의 정보 등 사이버스토킹과 관련하여서는 정보통신망법 제 74조(벌칙)에서 규정하여 처벌하고 있다.
정당한 사유없이 정보통신시스템, 데이터 또는 프로그램 등을 훼손·멸실·변경·위조하거나 그 운용을 방해하는 내용의 정보 등 해킹, 바이러스 유포와 관련하여서는 정보통신기반보호법 제 12조(주요정보통신기반시설 침해행위 등의 금지)및 제 28조(벌칙), 정보통신망법 제 48조(정보통신망 침해행위 등의 금지)및 제 72조(벌칙), 물류정책기본법 제 33조(전자문서 및 물류정보의 보안)및 제 71조의 2(벌칙) 등에서 규정하여 처벌하고 있다.
청소년보호법에 의한 청소년유해매체물로서 상대방의 연령확인, 표시의무 등 법령에 의한 의무를 이행하지 아니하고 영리를 목적으로 제공하는 내용의 정보인 청소년유해매체물 표시의무 위반과 관련하여서는 정보통신망법 제 73조(벌칙) 등에서 규정하여 처벌하고 있다.
법령에 의하여 금지되는 사행행위에 해당하는 내용의 정보인 도박 등 사기행위와 관련하여서는 형법 제 347조의 2(컴퓨터 등 사용사기)에서 규정하여 처벌하고 있다.
관련 해외 법·제도 현황
미국, 유럽 등 해외의 경우 국내와 달리 대부분 성인물(음란물) 규제보다는 아동보호를 위한 아동포르노 관련 유통금지, 인종차별 등의 정보를 규제하는 경향을 보이고 있다. 또한, 대부분의 선진국들의 규제방식은 정부의 타율규제가 아닌 민간의 자율규제 방식을 채택하고 있다.
(1) 미국
아동포르노 음란물 중심의 규제이며 해외에 서버를 두고 제공되는 인터넷 도박사이트를 규제하기 위한 법제정을 추진하였다. 해외 인터넷 불법도박을 규제하기 위하여 도박사이트로 들어가는 자금을 차단 및 해외서버를 이용한 온라인 도박서비스 금지를 위한 '불법인터넷도박금지법'등을 입법화 추진하였고, 최근 미국 재무부와 연방준비제도이사회(FRB)는 지난 2006년에 의회가 제정한 불법인터넷도박 집행법의 후속 조치로, 금융기관의 도박 자금 결제 금지를 구체화한 규정을 발표하였으며 모든 금융기관이 2009년 말까지 법안을 준수하도록 하였다.
인터넷상의 유해정보로부터 청소년을 보호하기 위해 통신품위법, 아동온라인보호법 등 미성년자의 유해정보 접근을 제한하는 법을 제정하였다.
(2) 영국
영국 역시 인터넷상의 아동포르노, 인종차별적인 정보를 중심으로 규제하고 있고, 특히 아동포르노를 단순소지만 하여도 성범죄법에 의하여 처벌 받으며, 인종차별 정보의 유통은 형사처벌 대상으로 규제하고 있다.
(3) 독일
독일은 유럽의 다른 국가에 비해 인터넷 콘텐츠에 대해서는 보다 체계적으로 엄격하게 규제하고 있으며, 특히 불법, 유해정보로부터 청소년 보호에 대한 법적 체계가 정비되어 있다.
형법 제 184조 제 3항 내지 제 5항에 의하여 아동포르노 등 음란물의 제작 배포를 금지하며 아동포르노를 단순 소지하여도 처벌되도록 규제하고 있으며, 또한 아동포르노가 아닌 단순 음란물을 청소년에게 제공하는 것은 청소년 접근 제한 장치를 통해서만 가능하도록 규제하고 있다.
인터넷 유해 환경으로부터 청소년을 보호하기 위한 다양한 법률 시스템으로 청소년 유해물에 대한 규제 시스템은 국가차원의 연방이 아닌, 주정부가 담당하도록 함으로써 유해한 인터넷 콘텐츠에 대한 좀 더 세밀하고 신속한 규제의 필요성을 엿볼 수 있으며, 별도로 청소년유해목록을 A, B, C, D 네 등급으로 세분화하여 규정하고 있다. 아울러, 동 법 제 18조에는 아동이나 청소년에게 유해한 영향을 미치는 전송매체 및 영상매체, 특히 부도덕적이고 잔인하고, 지나친 폭력, 범죄, 인종차별을 유발하는 매체는 청소년 유해 매체 연방감사실에 의해 청소년 유해 매체 목록에 수록되게 하고 있다.
(4) 일본
일본의 불법정보 규제는 미국, 유럽 국가와 비슷한 아동포르노 규제 중심이며, 2005년 총무성을 중심으로 '불법·유해정보에 관한 정부 부처 간 협조 협의회'를 구성하여 대응하고 있다.
인터넷 유해정보로부터 청소년을 보호하기 위해 2003년 06월 '인터넷 이성소개사업을 이용한 아동 유인 행위 규제 등에 관한 법률'을 제정·시행하고 있으며, 2008년 03월 일본 자민당은 모바일 인터넷에서의 청소년 유해 콘텐츠 문제를 해결하기 위한 법안을 발의했다. 2007년 말부터 '미성년자의 인터넷 이용을 제한하는 필터링 의무화'를 인터넷 전반으로 확대해 법제화한 것이다.
또한, 일본 히로시마시는 2008년 07월부터 휴대폰·PC 판매점과 PC방 운영자에게 미성년자의 유해정보 열람을 사전 차단하도록 의무화하는 조례를 발표하였고, 이번 조례는 학대나 범죄의 온상으로 변질되거나 성적 감정을 자극해 사회문제가 되고 있는 일부 인터넷 사이트로부터 18세 미만의 청소년을 보호하기 위해 마련됐다.
이번 조례에 따라 고객이나 이용자가 18세 미만의 청소년일 경우 휴대폰 판매점 등은 유해정보 필터링 기능을 갖춘 상태에서 휴대폰을 판매하거나 대여할 수 있도록 했고, PC방 역시 필터링 기능을 반드시 모든 PC에 적용해야 한다. PC 판매점은 이 기능을 권장하도록 의무화했다.
이를 위반할 경우 히로시마시는 이 같은 내용의 조례을 지키지 않는 사업자명을 대외 공표할 예정이다. 규제 대상 사이트의 기준은 전문가 및 보호자 대표 등으로 구성된 심의회를 통해 확정하기로 했다.
차단 방법 및 기술
필터링 기술
'차단'과 '필터링'이라는 용어는 종종 동의어로 사용되는데, 인터넷에서 이용 가능한 특정 형식이나 특정 부분의 콘텐츠로의 접속을 막는 기술을 가리킨다. 모든 불법·유해 인터넷 콘텐츠 접속을 차단하는 것이 기술적으로 가능하다 하더라도, 어떠한 인터넷 차단 혹은 필터링 기술도 100% 효과가 있을 수는 없다. 의도적이고 정보력으로 무장한 공격자를 막아낼 수는 없지만 차단 기술의 대부분은 일반적인 불법·유해 정보 차단 용도로 사용하는 데 문제가 없다.
인터넷 차단과 필터링 기술이 진정으로 효과가 있으려면 인터넷 콘텐츠가 배포되는 가능한 모든 경로를 다루어야 한다. 필터링 된 인터넷 서비스는 알려져 있는 불법·유해 웹 사이트 뿐만 아니라 FTP, 대화방으로의 접속 또한 차단해야 한다. 완벽하게 안전한 인터넷이 있다면 그것은 굉장히 제한적인 인터넷일 것인데, 신형 콘텐츠와 새로운 배포 기술이 새롭게 등장하는 경우에는 특히 그러하다.
비록 필터링 기술의 성능이 음란물이나 다른 불법·유해 콘텐츠로의 접속을 얼마나 잘 차단 하냐에 초점이 맞추어져 있긴 하지만, 일부 제품들은 스포츠나 다른 취미와 같은 광범위한 콘텐츠의 차단 기능을 제공하기도 한다. 이러한 제품들은 업무 환경에서 사용하기 위한 의도로 만드는 것인데, 직원들이 업무와 관련 없는 활동을 위해 인터넷에 접속하는 것을 관리자들이 원치 않을 경우 그러하다. 그런 제품은 관리자들이 차단할 콘텐츠의 카테고리를 선택할 수 있는 기능을 제공한다. 필터링 기술 작동 방식의 구체적인 내용은 다음과 같다.
- 식별 기술: 필터 제품들은 인터넷 사용자의 콘텐츠 접근을 제한하기 위해 두 가지 기본 기능을 수행한다. 이들은 차단(또는 허용)할 콘텐츠를 식별하고 해당 내용물로의 접속을 차단(또는 허용)한다. 콘텐츠 식별 방법은 필터 제품을 이용하는 것이 가장 일반적이지만, 이러한 차단 방법은 필터가 설치된 장치, 예를 들어 가정용 컴퓨터, ISP 서버 또는 휴대전화 네트워크 유형 등에 따라 차이를 보인다.
- 인덱스 기반 필터링:
- 인덱스 기반 필터링 기술은 웹 자원 인덱스(또는 리스트) 상에 포함된 사항을 근거로 웹 페이지 접속을 허용하거나 차단하는 기술이다. 이 기술은 '허용 리스트(Whitelist)'와 '차단 리스트(Blacklist)'에 바탕을 둘 수 있다. 인덱스는 휴먼 검색과 콘텐츠 분석을 통해 수동적으로 개발할 수도 있고, 분석을 기반으로 한 필터링 기술을 통해 자동적으로 개발할 수도 있다.
- 분석 기반 필터링: 분석 기반 필터링 기술은 컴퓨터 소프트웨어를 사용하는 콘텐츠의 동적 분류 방법을 말하며, 이는 인덱스 기반 필터링 기술의 단점을 보완하기 위해 등장했다. 다시 말해, 인덱스 기반 필터링 기술만이 사전에 등급 제한 웹 페이지에 적용할 수 있다.
DNS 변조
DNS 변조는 DNS 탈취라고도 한다. 이는 개별사용자의 컴퓨터에 사용된 DNS 서버가 도메인 차단여부에 대한 질문을 받은 후 웹사이트의 차단을 요청하는 사용자가 적합한 IP주소에 차단 명령을 내리지 않도록 정보를 변경하는 것을 말한다. IP주소 차단과 마찬가지로, 이 기술은 차단된 최상위 도메인의 하위도메인에 존재하는 모든 콘텐츠에 영향을 미치기 때문에 과잉차단을 초래할 수 있다.
포트 차단
몇몇 필터들은 데이터를 전송할 수 있는 개별 포트를 차단한다. 컴퓨터 상 서로 다른 종류의 프로그램이나 서비스는 데이터를 전송하고 수신하는데 서로 다른 포트를 이용한다.
예를 들어, 어떤 전자메일 프로그램은 110 포트를 사용하는 반면, 웹 트래픽은 디폴트를 통해 80 포트를 거쳐 수신한다. 필터는 여러 프로그램들이 인터넷 접속을 위해 이용하는 포트를 차단하여 인터넷 콘텐츠에 접근하는 프로그램 이용의 차단을 목표로 하고 있다.
주요 사례
국내 차단 사례
최근 IP 카메라를 해킹해 민감한 사생활 영상이 국내외 불법 사이트에 유포되며 문제가 커지자, 정부는 관계 부처와 함께 ‘IP 카메라 보안 강화 방안’을 수립했다. IP 카메라는 비밀번호 설정만으로도 해킹 방지가 가능하지만, 해외 직구 제품은 비밀번호 설정 의무화가 부족해 해킹에 취약했다. 특히, 중국산 IP 카메라의 높은 시장 점유율과 그로 인한 보안 문제에 대한 비판이 제기되면서 정부는 사용자 안내와 보안 수칙 강화를 주요 대책으로 삼았다.
정부는 비밀번호 설정 강화를 포함해 보안 수준이 낮은 제품의 유통 차단과 보안 인증을 의무화할 방침이다. 병원, 쇼핑몰, 수영장 등 다중이용시설에는 보안 인증 제품 사용을 의무화하고, 영상 유출 사고 시 보안 수칙 준수 여부를 확인해 과징금을 부과할 계획이다. 또한, 전파 인증을 받지 않은 제품의 국내 유통을 차단하고 사용자들에게 보안 수칙 준수의 중요성을 알리는 홍보도 강화한다.
향후 정부는 국민의 일상과 밀접한 공공 및 민간 시설에서 보안 인증을 받은 제품 사용을 의무화하는 법안을 마련할 예정이다. 이는 최소한의 보안 기준을 준수한 IP 카메라를 보급함으로써 영상 유출 사고를 예방하고 국민의 개인정보를 보호하기 위한 노력의 일환이다.
관련 해외 사례
미국 상원은 아동과 청소년을 페이스북, 엑스(X·옛 트위터), 유튜브 등 사회 관계망 서비스(SNS) 등이 제공한 유해 콘텐츠로부터 보호하기 위해 2개의 법안을 통과시켰다. 30일(현지시간) 로이터 통신에 따르면 미 상원은 이날 아동 온라인 안전법(KOSA)과 어린이 및 10대 온라인 프라이버시 보호법(COPPA 2.0)을 찬성 91명 대 반대 3명으로 처리했다고 발표했다.
COPPA 2.0은 17세 미만 사용자를 타깃으로 하는 광고를 금지하고, 동의없이 그들의 개인 정보를 수집하는 것을 금지하는 한편 부모와 자녀에게 SNS 미디어 플랫폼에서 개인 정보를 삭제할 수 있도록 하는 옵션을 제공하는 내용을 담고 있다. KOSA는 미성년자가 특정 SNS를 사용할 때 정신 건강 장애, 학대, 성적 착취 등으로부터 그들을 보호하도록 강제하는 주의의무를 명시적으로 밝히고 플랫폼 설계와 업계 규제에 중점을 두는 것을 골자로 한다. 유해 콘텐츠에는 괴롭힘, 폭력, 자살 조장, 섭식 장애, 약물 남용, 마약 및 담배, 술과 같은 불법 제품 광고 등도 포함된다. 지난해 발표된 미 하버드 대학의 연구에 따르면 미국의 주요 SNS 미디어 플랫폼은 2022년에 18세 미만의 사용자로부터 110억 달러(약 15조2300억원)의 광고 수익을 올렸다. KOSA 법안의 공동 발의자인 마샤 블랙번 상원의원(공화·테네시)은 이날 기자회견을 통해 "아이들은 부모의 상품이 아니고 당신들의 수익원이 아니다"라며 "우리는 가상 공간에서 아이들을 보호할 것"이라고 말했다. 또 다른 발의자 리처드 블루멘탈 상원의원(민주·코네티컷)은 지난주 "이것이 우리가 이곳에 온 이유"라며 "생명을 구하기 위해 초당적 방식으로 일을 처리하려고 여기까지 왔다"고 말했다. 그는 "우리가 하는 일은 부모와 아이들에게 유해한 콘텐츠를 차단할 수 있는 도구를 제공하는 것"이라며 "오랫동안 '우리를 믿으라'라고 말하고 그 신뢰를 져버린 빅테크 기업에 주의 의무를 부과하는 것"이라고 했다. 이어 "그들은 이제 피해를 완화하거나 예방할 의무를 부과하는 법을 준수해야 할 것"이라고 덧붙였다. 자녀의 사망 원인이 SNS와 관련이 있다고 주장하는 부모 단체인 ParentsSOS 공동 창립자 모린 몰락은 "자기 자신과 자녀들을 보호하기 위해 끝까지 싸운 모든 부모에게 역사적인 이정표"라고 말했다. 미국 NBC 방송은 "SNS가 어린이와 청소년에게 미치는 영향을 규제하기 위한 수십 년 만에 가장 중요한 의회 조치"라고 짚었다.
비판 및 논의
표현의 자유와의 충돌
불법유해정보 차단 과정에서 가장 큰 논란 중 하나는 표현의 자유와의 충돌 문제이다. 표현의 자유는 민주사회에서 필수적인 권리로, 국민이 자신의 생각을 자유롭게 표출할 수 있도록 보장된다. 그러나, 불법·유해정보를 규제하는 과정에서 이 권리가 제한될 위험이 제기된다. 예를 들어, 허위정보나 혐오표현을 차단하려는 의도가 정당하더라도, 표현 내용이 명확히 불법으로 규정되지 않은 경우 차단 조치가 과도하거나 자의적이라는 비판을 받을 수 있다.
구체적인 사례로, 2020년대 초 유럽과 미국에서는 가짜 뉴스 및 혐오표현을 규제하려다 표현의 자유 침해 논란이 일었다. 독일의 네트워크 집행법은 온라인 플랫폼이 혐오 표현과 불법 게시물을 신속히 삭제하도록 의무화했지만, 과도한 삭제로 인해 공적 토론이 위축되고 정당한 표현까지 검열된다는 비판을 받았다. 이 법은 표현의 자유를 침해할 수 있는 '표현 규제 도구'라는 반대 여론을 불러일으켰다. 한국에서도 정보통신망법에 따라 불법정보를 차단하는 절차가 있으나, 그 과정에서 콘텐츠 삭제 범위가 명확하지 않아 임시조치 제도가 남용된다는 지적이 있다.
이러한 논란은 표현의 자유와 불법 정보 규제 사이에서 균형을 찾는 것이 중요하다는 점을 시사한다. 전문가들은 차단 기준의 명확성, 투명한 검토 절차, 표현의 자유 보호를 위한 사법적 견제 장치가 필요하다고 강조한다. 특히, 불법 정보 차단이 개인의 권리와 공익을 동시에 고려한 방식으로 이루어져야 하며, 차단 대상의 적법성과 필요성이 철저히 검토되어야 한다는 점이 강조된다.
차단의 한계 및 문제점
불법유해정보 차단은 사회적 안전을 도모하는 중요한 조치이지만, 표현의 자유를 침해할 가능성이 큰 한계가 있다. 불법정보와 합법적 정보의 경계가 모호할 경우, 과도한 차단으로 인해 정당한 비판이나 학술적, 예술적 표현도 삭제될 수 있다. 이는 민주주희 사회에서 시민의 권리를 제한할 위험을 초래하며, 검열 논란을 불러일으킬 수 있다.
또한, 차단 기술의 부정확성도 문제로 지적된다. 자동화된 차단 시스템은 맥락을 이해하지 못해 정상적인 정보가 불법으로 오인되거나, 반대로 불법정보가 여전히 유통되는 상황이 발생할 수 있다. 이는 기술적 오류뿐 아니라 불법정보의 은닉 기법과 같은 복잡성으로 인해 더욱 심화된다.
마지막으로, 차단 조치가 근본적인 해결책이 되지 않는다는 점도 한계다. 불법유해정보를 차단하더라도 새로운 플랫폼이나 기술로 정보가 빠르게 재유포될 수 있다. 이로 인해 차단과 유포가 반복되는 악순환이 발생하며, 효과적인 규제와 병행한 교육 및 예방이 부족할 경우 근본적인 문제 해결이 어려워진다.
참고 문헌
예영선. 불법유해정보의 우회접속 기술 동향 조사 및 기술 보급. (사)한국인터넷진흥협회 방송통신정책연구. 2010.
임한상. 「딥페이크 성범죄·불법 콘텐츠 급증... 방심위 감시망은 약화」. «스카이데일리». 2024. 09. 23. <www.skyedaily.com/news/news_view.html?ID=247114>
송현지. 「美상원, 미성년자 대상 SNS 유해콘텐츠 관리 의무 법안 처리」. «조세일보». 2024. 07. 31. <https://www.joseilbo.com/news/htmls/2024/07/20240731522439.html>
여성가족부. 「새로운 불법·유해환경으로부터 청소년 안전 지킨다 - 보도자료 | 브리핑룸 | 대한민국 정책브리핑」. 2022. 06. 29.
윤여생, 유진호. 불법유해정보 법·제도 동향 분석. 정보보호학회지 제 22권 제 3호. 2012.
방송통신위원회. 해외 불법정보 및 사이트의 효과적 차단을 위한 기술·제도적 방안 연구. 2009.
장유미. 「"韓 가정집 몰카 어디서 나오나 했더니"…정부, IP캠 보안 구멍 막기 나섰다」. «ZDNET Korea». 2024. 11. 14. <https://zdnet.co.kr/view/?no=20241114165647>
남경국. 인터넷상의 표현의 자유 : 표현의 자유와 다른 법익간의 충돌을 중심으로 = Freedom of speech on the internet : focused on the conflict between freedom of speech and other legal interests. 연세대학교 석사학위논문. 2004.