기존 ‘Online Safety Act 2021’ 개정… 금지 대상 특정 플랫폼은 명시하지 않아
16세 미만 아동 및 청소년은 이제 일부 소셜미디어 플랫폼에서 자기 계정을 갖는 게 불가능하게 됐다. 이의 사용을 금지하는 법안이 지난 11월 28일(목) 상원에서 승인됐기 때문이다.
정부가 이를 제시했을 때 전문가들, 호주인권위원회는 ‘금지’에 따른 문제에 대해 조언했지만 모두 무시됐다. 인권위는 정부가 ‘세부 사항을 제대로 파악하지 않고’ 서둘러 법안을 통과시켰다고 지적했다. 심지어 ‘소셜미디어 사용 금지’를 어떻게 적용할 것인지에 대한 설명도 없었다.
16세 미만을 대상으로 한 소셜미디어 사용 금지를 법으로 정한 것은 전 세계 국가 중 호주가 최초이다. 다만 최소한 12개월간 효력이 발생하지는 않는다. 일각에서의 문제 제기와 반발에도 불구하고 이에 대한 최근 여론조사를 보면, 호주인의 77%가 정부 방침(사용 금지)을 지지하는 것으로 나타났다.
그렇다면 그때까지 어떤 일이 일어날까. 법안이 사원 의회를 통과한 다음날, RMIT 대학교 정보과학 전문가이자 ‘Social Change Enabling Impact Platform’ 대표인 리사 M. 기븐(Lisa M Given) 교수는 비영리 사회과학 매거진 ‘The Conversation’에 관련 칼럼을 게재했다. 이를 통해 소셜미디어 사용 금지 법률 관련 문제를 짚어 본다.
▲ 최종 법안에 들어 있는 내용은= 이 법률은 현재의 ‘Online Safety Act 2021’을 개정하고 ‘연령 제한 사용자’(age-restricted user)를 16세 미만으로 정의한다. 하지만 ‘금지 대상’이 되는 특정 플랫폼은 언급하지 않았다.
대신 법안은 ‘연령 제한 소셜미디어 플랫폼’(age-restricted social media platform)에 대해 1) ‘한가지 목적 또는 중요한 목적’이 사람들 간의 ‘온라인 사회적 상호 작용’(online social interaction)을 가능하게 하는 것, 2) 사람들이 이 서비스에서 ‘링크하거나 서로간 상호 작용’(link to, or interact with)을 할 수 있는 것, 3) 사람들이 ‘자료를 게시’(post material)할 수 있고 또는 4) 법률에 명시된 다른 조건에 해당하는 서비스를 포함하는 것으로 정의한다.

이 법률은 일부 서비스가 ‘제외’(excluded)된다는 점을 언급하지만 특정 플랫폼의 이름은 명시하지 않는다. 예를 들어 ‘온라인 사회적 상호 작용’을 제공하는 서비스는 금지에 포함되지만 ‘온라인 비즈니스 상호 작용’(online business interaction)은 해당되지 않는다.
어떤 소셜미디어 플랫폼이 ‘금지 대상’인지는 아직 확인되지 않았지만 해당 플랫폼은 16세 미만의 계정이 없도록 ‘합리적인 조치’(reasonable steps)를 취해야 하며, 그렇지 않으면 최대 5,000만 달러의 벌금을 물게 된다.
ABC 방송은 ‘유튜브’(YouTube)가 ‘사용 금지’ 대상에서 제외될 것이라고 보도했지만 정부는 이를 명확하게 확인하지 않았다. 현재까지는, 16세 미만 청소년이 본인 계정 없이도 여전히 많은 플랫폼의 콘텐츠를 온라인으로 볼 수 있다는 것은 분명하다.
이 법률은 구체적으로 메시징 앱(예를 들어 WhatsApp, Messenger 등)이나 게임 플랫폼(가령 Minecraft 등)에 대해서는 언급하지 않았다. 그러나 ‘실제 사용자의 건강과 교육 지원을 주요 목적으로 하는 서비스’(services with the primary purpose of supporting the health and education of end-users)와 함께 ‘금지 대상’에서 제외될 수도 있다.
정부는 이 최종 법안을 통과시키면서 본래의 제안에 추가 수정안을 포함했다. 예를 들어 소셜미디어 기술 회사는 여권, 운전면허증과 같은 정부 발급 신분증을 누군가의 나이를 확인하는 ‘유일한 수단’(as the only means)으로 수집할 수 없다. 그러나 ‘다른 대체 연령 보장 방법이 사용자에게 제공된 경우’(if other alternative age assurance methods have been provided to users)에는 정부 발급 신분증을 수집할 수 있다. 또한 2년 후 개인정보보호의 ‘적절성’(adequacy)과 기타 문제를 고려하기 위한 ‘독립적인 검토’(independent review)가 있어야 한다.

▲ 기술 회사들은 어떻게 해야 하나= 소셜미디어 플랫폼 회사들은 자사 계정을 만들고자 하는 이들의 나이를 확인해야 할 뿐만 아니라, 기존 계정 소유자의 나이도 확인해야 한다. 이는 상당한 물류 문제가 될 것임이 분명하다. 소셜미디어 계정을 갖고 있는 모든 호주인이 로그인하여 본인의 나이를 증명해야 하는 시기는 언제가 될까?
이보다 더 큰 우려는 기술 회사가 사용자의 나이를 어떻게 확인할 수 있는가 하는 점이다. 이번 법률은 이에 대해 거의 명확하게 이를 제공하지 않는다.
이런 상황에서 소셜미디어 플랫폼이 추구할 수 있는 몇 가지 옵션이 있다. 한 가지는, 신용카드를 개인의 앱 스토어 계정에 연결된 프록시(proxy)로 사용하여 다른 사람의 나이를 확인하는 것일 수 있다. 미셸 롤랜드(Michelle Rowland) 커뮤니케이션부 장관은 이전에 “이 전략이 현재 진행 중인 연령 인증 시험에 포함될 것”이라고 밝힌 바 있다. 예를 들어 YouTube는 과거, 신용카드를 사용하여 연령 제한 콘텐츠에 액세스할 수 있도록 허용했었다.
하지만 이 방식은 16세 이상이라는 연령 요건을 충족할 수 있지만 신용카드를 보유하지 않은 이들의 접속을 배제하게 된다.
또 다른 옵션은 얼굴 인식 기술을 사용하는 것이다. 이 기술은 정부가 소셜미디어 플랫폼(16세 미만)과 온라인 포르노(18세 미만) 접속 연령을 제한하기 위해 시도 중인 다양한 전략 중 하나이다. 이 시범적 시행은 영국 기반의 ‘Age Check Certification Scheme’이 주도하는 컨소시엄에서 진행하고 있다. 이 시험 결과는 2025년 중반 이후에나 알 수 있을 것으로 보인다. 그러나 이 옵션도 문제가 있다. 얼굴 인식 시스템에 상당한 편향과 부정확성이 드러난 증거가 많다는 점이다.
예를 들어 상업적으로 판매되는 얼굴 인식 시스템의 오류율은 밝은 피부색 남성의 경우 0.8%인 반면 어두운 피부를 가진 여성의 경우 거의 35%에 달한다. 현재 사용 중인 ‘Yoti’(Meta가 글로벌 출시를 앞두고 현재 호주 사용자에게 제공)와 같은 최고 성능이라는 시스템도 13세에서 16세 사이의 평균 오류율이 2년에 육박한다. 13세를 15세로, 15세를 16세 이상으로 인식하는 오류가 많은 것이다.

▲ 디지털 주의 의무는 무엇인가= 지난달(11월) 초 정부는 기술 회사에 ‘디지털 주의 의무’(digital duty of care)를 부과하겠다고 약속했다.
이를 위해 기술 회사는 플랫폼의 콘텐츠에 대한 철저한 위험 평가를 정기적으로 수행해야 한다. 또한 소비자 불만에 대응해야 하며, 이를 통해 잠재적으로 유해한 콘텐츠는 삭제된다.
이 ‘주의 의무’는 정보기술 전문가들 및 인권법 관계자들의 지지를 받고 있다. 16세 미만 소셜미디어 사용 금지법에 대한 의회 조사에서도 “정부가 이를 입법화할 것”을 권고했다.
정부가 이(‘디지털 주의 의무’ 부과)를 이행하겠다는 약속이 정확히 언제 이루어질지는 불분명하다. 하지만 이 의무가 입법화되더라도 디지털 이해(digital literacy)에 대한 추가 투자가 필요할 것으로 보인다. 부모, 교사, 어린이가 소셜미디어 플랫폼을 안전하게 탐색하는 방법을 이해할 수 있도록 하는 지원이 요구되는 것이다.
온라인 기반의 사회적 연결망인 소셜미디어 플랫폼은 모든 사용자에게 안전한 공간이어야 한다. 모든 연령대의 이용자들에게 소중한 정보와 커뮤니티 참여 기회를 제공한다.
이제 호주에서 16세 미만 청소년의 접속을 제한하는 것은 기술 회사들의 책임이다. 하지만 사용자 모두를 안전하게 지키고 기술 회사가 제공하는 콘텐츠에 대해 책임을 갖도록 하는 데 필요한 작업은 이제 막 시작된 것이다.
김지환 기자 herald@koreanherald.com.au