
A Austrália comprou uma briga com a maior plataforma de vídeos do mundo ao voltar atrás em uma promessa anterior de excluir o YouTube da proibição de redes sociais para crianças menores de 16 anos.
O governo trabalhista disse nesta quarta-feira (30) que o site, que pertence à Alphabet, empresa-mãe do Google, estará sujeito às mesmas regras que outras plataformas líderes — Facebook, Instagram, Snapchat, TikTok e X — sob a legislação que entrará em vigor em dezembro.
A proibição impõe às plataformas de redes sociais a responsabilidade de impedir que crianças menores de 16 anos tenham uma conta em seus sites, sob pena de multas de quase 50 milhões de dólares australianos (cerca de R$ 165,5 milhões).
Um porta-voz do YouTube disse que a decisão de incluí-lo na proibição “reverte um compromisso público claro” do governo de tratar o site como uma ferramenta educacional.
“Vamos considerar os próximos passos e continuar a dialogar com o governo”, disse o porta-voz, omitindo qualquer comentário sobre possíveis ameaças legais mencionadas. O YouTube Kids não será incluído na proibição porque não permite que os usuários enviem vídeos nem comentem neles.
Falando nesta quarta-feira (30), a Ministra das Comunicações Anika Wells comparou a proibição a ensinar crianças a nadar — uma habilidade básica de vida na Austrália, onde muitas casas suburbanas têm piscina.
“É como tentar ensinar seus filhos a nadar no oceano aberto, com correntes de retorno e tubarões, comparado a uma piscina do conselho local”, ela disse.
“Não podemos controlar o oceano, mas podemos policiar os tubarões, e é por isso que não me deixarei intimidar por ameaças legais quando esta é uma luta genuína pelo bem-estar das crianças australianas.”
O governo disse que a decisão de incluir o YouTube foi influenciada por uma pesquisa divulgada neste mês pela comissão independente de segurança online da Austrália, a eSafety Commission, que constatou que 37% das crianças entrevistadas relataram ter visto conteúdo prejudicial no site.
Conteúdos nocivos incluem ideias sexistas, misóginas ou de ódio, desafios perigosos online ou vídeos de brigas, ou conteúdos que incentivam hábitos alimentares ou de exercício físico não saudáveis.
“O YouTube usa os mesmos recursos de design persuasivo que outras plataformas de redes sociais, como rolagem infinita, reprodução automática e feed algorítmico”, disse Wells ao Parlamento na quarta-feira.
“Nossas crianças não têm chance, e é por isso que aceitei a recomendação da eSafety de que o YouTube não deveria ser tratado de forma diferente das outras plataformas de redes sociais.”
Como vai funcionar?
O governo aprovou o que chamou de legislação “líder mundial” no ano passado, fornecendo um prazo de 12 meses para descobrir como ela funcionaria.
Como parte da pesquisa, o poder público encomendou testes de verificação de idade para testar os limites de diferentes tecnologias a fim de embasar as regras que imporá às empresas de redes sociais.
Um relatório preliminar divulgado em junho chegou a 12 conclusões, incluindo que a verificação de idade pode ser feita de forma “privada, robusta e eficaz”. Mas também constatou que não existe uma “solução única e ubíqua” que sirva para todos os casos, nem uma que seja 100% eficaz.
O documento também apontou que surgiram “evidências preocupantes” de que algumas plataformas estavam “antecipando em excesso as futuras exigências dos reguladores quanto ao fornecimento de informações pessoais para investigações futuras.”
“Alguns provedores foram encontrados desenvolvendo ferramentas para permitir que reguladores, autoridades policiais ou médicos legistas rastreiem as ações tomadas por indivíduos para verificar sua idade, o que poderia levar a um aumento no risco de violações de privacidade devido à coleta e retenção desnecessárias e desproporcionais de dados”, concluiu o relatório preliminar.
Preocupações com privacidade foram levantadas por críticos do plano — enquanto outros dizem que isso limitará as opções para crianças isoladas e vulneráveis que dependem das redes sociais como fonte de apoio.
Wells reconheceu que a proibição não será perfeita. “As crianças, Deus as abençoe, vão dar um jeito de contornar isso. Talvez todas invadam o LinkedIn. A gente não sabe”, ela disse.
A perspectiva da indústria
O YouTube e outras plataformas dizem que já estão tomando medidas para proteger as crianças online.
Nesta semana, a rede social anunciou novos testes de IA nos Estados Unidos para interpretar uma “variedade de sinais” e determinar se um usuário tem menos de 18 anos.
“Esses sinais incluem os tipos de vídeos que o usuário está procurando, as categorias de vídeos que ele assistiu ou a longevidade da conta”, disse o YouTube em um comunicado.
Se os consumidores forem considerados menores de 18 anos, os anúncios personalizados serão desativados, ferramentas de bem-estar serão ativadas e a visualização repetitiva será limitada para certos tipos de conteúdo, segundo a empresa.
As plataformas têm feito lobby contra a proibição australiana — apelando ao governo e aos pais australianos para reconsiderarem a proposta.
Recentemente, o TikTok veiculou anúncios no Facebook no país promovendo a plataforma como uma ferramenta educacional. “De pesca a habilidades de chef, adolescentes australianos estão aprendendo algo novo todos os dias no TikTok”, diz um dos anúncios online.
Wells revelou na quarta-feira que o YouTube enviou um representante dos Wiggles, o grupo infantil australiano extremamente popular, para argumentar contra sua inclusão na proibição.
“Os Wiggles são uma instituição australiana querida. Mas, como eu disse a eles, vocês estão argumentando que o direito dos meus gêmeos de 4 anos de ter uma conta no YouTube é mais importante do que o fato de que quatro em cada dez colegas deles sofrerão danos online no YouTube — e eles podem ser dois desses quatro”, disse Wells à afiliada da CNN, 9 News, citando uma pesquisa recente da eSafety Commission.
“Eu simplesmente não achei esse argumento convincente.”
Quase 3.500 crianças australianas, entre 10 e 17 anos, participaram da pesquisa “Keeping Kids Safe” entre dezembro de 2024 e fevereiro de 2025. Três em cada quatro relataram ter visto conteúdo prejudicial.





