Em 26 de outubro de 2023, o Parlamento do Reino Unido sancionou o Online Safety Act 2023, uma legislação pioneira destinada a responsabilizar plataformas digitais por práticas que expõem crianças e adolescentes a conteúdos ilegais ou prejudiciais.
A partir de 25 de julho de 2025, sob supervisão da autoridade reguladora Ofcom, entrou em vigor um conjunto de obrigações especialmente voltado à proteção infantil, incluindo a exigência de verificação de idade altamente eficaz para impedir menores de acessar pornografia, conteúdos ligados a automutilação, suicídio ou transtornos alimentares.
Contexto histórico: da Children’s Code ao excesso de exposição
A preocupação legislativa no Reino Unido já tem raízes nos anos anteriores. Em 2020, entrou em vigor o Age‑appropriate Design Code (ou Children’s Code), que impôs que serviços digitais adotassem configurações de privacidade padrão mais rígidas para menores, proibindo práticas como dark patterns e coleta excessiva de dados.
Ainda assim, segundo o site do Parlamento Britânico, pesquisas indicavam que, em 2019–2020, cerca de 80 % das crianças entre 6 e 12 anos haviam experienciado algum tipo de conteúdo prejudicial, e metade dos adolescentes de 13 a 17 anos relatava ter visualizado conteúdo ilegal nos últimos três meses. Além disso, mais da metade dos jovens entre 11 e 13 anos admitia exposição a pornografia online, com distorções sobre relacionamentos e consentimento evidenciadas como consequência direta.
Principais novidades
- Dever de cuidado reforçado: plataformas que permitem conteúdo gerado por usuários (serviços user‑to‑user) e motores de busca agora devem realizar avaliações de risco (risk assessments) específicas para proteger crianças e adolescentes. Segundo publicado o portal BDO, A categoria mais relevante passa por níveis mais rígidos, como conteúdo que afeta mulheres e meninas, discursos de ódio e imagens íntimas divulgadas sem consentimento.
- Verificação de idade “altamente eficaz”: De acordo com o jornal The Sun, a simples autodeclaração já não basta. Sistemas como análise facial por IA, verificação por cartão de crédito, dados do telefone ou upload de identificação oficial devem ser exigidos para impedir menores, sobretudo em sites com pornografia ou conteúdo relacionado a suicídio, auto‑lesão ou transtornos alimentares.
- Moderação e algoritmos mais seguros: Para a organização Internet Matters, as plataformas digitais devem garantir que seus algoritmos de recomendação não promovam conteúdo prejudicial ao público infantil. Vídeos ou postagens que exploram inseguranças corporais, por exemplo, não deverão ser sistematicamente sugeridos para menores.
- Resposta rápida e canais de denúncia: A Internet Matters propõe ainda que plataformas agilizem a remoção de conteúdo nocivo sinalizado e oferecer canais de denúncia adequados a diferentes faixas etárias, com retorno real às crianças ou pais.
- Responsabilização direta: cada plataforma deve nomear um responsável pela segurança infantil e passar por auditorias e revisões anuais. O descumprimento pode acarretar multas de até £18 milhões ou 10 % da receita global, bloqueio de serviço no Reino Unido e até processos criminais contra executivos.
Limitações e críticas
Conforme publicado no jornal The Times, a legislação enfrenta críticas significativas de grupos como a Children’s Commissioner e organizações como a Molly Rose Foundation, que apontam lacunas, como exceções sobre conteúdo criptografado e a possibilidade de plataformas alegarem “impossibilidade técnica” de remoção rápida.
Há também debates sobre privacidade. Segundo a Internet Watch Foundation, alguns especialistas destacam que a exigência de escanear mensagens em plataformas criptografadas (para identificar CSAM) pode comprometer a segurança digital dos usuários.
VAMOS TOCAR VIOLÃO?
O papel das igrejas e organizações comunitárias
Comunidades religiosas, imigrantes, líderes comunitários e organizações do terceiro setor podem desempenhar funções cruciais para fortalecer a proteção juvenil no ambiente digital:
- Educação e conscientização: promover oficinas e palestras sobre riscos online, uso responsável da internet e como identificar sinais de que um jovem pode estar exposto a conteúdos nocivos.
- Apoio intergeracional: facilitar espaços de diálogo entre pais/avós e jovens, incentivando conversas regulares sobre o que está disponível nas redes sociais e como lidar com situações difíceis.
- Acolhimento e suporte emocional: muitas comunidades oferecem suporte psicológico ou espiritual. Reforçar que jovens afetados por exposição online busquem ajuda nesses ambientes é fundamental.
- Parcerias com organizações especializadas: colaborar com ONGs como a NSPCC, Samaritans ou IWF pode trazer recursos e treinamentos para lidar com conteúdos sensíveis e procedimentos adequados de denúncia.
- Monitoramento comunitário e feedback: acompanhar como jovens em suas comunidades usam a internet, e, se perceber práticas preocupantes, informar às famílias e, se necessário, acionar autoridades ou denunciar plataformas por não conformidade com os canais criados pelo Online Safety Act.
Um chamado à ação ética
A nova lei é, de fato, uma vitória na estrutura regulatória: é uma das mais robustas no mundo ao exigir que plataformas sejam legalmente responsáveis por proteger crianças de conteúdos ilegais e prejudiciais. Mas ela não elimina todos os riscos: jovens ainda podem encontrar formas de burlar sistemas através de VPNs ou plataformas não conformes. A eficácia dependerá de uma forte implementação pela Ofcom, com fiscalização firme a grandes empresas — conforme clamam organizações como a NSPCC.
A participação da sociedade civil — em particular, lideranças religiosas, comunitárias e grupos de imigrantes — pode construir uma camada adicional de proteção local, que vai além do que a lei impõe, criando redes de apoio confiáveis e informadas.
Para o prtal BDO, a informação pública sobre este tema é recente e evolutiva; é essencial que líderes comunitários e religiosos mantenham‑se atualizados sobre ações da Ofcom e dos guias governamentais, inclusive os códigos de prática publicados em abril de 2025 com prazos até julho do mesmo ano para as plataformas cumprirem suas obrigações.
Qual a sua opinião sobre este assunto?
Deixe-nos saber qual a sua opinião sobre este assunto. Vamos iniciar um grande debate em nosso meio. Como você acha que a comunidade de imigrantes brasileiros pode e deve aderir na proteção de crianças a adolescentes? Como você acha que a sua igreja local deve se encaixar nesse processo? Escreva nos comentários.
Deixe um comentário