O crescimento exponencial das plataformas digitais de comunicação, como Discord e Telegram, transformou profundamente as dinâmicas sociais contemporâneas. Tais ambientes virtuais possibilitam interação instantânea, formação de comunidades globais e circulação descentralizada de informações. Contudo, essas mesmas características também favorecem a prática de ilícitos, inclusive aqueles envolvendo usuários menores de idade, o que levanta um debate jurídico relevante acerca da responsabilidade das plataformas digitais e, sobretudo, de seu dever de prevenção.
No ordenamento jurídico brasileiro, a responsabilidade das plataformas é tradicionalmente analisada à luz do Marco Civil da Internet (Lei nº 12.965/2014), que adota como regra a responsabilidade subjetiva dos provedores de aplicação. Segundo o artigo 19, a responsabilização civil ocorre apenas quando, após ordem judicial específica, a plataforma deixa de remover conteúdo ilícito. Esse modelo visa proteger a liberdade de expressão e evitar mecanismos de censura prévia. No entanto, esse regime geral não pode ser interpretado de forma isolada quando estão em jogo os direitos de crianças e adolescentes.
A Constituição Federal, em seu artigo 227, e o Estatuto da Criança e do Adolescente (ECA) consagram o princípio da proteção integral e da prioridade absoluta, impondo à família, à sociedade e ao Estado o dever de garantir o desenvolvimento seguro de menores. No ambiente digital, esse dever se estende às plataformas tecnológicas, que exercem papel central na mediação das interações sociais. Assim, ainda que não sejam autoras diretas dos crimes, as plataformas não podem adotar postura meramente passiva diante de riscos previsíveis que afetam usuários vulneráveis.
Plataformas como Discord e Telegram, marcadas por estruturas de grupos fechados, canais privados e criptografia, apresentam desafios específicos à moderação de conteúdo. Nesses espaços, já foram identificadas práticas como aliciamento de menores, exploração sexual, incentivo à automutilação, disseminação de discurso de ódio e organização de atos violentos. Diante
desse cenário, ganha relevância a discussão sobre o papel preventivo das plataformas, que vai além da simples remoção de conteúdos após denúncia ou decisão judicial.
O dever de prevenção pode ser compreendido como um dever de cuidado, compatível com a capacidade técnica e econômica das plataformas. Isso inclui a adoção de mecanismos eficazes de moderação, como sistemas de denúncia acessíveis, resposta célere a conteúdos manifestamente ilícitos, políticas claras de uso e sanções internas contra usuários infratores. Ademais, medidas de verificação etária, limitação de acesso a determinados conteúdos e monitoramento de padrões de comportamento de risco são instrumentos que podem reduzir significativamente a exposição de menores a práticas criminosas.
A ausência ou insuficiência dessas medidas pode caracterizar negligência, especialmente quando a plataforma tem conhecimento prévio de riscos recorrentes em seus ambientes. Nesses casos, ainda que o Marco Civil da Internet restrinja a responsabilização automática, é possível discutir a responsabilidade civil com base em outros fundamentos jurídicos, como a violação de deveres de proteção, a falha na prestação do serviço e o desrespeito aos direitos fundamentais de crianças e adolescentes.
No plano internacional, observa-se uma tendência de fortalecimento do dever preventivo das plataformas digitais. O Digital Services Act (DSA), da União Europeia, impõe obrigações específicas de avaliação e mitigação de riscos sistêmicos, com atenção especial à proteção de menores. Embora tais normas não tenham aplicação direta no Brasil, elas influenciam o debate jurídico global e evidenciam uma mudança de paradigma: as plataformas deixam de ser vistas apenas como intermediárias neutras e passam a ser reconhecidas como agentes com responsabilidade social proporcional ao seu alcance e impacto.
É importante ressaltar que a responsabilização das plataformas não implica imputar-lhes culpa automática por crimes cometidos por usuários menores de idade. A análise deve ser realizada caso a caso, considerando o grau de previsibilidade do dano, a existência de políticas preventivas, a atuação diante
de denúncias e a capacidade real de intervenção. O objetivo não é inviabilizar a atividade das plataformas, mas exigir delas uma atuação diligente e compatível com a proteção de direitos fundamentais.
Por fim, a efetividade da prevenção de crimes envolvendo menores no ambiente digital depende de uma atuação conjunta. Além das plataformas, é indispensável investir em educação digital, orientação parental, capacitação de educadores e fortalecimento das autoridades competentes. Ainda assim, não se pode ignorar que plataformas como Discord e Telegram ocupam posição estratégica nesse ecossistema e, por isso, devem assumir um papel ativo na construção de ambientes digitais mais seguros, transparentes e responsáveis.
Por- Matheus Secaf