Assine para ter acesso básico ao site e receber a News do Meio.

Perigo na tela

As plataformas de vídeo se tornaram verdadeiras assistentes dos pais quando o quesito é entretenimento infantil. Os pequenos selecionam os programas favoritos em redes sociais baseadas em vídeo, como YouTube, Instagram e TikTok. Mas os tutores podem ser surpreendidos com conteúdos que, mesmo se dizendo infantis, apresentam cenas inapropriadas para crianças, com linguagem imprópria, violência e sensualidade que beira a pornografia. Mesmo utilizando ferramentas próprias, como o YouTube Kids, esse material de baixa qualidade não é totalmente afastado dos olhos curiosos dos menores.

Para entender os problemas das redes no controle de conteúdos inapropriados, conversamos com Thiago Tavares, presidente da SaferNet Brasil, associação civil sem fins lucrativos focada na promoção e defesa dos direitos humanos na internet. Ele critica a falta de empenho das redes sociais para reduzir a disponibilidade de conteúdos sensíveis, citando, inclusive, o caso do Twitter, que demitiu massivamente seus funcionários, principalmente da área de segurança. Na entrevista, ele defende três pilares para atenuar os problemas com uso infantil das redes: o refinamento de conteúdo pelas próprias plataformas, o controle dos pais e a atuação dos educadores. Confira os principais trechos da entrevista.

Conteúdos inadequados para crianças estão em todas as redes sociais ou é um problema específico de algumas?
Esse é um ponto importante, porque as plataformas estão em estágios diferentes de desenvolvimento de políticas, mecanismos de proteção, ferramentas de segurança etc. É como você comparar água e óleo. O YouTube foi quem primeiro lançou essas políticas em camadas. Tem uma primeira que seriam vídeos ilegais, ou seja, que violam a lei. O vídeo que esteja difundindo uma mensagem racista, incitando a violência, ou de abuso sexual infantil é criminoso, quem postou tem de responder criminalmente e o vídeo precisa ser removido. A segunda são vídeos que não necessariamente são ilegais, mas que violam a política de termos de uso do serviço. Por exemplo, os spammers, que saem criando vários canais para poder espalhar conteúdo não solicitado, não desejado pelo usuário. Isso não é ilegal, não tem nenhuma lei que diga que spam é ilegal, mas é uma violação aos termos de uso da plataforma, e são removidos. Ação coordenada também, na qual sujeitos saem criando dezenas de canais diferentes para publicar os mesmos vídeos. E tem uma terceira camada que o YouTube anunciou que passaria a levar em consideração que é a da qualidade quando esse vídeos têm como público alvo crianças ou adolescentes. O vídeo não é ilegal, não viola os termos da plataforma, mas ele pode ser considerado de baixa qualidade por uma série de fatores, entre eles o incentivo ao comportamento negativo.

Qual o estágio das demais plataformas?
O YouTube saiu na frente nessa definição de princípios balizadores do que seria vídeo de qualidade ou não. Agora, não vejo nada similar nessas outras plataformas, como Kwai ou TikTok. Eles estão nos níveis um e dois ainda. Eu diria até mais na camada um. Kwai especialmente, porque há muitos vídeos que violam a política e os termos de uso. E eles não removem. Isso se tornou muito comum agora no Twitter. Elon Musk demitiu 70% ou 80% dos funcionários da empresa, inclusive os times que cuidavam da aplicação das políticas e dos termos de uso. Ele passou a enxergar a segurança como centro de custo e o resultado é que os conteúdos do Twitter não estão sendo removidos. Discurso de ódio, imagem de abuso sexual infantil estão permanecendo na plataforma. É um exemplo de retrocesso.

Caberia, então, uma regulação?
É um mercado que hoje se autorregula. Na ausência de uma regulação que diga o que eles precisam fazer, eles acabam definindo as próprias regras. E é claro que, por serem plataformas que dependem excessivamente de uma receita de anúncio publicitário, o que acaba pesando muito na avaliação é a própria reação do mercado. O anunciante vai querer associar sua marca a um meio onde circula, sem controle, sem fiscalização, sem moderação, conteúdo de ódio ou de abuso sexual infantil? Essa é uma pergunta que o anunciante deve fazer. Deve dizer: “espera aí, eu investi tanto na reputação da minha marca, eu vou arriscar anunciar numa plataforma que aceita e mantém no ar todo o tipo de conteúdo?”. Esse é um pouco o movimento que mercados autorregulados acabam fazendo. As pressões externas vêm dos anunciantes, mas da imprensa, da sociedade civil e das autoridades também.

Como o Estado pode interferir nisso?
Essa é a grande pergunta de 2023, e não há uma resposta definitiva. O que existe são tentativas. A Europa, por exemplo, aprovou 12 leis importantes que já entraram em vigor e têm prazo para implementação. Uma delas é o DSA (Digital Services Act), com prazo de implementação de até dois anos, que já está correndo. E ela prevê uma série de medidas, principalmente com foco em transparência e responsabilização. Esse é um pilar importante. As plataformas precisam prover mais ferramentas de transparência e explicar melhor o funcionamento desses algoritmos de recomendação, por exemplo. A partir do momento em que você recomenda um conteúdo, você chancela, legitima aquele conteúdo. Essa é uma discussão que está na Suprema Corte americana agora. É um julgamento com potencial de redesenhar a maneira como as plataformas funcionam, pelo menos nos Estados Unidos. Ele vai dizer exatamente qual é o papel, a responsabilidade da plataforma a partir do momento em que ela recomenda um conteúdo violento ou extremista. Ou seja, num conteúdo que foi recomendado quer dizer que houve uma postura proativa da plataforma. Ainda que essa decisão seja tomada por um algoritmo, ele não funciona por livre e espontânea vontade. Ele funciona a partir de filtros, parâmetros e métricas. E quem define isso é a plataforma. Então, há um dever de correta parametrização que deve levar em consideração princípios fundamentais de direitos humanos, o princípio da não discriminação, do respeito à diversidade, da tolerância às diferenças, enfim. Todo esse debate que envolve discurso de ódio.

O que os pais e responsáveis podem fazer para proteger as crianças desses conteúdos inadequados?
Uma das recomendações é usar o YouTube Kids, porque mesmo não estando 100% protegido com relação a conteúdo inapropriado, está mais protegido que no YouTube geral. Pais que permitem que os filhos acessem vídeos no YouTube adulto estão ignorando os próprios termos de uso da plataforma, que limita a idade aos 13 anos. O mesmo vale para Kwai, TikTok, Facebook, Instagram etc. São plataformas para maiores de 13 anos. Não deveria ter crianças usando essas plataformas, porque elas não foram pensadas para crianças, o conteúdo que está lá não é para elas e existe a limitação de idade, mas as pessoas ignoram. E esse é um problema. Mas existem ferramentas de supervisão. Por exemplo, o YouTube tem uma ferramenta de controle supervisionado dos pais, que vincula a conta dos seus filhos à sua própria conta, como se fosse uma conta familiar. Você consegue acompanhar os vídeos que ele está assistindo, fazer uma curadoria, permitir playlists ou canais específicos, restringir contatos, acompanhar o que ele anda fazendo e filtrar os conteúdos que está consumindo. Isso não existe num Kwai, por exemplo. Não tem nada parecido por lá. No Instagram tem algo nessa direção de conta supervisionada, lançada recentemente, mas ainda é pouco popular, pouca gente sabe.

Pais que não deixam seus filhos acessarem esses conteúdos populares, mas impróprios, correm o risco de deixar as crianças à parte do que seus colegas estão vendo.
Tem isso também, mas isso nos leva a outro ator importante nesse processo, que é o educador, o professor. Não dá para atribuir somente aos pais essa função. Até porque crianças e adolescentes passam a maior parte do tempo nas escolas. Então, como é que o professor aborda esses assuntos em sala de aula? Cabe ao professor também transmitir noções de cidadania, de autocuidado, de direitos, de promover um uso positivo e responsável da rede. E aí há o desafio, sobretudo na rede pública de ensino, de como levar essa discussão para dentro da sala de aula. Lançamos recentemente um caderno didático com uma disciplina eletiva sobre cidadania digital. São 292 páginas de conteúdo para esse educador trabalhar em sala de aula. Mas a gente, ao mesmo tempo, reconhece que é um desafio para a maioria das escolas públicas que ainda sofrem com problemas bem básicos, como falta de luz, água, professor e equipamento. Esse é um debate necessário. E as escolas particulares não estão submetidas ao mesmo nível de dificuldades, e podem atuar de forma mais assertiva.

E o que o Estado poderia fazer para estimular as plataformas a se responsabilizem mais?
A minha preocupação maior é quando o Estado resolve interferir no conteúdo em si que não viole claramente consensos internacionais em matéria de direitos humanos. Não é nem legislação nacional, porque nós estamos falando do Brasil, que felizmente é uma democracia que sobreviveu aos últimos quatros anos, mas imagine uma Arábia Saudita, uma Rússia, que criminaliza relações LGBTQIA+, por exemplo. Você vai cumprir a legislação russa que criminaliza conteúdo LGBTQIA+? É complicado. Quando você dá ao Estado esse poder de regular conteúdo, ainda mais em países de democracias jovens como a nossa, é arriscado. É que a gente pensa esses parâmetros a partir de uma lente de que nós estamos dentro de uma democracia e continuaremos vivendo dentro dela, mas nós vimos recentemente que ela é frágil e constantemente ameaçada. Então, nesse ponto eu sou mais cauteloso. Hipertrofiar o Estado de poderes pode não ser o melhor caminho.

Encontrou algum problema no site? Entre em contato.

Já é assinante premium? Clique aqui.

Este é um conteúdo Premium do Meio.

Escolha um dos nossos planos para ter acesso!

Premium

  • News do Meio mais cedo
  • Edição de Sábado
  • Descontos nos Cursos do Meio
  • 3 dispositivos
  • Acesso ao acervo de Cursos do Meio*
ou

De R$ 180 por R$ 150 no Plano Anual

Premium + Cursos

  • News do Meio mais cedo
  • Edição de Sábado
  • Descontos nos Cursos do Meio
  • 3 dispositivos
  • Acesso ao acervo de Cursos do Meio*
ou

De R$ 840 por R$ 700 no Plano Anual

*Acesso a todos os cursos publicados até o semestre anterior a data de aquisição do plano. Não inclui cursos em andamento.

Quer saber mais sobre os benefícios da assinatura Premium? Clique aqui.