Instagram impedirá jovens de ver conteúdo sobre suicídio e transtorno alimentar

A empresa ocultará resultados de busca relacionados a suicídio, automutilação ou transtornos alimentares e redirecionará os jovens a serviços especializados de ajuda

A Meta -dona de Facebook e Instagram- aumentou as restrições em contas de adolescentes nas suas redes sociais com o objetivo de reforçar a proteção contra publicações consideradas danosas à saúde mental. A empresa ocultará resultados de busca relacionados a suicídio, automutilação ou transtornos alimentares e redirecionará os jovens a serviços especializados de ajuda.

As mudanças anunciadas, segundo a Meta, começam a valer nos “próximos meses”. Não há data definida. As contas de menores de idade registradas a partir desta terça (9), entretanto, já terão configurações mais rígidas.

Até então, não havia diferenças significativas entre as contas de menores de idade e as de adultos. Em respeito à lei dos Estados Unidas, plataformas sociais devem permitir cadastro apenas de pessoas com 13 anos ou mais, embora não exista uma política efetiva de autenticação da idade do usuário.

CONTINUA APÓS A PUBLICIDADE

A atualização na política da empresa vem na esteira de um processo judicial em que mais de 40 estados americanos processam a Meta, com acusações de que Facebook e Instagram “prejudicam a saúde mental dos jovens”. A ação foi ajuizada em 24 de outubro de 2023.

Questionada sobre o litígio, a Meta expressou decepção “de que os procuradores-gerais tenham escolhido esse caminho, em vez de trabalhar produtivamente com as empresas do setor para criar normas claras e adaptadas à idade dos inúmeros aplicativos usados por adolescentes”.

No comunicado divulgado nesta terça, a Meta diz que “consulta constantemente especialistas em desenvolvimento de adolescentes, psicologia e saúde mental para ajudar a tornar as suas plataformas seguras e apropriadas para a idade dos adolescentes”.

De acordo com a big tech, Facebook e Instagram continuam a permitir que as pessoas compartilhem conteúdos que discutam suas próprias lutas contra o suicídio, automutilação e transtornos alimentares. Quando são esses os tópicos, o indicado é procurar auxílio profissional em organizações como o CVV (Centro de Valorização da Vida).

A nova política da empresa, porém, consiste em não recomendar esse conteúdo e ainda dificultar o acesso a essas publicações.

No Instagram, as restrições ativas ficam na seção “Controle de conteúdo sensível” e, no Facebook, em “Reduzir”. Esses mecanismos dificultam o encontro de materiais e perfis relacionados a “temas sensíveis”.

A empresa enviará notificações às contas nas quais os donos disseram ser menores de idade para informar sobre a adoção da nova política. Esses adolescentes terão a opção de ativar as configurações recomendadas.

Ainda em 2021, a Folha de S.Paulo mostrou que os brasileiros percebiam haver problemas mais graves de bullying e exploração de crianças no Facebook do que em outras plataformas, quando a ex-funcionária da Meta, Frances Haugen, entregou uma série de relatórios internos da empresa à Comissão de Valores Mobiliários (SEC, na sigla em inglês).

Em pesquisa interna da Meta divulgada na ocasião, uma das principais críticas feitas ao Facebook era que a empresa negligenciava a moderação de conteúdo em países vistos como menos importantes que os EUA, o Reino Unido e nações da União Europeia.

CVV (CENTRO DE VALORIZAÇÃO DA VIDA)

Voluntários atendem ligações gratuitas 24 h por dia no número 188, por chat, via email ou diretamente em um posto de atendimento físico.