O Instagram disse na quinta-feira que começará a alertar os pais se seus filhos pesquisarem repetidamente termos claramente associados a suicídio ou automutilação. Os alertas serão enviados apenas aos pais inscritos no programa de supervisão parental do Instagram.
O Instagram afirma que já impede que esse tipo de conteúdo apareça nos resultados de pesquisa de contas de adolescentes e, em vez disso, direciona as pessoas para uma linha direta.
A declaração ocorre no momento em que Meta está passando por dois julgamentos por abuso infantil. Um processo em andamento em Los Angeles questiona se as plataformas da Meta viciam e prejudicam intencionalmente menores. Outro, no Novo México, está a tentar determinar se a Meta falhou na proteção das crianças da exploração sexual nas suas plataformas. Milhares de famílias – juntamente com distritos escolares e entidades governamentais – processaram a Meta e outras empresas de redes sociais, alegando que concebem deliberadamente as suas plataformas para serem viciantes e não protegem as crianças de conteúdos que podem levar à depressão, distúrbios alimentares e suicídio.
Metaexecutivos, incluindo o CEO Mark Zuckerberg, negaram que as plataformas causem dependência. Sob interrogatório do advogado do demandante em Los Angeles, Zuckerberg disse que ainda concordava com sua conclusão anterior de que o conjunto de pesquisas existente não havia provado que as mídias sociais causam danos à saúde mental.
As notificações serão enviadas por e-mail, texto ou WhatsApp, dependendo das informações de contato disponíveis dos pais, bem como notificação por meio da conta do Instagram dos pais.
“Nosso objetivo é dar aos pais uma maneira de intervir caso as pesquisas de seus filhos adolescentes sugiram que eles podem precisar de apoio. Também queremos evitar o envio dessas notificações desnecessariamente, porque se fizermos isso com muita frequência, eles podem tornar as notificações menos úteis em geral”, disse Meta em uma postagem no blog.
Josh Golin, diretor executivo da organização sem fins lucrativos Fairplay, estava cético em relação à nova ferramenta, dizendo que o Instagram “está claramente tomando essa medida agora porque a empresa está atualmente em julgamento em dois estados diferentes por dependência e abuso infantil”.
“Mais uma vez, em vez de corrigir falhas perigosas de design em seus algoritmos e plataformas, a Meta está transferindo o fardo para os pais”, disse Golin. “Todas as crianças merecem ser protegidas, independentemente de os seus pais se terem registado e utilizado as ferramentas de vigilância da Meta. Se um produto não for seguro para os adolescentes usarem sem a intervenção dos pais, não deve ser dirigido a adolescentes de forma alguma.”
A Meta diz que também está trabalhando em notificações semelhantes para os pais sobre as interações de seus filhos com a IA.
“Eles notificam os pais se um adolescente tenta se envolver em certos tipos de conversas relacionadas ao suicídio ou automutilação usando nossa IA”, disse Meta. “Este é um trabalho importante e teremos mais para compartilhar nos próximos meses.”





