O Instagram, plataforma de mídia social entre adolescentes, disse na quinta-feira que notificará os pais se seus filhos procurarem frequentemente situações de suicídio ou automutilação.
“Nosso objetivo é capacitar os pais a agirem se a pesquisa de seus filhos sugerir que eles podem precisar de apoio”, disse a empresa em um blog.
Os pais receberão notificações por mensagem de texto, e-mail ou WhatsApp. Eles também terão a opção de visualizar recursos para ajudá-los a ter conversas delicadas com seus jovens.
Recursos de prevenção de suicídio e aconselhamento em crises
Se você ou alguém que você conhece está enfrentando pensamentos suicidas, procure ajuda profissional e ligue para 9-8-8. A primeira linha direta nacional para crises de saúde mental de três dígitos, 988, nos Estados Unidos, conectará os chamadores a conselheiros de saúde mental treinados. Envie “HOME” para 741741 nos EUA e Canadá para acessar a linha de texto de crise.
A medida é o exemplo mais recente de como as empresas de tecnologia estão a responder às preocupações dos pais, políticos e grupos de defesa de que não estão a fazer o suficiente para proteger os jovens de conteúdos nocivos.
Um julgamento histórico sobre se empresas de tecnologia como Instagram e YouTube podem ser responsabilizadas por supostamente promover produtos nocivos e viciar usuários em suas plataformas está ocorrendo em Los Angeles.
O julgamento também incluiu o depoimento do proprietário do Instagram, Adam Mosseri, que disse ao tribunal que a empresa tenta ser “o mais segura possível, mas também o menos censuradora possível”.
As preocupações com a segurança intensificaram-se à medida que os adolescentes, alguns dos quais morreram por suicídio, recorrem aos chatbots de IA para partilhar alguns dos seus pensamentos mais sombrios.
O Instagram tem um assistente de IA em sua barra de pesquisa. Metta, dona do Instagram, cria alertas semelhantes se adolescentes tentarem ter conversas específicas sobre suicídio e automutilação com seu assistente de IA.
Meta tem regras contra a postagem de conteúdo que promova suicídio ou automutilação, mas permite que as pessoas discutam os tópicos. A Meta Transparency relata que a controladora também tomou medidas contra milhões de conteúdos sobre suicídio, automutilação e transtornos alimentares.
Alguns pais e adolescentes, no entanto, alegaram em ações judiciais que os adolescentes viram material autolesivo no Instagram.
De acordo com uma pesquisa do Pew Research Center de dezembro, 63% dos adolescentes norte-americanos com idades entre 13 e 17 anos usam o Instagram. Mais da metade dos adolescentes norte-americanos também usam chatbots para buscar informações, de acordo com outra pesquisa divulgada esta semana.
O Instagram, que tem mais de 3 bilhões de usuários ativos mensais, disse que a maioria dos adolescentes não pesquisa conteúdo suicida ou suicida no Instagram. Interrompe buscas e direciona as pessoas para recursos de prevenção ao suicídio. O Instagram disse que as notificações fazem parte de suas contas para jovens, que incluem restrições sobre quem os jovens podem enviar mensagens, lembretes de limite de tempo e outros recursos.
Os pais que usam esses dispositivos para acompanhar seus filhos adolescentes receberão notificações nos EUA, Reino Unido, Austrália e Canadá na próxima semana. Eles serão então implementados em outras regiões ainda este ano.
As plataformas de mídia social estão tomando mais medidas para melhorar a segurança. Este mês, Meta, TikTok e Snap concordaram em ser avaliados por seus esforços de segurança para adolescentes como parte de um novo programa da Coalizão de Saúde Mental.






