O Instagram avisa os pais se seu filho adolescente está procurando situações de suicídio ou automutilação

O Instagram, plataforma de mídia social entre adolescentes, disse na quinta-feira que notificará os pais se seus filhos procurarem frequentemente situações de suicídio ou automutilação.

“Nosso objetivo é capacitar os pais a agirem se a pesquisa de seus filhos sugerir que eles podem precisar de apoio”, disse a empresa em um blog.

Os pais receberão notificações por mensagem de texto, e-mail ou WhatsApp. Eles também terão a opção de visualizar recursos para ajudá-los a ter conversas delicadas com seus jovens.

Recursos de prevenção de suicídio e aconselhamento em crises

Se você ou alguém que você conhece está enfrentando pensamentos suicidas, procure ajuda profissional e ligue para 9-8-8. A primeira linha direta nacional para crises de saúde mental de três dígitos, 988, nos Estados Unidos, conectará os chamadores a conselheiros de saúde mental treinados. Envie “HOME” para 741741 nos EUA e Canadá para acessar a linha de texto de crise.

A medida é o exemplo mais recente de como as empresas de tecnologia estão a responder às preocupações dos pais, políticos e grupos de defesa de que não estão a fazer o suficiente para proteger os jovens de conteúdos nocivos.

Um julgamento histórico sobre se empresas de tecnologia como Instagram e YouTube podem ser responsabilizadas por supostamente promover produtos nocivos e viciar usuários em suas plataformas está ocorrendo em Los Angeles.

O julgamento também incluiu o depoimento do proprietário do Instagram, Adam Mosseri, que disse ao tribunal que a empresa tenta ser “o mais segura possível, mas também o menos censuradora possível”.

As preocupações com a segurança intensificaram-se à medida que os adolescentes, alguns dos quais morreram por suicídio, recorrem aos chatbots de IA para partilhar alguns dos seus pensamentos mais sombrios.

O Instagram tem um assistente de IA em sua barra de pesquisa. Metta, dona do Instagram, cria alertas semelhantes se adolescentes tentarem ter conversas específicas sobre suicídio e automutilação com seu assistente de IA.

Meta tem regras contra a postagem de conteúdo que promova suicídio ou automutilação, mas permite que as pessoas discutam os tópicos. A Meta Transparency relata que a controladora também tomou medidas contra milhões de conteúdos sobre suicídio, automutilação e transtornos alimentares.

Alguns pais e adolescentes, no entanto, alegaram em ações judiciais que os adolescentes viram material autolesivo no Instagram.

De acordo com uma pesquisa do Pew Research Center de dezembro, 63% dos adolescentes norte-americanos com idades entre 13 e 17 anos usam o Instagram. Mais da metade dos adolescentes norte-americanos também usam chatbots para buscar informações, de acordo com outra pesquisa divulgada esta semana.

O Instagram, que tem mais de 3 bilhões de usuários ativos mensais, disse que a maioria dos adolescentes não pesquisa conteúdo suicida ou suicida no Instagram. Interrompe buscas e direciona as pessoas para recursos de prevenção ao suicídio. O Instagram disse que as notificações fazem parte de suas contas para jovens, que incluem restrições sobre quem os jovens podem enviar mensagens, lembretes de limite de tempo e outros recursos.

Os pais que usam esses dispositivos para acompanhar seus filhos adolescentes receberão notificações nos EUA, Reino Unido, Austrália e Canadá na próxima semana. Eles serão então implementados em outras regiões ainda este ano.

As plataformas de mídia social estão tomando mais medidas para melhorar a segurança. Este mês, Meta, TikTok e Snap concordaram em ser avaliados por seus esforços de segurança para adolescentes como parte de um novo programa da Coalizão de Saúde Mental.

Link da fonte