O Instagram avisa os pais se seu filho adolescente está procurando situações de suicídio ou automutilação

O Instagram, plataforma de mídia social entre adolescentes, disse na quinta-feira que notificará os pais se seus filhos procurarem frequentemente situações de suicídio ou automutilação.

“Nosso objetivo é capacitar os pais a agirem se a pesquisa de seus filhos sugerir que eles podem precisar de apoio”, disse a empresa em um blog.

Os pais receberão notificações por mensagem de texto, e-mail ou WhatsApp. Eles também terão a opção de visualizar recursos para ajudá-los a ter conversas delicadas com seus jovens.

Recursos de prevenção de suicídio e aconselhamento em crises

Se você ou alguém que você conhece está enfrentando pensamentos suicidas, procure ajuda profissional e ligue para 9-8-8. A primeira linha direta nacional para crises de saúde mental de três dígitos, 988, nos Estados Unidos, conectará os chamadores a conselheiros de saúde mental treinados. Envie “HOME” para 741741 nos EUA e Canadá para acessar a linha de texto de crise.

A medida é o exemplo mais recente de como as empresas de tecnologia estão a responder às preocupações dos pais, políticos e grupos de defesa de que não estão a fazer o suficiente para proteger os jovens de conteúdos nocivos.

Um julgamento histórico sobre se empresas de tecnologia como Instagram e YouTube podem ser responsabilizadas por supostamente promover produtos nocivos e viciar usuários em suas plataformas está ocorrendo em Los Angeles.

O julgamento também incluiu o depoimento do proprietário do Instagram, Adam Mosseri, que disse ao tribunal que a empresa tenta ser “o mais segura possível, mas também o menos censuradora possível”.

As preocupações com a segurança intensificaram-se à medida que os adolescentes, alguns dos quais morreram por suicídio, recorrem aos chatbots de IA para partilhar alguns dos seus pensamentos mais sombrios.

O Instagram tem um assistente de IA em sua barra de pesquisa. Metta, dona do Instagram, cria alertas semelhantes se adolescentes tentarem ter conversas específicas sobre suicídio e automutilação com seu assistente de IA.

Meta tem regras contra a postagem de conteúdo que promova suicídio ou automutilação, mas permite que as pessoas discutam os tópicos. A Meta Transparency relata que a controladora também tomou medidas contra milhões de conteúdos sobre suicídio, automutilação e transtornos alimentares.

Alguns pais e adolescentes, no entanto, alegaram em ações judiciais que os adolescentes viram material autolesivo no Instagram.

De acordo com uma pesquisa do Pew Research Center de dezembro, 63% dos adolescentes norte-americanos com idades entre 13 e 17 anos usam o Instagram. Mais da metade dos adolescentes norte-americanos também usam chatbots para buscar informações, de acordo com outra pesquisa divulgada esta semana.

O Instagram, que tem mais de 3 bilhões de usuários ativos mensais, disse que a maioria dos adolescentes não pesquisa conteúdo suicida ou suicida no Instagram. Interrompe buscas e direciona as pessoas para recursos de prevenção ao suicídio. O Instagram disse que as notificações fazem parte de suas contas para jovens, que incluem restrições sobre quem os jovens podem enviar mensagens, lembretes de limite de tempo e outros recursos.

Os pais que usam esses dispositivos para acompanhar seus filhos adolescentes receberão notificações nos EUA, Reino Unido, Austrália e Canadá na próxima semana. Eles serão então implementados em outras regiões ainda este ano.

As plataformas de mídia social estão tomando mais medidas para melhorar a segurança. Este mês, Meta, TikTok e Snap concordaram em ser avaliados por seus esforços de segurança para adolescentes como parte de um novo programa da Coalizão de Saúde Mental.

Link da fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui