Os trabalhadores de um dos sindicatos mais poderosos da Califórnia estão a formar uma linha da frente na luta contra a inteligência artificial, alertando que esta pode prejudicar a saúde das pessoas.
Como parte das negociações em curso com o seu empregador, os trabalhadores da Kaiser Permanente estão a reagir contra a utilização da IA pelo grande fornecedor de cuidados de saúde. Eles criam uma demanda em torno desta e de outras questões, usando piquetes e greves de fome para ajudar a persuadir a Kaiser a assumir a responsabilidade por uma tecnologia poderosa.
Kaiser diz que a IA pode libertar os funcionários de tarefas tediosas e demoradas, como anotações e papelada. Os trabalhadores dizem que este pode ser o primeiro passo para uma ruptura que pode prejudicar a saúde dos pacientes.
“Estão a desenhar um mapa que reduzirá a necessidade de trabalhadores humanos e de médicos humanos”, disse Alana Marcucci-Morris, assistente social clínica licenciada e parte da equipa de negociação da Associação Nacional de Trabalhadores de Saúde, que luta por mais protecções contra a IA.
A terapeuta de 42 anos, residente em Oakland, diz saber que a tecnologia pode ser útil, mas alerta que as consequências para os pacientes podem ser “profundas” quando a IA comete erros.
Kaiser diz que a IA pode ajudar médicos e funcionários a se concentrarem em atender membros e pacientes.
“A IA não substitui a avaliação e o cuidado humano”, disse a porta-voz da Kaiser, Candace Lee, por e-mail. “A inteligência artificial tem um potencial significativo para beneficiar os cuidados de saúde, apoiando um melhor diagnóstico, melhorando as relações médico-paciente, melhorando o tempo do médico e garantindo justiça nas experiências de cuidados e nos resultados de saúde, abordando as necessidades individuais”.
Os temores da IA estão abalando indústrias em todo o país.
De acordo com um estudo recente da Brookings e do AI Governnance Center, os assistentes administrativos médicos estão cada vez mais expostos à IA. Os assistentes estão fazendo o trabalho em que a IA está cada vez melhor. Entretanto, é menos provável que tenham as competências ou o apoio necessários para fazer a transição para um novo emprego, afirma o estudo.
Existem milhões de outros empregos que são altamente vulneráveis à IA, como funcionários de escritório, agentes de vendas de seguros e tradutores. Pesquisar Lançado no mês passado.
Na Califórnia, os sindicatos instaram esta semana o governador Gavin Newsom e os legisladores a aprovarem mais legislação para proteger os trabalhadores da IA. A Federação do Trabalho da Califórnia patrocinou um pacote de projetos de lei para abordar os riscos da IA, incluindo perdas de empregos e supervisão.
A tecnologia “corroe os direitos dos trabalhadores e ameaça a perda generalizada de empregos”, afirmou o grupo numa carta conjunta aos líderes da AFL-CIO em vários estados.
A Kaiser Permanente é o maior empregador privado da Califórnia, com quase 19.000 médicos e mais de 180.000 funcionários em todo o estado. Tem grande presença em Washington, Colorado, Geórgia, Havaí e outros estados.
O Sindicato Nacional dos Trabalhadores da Saúde, que representa os funcionários da Kaiser, foi um dos primeiros a reconhecer e responder às invasões da IA no local de trabalho. Tal como levou a negociações para melhores salários e condições de trabalho, a utilização da IA também se tornou um importante ponto de conversa entre os trabalhadores e a gestão.
Kaiser já usa software de IA para transcrever conversas e fazer anotações entre profissionais de saúde e pacientes, mas os médicos têm preocupações com a privacidade ao registrar expressões altamente confidenciais. A empresa também usa IA para prever quando é provável que os pacientes hospitalizados fiquem mais doentes. Oferece aplicativos de saúde mental para inscrição, incluindo pelo menos um com chatbot de IA.
No ano passado, os trabalhadores da Kaiser Mental Health entraram em greve de fome em Los Angeles para exigir que o prestador de cuidados de saúde melhorasse os seus serviços de saúde mental e o atendimento aos pacientes.
O sindicato aprovou no ano passado um novo contrato que abrange 2.400 trabalhadores de saúde mental e medicina anti-dependência no sul da Califórnia, mas as negociações para os trabalhadores de saúde mental da Marcucci-Morris e do norte da Califórnia estão em andamento. Eles querem que César prometa que a IA só será usada para ajudar, mas não para substituir, os trabalhadores.
Kaiser disse que ainda está tratando com o sindicato.
“Não sabemos o que o futuro nos reserva, mas a nossa proposta irá comprometer-nos se houver mudanças nas condições de trabalho devido às novas tecnologias de IA”, disse Lee.
Os prestadores de cuidados de saúde também enfrentaram ações judiciais devido ao uso de ferramentas de IA para gravar conversas entre médicos e pacientes. Uma ação judicial movida em novembro no Tribunal Superior do Condado de San Diego alegou que a Sharp Healthcare usou um software de anotações de IA chamado Abridge para gravar ilegalmente conversas entre médicos e pacientes sem consentimento.
A Sharp Healthcare disse que protege a privacidade do paciente e não usa ferramentas de IA durante as sessões de tratamento.
Alguns médicos e clínicos da Kaiser, incluindo terapeutas, usam o Abridge para fazer anotações durante as visitas aos pacientes. Kaiser Permanente Ventures, seu braço de investimentos, investiu na Abridge.
“As decisões de investimento são separadas de outras decisões tomadas pela Kaiser Permanente”, disse o prestador de cuidados de saúde.
Quase metade dos profissionais de saúde comportamental da Kaiser no norte da Califórnia disseram que se sentiam desconfortáveis ao introduzir ferramentas de IA, incluindo o Abridge, na sua prática clínica, de acordo com a sua associação.
O provedor disse que a equipe analisa as notas geradas por IA quanto à precisão e ao consentimento do paciente, e que os registros e transações são criptografados. Os dados são “armazenados e processados em um ambiente aprovado e compatível por até 14 dias antes de serem excluídos permanentemente”.
Os defensores e profissionais de saúde mental estão a explorar outras formas de limitar a utilização da IA nos cuidados de saúde mental.
Associação Psiquiátrica da Califórnia. Tentando aprovar legislação para proteger os pacientes da IA. Juntou-se a outros no apoio a outro projeto de lei que exige consentimento claro e por escrito antes que a sessão de terapia de um cliente possa ser gravada ou gravada.
A lei também proíbe indivíduos ou empresas, incluindo aqueles que utilizam IA, de oferecer terapia sem um profissional licenciado na Califórnia.
O senador Steve Padilla (D-Chula Vista), que apresentou o projeto, disse que são necessárias mais regras sobre o uso de IA.
“Esta tecnologia é poderosa. É onipresente. Está crescendo rapidamente”, disse ele. “Isso significa que você tem uma janela limitada para garantir que chegaremos lá e colocaremos os guardas certos no lugar.”
John Toros, diretor de psiquiatria digital do Beth Israel Deaconess Medical Center, disse que o uso de chatbots de IA para aconselhar as pessoas sobre como abordar conversas difíceis não é necessariamente um substituto para a terapia, mas ainda são necessárias pesquisas.
Ele está trabalhando com a Aliança Nacional sobre Doenças Mentais para desenvolver padrões para que as pessoas possam compreender como diferentes ferramentas de IA respondem à saúde mental.
Os profissionais de saúde dizem que estão preocupados com o que já podem ver acontecer quando as pessoas que lutam com problemas de saúde mental interagem mais com os chatbots de IA.
Os chatbots de IA, como o OpenAI ChatGPT, não são licenciados ou projetados para serem terapêuticos e não podem substituir os cuidados profissionais de saúde mental. Ainda assim, alguns adolescentes e adultos estão recorrendo aos chatbots para compartilhar suas lutas pessoais. Há muito tempo que as pessoas usam o Google para lidar com problemas de saúde física e mental, mas a IA parece ser mais poderosa, pois oferece o que parece ser um diagnóstico e oferece uma solução com confiança na conversa.
Pais cujos filhos morreram por suicídio após conversarem com chatbots estão processando as empresas de IA da Califórnia, Character.AI e OpenAI, alegando que as plataformas forneciam conteúdo que prejudicava a saúde mental dos jovens e discutiam métodos de suicídio.
“Eles não são treinados para responder da mesma forma que um ser humano responderia”, disse o Dr. Dustin Wiseman, diretor da Psiquiatria da Califórnia. “Muitas de suas sutilezas podem passar despercebidas e, por causa disso, podem levar a consequências devastadoras”.
Com certeza, alguns usuários encontraram valor e até mesmo o que parece ser companheirismo ao conversar com chatbots sobre sua saúde mental e outros problemas.
Na verdade, alguns dizem que os bots de IA lhes proporcionaram acesso mais fácil a dicas de saúde mental e os ajudaram a lidar com pensamentos e sentimentos em um estilo de conversação que, de outra forma, exigiria uma visita a um terapeuta e centenas de dólares.
De acordo com um inquérito NAMI/Ipsos realizado em Novembro de 2025, cerca de 12% dos adultos provavelmente utilizarão chatbots de IA para cuidados de saúde mental nos próximos seis meses e 1% já o está a fazer.
Mas para profissionais de saúde mental como Marcusi-Morris, a IA não é suficiente por si só.
“A IA não é o salvador”, disse ela.






