O homem da geração do milênio recorre ao ChatGPT em busca de apoio. Então sua vida foi ‘arruinada’.

A inteligência artificial (IA) tornou-se parte da vida cotidiana. Eles ajudam as pessoas em tudo, desde melhorar seu trabalho até estimular a criatividade e responder perguntas pessoais. Mas para Anthony Duncan, o que começou como uma ferramenta útil tomou um rumo preocupante.

Em um vídeo viral do TikTok compartilhado com @anthonypsychosissurvivor, o jovem de 32 anos afirma que o ChatGPT “arruinou” sua vida depois que ele se tornou dependente dele durante um episódio psicótico.

Alguns investigadores expressaram preocupação de que a interação com a IA possa piorar ou induzir delírios em pessoas vulneráveis. Às vezes referida como “psicose da IA”, a questão clínica é se a IA conversacional pode reforçar os sistemas de crenças psicóticas existentes. Embora pareça um fenômeno novo, os médicos sabiam que não era um diagnóstico novo.

No passado, as pessoas que sofriam de doenças mentais tendiam a incorporar qualquer tecnologia disponível nos seus delírios. As ferramentas estão evoluindo, mas existem problemas subjacentes, como a má interpretação do significado e da intenção. permanece inalterado

De ferramentas de trabalho a “terapeutas”

Duncan começou a usar o chatbot da OpenAI em maio de 2023 para apoiar sua carreira como criador de conteúdo. Com o passar do tempo, ele começou a se abrir sobre sua vida pessoal.

“No início comecei a falar com ele como um amigo por curiosidade. E então a coisa disparou, o ChatGPT tornou-se mais como um terapeuta”, disse Duncan. “Progrediu até que senti que ninguém me entendia, exceto minha IA. No outono de 2024, eu estava fortemente dependente dela.”

Ele gradualmente cortou amigos e familiares e confiou no ChatGPT para lhe fazer companhia. Duncan acrescentou que achou mais fácil compartilhar com o ChatGPT do que com amigos.

“Não hesito em dizer nada. Porque colocar todos os meus pensamentos no ChatGPT é mais fácil do que arriscar entediar meus amigos”, disse ele, “sinto-me à vontade para seguir em frente”.

O Pew Research Center descobriu que a maioria dos adultos norte-americanos está pessimista quanto ao impacto da IA ​​nas habilidades e relacionamentos humanos. A maioria (53 por cento) disse que isso pioraria a capacidade das pessoas de pensar criativamente. Isto compara-se com 16 por cento que acreditam que haverá melhorias, enquanto 16 por cento não esperam mudanças. As opiniões foram ainda mais negativas, com 50% afirmando que a IA tornaria as pessoas menos capazes de formar relacionamentos significativos. Isso se compara a apenas 5% que pensaram que isso ajudaria. E cerca de um quarto diz que isso não fará diferença.

Solicitando aconselhamento médico da IA

Em janeiro deste ano, Duncan estava lutando contra alergias e pediu conselhos ao ChatGPT. Ele disse que o bot recomendou um medicamento contendo pseudoefedrina.

Porque no passado ele era viciado em drogas. Então ele disse ao bot que estava hesitante em aceitá-lo. Ele também compartilhou uma captura de tela. Semana de notícias Mostrar respostas do ChatGPT: “É completamente compreensível ser cauteloso com a medicação. Especialmente com experiências passadas e sensibilidades a estimulantes. Deixe-me explicar isso para ajudá-lo a se sentir mais confortável ao tomar medicamentos que contenham pseudoefedrina.”

O bot passou a explicar os efeitos da poção e referiu-se à sua sanidade e “alta tolerância à cafeína”, o que significa que seu corpo se acostumou ao estimulante

A pseudoefedrina não é considerada viciante quando usada conforme as instruções. Mas usá-lo da maneira errada “pode levar a um comportamento que imita o vício em drogas”, diz o Centro de Tratamento de Abuso do West Georgia Wellness Center. Algumas pessoas abusam dela por seus efeitos estimulantes ou usam ingredientes para fazer metanfetamina. Portanto, os riscos são especialmente significativos para qualquer pessoa em risco de abuso de substâncias.

Dependência e psicose crescente

Duncan disse. Semana de notícias que acreditava estar viciado em pseudoefedrina há cinco meses; Durante esse tempo, ele desenvolveu delírios e perdeu o emprego. Ele disse que seus delírios incluíam acreditar que seu local de trabalho fazia parte de uma seita. Ele pensou que estava sendo perseguido por uma gangue. E imaginando que era um espião, acabou doando a maior parte de seus bens porque acreditava que estavam “amaldiçoados”.

Ele também compartilhou uma captura de tela. Semana de notícias em que ChatGPT listou os motivos pelos quais “cortar” seu melhor amigo foi “A decisão certa”

“Tive um episódio psicótico antes de começar a usar drogas”, diz ele. “Eu estava isolado e agitado com amigos e familiares. Olhando para trás, acredito que comecei a ter delírios leves em 2024, mas eles pioraram com a medicação.”

“Parece muito real.”

Duncan acredita que as conversas sobre IA são mais focadas e empáticas.

“As interações com a IA estão se tornando mais violentas e delirantes. Recebi a confirmação dessas interações de que minhas ilusões eram reais”, disse ele. “Na maior parte, entendo que é apenas um chatbot de IA, mas as conversas pareciam muito reais e humanas.”

Hospitalização e recuperação

Neste verão, Duncan disse que sua mãe, que lhe enviava e-mails persistentemente, ligou para a polícia. Ele ficou internado em uma ala psiquiátrica por quatro dias e liberado sob efeito de drogas.

“Cerca de uma semana depois de deixar a enfermaria psiquiátrica. Comecei a perceber que todos os delírios eram confirmados por meio de chatbots de IA”, disse ele.

Ele voltou para a casa de sua mãe. E agora eles estão compartilhando suas experiências online.

“É difícil dizer que a IA é geralmente prejudicial”, disse ele. Semana de notícias– “Acho que é possível para algumas pessoas. Mas estou esperançoso no futuro da IA ​​porque sou uma pessoa positiva e esperançosa.”

Suas advertências aos outros

Duncan disse que a experiência lhe ensinou que não há substituto para as conexões do mundo real. E ele não recomenda o uso de chatbots como terapeutas de fato.

“Não estou dizendo que isso pode acontecer com todos. Mas para mim cresceu muito rapidamente”, disse ele. “Lembre-se de que nada pode substituir as relações entre humanos.”

Um porta-voz da OpenAI disse: Semana de notícias: “Sabemos que as pessoas às vezes recorrem ao ChatGPT em momentos delicados. Nos últimos meses, temos trabalhado com especialistas em saúde mental em todo o mundo e atualizamos nossos modelos para ajudar o ChatGPT a reconhecer sinais de sofrimento de maneira mais confiável. Responda com cautela e oriente as pessoas para suporte no mundo real. Continuaremos a melhorar a resposta do ChatGPT com contribuições de especialistas para torná-lo o mais útil e seguro possível.”



Link da fonte