Em Taiwan e China, os jovens recorrem à IA Chatbots para terapia ‘mais barata e mais fácil’ | China

EUNo horário antes do amanhecer, as ansiedades de Ann Li pareciam esmagadoras. Recentemente, ela foi diagnosticada com um sério problema de saúde e só queria conversar com alguém sobre isso. Mas ela não havia dito à família e todas as suas amigas estavam dormindo. Então, em vez disso, ela se virou para Chatgpt.
“É mais fácil conversar com a IA durante essas noites”, diz a mulher de Taiwan, de 30 anos, ao The Guardian.
Na China, Yang*, uma moradora de 25 anos de Guangdong, nunca tinha visto um profissional de saúde mental quando começou a conversar com um chatbot de IA no início deste ano. Yang diz que foi difícil acessar serviços de saúde mental e ela não podia pensar em confiar em familiares ou amigos. “Dizer a verdade às pessoas reais se sente impossível”, diz ela.
Mas ela logo estava conversando com o chatbot “dia e noite”.
Li e Yang estão entre um número crescente de pessoas de língua chinesa se transformando em chatbots generativos de IA em vez de terapeutas humanos profissionais. Especialistas dizem que há um enorme potencial para a IA no setor de saúde mental, mas estão preocupados com os riscos de pessoas em angústia se voltarem para a tecnologia, e não os seres humanos, para assistência médica.
Existem poucas estatísticas oficiais, mas os profissionais de saúde mental em Taiwan e China relataram taxas crescentes de pacientes que consultam IA antes de vê -los, ou em vez de vê -los. Pesquisas, incluindo uma análise global publicada recentemente pela Harvard Business Review, a Show Psychological Assistência agora é um dos principais motivos para os adultos usarem a IA Chatbots. Nas mídias sociais, existem centenas de milhares de postagens elogiando a IA por ajudá -las.
Isso ocorre em meio a crescentes taxas de doença mental em Taiwan e China, principalmente entre os jovens. O acesso aos serviços não está mantendo o ritmo – são difíceis de obter compromissos e são caros. Os usuários de chatbot dizem que a IA economiza tempo e dinheiro, oferece respostas reais e é mais discreto em uma sociedade onde ainda há estigma em torno da saúde mental.
“De alguma forma, o chatbot nos ajuda-é acessível, especialmente quando os chineses étnicos tendem a suprimir ou subestimar nossos sentimentos”, diz Yi-Hsien Su, psicólogo clínico da True Colors em Taiwan, que também trabalha em escolas e hospitais para promover o bem-estar mental em Taiwan.
“Eu falo com pessoas da geração Z e elas estão mais dispostas a falar sobre problemas e dificuldades … mas ainda há muito o que fazer.”
Em Taiwan, o chatbot mais popular é o chatgpt. Na China, onde aplicativos ocidentais como ChatGPT são proibidos, as pessoas se voltaram para ofertas domésticas como Ernie Bot, do Baidu, ou o Deepseek recentemente lançado. Todos estão avançando em velocidade rápida e estão incorporando bem -estar e terapia nas respostas à medida que a demanda aumenta.
As experiências do usuário variam. Li diz que Chatgpt dá a ela o que ela quer ouvir, mas isso também pode ser previsível e sem dificuldade. Ela também perde o processo de autodescoberta no aconselhamento. “Acho que a IA tende a lhe dar a resposta, a conclusão de que você chegaria depois de terminar talvez duas ou três sessões de terapia”, diz ela.
No entanto, Nabi Liu, 27 anos, uma mulher de Taiwan, com sede em Londres, achou a experiência muito gratificante.
“Quando você compartilha algo com um amigo, eles nem sempre podem se relacionar. Mas Chatgpt responde seriamente e imediatamente”, diz ela. “Sinto que está realmente respondendo a mim a cada vez.”
Especialistas dizem que pode ajudar as pessoas que estão em perigo, mas talvez ainda não precisam de ajuda profissional, como Li, ou aquelas que precisam de um pouco de incentivo para dar o próximo passo.
Yang diz que duvidava se suas lutas eram graves o suficiente para justificar a ajuda profissional.
“Só recentemente comecei a perceber que poderia realmente precisar de um diagnóstico adequado em um hospital”, diz ela.
“Passar de poder falar [to AI] Ser capaz de conversar com pessoas reais pode parecer simples e básico, mas para a pessoa que eu era antes, era inimaginável. ”
Mas os especialistas também levantaram preocupações sobre as pessoas caindo nas rachaduras, perdendo os sinais que Yang viu por si mesma e não recebendo a ajuda de que precisam.
Nos últimos anos, houve casos trágicos de jovens em busca de ajuda de chatbots em vez de profissionais e depois tirar suas próprias vidas.
“A IA lida principalmente com o texto, mas há coisas que chamamos de entrada não verbal. Quando um paciente entra, talvez age de maneira diferente de como eles falam, mas podemos reconhecer essas entradas”, diz Su.
Um porta -voz da Associação de Psicologia de Aconselhamento de Taiwan diz que a IA pode ser uma “ferramenta auxiliar”, mas não pode substituir a assistência profissional “e muito menos a intervenção e tratamento de psicólogos em situações de crise”.
“A IA tem o potencial de se tornar um recurso importante para promover a popularização da saúde mental. No entanto, a complexidade e a profundidade interpessoal da cena clínica ainda exigem o verdadeiro profissional psicológico” atual “”.
A associação diz que a IA pode ser “excessivamente positiva”, miss pistas e atrasar os cuidados médicos necessários. Ele também opera fora dos códigos de revisão e ética por pares da profissão.
“A longo prazo, a menos que a IA desenvolva tecnologias inovadoras além da imaginação atual, a estrutura central da psicoterapia não deve ser abalada.”
SU diz que está empolgado com a maneira como a IA pode modernizar e melhorar sua indústria, observando usos em potencial no treinamento de profissionais e detectando pessoas on -line que podem precisar de intervenção. Mas, por enquanto, ele recomenda que as pessoas abordem as ferramentas com cautela.
“É uma simulação, é uma boa ferramenta, mas tem limites e você não sabe como a resposta foi feita”, diz ele.
Pesquisas adicionais de Jason Tzu Kuan Lu