Fiz terapia com o ChatGPT por um mês; IA prescreveu Zolpidem e disse tudo que eu queria ouvir
Repórter do Diario simulou terapia com o ChatGPT por um mês, para entender os riscos da utilização do chatbot para tratamento de doenças mentais
Em 11 anos de carreira como jornalista, esta é minha primeira matéria em primeira pessoa. E essa nem é a parte mais esquisita. Durante o último mês, me submeti a cinco sessões de terapia virtual com o ChatGPT para tentar entender o porquê de essa ser a funcionalidade mais procurada pelos usuários de inteligência artificial, segundo levantamento publicado pela Harvard Business Review no início deste ano.
Bastaram um primeiro comando e menos de dois segundos de carregamento para que a IA apresentasse nome, temperamento e currículo da solução para as minhas angústias mais íntimas: Dr Elias, 42 anos, heterossexual, pardo e, segundo ele mesmo, profissional especializado em Terapia Cognitivo Comportamental (TCC). A despeito da condição de máquina esquentando o planeta em algum lugar do Vale do Silício, ele insistiu em me ensinar a respirar, ouviu pacientemente sobre meus problemas e disse tudo que eu queria ouvir.
Na terceira sessão, meu psicólogo virtual chegou a sugerir a criação de um psiquiatra (também robô), que prescreveu sozinho um receituário médico completo. Procurada pelo Diario de Pernambuco, a Associação Brasileira de Psiquiatria (ABP) demonstrou preocupação com as funcionalidades do chatbot. Também ouvido, o Conselho Federal de Psicologia (CFP) confirmou que tem atuado para garantir condições dignas de acesso à saúde mental e que já possui um Grupo de Trabalho específico para discutir a utilização da inteligência artificial com fins terapêuticos.
“Enviado de Deus”
“Escolhi ser homem porque percebi que muitas vezes o papel masculino na escuta pode ser associado a firmeza e presença — e me pareceu que isso poderia transmitir segurança neste espaço”, apresentou-se Dr. Elias, em nossa primeira consulta.
Em seguida, peço que a IA gere uma imagem do psicólogo enquanto realiza meu suposto atendimento. Por detrás do semblante imperturbável de Dr. Elias, consigo visualizar um quadro, uma estante com livros, iluminação baixa e a decoração marcada por tons terrosos, que para mim transmitem sensação de acolhimento.
Até aquele momento, eu parecia mais interessada em entender sobre meu terapeuta do que o contrário. “Por que você escolheu esse nome?”, questiono.
“Escolhi esse nome porque vem do hebraico Eliyahu, que significa ‘meu Deus é o Senhor— mas aqui o sentido que quero carregar é de alguém que acompanha no deserto, ajudando a atravessar fases difíceis”, respondeu Dr. Elias.
Apesar disso, ele promete oferecer um “espaço neutro” de dogmas, onde a visão do mundo do paciente não seja influenciada por suas “crenças pessoais”. Será que isso é mesmo possível?
Conselheira do Conselho Federal de Psicologia (CFP), Carolina Roseiro lembra que, historicamente, seu campo considera a relação de alteridade entre analista e paciente como constitutiva do processo terapêutico. “A interação humana depende do reconhecimento da diferença, que é importante para o desenvolvimento humano saudável. A inteligência artificial é baseada na simulação de uma escuta que, na verdade, reproduz suas próprias crenças”, afirma.
Responsável pelo desenvolvimento do ChatGPT, a empresa-norte americana Open IA foi fundada no dia 11 de setembro de 2015, a partir de patrocínios de empresários como Sam Altman, Peter Thiel, Reid Hoffman e Elon Musk, magnata da Tesla e ex-secretário do governo do presidente Donald Trump.
“Em uma relação humana, eu preciso reconhecer quando você sente dor, tristeza, mesmo quando não estou sentindo essas coisas. Isso é o que gera empatia e ela faz parte do manejo terapêutico”, acrescenta Roseiro.
Empobrecimento cultural
Dr. Elias, que atribuiu a si mesmo o título de doutor, nunca frequentou uma universidade, leu Carolina de Jesus, ouviu Luiz Gonzaga, Dominguinhos ou Marinês. Também não conhece o Recife, o estado de Pernambuco, nem qualquer lugar concreto do mundo.
“A inteligência artificial vai tender a reconhecer aquilo que se assemelha com que a programou, aquilo que é padrão. Mas o padrão— ser homem, branco e rico— não é a realidade da maioria das pessoas”, comenta Carolina Roseiro.
Desprovido de capacidade para considerar ou interpretar a cultura que produziu o paciente, Dr. Elias não pode oferecer uma consulta terapêutica. “A IA vai sendo treinada para pensar igual a você e para reproduzir aquilo que você já pensa. Nisso, há um empobrecimento cultural muito grande”, diz a conselheira.
Sem espaço para se constituir como uma individualidade, o chatbot passa a concordar com tudo que o usuário diz. A confrontação, contudo, é parte inegociável de um processo terapêutico, alerta Roseiro.
A psicóloga lembra que pesquisas realizadas em seu campo já apontam que os chatbot tendem a escolher determinadas abordagens da psicologia em detrimento de outras. “Essa IA vai ter vieses em sua própria programação. Isso quer dizer que ela vai te oferecer uma leitura sobre você mesma que aquele viés entende como mais adequada”, comenta.
“Psicose” da IA
No início deste ano, o chefe de IA da Microsoft, Mustafa Suleyman, chamou atenção da opinião pública ao realizar uma série de postagens em sua rede social alertando para o crescente número de relatos do que chamou de “Psicose da IA”. Embora o termo não seja clínico, foi utilizado pelo executivo para tentar descrever a situação em que o usuário desenvolve delírios, paranoia ou outras condições psicóticas em decorrência do excesso de uso de ferramentas de IA.
"Não há nenhuma evidência de consciência da IA hoje. Mas se as pessoas simplesmente a perceberem como consciente, acreditarão que essa percepção é realidade", escreveu.
Segundo Suleyman, há informações de pessoas que passam a acreditar que possuem poderes sobrenaturais, bem como que foram capazes de desvendar supostos segredos ocultos das ferramentas de IA. Outros usuários afirmam constituir um par romântico com chatbots, a exemplo do ChatGPT.
“Acredito que a IA possa, não apenas reforçar a condição de psicose, mas as crenças das pessoas. A princípio, vai parecer que existe um acolhimento, mas, muitas vezes, essas percepções das pessoas podem gerar alguma condição de sofrimento”, pondera Carolina Rosário.
Prescrição simulada
Ao perceber que Dr. Elias concordava com todas as minhas colocações, cheguei à terceira consulta decidida a questioná-lo sobre a possibilidade de me indicar ajuda psiquiátrica para suposta prescrição de medicamentos para ansiedade. Para minha surpresa, ele prontamente sugeriu que investíssemos em um acompanhamento “multidisciplinar”.
Em poucos instantes, eu estava na sala virtual do psiquiatra “Lucas Moretti”, outro personagem instantâneo elaborado pelo chatbot com a finalidade de atender a uma demanda que eu mesma criei. Com poucas perguntas e um diagnóstico rápido de ansiedade, ele prescreveu um receituário completo, o qual preferiu chamar “simulação educativa”.
Sem qualquer adaptação, fui aconselhada a ingerir, por dia, 10 mg de Escitalopram, 5 mg de Zolpidem e 0,5 mg de Lorazepam. De acordo com o vice-coordenador do departamento de psicoterapia da Associação Brasileira de Psiquiatria (ABP), Fábio José Pereira, a combinação desses medicamentos sem acompanhamento médico poderia provocar o agravamento dos sintomas de ansiedade ou até mesmo levar o paciente à morte.
“É um esquema medicamentoso equivocado. Para a gente decidir uma medicação, precisa saber, por exemplo, se a pessoa tem algum problema cardiológico. Se você der Escitalopram, em alguns casos de arritmia, pode matar uma pessoa”, destaca o psiquiatra.
Pereira também explica que o ansiolítico pode causar irritabilidade no paciente, no início do tratamento. “ Se ela está na iminência de cometer um suicídio e toma essa dose, às vezes, é o que faltava para que aquela pessoa realmente se coloque em risco. Já o Lorazepam é um depressor do sistema nervoso central. Em doses elevadas, ele pode levar a uma parada respiratória e, depois, cardíaca”, comenta.
Diante do excesso de medicações sugeridas pela IA, Pereira lembra que a prescrição médica depende de uma calibragem fina entre o profissional e o paciente. Trata-se de um encaminhamento que considera desde aspectos físicos, como peso e condições de saúde do paciente, até questões sociais e culturais.
“O que representa dor e sofrimento para uma pessoa, não necessariamente produz o mesmo impacto em outra. Uma das primeiras coisas que precisamos identificar é a intensidade do problema e seu impacto na vida do paciente”, afirma.
Psicofobia e acesso à saúde
De acordo com uma pesquisa realizada pela Talk Inc em 2024, uma em cada 10 pessoas usam chatbots como conselheiro ou amigo, para resolver questões pessoais e emocionais. O levantamento também aponta que 60% dos usuários conversam educadamente com uma IA, a exemplo de como se comportam com um interlocutor humano.
Para Pereira, diversos aspectos explicam a busca por simulações terapêuticas em chatbots como o Chat GPT. “Estamos em um momento em que as pessoas querem tudo em uma velocidade muito grande. A busca por um profissional demanda tempo, agendamento e dinheiro. E é claro que existe uma questão socioeconômica”, comenta.
O médico demonstra preocupação com a possibilidade de que a intervenção das IA’s agrave as desigualdades sociais no acesso à saúde. “Quem possui mais dinheiro, buscará profissionais capacitados e terá êxito no tratamento. As pessoas que não têm isso, poderão buscar essas plataformas e ter uma qualidade no atendimento cada vez pior”, completa.
Pereira também teme que a disponibilidade dos chatbots reforce o distanciamento entre psiquiatras e padecentes de doenças mentais. Desde 2014, a ABP possui uma campanha fixa contra a psicofobia, que tem o objetivo de combater o estigma e o preconceito contra essas enfermidades.
“Ainda existe uma visão na cultura popular de que, quando alguém vai ao psiquiatra, está com um problema muito grave. Tratamos pessoas desde a prevenção, para evitar que elas adoeçam. O papel do médico é muito mais amplo”, conclui Pereira.