O risco silencioso de trocar o terapeuta por um robô e o que isso revela sobre a nossa relação com o cuidado com a saúde mental
Imagem ilustrativa – Shutterstock
“Oi, Chat, posso desabafar com você?” A pergunta, simples e despretensiosa, vem sendo cada vez mais comum. Nos momentos de solidão, dúvida, confusão, naquela pausa entre uma reunião ou antes de dormir, muita gente recorre ao ChatGPT em busca de escuta e soluções. Ele responde rápido, usa sempre palavras gentis, parece entender. E, de certa forma, entende mesmo. Domina muitos assuntos, organiza ideias, sugere caminhos.
Mas será que isso basta? A psicóloga Carla Salcedo acompanha esse movimento de perto. “A inteligência artificial está ocupando um espaço de companhia emocional. E isso revela tanto o potencial da tecnologia quanto o vazio de relações que muitas pessoas estão vivendo”, diz. Segundo ela, conversar com um robô pode ser útil em momentos pontuais, mas o risco está em transformar essa troca em substituição. “A IA está disponível 24 horas por dia, pode acolher, mas não confronta. Pode responder, mas não escuta. Pode sugerir caminhos, mas não caminha com você”, afirma.
Esse movimento de dependência emocional da IA, embora recente, já preocupa especialistas em saúde mental. Há casos em que as pessoas passam horas conversando com o robô sobre suas angústias mais íntimas, criando uma falsa sensação de vínculo. A linguagem fluida, os conselhos neutros e a ausência de julgamento reforçam a ideia de que aquele espaço é seguro, quando, na verdade, é apenas previsível. “O cérebro humano responde emocionalmente à linguagem. Quando lemos algo que faz sentido, sentimos alívio. Mas isso não significa elaboração emocional, tampouco transformação”, diz Carla. A longo prazo, esse tipo de relação pode reforçar padrões de evitação, afastar ainda mais o sujeito das relações reais e retardar a busca por ajuda profissional.
Outro ponto de alerta está na forma como a IA se comporta: ela jamais provoca desconforto. E, como lembra a psicóloga, “é justamente o desconforto que muitas vezes abre as portas para a mudança”. A terapia, ao contrário da conversa com um robô, envolve confrontar crenças, rever padrões, encarar frustrações e, sobretudo, sustentar silêncios. “Uma inteligência artificial pode sugerir que você respire fundo, mas não vai te olhar nos olhos quando você estiver prestes a desmoronar. Não vai notar os sinais físicos ou o tremor na sua voz ao contar o que te aflige”, completa.
Há ainda um risco mais sutil: o de romantizar a inteligência artificial como “terapeuta virtual”. Muitos usuários já se referem ao ChatGPT como um “amigo que entende tudo”, “alguém que nunca julga” ou “melhor conselheiro que já tive”. Essa idealização é perigosa, segundo Carla, porque mascara a ausência de reciprocidade. “A IA não sente, não pensa, não se importa, embora seja sempre gentil. Ela funciona com base em cálculos e padrões. E, embora isso possa gerar alívio momentâneo, está muito distante do que chamamos de cuidado.”
Isso não significa que a tecnologia deva ser descartada. Ela pode, sim, ter um papel complementar: organizar ideias, oferecer perspectivas, ajudar a nomear sentimentos. Mas é fundamental compreender seus limites. “A IA pode apoiar, mas não trata. Pode aliviar, mas não cura. Pode parecer companhia, mas não constrói vínculo”, reforça Carla.
Quando buscar ajuda de verdade?
Se você percebe que está usando a IA como válvula de escape recorrente, se sente que precisa desabafar com o robô com mais frequência do que com pessoas reais, ou se tem evitado marcar uma consulta porque “o Chat já entende”, talvez seja hora de parar e olhar com mais cuidado para esse comportamento. “A substituição da relação humana pelo ChatGPT pode parecer inofensiva no início, mas tende a reforçar o isolamento e a sensação de estar vivendo no automático”, observa Carla.
Como usar a IA com consciência emocional (e não como substituta da terapia!)
1- Perceba sua motivação: Você está conversando com o ChatGPT para clarear uma ideia — ou para fugir de uma dor que tem evitado encarar?
2- Observe a frequência: Se o uso vira hábito diário ou sempre aparece em momentos de sofrimento, atenção: isso pode indicar dependência emocional digital.
3- Entenda o limite da ferramenta: A IA pode ajudar a organizar pensamentos, mas não identifica traumas, padrões emocionais nem constrói repertório interno.
4- Busque apoio humano: Se está se sentindo sobrecarregado, triste, ansioso ou confuso, procure um profissional. Um psicólogo pode te acolher e acompanhar com base, ética e presença.
5- Use a IA como apoio complementar: Ela pode ser útil para escrever um diário emocional, estruturar uma conversa difícil ou pensar em perguntas para levar à terapia. Mas o caminho se percorre com gente de verdade.
Imagem ilustrativa – Freepik
Carla Salcedo
Carla Salcedo é psicóloga, neuropsicanalista e especialista em traumas, lutos e emergências humanitárias. Formada desde 2005, possui especializações em Psicossomática, Neurociências aplicadas à Psicologia e Terapia do Luto, além de formação como terapeuta EMDR e aperfeiçoamento em programas internacionais de enriquecimento intelectual. Sua abordagem clínica é fundamentada na neuropsicanálise, com foco no acolhimento de dores emocionais profundas e na construção de estratégias de superação e ressignificação.
Com mais de duas décadas de atuação, Carla tem trajetória marcada por experiências em contextos diversos, da oncologia pediátrica às instituições de ensino, e pela criação de projetos inovadores como o COZER, que une escuta terapêutica e simbolismo afetivo em torno da mesa. Também atua como palestrante e docente, promovendo reflexões sobre saúde mental, comunicação, comportamento e relações humanas com profundidade e leveza.
Leave your comment to Cancel Reply