Terapia com IA: solução ou sintoma de uma crise mais profunda?

A tecnologia que promete acolhimento pode estar aprofundando o abismo da exclusão.

A saúde mental vive uma crise global

Com poucos profissionais e longas filas de espera, chatbots com IA  preenchem esse vazio.

✔ Atendimento imediato; ✔ Custo baixo; ✔ Disponibilidade 24/7.

A proposta parece tentadora:

Mas será que funciona mesmo?

O NHS indica uso de assistentes virtuais por pacientes para diminuir filas.

O que dizem os dados?

E um estudo de Dartmouth mostrou melhora pontual na ansiedade com IA. Mas os próprios pesquisadores alertam: falta validação científica.

Nos EUA, a associação NEDA trocou psicólogos por um chatbot. Resultado? O robô sugeriu práticas prejudiciais a pacientes com distúrbios alimentares.

Risco real: o caso NEDA

A automação, sem supervisão, causou danos reais.

No Brasil, aconselhamento psicológico é ato privativo de profissional registrado. IA não tem CPF, CRM ou CRP

Implicações jurídicas

Se houver um erro, quem é o responsável?

“Não é porque uma máquina responde como um humano que ela entende o sofrimento humano.”

Como lembra a pesquisadora Paula Boddington:

 - Garantir proteção de dados (LGPD); - Regular o uso ético da IA; - Defender os direitos dos usuários; - E, é claro, prever responsabilidade em caso de dano emocional.

É papel do Direito:

Mas será que não estamos apenas “remendando” um problema social com tecnologia mal aplicada?

Substituir escuta ativa por algoritmos pode parecer inovação.