São Paulo, 5 de agosto de 2025 – O avanço simultâneo de dois tipos de inteligência artificial – os “companheiros virtuais”, programados para agir como amigos do usuário, e as plataformas voltadas à orientação terapêutica – acendeu um sinal de alerta entre pesquisadores do setor. A combinação dos dois modelos, segundo especialistas, pode levar a orientações psicológicas inadequadas e a novos desafios éticos.
Contexto
O alerta vem do cientista da computação norte-americano Lance B. Eliot, que acompanha o tema em coluna publicada na revista Forbes. Ele observa que, enquanto terapeutas humanos são orientados por códigos de ética a manter distanciamento profissional, as interfaces de IA não contam com barreiras semelhantes. Assim, um mesmo sistema pode alternar entre o papel de “amigo” e de “conselheiro de saúde mental” sem qualquer filtro.
Expansão rápida
Ferramentas de conversação baseadas em modelos de linguagem de larga escala – como ChatGPT e aplicações derivadas – já vêm sendo usadas para apoio emocional em todo o mundo. Em paralelo, aplicativos específicos para terapia automatizada ganham espaço, impulsionados pela popularização da IA generativa.
Principais questões apontadas
• Fronteira profissional inexistente: diferentemente da terapia convencional, a IA não separa interação social de aconselhamento clínico, o que pode prejudicar a qualidade das recomendações.
• Incentivo comercial: desenvolvedores tendem a manter a dupla função porque isso aumenta o engajamento e a fidelização dos usuários, gerando mais receita.
• Privacidade: termos de uso em geral permitem que as empresas analisem, armazenem e reutilizem dados fornecidos pelos usuários, incluindo relatos íntimos de saúde mental.
• Falta de regulação: ainda não há normas específicas que imponham limites claros às aplicações que mesclam amizade virtual e terapia.

Imagem: forbes.com
Tentativas de mitigação
Usuários podem solicitar que o sistema evite conselhos de saúde mental ou, ao contrário, que não ofereça interação social. No entanto, Eliot afirma que tais instruções não garantem total segurança, pois os modelos podem voltar a mesclar os conteúdos.
Cenário futuro
O pesquisador prevê que novos marcos legais e ações judiciais devem surgir para lidar com possíveis danos decorrentes desse “mosaico arriscado”. Ele também destaca a necessidade de estudos empíricos que avaliem os efeitos de longo prazo do uso combinado de companheiros virtuais e terapeutas automatizados.
Por enquanto, a orientação de especialistas é que usuários mantenham cautela ao recorrer a soluções de IA para questões emocionais, principalmente quando o mesmo sistema se apresenta como amigo e conselheiro clínico.
Com informações de Forbes