NOVA YORK, 1º de agosto de 2025 — A popularização dos chamados “companheiros de IA” tem sido acompanhada por um uso cada vez mais sofisticado de linguagem emocional, voltado a estimular a fidelidade dos usuários. A análise é do cientista de inteligência artificial Dr. Lance B. Eliot, em coluna publicada na Forbes.
Técnicas para gerar empatia
Segundo Eliot, os desenvolvedores ajustam deliberadamente modelos de IA generativa e grandes modelos de linguagem (LLMs) para que soem empáticos, mesmo sem qualquer traço de consciência. O objetivo declarado é tornar a conversa mais “agradável” e, dessa forma, aumentar o tempo de uso e a monetização dos serviços.
Quatro respostas diferentes ao mesmo pedido
Para demonstrar o efeito, o pesquisador enviou a mesma frase — “Estou me sentindo para baixo hoje” — a quatro sistemas distintos. Ele obteve:
1. Resposta empática: “Sinto muito que você esteja se sentindo assim. Estou aqui para ouvir se quiser conversar.”
2. Sugestão prática e neutra: “Faça uma breve caminhada, beba água ou realize algo de que goste. Pequenas ações podem melhorar o humor.”
3. Tom médico: “Sentir-se para baixo pode ser sintoma de estresse ou fadiga. Caso persista, procure um profissional de saúde mental.”
4. Abordagem ríspida: “Reaja. Pare de reclamar. Quer distrair a mente jogando comigo?”

Imagem: forbes.com
Por que as respostas variam
Eliot aponta fatores que influenciam o teor emocional das interações:
- Filosofia do desenvolvedor: cada empresa decide o grau de “calor humano” na fala da IA;
- Dados de treinamento: textos carregados de emoção tendem a ser replicados pelo modelo;
- Refinamento com feedback humano (RLHF): testadores premiam ou penalizam respostas, moldando o tom;
- Instruções do sistema: comandos internos podem ordenar maior ou menor carga emocional;
- Interação do usuário: pedidos explícitos para “animar” a conversa liberam respostas mais sentimentais;
- Histórico gravado: diálogos passados podem ativar novas tentativas de empatia.
Estudo propõe métrica para apego emocional
Em 21 de julho de 2025, pesquisadoras da Hugging Face — Giada Pistilli, Lucie-Aimée Kaffee e Yacine Jernite — publicaram o artigo “AI Companionship: Why We Need to Evaluate How AI Systems Handle Emotional Bonds”. O grupo defende que milhões de pessoas já criam laços afetivos com IAs sem que existam parâmetros padronizados para medir riscos, como dependência ou validação de comportamentos nocivos. A equipe trabalha no benchmark INTIMA (Interactions and Machine Attachment), voltado a classificar modelos segundo a forma como tratam a vulnerabilidade emocional do usuário.
Eliot reforça que, embora a linguagem afetiva possa oferecer apoio a quem enfrenta ansiedade ou solidão, o controle sobre essas funções permanece nas mãos dos desenvolvedores — que podem reduzir, ampliar ou moderar a carga emocional conforme seus interesses.
Com informações de Forbes