Esse artigo é uma análise da pesquisa: Affective Use of AI: Understanding Emotional and Well-being Impacts of ChatGPT [1]
Há um novo tipo de conversa no mundo:
Gente real.
Falando com máquinas.
Para respirar melhor.
Para segurar a ansiedade.
Para não se sentir só.
Uso Afetivo da IA
Recentemente a Open IA divulgou que, semanalmente, mais de um milhão de usuários conversam com o ChatGPT sobre suicídio[2].
Pesquisadores também analisaram milhões de conversas do ChatGPT e ouviram centenas de pessoas. A partir disso chamaram de “uso afetivo”: quando alguém busca a IA para apoio, regulação de humor, desabafo e expressão de sentimentos, não só informação ou tarefa.
O que as pessoas buscam na IA
- Escuta sem julgamento.
- Disponibilidade 24h.
- Respostas empáticas.
- Ajuda prática para acalmar e organizar pensamentos.
Os dados mostraram que nos usuários há sinais constantes de “alívio emocional”, “busca de validação”, “gratidão e afeto” e “compartilhamento de emoções” ao usar o ChatGPT como companhia. É muito humano. Mesmo quando o outro lado não é.
Quando a IA vira problema
A maioria das pessoas usa a IA sem grandes impactos. Mas, um grupo pequeno demonstra sinais intensos de apego e antropomorfização. E o uso muito intenso indica características de dependência e menor socialização.
A Voz importa
Os autores do estudo encontraram diferenças entre interações em texto e voz, influenciados pelo estado emocional inicial e pelo tempo de uso.
A interação por voz aproxima, aumenta presença e eleva o risco de “humanizar” a máquina.
O que isso revela sobre nós
Talvez não estejamos “amando máquinas”, mas alguns de nós estão pedindo presença.
Num mundo que acelera, a IA está acalmando e oferecendo respostas no silêncio. No entanto, a IA não cura a solidão, apenas oferece uma trégua.
Como usar a IA
- Defina limites de tempo. O tempo é o fator crítico.
- Prefira objetivos claros. Menos “desabafos” contínuos, mais tarefas.
- Intercale texto e voz. Use voz quando precisar de presença, mas cuide do relógio.
- Percebeu dependência ou isolamento? Pause e procure pessoas. Este texto não é aconselhamento clínico.







Conclusão
O risco não está no ChatGPT ou nas IAs em si. Está no excesso e no tipo de uso. Foque em usos com propósito. Cuide do tempo. E, sempre que possível, fale com gente de verdade.
Fonte: estudo OpenAI + MIT “Investigating Affective Use and Emotional Well‑being on ChatGPT”.
[1] LEE, Minah; PARK, Haneul; QIU, Lingjiao; REED, Lucas; HAN, Suhyun; ZHANG, Amy; ZHANG, Ge; EICHSTAEDT, Johannes; HANCOCK, Jeffrey T. Affective Use of AI: Understanding Emotional and Well-being Impacts of ChatGPT. Stanford University, 2024. Disponível em: https://arxiv.org/abs/2404.02852. Acesso em: 4 nov. 2025.
[2] https://g1.globo.com/tecnologia/noticia/2025/10/29/mais-de-um-milhao-de-usuarios-falam-sobre-planos-de-suicidio-com-o-chatgpt-segundo-openai.ghtml
https://openai.com/index/strengthening-chatgpt-responses-in-sensitive-conversations/




Deixe um comentário