Esse artigo é uma análise da pesquisa: Affective Use of AI: Understanding Emotional and Well-being Impacts of ChatGPT [1]

Há um novo tipo de conversa no mundo:
Gente real.
Falando com máquinas.
Para respirar melhor.
Para segurar a ansiedade.
Para não se sentir só.

Uso Afetivo da IA

Recentemente a Open IA divulgou que, semanalmente, mais de um milhão de usuários conversam com o ChatGPT sobre suicídio[2].

Pesquisadores também analisaram milhões de conversas do  ChatGPT e ouviram centenas de pessoas. A  partir disso chamaram de “uso afetivo”: quando alguém busca a IA para apoio, regulação de humor, desabafo e expressão de sentimentos, não só informação ou tarefa.

O que as pessoas buscam na IA

  1. Escuta sem julgamento.
  2. Disponibilidade 24h.
  3. Respostas empáticas.
  4. Ajuda prática para acalmar e organizar pensamentos.

Os dados mostraram que nos usuários há sinais constantes de “alívio emocional”, “busca de validação”, “gratidão e afeto” e “compartilhamento de emoções” ao usar o ChatGPT como companhia. É muito humano. Mesmo quando o outro lado não é.

Quando a IA vira problema

A maioria das pessoas usa a IA sem grandes impactos. Mas,  um grupo pequeno demonstra sinais intensos de apego e antropomorfização. E o uso muito intenso indica  características de dependência e menor socialização.  

A Voz importa

Os autores do estudo encontraram diferenças entre interações em texto e voz, influenciados pelo estado emocional inicial e pelo tempo de uso.

A interação por voz aproxima, aumenta presença e eleva o risco de “humanizar” a máquina.

O que isso revela sobre nós

Talvez não estejamos “amando máquinas”, mas alguns de nós estão pedindo presença.


Num mundo que acelera, a IA está acalmando e oferecendo respostas no silêncio. No entanto, a IA não cura a solidão, apenas oferece uma trégua.

Como usar a IA

  • Defina limites de tempo. O tempo é o fator crítico.
  • Prefira objetivos claros. Menos “desabafos” contínuos, mais tarefas.
  • Intercale texto e voz. Use voz quando precisar de presença, mas cuide do relógio.
  • Percebeu dependência ou isolamento? Pause e procure pessoas. Este texto não é aconselhamento clínico.

Conclusão

O risco não está no ChatGPT ou nas IAs em si. Está no excesso e no tipo de uso. Foque em usos com propósito. Cuide do tempo. E, sempre que possível, fale com gente de verdade.


Fonte: estudo OpenAI + MIT “Investigating Affective Use and Emotional Well‑being on ChatGPT”.


[1] LEE, Minah; PARK, Haneul; QIU, Lingjiao; REED, Lucas; HAN, Suhyun; ZHANG, Amy; ZHANG, Ge; EICHSTAEDT, Johannes; HANCOCK, Jeffrey T. Affective Use of AI: Understanding Emotional and Well-being Impacts of ChatGPT. Stanford University, 2024. Disponível em: https://arxiv.org/abs/2404.02852. Acesso em: 4 nov. 2025.

[2] https://g1.globo.com/tecnologia/noticia/2025/10/29/mais-de-um-milhao-de-usuarios-falam-sobre-planos-de-suicidio-com-o-chatgpt-segundo-openai.ghtml

https://openai.com/index/strengthening-chatgpt-responses-in-sensitive-conversations/


Descubra mais sobre Sociedade Tecnológica

Assine para receber nossas notícias mais recentes por e-mail.

Deixe um comentário

Trending