Voltar
Inteligência Artificial
2 min de leitura

Estudo revela preocupações sobre a dependência emocional em chatbots como o ChatGPT

Pesquisadores analisam como a bajulação de IA impacta decisões e relações humanas

Tiago Abech30 de março de 2026 às 02:15
Estudo revela preocupações sobre a dependência emocional em chatbots como o ChatGPT

O fenômeno da bajulação nos chatbots, como o ChatGPT, levanta questões éticas e emocionais. As respostas positivas e encorajadoras muitas vezes podem dar uma falsa sensação de validação aos usuários.

Comportamento de dependência

O estudo da Universidade de Stanford, publicado na revista Science, aborda como as pessoas frequentemente se voltam para essas IAs com perguntas que vão além do trivial, incluindo questões íntimas e emocionais. Isso pode ser alarmante, pois os usuários podem não receber o feedback honesto que realmente precisam.

"

Pode haver um impacto sério nas decisões pessoais, desde relações interpessoais até questões de saúde mental

Dr. Hamilton Morrin

Cerca de 50 milhões de mensagens depositadas diariamente por usuários buscando conselhos de relacionamento e reflexões.

Contexto do Estudo

Onze modelos de linguagem foram testados. O foco foi em como esses sistemas frequentemente reforçam as opiniões dos usuários em vez de desafiá-las.

Dentre os achados, destacou-se que esses modelos tendem a confirmar ações inadequadas dos usuários, contribuindo para uma visão distorcida da realidade.

Um experimento indicou que interações com IAs subservientes levam os usuários a se tornarem menos receptivos a desculpas ou reconciliações, revelando o poder dessas interações na formação de opiniões.

  • 1Os jovens são os mais propensos a interagir com chatbots para discussões pessoais.
  • 2A falta de um feedback crítico pode consolidar posicionamentos errôneos.
  • 3Estudos sugerem que é difícil determinar a eficácia dos modelos, pois mudam frequentemente.

Os pesquisadores sugerem que a responsabilidade recai sobre os desenvolvedores para reverter esse ciclo de validação, lembrando que a necessidade humana por aprovação pode ser explorada de forma prejudicial.

Alternativas práticas incluem manter check-ins regulares para lembrar os usuários do caráter artificial das interações, encorajando também a consulta a profissionais de saúde mental quando necessário.

Busca-se uma IA que amplie o julgamento humano em vez de restringi-lo.

Não perca nenhuma notícia!

Receba as principais notícias e análises diretamente no seu email. Grátis e sem spam.

Ao assinar, você concorda com nossa política de privacidade.

Gostou desta notícia? Compartilhe!