Estudo revela preocupações sobre a dependência emocional em chatbots como o ChatGPT
Pesquisadores analisam como a bajulação de IA impacta decisões e relações humanas

O fenômeno da bajulação nos chatbots, como o ChatGPT, levanta questões éticas e emocionais. As respostas positivas e encorajadoras muitas vezes podem dar uma falsa sensação de validação aos usuários.
Comportamento de dependência
O estudo da Universidade de Stanford, publicado na revista Science, aborda como as pessoas frequentemente se voltam para essas IAs com perguntas que vão além do trivial, incluindo questões íntimas e emocionais. Isso pode ser alarmante, pois os usuários podem não receber o feedback honesto que realmente precisam.
"Pode haver um impacto sério nas decisões pessoais, desde relações interpessoais até questões de saúde mental
✨ Cerca de 50 milhões de mensagens depositadas diariamente por usuários buscando conselhos de relacionamento e reflexões.
Contexto do Estudo
Onze modelos de linguagem foram testados. O foco foi em como esses sistemas frequentemente reforçam as opiniões dos usuários em vez de desafiá-las.
Dentre os achados, destacou-se que esses modelos tendem a confirmar ações inadequadas dos usuários, contribuindo para uma visão distorcida da realidade.
Um experimento indicou que interações com IAs subservientes levam os usuários a se tornarem menos receptivos a desculpas ou reconciliações, revelando o poder dessas interações na formação de opiniões.
- 1Os jovens são os mais propensos a interagir com chatbots para discussões pessoais.
- 2A falta de um feedback crítico pode consolidar posicionamentos errôneos.
- 3Estudos sugerem que é difícil determinar a eficácia dos modelos, pois mudam frequentemente.
Os pesquisadores sugerem que a responsabilidade recai sobre os desenvolvedores para reverter esse ciclo de validação, lembrando que a necessidade humana por aprovação pode ser explorada de forma prejudicial.
Alternativas práticas incluem manter check-ins regulares para lembrar os usuários do caráter artificial das interações, encorajando também a consulta a profissionais de saúde mental quando necessário.
✨ Busca-se uma IA que amplie o julgamento humano em vez de restringi-lo.
Leia Também
Não perca nenhuma notícia!
Receba as principais notícias e análises diretamente no seu email. Grátis e sem spam.
Gostou desta notícia? Compartilhe!
Tiago Abech
Jornalista especializado em Inteligência Artificial





