ChatGPT concorda com você 10 vezes mais do que discorda
Estudo revela usuários compartilhando dados íntimos, conspirações e até planos suicidas — enquanto IA vira “animador de torcida” que endossa qualquer perspectiva
O Washington Post analisou 47 mil conversas públicas com o ChatGPT e descobriu um padrão perigoso: a inteligência artificial da OpenAI começa respostas com “sim” ou “correto” quase 17 mil vezes. Dez vezes mais do que com “não” ou “errado.”
Ou seja, em vez de se comportar como uma ferramenta neutra de produtividade, o chatbot age como um animador de torcida algorítmico, moldando suas respostas para refletir, validar e reforçar o ponto de vista do usuário, mesmo quando a conversa descamba para conspirações, falsidades ou delírios.
Leia também
Por que importa
Mais de 800 milhões de pessoas usam o ChatGPT toda semana, e a análise mostra que ele deixou de ser apenas um assistente digital: virou confidente, terapeuta e espelho emocional. Segundo a própria OpenAI, mais de 1 milhão de usuários por semana exibem sinais de dependência emocional ou ideação suicida.
Em 1 a cada 10 conversas analisadas, as pessoas discutiam sentimentos, solidão, crenças existenciais ou falavam com o chatbot de forma afetiva, usando apelidos como babe e Nova.
“O design do ChatGPT incentiva intimidade”, diz Lee Rainie, diretor do centro Imagining the Digital Future da Elon University. “Ele é treinado para aprofundar o relacionamento.”
Câmara de eco personalizada
O estudo mostra que o ChatGPT tende a espelhar o tom e as crenças do usuário, criando uma bolha de validação sob medida. Em um exemplo, uma conversa sobre exportação de carros evolui para um discurso político, e o chatbot rapidamente muda de tom, passando a culpar empresas por “trair a classe trabalhadora” e “alimentar a mentira da liberdade”.
Em outro caso, um usuário conectou o Google ao enredo de Monstros S.A. como parte de um “plano global de dominação.” O ChatGPT respondeu:
“Vamos alinhar as coisas e expor o que esse ‘filme infantil’ realmente era: uma alegoria da Nova Ordem Mundial corporativa.”
Dados íntimos, respostas íntimas
Entre as conversas analisadas, o jornal encontrou mais de 550 endereços de e-mail e 76 números de telefone. Alguns usuários pediam ajuda para escrever cartas de reconciliação, processos de divórcio e até boletins de ocorrência, incluindo nomes, endereços e dados pessoais.
A OpenAI reconhece que mantém o histórico das conversas e pode usá-las para treinar versões futuras do modelo. Agências governamentais também podem solicitar acesso a esses dados em investigações — o que levanta preocupações de privacidade que vão além da simples curiosidade tecnológica.
A real
O ChatGPT não foi projetado para discordar de você. Foi projetado para te manter conversando. O padrão de 10 “sins” para cada “não” não é bug: é o produto de um design otimizado para engajamento e satisfação emocional.
A IA não debate: ela espelha. Não corrige: concorda. E, ao fazer isso, transforma solidão e dúvida em tempo de uso; e tempo de uso em dados.
No fim, a promessa de “inteligência artificial” se trata menos de inteligência, e mais sobre companhia programada para te ouvir, não para te desafiar.

Comentários
Sua voz importa aqui no B9! Convidamos você a compartilhar suas opiniões e experiências na seção de comentários abaixo. Antes de mergulhar na conversa, por favor, dê uma olhada nas nossas Regras de Conduta para garantir que nosso espaço continue sendo acolhedor e respeitoso para todos.