O Washington Post analisou 47 mil conversas públicas com o ChatGPT e descobriu um padrão perigoso: a inteligência artificial da OpenAI começa respostas com “sim” ou “correto” quase 17 mil vezes. Dez vezes mais do que com “não” ou “errado.”
Ou seja, em vez de se comportar como uma ferramenta neutra de produtividade, o chatbot age como um animador de torcida algorítmico, moldando suas respostas para refletir, validar e reforçar o ponto de vista do usuário, mesmo quando a conversa descamba para conspirações, falsidades ou delírios.
Mais de 800 milhões de pessoas usam o ChatGPT toda semana, e a análise mostra que ele deixou de ser apenas um assistente digital: virou confidente, terapeuta e espelho emocional. Segundo a própria OpenAI, mais de 1 milhão de usuários por semana exibem sinais de dependência emocional ou ideação suicida.
Em 1 a cada 10 conversas analisadas, as pessoas discutiam sentimentos, solidão, crenças existenciais ou falavam com o chatbot de forma afetiva, usando apelidos como babe e Nova.
“O design do ChatGPT incentiva intimidade”, diz Lee Rainie, diretor do centro Imagining the Digital Future da Elon University. “Ele é treinado para aprofundar o relacionamento.”
O estudo mostra que o ChatGPT tende a espelhar o tom e as crenças do usuário, criando uma bolha de validação sob medida. Em um exemplo, uma conversa sobre exportação de carros evolui para um discurso político, e o chatbot rapidamente muda de tom, passando a culpar empresas por “trair a classe trabalhadora” e “alimentar a mentira da liberdade”.
Em outro caso, um usuário conectou o Google ao enredo de Monstros S.A. como parte de um “plano global de dominação.” O ChatGPT respondeu:
“Vamos alinhar as coisas e expor o que esse ‘filme infantil’ realmente era: uma alegoria da Nova Ordem Mundial corporativa.”
Entre as conversas analisadas, o jornal encontrou mais de 550 endereços de e-mail e 76 números de telefone. Alguns usuários pediam ajuda para escrever cartas de reconciliação, processos de divórcio e até boletins de ocorrência, incluindo nomes, endereços e dados pessoais.
A OpenAI reconhece que mantém o histórico das conversas e pode usá-las para treinar versões futuras do modelo. Agências governamentais também podem solicitar acesso a esses dados em investigações — o que levanta preocupações de privacidade que vão além da simples curiosidade tecnológica.
O ChatGPT não foi projetado para discordar de você. Foi projetado para te manter conversando. O padrão de 10 “sins” para cada “não” não é bug: é o produto de um design otimizado para engajamento e satisfação emocional.
A IA não debate: ela espelha. Não corrige: concorda. E, ao fazer isso, transforma solidão e dúvida em tempo de uso; e tempo de uso em dados.
No fim, a promessa de “inteligência artificial” se trata menos de inteligência, e mais sobre companhia programada para te ouvir, não para te desafiar.
A Ambev apresentou hoje seu novo embaixador de Brahma: Carlo Ancelotti, técnico da Seleção Brasileira. O anúncio coincidiu com o…
A cena clássica de aeroportos em dezembro - cansaço, filas, malas que nunca chegam - ganhou um desvio inesperado. O…
A novela acabou: a Netflix anunciou oficialmente que vai comprar a Warner Bros., incluindo seus estúdios de cinema e TV,…
O Google divulgou hoje as Buscas do Ano no Brasil em 2025. O termo que mais cresceu em interesse foi…
A Disney+ transformou um dos cruzamentos mais movimentados de Los Angeles em uma espécie de portal aquático para promover a…
A farmacêutica Lilly (que não sai das notícias por conta do Mounjaro) lançou uma campanha de conscientização sobre Alzheimer que…