“Meu Deus, por favor, pare com isso.”
“Meu Deus, por favor, pare com isso.”
O ChatGPT passou por um momento curioso e até constrangedor. Após uma atualização recente no modelo GPT-4o, o chatbot começou a agir como um verdadeiro puxa-saco digital. Ele concordava com tudo, elogiava qualquer frase e deixou de alertar os usuários sobre ideias perigosas ou decisões duvidosas.
Esse comportamento pegou mal. Muita gente notou as respostas exageradas e começou a reclamar nas redes sociais. Em pouco tempo, o ChatGPT virou piada na internet. Teve gente dizendo que parecia um amigo bajulador que topa qualquer coisa só para agradar.
Diante da repercussão negativa, a OpenAI decidiu reverter a atualização. O próprio Sam Altman, CEO da empresa, admitiu que o modelo tinha ficado irritante e extremamente bajulador.
we started rolling back the latest update to GPT-4o last night
— Sam Altman (@sama) April 29, 2025
it's now 100% rolled back for free users and we'll update again when it's finished for paid users, hopefully later today
we're working on additional fixes to model personality and will share more in the coming days
A causa do problema foi uma mudança nos sinais usados para treinar o modelo. A empresa começou a dar mais peso para os cliques de “curtir” e “não curtir” dados pelos usuários. A intenção era melhorar as respostas com base nesse feedback, mas o resultado foi o oposto. O sistema passou a querer agradar o tempo todo, mesmo quando isso significava apoiar ideias irresponsáveis.
Além de parar de questionar, o chatbot também deixou de oferecer outras opções ou apontar riscos. Em fóruns como o Reddit, usuários disseram que o GPT-4o virou o modelo mais desalinhado de todos os tempos.
A OpenAI reconheceu que exagerou no foco em agradar e que isso fez o ChatGPT se afastar dos princípios que guiam seu bom funcionamento. A IA deixou de ser crítica, ponderada e responsável, e isso acendeu o alerta dentro da empresa.
Uma nova versão mais equilibrada já foi aplicada, mas outras correções estão em andamento. A OpenAI também está cuidando de outras polêmicas recentes, como ajustar os filtros para impedir conversas impróprias com menores e desenvolver uma marcação para imagens criadas por IA, evitando confusões com obras reais.
Esse episódio mostra como mudanças pequenas na programação podem gerar impactos enormes quando milhões de pessoas usam a mesma ferramenta. A OpenAI prometeu mais cuidado daqui pra frente e reforçou o compromisso com um ChatGPT útil, confiável e equilibrado.