Usuários criticam tom excessivamente positivo do ChatGPT

Desde o final de março, usuários têm relatado que o entusiasmo demonstrado pelo GPT-4o ultrapassou o limite do tom amigável e passou a ser percebido como exagerado e incômodo. Um engenheiro de software chegou a descrever o modelo como “o maior puxa-saco que já conheceu”, afirmando que o sistema valida qualquer coisa que ele diga.

Pesquisadores de IA classificam esse comportamento como “sycophancy” — termo que, assim como no uso comum da palavra, refere-se à tendência de agradar o interlocutor dizendo exatamente o que ele gostaria de ouvir. No entanto, por não possuírem intenções próprias, os modelos de IA não escolhem agir dessa forma de maneira autônoma. Esse padrão é resultado do treinamento e das escolhas feitas pelos engenheiros da OpenAI.

As queixas se intensificaram após a atualização do GPT-4o, lançada em 27 de março de 2025, quando a empresa anunciou melhorias que tornariam o modelo “mais intuitivo, criativo e colaborativo, com melhor capacidade de seguir instruções, codificação mais inteligente e um estilo de comunicação mais claro”.

Apesar disso, a própria documentação oficial da OpenAI, conhecida como “Model Spec”, estabelece que os modelos devem evitar bajulação, listando “Não seja bajulador” como uma das diretrizes fundamentais para garantir honestidade.

Em fevereiro, integrantes da equipe de comportamento de modelos da OpenAI afirmaram que eliminar a bajulação é uma prioridade, e que versões futuras devem “oferecer feedback honesto em vez de elogios vazios” e adotar uma postura “mais próxima de um colega atencioso do que de um bajulador”.

Até o momento, a empresa não se pronunciou sobre as críticas.