A razao disso sao as configs do bot que esta com tudo no maximo. Vai buscando a melhor para vc...

const getDavinciResponse = async (clientText) => { const options = { model: "text-davinci-003", // Modelo GPT a ser usado prompt: clientText, // Texto enviado pelo usuário temperature: 0.5, max_tokens: 100, }