bom dia, sr.
raciocínio, na minha visão, é a abordagem de chain of thoughts, que, no caso, é mera análise de diversas "falas" da própria LLM a qual busca o melhor caminho. exemplo:
crie um CRUD de users com login e logout em nestjs para mim, conectando a um banco de dados, considerando boas práticas e princípio de MVP. seja exaustivo. aja conforme as melhores práticas amplamente consagradas e defendidas.
- deverei considerar as operações de criar, ler, atualizar e deletar usuários; (1000 tokens, e gera-se texto intermediário, o qual será utilizado para alimentar o próximo prompt em cadeia.)
- deverei criar entidade de usuário, com os campos de uuid, name, email, password, createdAt, isDeleted, deletedAt, lastLoginAt; (1200 tokens, e gera-se texto intermediário, o qual será utilizado para alimentar o próximo prompt em cadeia.)
- deverei utilizar dtos com class validator e class transformer para validar e transformar requisições e respostas; (800 tokens)
- deverei utilizar métodos de controller e services para o módulo users; (2500 tokens)
- deverei utilizar express-session para garantir manejo de sessões utilizando-se de um módulo auth com métodos de controller e service, com seus respectivos guards para devolver, cancelar e receber cookies. (2500 tokens)
- ao dealmeida, deverei justificar e sugerir como próximos passos o uso de redis para persistência de sessões, como instalar e executar a aplicação, a importância de certificados SSL e como emitir um via Let's Encrypt, o deploy a uma vps ubuntu linux via painel facilitado tal como o coolify, e perguntar o que dealmeida gostaria de fazer em seguida. (1000 tokens)
total: 1.000+1.200+800+2.500 +2.500+1.000 = 9000 tokens? não.
como cada conteúdo gerado é utilizado para o próximo prompt, pois são cadeias de "pensamentos" (chain of thoughts, então a conta seria assim: (1.000×6)+(1.200×5)+(800 ×4)+(2.500×3)+(2.500×2) +(1.000×1) = 28.700
28700 tokens para fazer o CRUD, desde que eu force text completion. quem gera as frases de pensamento deve ser uma LLM que comece sempre os textos como "deverei planejar", "deverei fazer", "deverei utilizar", etc, a fim de garantir uma boa geração de texto, sem "preguiças", as quais a própria OpenAI força. após, a partir de uma LLM enriquecida/treinada/fine-tuned, podemos gerar o texto (código) para cada prompt em específico conforme o texto injuntivo de "pensamento".
para que isto funcione, é necessário criar prompts fazendo uso das funções da linguagem da apostila de português do ensino médio, pois o que um LLM textual-generativo gera é texto baseado em línguas, logo vale a regra.
É realmente algo que eu notei no DeepSeek quando testei. No modo DeepThink (acredito que seja esse o nome, não me recordo precisamente), ele começa a analisar da mesma forma que você representou.
Diferente do DeepSeek, o ChatGPT tem mais maturidade para isso. Estou ansioso para ver o resultado disto!