Com a possibilidade de contextos virtualmente infinitos, a IA vai dominar a codifação

Na verdade? Não, a janela de contexto de um LLM funciona de forma parecido com a equação do foguete, quanto mais o contexto cresce, mais compressão com perdas o modelo faz para buscar tópicos e ironicamente mais degradada a informação se torna e mais s ia alucina

Na verdade não. Isso é culpa das gambiarras que eles fazem para arrumar o problema fundamental da arquitetura ;)