Lucas Montano e o Mistério do ChatGPT 'Burrificante': Um Estudo de Caso Inovador
Há algum tempo, um vídeo de Lucas Montano chamou a minha atenção. Montano, um influenciador digital e entusiasta da tecnologia, compartilhou sua experiência de tentar desenvolver um aplicativo do zero usando o Chat GPT-4 chamado "Crosswords for Developers". Em suas experiências iniciais, Montano encontrou um ChatGPT-4 impressionantemente eficiente e útil. No entanto, à medida que o tempo passava e ele tentava continuar o desenvolvimento do aplicativo o modelo se tornava cada vez menos útil.
O que inicialmente parecia uma ferramenta incrivelmente promissora para o desenvolvimento de software parecia estar perdendo seu brilho. Montano não estava sozinho em sua frustração. Um estudo de Stanford e da UC Berkeley também relatou uma tendência semelhante - o desempenho do Chat GPT-3 e GPT-4 estava diminuindo ao longo do tempo. Eles observaram uma degradação no desempenho dos modelos em uma série de tarefas, desde resolução de problemas matemáticos até a geração de código.
Essas descobertas foram intrigantes para mim, pois contradiziam minhas experiências iniciais com o modelo, nas quais o Chat GPT-4 era excepcionalmente eficiente ao iniciar um novo projeto. No entanto, eu também notei uma queda no desempenho quando tentava continuar o desenvolvimento de projetos em novas sessões de chats.
Foi essa observação que me levou a propor uma hipótese: o desempenho do Chat GPT-4 não estava realmente degradando, mas sim sofrendo devido à falta de um contexto integral do projeto ao iniciar ou fragmentar o desenvolvimento em novas sessoes de chats. Acreditando nisso, decidi criar uma solução.
Assim nasceu a extensão para o VS Code, "Copy to ChatGPT". Essa extensão permite exportar todos os arquivos de um projeto em um formato que o Chat GPT pudesse entender, fornecendo ao modelo o contexto completo do projeto.
Para testar minha teoria, iniciei um projeto do zero com o GPT-4, que se mostrou excepcionalmente capaz ao construir a estrutura base de um sistema que serviria para evidenciar minha hipótese. Depois de finalizar essa fundação, efetuei o commit "init project"
, um passo crucial para preservar o estado atual do esqueleto da aplicação que o GPT-4 havia acabado de criar.
Assim, comecei uma nova sessão de chat, onde forneço apenas os arquivos do meu projeto que desejava que novas funcionalidades fossem implementadas. Continuei com esse processo até perceber que o GPT-4 já não conseguia adicionar novas funções ou, ao menos, não conseguia fazer isso com um código limpo e aceitável. Nesse momento, havíamos chegado ao chamado estado de "estagnação" ou estado "burro" do GPT-4.
Decidi então pôr à prova minha hipótese. Retornei ao commit inicial que tínhamos preparado e usei a extensão para exportar todos os arquivos do projeto que havia desenvolvido. Iniciei uma nova sessão de chat, executei o prompt fornecido pela extensão que prepara o ChatGPT para receber os arquivos e, assim, enviei todos os arquivos do projeto para ele.
Os resultados foram reveladores. O Chat GPT-4, agora equipado com todo o contexto do projeto, retomou seu desempenho inicial, eficiente e valioso. Quando pedi que implementasse todas as funcionalidades que havia solicitado anteriormente, ele as executou com excelência e, surpreendentemente, apresentou códigos que utilizavam padrões de projeto apropriados e organizados.
Não só consegui implementar todas as funcionalidades que havia solicitado anteriormente com certo grau de "brilhantismo", como também fui capaz de continuar avançando na adição de novas funcionalidades. A minha hipótese estava correta - a falta de um contexto contínuo entre diferentes sessões de chat estava realmente impactando o desempenho do ChatGPT-4.
Notei também que, ao iniciar uma nova sessão de chat e importar todos os arquivos do projeto para a sessão de chat, pedindo ao modelo para implementar uma nova funcionalidade, o resultado era muito mais satisfatório do que continuar solicitando novas funcionalidades na mesma sessão de chat indefinidamente.
Acredito que essa descoberta tem implicações importantes para o modo como usamos o ChatGPT-4 e modelos similares de IA. Ao fornecer o contexto completo de nossos projetos, podemos maximizar o potencial dessas ferramentas. Minha extensão "Copy to ChatGPT" é um passo nessa direção e espero que ajude outros desenvolvedores a obter o máximo de suas interações com o Chat GPT.
Nossa jornada na fronteira da inteligência artificial está apenas começando. À medida que continuamos a explorar e nos adaptar a essa nova tecnologia, estou confiante de que encontraremos novas maneiras de otimizar e melhorar nossa interação com esses modelos avançados.
Me questiono se o Montano em seu experimento seguiu utilizando sempre a mesma sessão de chat inicial para desenvolver o aplicativo ou se foi fragmentando o seu desenvolvimento em sessões de chats distintas. Penso que talvez o mesmo o tenha fragmentado o seu desenvolvimento em diversos chats degradando sua experiencia com o GPT-4 de exepicional para medíocre.
Se a OpenAI estaria intencionalmente limitando a performance do modelo ChatGPT como parte de uma estratégia para escalar seu negócio, é um ponto difícil de se confirmar. No entanto, a empresa se pronunciou recentemente, refutando quaisquer medidas para reduzir o desempenho de seu modelo e se comprometeu a investigar o problema.
Isso foi ecoado por Peter Welinder, da OpenAI, em seu Twitter: "Não, nós não reduzimos a capacidade do GPT-4. Muito pelo contrário: fazemos cada nova versão ser mais inteligente que a anterior. A hipótese atual é que, ao utilizar mais intensivamente o modelo, começam-se a notar questões que antes não eram percebidas."
Existe uma suspeita de que, após a euforia inicial gerada pelo lançamento do modelo utilizando essa tecnologia, os usuários já conseguiram identificar problemas e perceber que, apesar de o modelo ser surpreendentemente avançado, não é completamente à prova de falhas.
Download da Extensão
"Copy to ChatGPT - VS Code Marketplace" - Link
Fontes
"How Is ChatGPT’s Behavior Changing over Time?" - Link "Video mencionado do Lucas Montano": Link "Twitter de Peter Welinder" - Link
Fiz um post aqui sobre isso e no meu caso desde março que percebi esses problemas no chatGPT, comecei a usar um ChatBot que consome diretamente a API do GPT com isso percebi que perguntas feita pelo chatGPT e pelo chat clone usando a API tinham diferença na qualidade de respostas.
O maior problema de tudo isso é o gasto para chegar nessa qualidade esses foram os gastos do mês passado que chegaram a $211,00
cara eu estou surpreso com a qualidade do conteúdo, postagem e comentarios excelentes!!!!
Todo mundo com medo da IA nos observar, aprender conosco e ficar mais inteligente que a gente. Daí vai a IA nos observar, aprender conosco, e fica mais estúpida.
a piada não é minha.
Opa, tem um tutorial de como utilizar essa extensao ? gostaria de teste-la
Vou conferir a tua extensão! Provavelmente vou gravar um react lá no canal :)
Sobre o meu experimento com o ChatGPT para criar os jogos: Crossword for Developers, Anime Legends Crossword e Astronomy Crossword Astro
No inicio eu mantive o projeto inteiro em um unico arquivo o que facilitou copiar e colar o arquivo para fazer as iterações. Conforme o projeto foi crescendo eu fui dividindo ele em multiplos arquivos e da mesma forma os problemas foram ficando mais pontuais pois a base já estava finalizada.
Mantendo o mesmo chat eu comuniquei para o ChatGPT as mudanças mas conforme o projeto foi crescendo ele começou a delirar sobre o estado atual do projeto. Esse Tweet do Peter não é muito confiavel e transparente na minha opiniao, no primeiro dia do lançamento a OpenAI limitou o numero de mensagens por hora para algo em torno de 60, e depois de alguns dias diminuiu para 30, depois para 15. Diminuir o limite de mensagens fez sentido para conseguir escalar, porem quando o limite foi removido e o GPT-4 liberado para todos ficou inviavel usar ele para o projeto.
Inviavel nesse caso significa: respostas erradas ou quantidade de mensagens para chegar na reposta aceitavel é maior que eu parar para fazer.
Cara sensacional!O Chatgpt as vezes deixa na mâo!Poderia derrepente fazer um video mostrando como usar essa extensâo.Parabéns muito bom conteudo..
Um problema nisso tudo é estar passando informações sensiveis ou até mesmo todo core da sua aplicação para o Chat GPT, sendo que o ideia era usa-lo para mostrar pequenos trechos de códigos com um bom contexto e assim solucionar o problema, mas se a ideia é desenvolver algo só por diversão pode valer a pena enviar todo código para ele.
Vai lá saber. Eu estava esses dias trabalhando com o CHATGPT é impressionante, dá um erro, eu pergunto pra ele, ele fala que está certo, eu mudou a pergunta, ele confirma que está certo, o erro não resolvia. Quando eu vou olhar era erro meu. Ou seja configuração no projeto que estava errada.
Sinceramente pra trabalhar com CHAT GPT você precisa de muita organização pessoal. O CHATGPT tem limite de contexto, se o seu projeto for ficando com várias linhas, ele começa a se perder totalmente.
E se ao invés de perder o contexto, ele esteja com "contexto demais"?
O modelo busca as informações com base no que processou, na pergunta inicial, tendemos ser mais diretos, logo, ele vai buscar o que pedimos, na segunda questão, temos detalhes da primeira, logo, ele vai buscar a primeira + segunda para gerar a resposta, e assim segue.
Não seria esse "emburrecimento" do GPT uma grande confusão interna ao tentar manter uma linha de raciocinio? Ele busca informações demais, não consegue montar algo concreto, apenas pedaços de tudo o que encontrou e então retorna. Para mim faz sentido pensar assim já que é o modos operandi do modelo, buscar e montar a resposta com base no que ele acha certo. Se ele tem um monte de coisas que são certas, e sabendo que ele não tem uma capacidade de decisão apropriada para dividir isso, ele retorna um picotado delas já que estão todas certas kkkkk
Bom, foi isso o que pensei, e talvez eu esteja errado... mas talvez esteja certo kkkk Parabéns pelo projeto, muito bom!
Cara, achei sensacional a ideia da extensao, eu ja fornecia partes do codigo para o chat gpt entender melhor oque eu esperava, mas mesmo assim notei uma piora dele de la pra ca. Sobre sua extensao fica uma duvida, com tantos rumores de vazamento de informacoes da OpenIA nao seria inseguro fornecer tantos arquivos para a IA ? Obs: As partes do codigo que eu fornecia citada no primeiro paragrafo eram filtradas ou modificadas por motivos de seguranca.
Chat gpt so server pra escrever e-mail, aceitem logo