Por que nos cansamos tão rápido das inovações em IA?
Semana passada o “modelo do momento” parecia um divisor de águas; hoje, já estamos perguntando quando sai a próxima versão. Esse apetite voraz não vem só da nossa química cerebral. Ele também reflete um movimento típico de mercado, guiado pelos ciclos sociais de adoção da tecnologia.
Do lado biológico, sabemos que a dopamina dispara quando algo nos surpreende. Mas o mesmo cérebro que se encanta também se habitua depressa, empurrando‑nos para a procura constante de nova estimulação. Do lado social e econômico, esse mecanismo individual ganha escala e vira padrão de consumo.
Modelos como o Hype Cycle do Gartner e a curva de difusão de inovações de Rogers descrevem bem esse fluxo:
Gatilho da inovação – Um avanço técnico vira manchete, acende a curiosidade coletiva e faz investidores abrirem a carteira. Pico de expectativas infladas – Comentários inflamados, valuations subindo, promessas de transformação imediata. Vale da desilusão – Quando os limites aparecem, o entusiasmo esfria e parte do público se declara “cansada” ou “enganada”. Rampa de esclarecimento – Casos de uso sólidos começam a vingar, já sem tanto barulho. Planalto de produtividade – A tecnologia vira infraestrutura invisível, e lá vamos nós buscar a próxima onda. Essa dança entre expectativa e tédio não é apenas psicológica, mas estratégica: empresas disputam narrativa para capturar atenção e recursos no estágio de euforia, enquanto consumidores e profissionais tentam separar valor real de espuma. A cada ciclo, a cadência fica mais curta, pois tanto a pesquisa quanto o marketing aprenderam a iterar rápido.
Para não sermos reféns desse sobe‑e‑desce, vale:
Selecionar com critério os lançamentos que realmente dialogam com nossos desafios. Investir em competência transferível, como formular boas perguntas para modelos de linguagem, em vez de colecionar features. Observar o timing: há ganhos em adotar cedo, mas também em esperar a poeira baixar para capturar valor mais estável. Entender que o cansaço faz parte do próprio ciclo de adoção — e não é mera falta de entusiasmo — ajuda a calibrar expectativas. Inovar, no fim das contas, não é pular de hype em hype, mas usar cada tecnologia no momento certo para ampliar possibilidades concretas.
Acho que o que está ocorrendo é que a comoditização das LLMs está levando as pessoas a simplesmente ignorarem a "guerra" entre as big-techs. Não importa se o concorrente está lançando um modelo melhor, o app que a pessoa tem no celular na próxima semana também terá as mesmas características. Ela então nem se preocupa em instalar o outro app.
Está caminhando para ser o mesmo que ocorre com lançamentos de novos celulares. Ninguém liga mais pra isso, quase não se discute, porque tem trocentos fabricantes que fazem praticamente igual. Ano que vem quando ela trocar de celular, ela assiste um vídeo no TikTok comparando aparelhos e faz a escolha na hora.
Serão tantas opções quanto remédios para combater os sintomas da gripe. A quantidade de opções na prateleira da farmácia é enorme, e cada inverno a gente vai testando um diferente. Vida que segue...
Meus 2 cents:
Ao lado do "modelo do momento" tem tambem "o provedor/cloud GPU" para buscar o fornecedor mais barato (colocar um servidor de GPU privado hospedando seu modelo LLM e tentar escapar do custo por token e usar o mais previsivel custo por servidor).
No momento o que tenho usado como referencia eh:
Lista de provedores
https://devinschumacher.github.io/cloud-gpu-servers-services-providers/ https://gist.github.com/devinschumacher/87dd5b87234f2d0e5dba56503bfba533 https://research.aimultiple.com/cloud-gpu-providers/ https://research.aimultiple.com/cloud-gpu/
Alguns deles
https://www.vultr.com/pricing/#cloud-gpu https://www.hetzner.com/dedicated-rootserver/matrix-gpu/ https://lambda.ai/service/gpu-cloud#pricing https://www.liquidweb.com/gpu-hosting/
https://www.interserver.net/dedicated/gpu.html https://www.runpod.io/pricing https://www.cherryservers.com/dedicated-gpu-servers https://gthost.com/gpu-dedicated-servers