Você sabia que dá pra testar os principais modelos de IA direto pela Cloudflare?

Tipo… LLaMA, BERT, CLIP, embeddings, tudo isso, com uma simples chamada de API.

Estava brincando com isso esses dias, logo depois do lançamento do LLaMA 4. Fiquei surpreso com a facilidade.

Nada de GPU, nada de infra complexa. Só um fetch() e pronto: a resposta chega rapidinho.

Tudo isso graças ao Cloudflare Workers AI.

A ideia é simples: eles colocaram modelos de IA rodando direto na edge. Ou seja, mais perto do usuário → menos latência → mais rápido de verdade.

Já tem uma lista de modelos prontos pra usar. Funciona com qualquer stack (testei com JS, mas dá pra usar em Python, etc). E escala com a infraestrutura da Cloudflare, sem se preocupar com servidor.

Se você tá querendo experimentar LLMs no seu app ou testar uma ideia nova com IA, é um caminho muito leve e prático.

Quer ver um exemplo funcionando?

Deixei o link nos comentários.

O link para testar e acessar a documentação completa:

https://playground.ai.cloudflare.com/

Alguns modelos inclusive possuem MCP!!

legal, gostei muito. obgd pela dica, já vou testar em algum projeto meu.

Não conhecia essa alternativa e mais surpreso ainda ter MCP para teste neles. Favoritado seu post sobre api de modelos LLM. https://playground.ai.cloudflare.com/