Pitch: Github Copilot rodando localmente (ollama-copilot).
Estou aqui para compartilhar com vocês um projeto que estou trabalhando nos ultimos dias. A Ideia deste projeto é usar ferramentas de LLM locais como Ollama e permitir que o mesmo funcione como um proxy para o Github copilot. Isso permite com que plugins de vscode, neovim e outras IDEs possam se plugar neste proxy e utilizar esta alternativa.
Para quem possui uma GPU o mesmo acaba funcionando bem, já que exige certo nível de capacidade computacional.
https://github.com/bernardo-bruning/ollama-copilot
Ainda possuem muitas melhorias para ser feita, mas qualquer sugestão é considerada bem vinda!
Alguem sabe me dizer o quao inteligente e o modelo ollama-copilot comparado com copilot da github ? eu sempre fico na duvida se largo o codeimum se existe algum modelo free melhor que o deles
Só tem para GPU ? Queria que roda-se com CPU também, cheguei a testar o tabby mas as respostas demoravam ou dava timeout e nem usava 40 do meu processador (8/16)
Ollama é uma ferramenta muito legal. Da pra testar vários modelos locais.
Boa! dei uma olhada la e gostei bastante. Gostaria de saber se tem como integrar com o NetBeans