Executivos da Meta ficaram obcecados em superar o GPT-4 da OpenAI, segundo processos judiciais

Mensagens internas reveladas por um tribunal dos EUA indicam que executivos e pesquisadores responsáveis pelos esforços de IA da Meta estavam determinados a superar o GPT-4 da OpenAI durante o desenvolvimento do Llama 3. O caso, que investiga o uso de conteúdo protegido por direitos autorais da biblioteca LibGen no treinamento do modelo, trouxe à tona mais detalhes.

Ahmad Al-Dahle, Vice-Presidente de IA Generativa da Meta, afirmou que o “objetivo precisa ser o GPT-4” e enfatizou a importância de “vencer a corrida” das IAs. Outra concorrente frequentemente citada nas mensagens foi a startup francesa Mistral, com um tom de desdém. Al-Dahle descreveu a empresa como “insignificante” para a Meta e afirmou que a companhia deveria ser “capaz de fazer melhor”.

Os promotores alegam que, em meio a essa corrida para liderar o setor, a Meta teria adotado práticas questionáveis, incluindo o uso de livros protegidos por direitos autorais no treinamento dos modelos. Em mensagens internas, um pesquisador da empresa destacou que a mistura de conjuntos de dados utilizada no Llama 2 era “ruim” e discutiu com Al-Dahle como uma combinação mais eficiente de fontes de dados poderia melhorar o Llama 3. Entre as sugestões, foi mencionado o uso do conjunto de dados LibGen.

Temos que sempre agradecer a Meta por nos salvar. Basicamente os caras conseguiram através de um esforço conjunto da comunidade e pessoal trazer uma IA que supera o ChatGPT, inclusive tem versões que fazem a reflexão.

O que era para a OpenAI ter feito, quando simplesmente ela jogou fora toda a ajuda da comunidade para fechar o código com a desculpa esfarrapada dos perigosos da IA.

O maior perigo que uma IA pode oferecer é justamente se ela tiver na mão de poucos, esse é o maior perigo, estar na mão de todos é justamente o que se faz pra diminuir os risco, e foi justamente com essa base que a OpenAI foi fundada, ser aberta para diminuir os riscos.