Uma das estratégias para aumentar a precisão dos modelos é a integração com mecanismos de busca na web.

Não sabia. Sinceramente vejo muita coisa errada na web. E não só na área de tecnologia. Na maior parte das vezes encontramos os melhores conteúdos em livros ou naqueles forums onde só tem gente expert no que faz.

Ao ver isso, me faz pensar num loop infinito que pode degradar o próprio chatgpt. Não sei se faz sentido, mas o ChatGPT utiliza a web para precisão. Conteúdo que em grande maior parte das vezes está errado ou parcialmente correto(Quem é programador sabe o quão difícil é filtrar os bons conteúdos), as pessoas começam a usar o chatgpt para criar artigos para web, artigos esses baseados naqueles que podem estar errado. Gerando um conteúdo confuso, e até errado, e a retroalimentação continua.

Na sua opinião como poderia ser evitado isso? apenas alimentando o GPT com conteudos de livros ? ou adicionando alguma outra técnica?

Eu não sei muito sobre analise de dados, porém eu acredito que para ter um maior precisão, é arrumar alguma forma de filtrar o conteúdo desses websites. Não é como se livros não estivessem errados também. Como fazer isso? Está é a parte difícil. Provavelmente irá exigir muita engenharia para isso e refinamento. Por exemplo, treinar o modelo com um conhecimento base e ir refinando é uma opção. É assim que um ser humano geralmente faz também.