Na sua opinião como poderia ser evitado isso? apenas alimentando o GPT com conteudos de livros ? ou adicionando alguma outra técnica?
Eu não sei muito sobre analise de dados, porém eu acredito que para ter um maior precisão, é arrumar alguma forma de filtrar o conteúdo desses websites. Não é como se livros não estivessem errados também.
Como fazer isso? Está é a parte difícil. Provavelmente irá exigir muita engenharia para isso e refinamento. Por exemplo, treinar o modelo com um conhecimento base e ir refinando é uma opção. É assim que um ser humano geralmente faz também.