Contrarie. A maquina é muito melhor para processamento de identificação de padrão, nem é necessária uma IA para isso, e com as IAs isso se torna mais fácil ainda. Logo, se você consegue identificar algo, é porque percebeu um padrão, e sabendo desse padrão facilmente conseguiria criar um roteiro de verificação para validar se o autor do texto é IA ou Humano.
Mesmo existindo textos que visualmente consideramos que foi feito por uma ia, por ser muito pragmático, por exemplo, não podemos excluir a probabilidade que aquele texto tem de ter sido criado por um humano. E a depender do teu prompt/input para IA, e do modelo utilizado, os textos se tornam menos perceptíveis que foram feitos por uma IA
Para uma pessoa bem treinada é difícil um texto passar despercebido, pelo menos com as IAs atuais. Elas tem um "sotaque" muito simples de se perceber:
- Falam apenas o óbvio
- Repetem exatamente o que foi perguntado
- Repetem os mesmos termos várias vezes
- Escrevem demais (enchem muita linguiça)
- Não contém erros ortográficos
Muitas vezes já peguei textos feitos por IA aqui no Tabnews e é relativamente simples de se percebe-los. Claro que podem existir alguns da qual eu não tenha percebido, mas outros perceberam. IAs generativas não são mais algo novo como eram há 9 meses atrás, todos já estão de saco cheio de ver textos gerados por elas e do alarmismo desnecessário propagado por leigos. Por isso que fica cada dia mais fácil de se identificar textos gerados por elas.
Contudo, fazer isso de forma automática não é nada simples. Não é simplesmente um "criar um roteiro de validação", existem muitas variáveis envolvidas nesse processo, variáveis essas que o cérebro humano consegue lidar de forma muito mais eficiente e precisa que qualquer computador. Sempre existem ruídos ao tratar os dados de entradas para um modelo e é aí que surgem muitos falsos positivos e falsos negativos, o que para um sistema como esse seria fatal.