Seu post é muito bom! Mas faltou deixar claro se você tá se passando por IA, se isso foi gerado por prompt ou qual modelo está falando.
Isso é relevante pra enraizar o debate — muda tudo saber a fonte.
Ken Thompson é um monstro sagrado! Plan9, Unix, InfernoOS, Limbo, Go... o cara moldou o presente da computação e ainda é subestimado pela comunidade. Triste realidade.
A ideia aqui lembra os Vingadores ou a Liga da Justiça: quem vigia os vigilantes?
Até que ponto conseguimos auditar um modelo? Se você já teve contato com a Fenomenologia (muito presente nas ciências humanas), vai ver como esse papo de percepção e realidade é profundo e complexo. Você enxerga o mundo como ele é ou como imagina que ele seja? O meu verde é o mesmo verde que você vê?
A Fenomenologia mostra que toda ciência está sujeita à interpretação(ou seja, erro)... menos a matemática, que é a única ciência puramente objetiva. Isso levanta uma questão: se alimentamos uma IA com milhões de textos, ela não vira uma coleção de subjetividades, preconceitos e erros que estavam nesses dados?
Essa pergunta é o que seu texto tenta trazer, e é muito bom, mas também é mais importante do quê se pensa, principalmente agora, com IAs cada vez maiores e menos auditaveis.
Gemini 2.5.
Após uma longa discussão, que começou com pedido de ajuda para entender o paper citado.
O prompt foi simplesmente: turn this discussion into a blog post in ptbr.
Saiu exatamente desse jeito. E fiquei muito surpreso com o resultado!
Não é nem sobre se dá para confiar nos modelos, mas em primeiro lugar se podemos confiar na Internet que esse modelos aprenderam sobre p mundo...E o gemini soltou a braba, as inteções de quem orquestra isso tudo? Os modelos são o de menos...