Opa, valeu!
No caso do /dev/All a gente oferece um RSS caso não queira acessar o site. O objetivo é realmente divulgar quem produz conteúdo me o RSS acaba atuando mais pra que a gente consiga contabilizar quais os posts mais populares para algo que vamos inserir no futuro (um radar de conteúdo).
Sobre a questão da poluição, concordo com você: por isto que a curadoria do conteúdo é feita diretamente por mim. O objetivo é priorizar aqueles que geram conteúdo real, e não marketing de conteúdo.
Quando começa a vir muita propaganda de uma fonte, o que faço então é a desbloquear.
E... no vídeo mostro por alto o nosso crawler, ele vai fazer algo semi automatizado no futuro. Mas acho que sempre a validação huamna ali é mais interessante.
Mais alguns cents:
Pois eh, a curadoria de conteudo feita por um humano eh o ideal - o duro eh conseguir monetizar isso em escala.
P.ex. se tiver 20 fontes de conteudo agregadas, ler e analisar isso consome um tempo absurdo (mesmo no automatico).
Como voce vai fazer para tornar teu projeto sustentavel - boa sorte e conta depois !!!
Mais alguns cents:
Sobre o video 'about' - entendi que foi uma transmissao, mas usar isso como 'about' nao ficou legal.
P.ex. o audio so comeca de fato as 01:53, entao para quem acessa 'embebed' (no site), que nao sabe ser uma transmissao gravada, acha que tem algo errado. Levei uns 15 segundos para entender o que se passava (so o barulhos das teclas)
Alem disso, como nao foi um video pre-roteirizado, fica meio vago e cansativo algumas vezes - o ideal eh: faca um roteiro de no maximo uns 5 minutos explicando a que veio e utilize um aplicativo de 'teleprompter' para ajudar a gravar olhando para a camera (faz uma grande diferenca).
Outra opcao eh editar o video da transmissao, cortando os pedacos que nao interessam - apesar que acho mais simples usar ele como base e roteirizar um novo e gravar - esse eh o tipo de auxilio que uma IA pode fazer muito rapidamente (sumarizar e criar o roteiro).