Um bom tema, seria o de como usamos muito mal o poder de computação que temos hoje. Ou seja, computadores melhores e codigos piores. Enquanto há uns 30 anos atras os dev se preocupavam com precessos gastando nanosegundos, hoje se vê processos que gastando segundo com naturalidade. Um bom guia é esse video da criadora do COBOL, a lendaria Grace Hopper, falando sobre nano segundos isso: https://www.youtube.com/watch?v=9eyFDBPk4Yw&embeds_euri=https%3A%2F%2Fhandmadegame.dev%2F&source_ve_path=MjM4NTE&feature=emb_title
Isso!
O problema é que hoje se o algoritmo bom demora 0,000001 segundos e o ruim demora 0,0001 segundos, ambos serão considerados rápidos e a diferença é imperceptível (mesmo que o ruim tenha sido 100 vezes mais lento). Mas a pessoa não leva em conta que só rodou o código com poucos dados (e para poucos dados, tudo é rápido).
A pessoa só vai perceber a diferença se por um acaso tiver que rodar esse mesmo algoritmo com uma quantidade absurdamente grande de dados. Aí o algoritmo bom rodaria em 1 segundo, enquanto o ruim levaria 100 segundos (1 minuto e 40 segundos). Na verdade, provavelmente vai ser mais, porque algoritmos ruins costumam ter complexidade maior e o tempo aumenta exponencialmente.
Mas quase nunca se percebe isso, porque a maioria dos casos vai rodar com poucos dados mesmo.
O mesmo vale para gasto de memória. Hoje em dia RAM se tornou tão barato que ninguém parece se importar com desperdícios e alocação excessiva de memória (e as linguagens têm criado tantas abstrações que muito deste desperdício fica escondido e só é percebido quando é tarde demais).