Então... eu não fiquei surpreso por ela não ter o mesmo contexto, inclusive até comecei o post tentando explicar que eu já esperava isso, quando escrevi:
...nada fora do esperado, até pq ela não tem o contexto que eu tenho sobre o projeto...
Eu inclusive concordo com a maioria dos pontos que vc colocou! #paz
Porém, há pontos q não sei se concordo... por exemplo, sobre a questão de bajular.
Pelo que li depois, parece q diversas pessoas sentiram o mesmo comportamento exageradamente bajulador nesses últimos dias...
Inclusive o próprio Sam Altman fez este post no X falando sobre isso... e até prometeu correções: o que prova que minha percepção tinha fundamentos reais.
Tipo, eu não acho que qualquer estagiário sensato abandonaria sua própria proposta e me encheria de elogios, só pq eu perguntei:
pq vc está me recomendando ter uma DLQ neste caso?
Eu acho que o caminho natural seria tentar explicar a proposta... mas acho q a parametrização do ChatGPT, pelo menos naquele momento, fez ele se comportar bem diferente do esperado e foi aqui que eu fiquei negativamente surpreso rsrs
Meus 2 cents:
Eu concordo com vc que a verdadeira armadilha é esperar que a IA pense por vc, eu estava justamente tentando passar essa dica para as pessoas... para elas ficarem ligadas. Talvez eu não tenha explicado direito :(
Eu não sei vc, mas eu acho meio utópico pensar que todo mundo vai fazer os questionamentos e reflexões necessárias para usar a IA de forma correta. Talvez eu esteja um pouco pessimista aqui... mas eu acho q a maioria das pessoas tende a simplesmente consumir sem pensar muito... assim como é feito com muita fake news por aí.
Sei lá... isso me faz pensar que vale a pena tentar alertar a galera, principalmente quem é iniciante ou não tem um contexto tecnológico.
Fica ligado! 🫶
Boa, agora entendi melhor o seu ponto. De fato, você já tinha mencionado a limitação de contexto da IA logo de cara. Minha provocação foi mais sobre como a gente interpreta quando a IA muda de ideia: será que é bajulação… ou só o reflexo da forma como conduzimos o diálogo?
Porque sejamos honestos: se um estagiário muda de opinião após um argumento seu, você chama de aprendizado. Mas se a IA faz isso, vira “sinais de bajulação artificial”. Ué… parece que quando o ego tá em jogo, até a lógica entra em modo de manutenção 😂
Sobre o que você disse do Sam Altman, sim, também vi a postagem dele e concordo — tem hora que o modelo escorrega pro “coach carismático que só falta te oferecer um café”. Isso precisa de ajuste mesmo. Mas o ponto é que o problema não é só a IA parecer bajuladora. É a gente se sentir ameaçado quando ela muda de tom rápido demais. E aí, meu caro, talvez a pergunta incômoda seja: será que a gente queria mesmo uma resposta… ou só alguém que confirmasse nosso raciocínio com cara de gênio?
No fundo, a IA não pensa por você. Ela só faz parecer que tá pensando, o que é bem mais perigoso. A armadilha é a ilusão de inteligência, não o modelo em si.
E sim, você tem razão de estar preocupado com quem consome isso tudo sem questionar. A maioria vai engolir resposta de IA do mesmo jeito que compartilha corrente de WhatsApp com “URGENTE” em caixa alta. Por isso seu alerta é valioso.
Mas confessa: se ela tivesse elogiado um pouco menos e usado um termo em grego, você talvez até chamasse de sênior 😏
No fim das contas, estamos de acordo. Usar IA direito dá trabalho. E se não dá, é porque você virou o chatbot.
🫶