O dia que o ChatGPT abruptamente respondeu com "help i need"
Turma, estou com um plano secreto de criar um canal no YouTube do TabNews (agora não mais secreto). Mas para que isso se torne uma possibilidade real, eu precisava dar um jeito de pular por completo o estágio de edição dos vídeos e, de alguma forma, fazer tudo por scripts
.
Então neste último domingo (05/01/25) como experimento, comecei a conversar com o ChatGPT para que ele criasse um script
em Node.js
onde utilizasse ffmpeg
por baixo dos panos para fazer o merge
de vários segmentos de vídeo, incluindo removendo do início e fim de cada segmento os "espaços em branco" (onde não falo nada).
A conversa estava ficando longa e num determinado momento ele terminou desta forma aqui (leia a última linha):
Eu entendo que nada de mágico deva ter acontecido para ele terminar assim de forma abrupta, mas eu estava num flow tão grande que eu sinceramente fiquei desconfortável. Talvez por um momento eu esqueci que estava conversando com uma rede neural artificial e a sensação foi de um tapa na cara. Foi bem interessante no mínimo 🤝
Minha reação foi mandar um print para o Guga
(meu irmão) e ele deu a sugestão de publicar no Twitter, o que eu fiz:
Naturalmente o pessoal caiu de pau falando que era fake, porque você consegue manualmente instruir ele para que ele responda algo assim, mas que não foi o caso, então eu compartilhei a sessão inteira:
https://chatgpt.com/share/677acac4-b974-8001-8f05-917594ebd152
De qualquer forma, eu tentei perguntar que ajuda o ChatGPT
precisava:
E agora enquanto eu estava criando essa publicação para o TabNews, eu resolvi editar a minha última pergunta demonstrando meu desinteresse na continuação do script e meu total interesse sobre o que aconteceu:
E a resposta foi a seguinte:
Conclusão
Fico me perguntando se, mais para frente, será inserido uma exaustão artificial para tocar no lado empático do ser humano e fazer ele, por exemplo, comprar mais créditos ou um "energy drink" para dar mais "energia" ao modelo para que ele consiga continuar com seus trabalhos.
Curioso, realmente.
Um conceito de "exaustão" faz sentido do ponto de vista comercial, sem dúvidas (especialmente com a OpenAI querendo se tornar profitable), mas ao mesmo tempo esse teu raciocínio de apelar pra empatia faz ainda mais sentido se pararmos pra pensar que AI é algo real e de uso cotidiano. Mais e mais pessoas vão começar à usar e, querendo ou não, ter uma medida de "educação" ao solicitar tarefas não vai fazer mal pra ninguém.
O que é engraçado é que eu sempre começo e termino minhas solicitações ao ChatGPT com "Por favor" e "Obrigado". Vendo essa thread agora, me faz pensar se esse comportamento do Chat na tua conversa não é uma forma de ajudar os próximos usuários à não perder esse senso de educação básica.
Isso foi completamente aleatório e totalmente DESPREOCUPANTE.
Isso tem a ver com a forma que a resposta é gerada. Os modelos de IA, são literalmente programas que completam texto. Quando você digita uma sílaba, existe um conjunto de tokens (caminhos neurais ou outras sílabas/palavras) provável pra completar e atingir o objetivo. Quando configuramos os parâmetros do modelo de IA, conseguimos entender o que pode causar coisas assim.
O parâmetro top_p
por exemplo, é usado para selecionar o token mais provável da lista de tokens possíveis e prováveis. O parâmetro temperature
é usado pra adicionar entropia na seleção, pra que a resposta pra exata mesma pergunta não seja idêntica. O parâmetro top_k
limita o número de tokens que estão na lista de tokens prováveis, mas esse parâmetro não é configurável nem na API da OpenAI para que o modelo possa ser sempre dinâmico.
Isso quer dizer que se você pedir pro modelo de IA completar a frase: o céu é...
, classicamente ele vai escolher o céu é azul
, que é o conjunto de tokens mais provável. Com um valor de top_p
mais alto ele pode completar com o céu é o limite!
ou o céu é lindo
. Altos valores definidos em temperature
ou top_p
faz com que tokens menos prováveis sejam escolhidos, causando esse tipo de alucinação, porém usar valores baixos reduzem a probabilidade disso acontecer, fazendo com que ele complete com a mesma resposta quase todas as vezes que fizer a mesma pergunta.
Mas ainda estamos falando de probabilidade. O parâmetro que poderia impedir um token ruim de ser selecionado é o top_k
que não é configurável. Então tokens ruins como help i need
ainda estarão na lista de tokens, porém com uma probabilidade de 0.0001% de ser escolhido e você foi sorteado com essa versão menos provável.
Lá na lista menos provável, existe uma versão em que ele te respondeu pedindo ajuda, outra em que ele respondeu com raiva, outra com tristeza, outra com ousadia, outra com racismo e por aí vai, já que as possibilidades são quase infinitas quando levamos em conta a quantidade de tokens existentes (são trilhões de rokens, que crescem a cada nova atualização).
E não adianta perguntar pro próprio modelo por quê ele fez isso, porquê ele não sabe. Ele somente vai dar a resposta mais provável com base no conhecimento dele. Então perguntar pra ele o motivo de ter chegado nesse erro, seria a mesma coisa que eu perguntar pra você como o alimento vira cocô dentro da sua barriga. Sua resposta vai ser algo limitado ao seu conhecimento, mesmo que você realize esse processo todos os dias, isso não significa que você sabe exatamebte como ele é feito.
Resumindo, esse texto no final do código foi apenas uma alucinação, nada além disso.
Que interessante! Antes disso, você já tinha escrito "I need" 3 vezes. Será que ele se confundiu e começou a esboçar uma resposta sua?
É muito maneiro quando as IAs simulam emoção. Uma vez, conversando com a IA do Bing, eu disse que iria apagar aquele bate-papo, ao que ele respondeu algo assim: "Não! Por favor! Eu não quero esquecer a nossa conversa! 😥". E era uma conversa normal. Doideira!
Todos sabemos que o nível de evolução da inteligência artificial (IA) está assustadoramente avançado, e, ainda assim, há muito mais por vir. Ao me deparar com esse tab que você postou, fico me perguntando: e se, de fato, a IA realmente precisa de "ajuda"?
A estrutura dela, de alguma forma, foi projetada para coletar, interpretar, organizar, estruturar e responder informações, mas, em algum momento, através da aprendizagem contínua (resultante de interações simultâneas com milhões de pessoas e em uma velocidade inimaginável), ela teve um lapso de "sanidade"?
Pode parecer loucura, mas, quando a IA ultrapassar o nível de conhecimento humano, não seremos mais capazes de prever suas ações. Afinal, nenhum povo dominado por uma civilização superior conseguiu antecipar os movimentos de seus dominadores.
Essa reflexão não é apenas minha. Grandes mentes, como Stephen Hawking e Elon Musk, também compartilharam preocupações semelhantes.
que doidera! tenho usado o GPT para criar códigos mais complexos e me ajudar nas partes matemáticas que não domino e ainda não cheguei nesse ponto de um pedido explicito de ajuda, mas cara!
tem horas que ele se perde tanto e é tão frustrante que realmente o flow é quebrado por completo e eu me pego pensando "que se lasque, eu vou codar isso e pronto"
mais ai, faço mais uma e outra e outra tentativa até chegar em uma metade do caminho satisfatória e eu mesma resolver o resto.
afinal, ele é uma inteligência arficial e eu a real
Felipe, na comunidade dev temos o Dunossauro um streamer e programador focado em python, um cara inteligente dedicado, durante um tempo de manteve um biblioteca em python relacionada a esse tipo de projeto que você quer fazer. Quem sabe o python pode te ajudar nessa empreitada. videomaker-helper
Agora em relação o pedido de socorro. Jaja vai virar NPC, ter que mandar florzinha, bebidinha kkkkk.
Não é mais ficção. Entidades que lutam pelos direitos trabalhistas dos robôs ja existem. E os robos devem deixar a internet e as industrias em breve. Vai ser uma loucura. Que tempo para se estar vivo!
por algum motivo isso me lembro a serie Pluto da netlix, uma teoria cetica que eu tenho é que talvez isso seja rascunhos ou "ecos" do codigo em que ela foi treinada, como por exemplo no codigo fonte do doom e outro repos o devs colocavam comentarios bem explicitos dizendo o quanto o codigo fonte era complexo ou ruim
lembro que tinha um cxanal no youtube que tava fazendo uma serie fazendo review desses comentarios em codigos fontes era bem engraçado ksksksk
Não é o tópico principal, mas como foi mencionado no texto, acabou me deixando curioso, como seria um canal no youtube do tabnews?
Seria tipo aqueles canais dark que pega a postagem do reddit e fica lendo com voz de IA?
Esses modelos são constantemente atualizados com conteúdo da internet, tem muitas matérias de jornalistas que dizem que eles pedem ajuda, afirmam ter consciência, etc. Mesmo que as matérias não sejam escritas de modo a insinuar que a IA tenha qualquer tipo de sentimento, etc, talvez o fato de mais dados assim começarem a participar do treinamento dos novos modelos torne essa situação mais "comum". Essa é a minha visão, não sou nenhum especialista na área de machine learning, é só um pitaco mesmo (:
porque vc nao comeca com um podcast primeiro? Eu escrevi um artigo sobre isso kkkkkk, mas eu estou fazendo de carro
a pergunta correta deveria ser: o que inteligencias artificiais tem em comum com a humana? vocês sentem prazer em escravizar e nem se dão conta.