Isaac Asimov e o ChatGPT

Estava eu, há alguns dias, rolando o feed infinito do YouTube, procrastinando a leitura de um livro que tinha acabado de pegar para ler, quando me vem o post do nosso queridíssimo Michel Tel... Quero dizer, Filipe Deschamps. Na imagem dizia "Engenheiros de prompt já estão ganhando salários de até 28 mil dólares/mês", porém na descrição havia um trecho que me chamou muito a atenção, lá dizia "(...) Descritos como 'psicólogos de IA' esses especialistas não necessariamente precisam de habilidades de programação para desvendar capacidades ocultas desses sistemas por meio de comandos em linguagem natural". Bom, fechei o YouTube e, finalmente, comecei a leitura do livro. Lá pelas tantas linhas do livro Eu, robô, do escritor Isaac Asimov, publicado em 1950, um trecho me chamou mais atenção ainda. "(...) (Susan Calvin) havia nascido em 1982. (...) Ela aprendeu a calcular os parâmetros necessários para corrigir possíveis variáveis no 'cérebro positrônico', a construir 'cérebros' na teoria, de tal forma que as respotas dadas aos estímulos podiam ser previstas com exatidão. Em 2008, ela terminou o doutourado e começou a trabalhar na United State Robots como 'psicóloga roboticista'". Para a minha surpresa o autor "previa" de maneira realista o advento da inteligência artificial, um dos assuntos mais falados nos últimos meses, e, surpreendentemente a criação de uma nova profissão. Não preciso dizer que a partir daí não procrastinei mais essa leitura. Lá pela metade do livro outra coisa me chamou atenção, as 3 leis mais famosas nos universos da ficção científica sobre robôs, as 3 leis da robótica. São elas:

  1. Um robô não pode ferir ou deixar que um humano se fira.
  2. Um robô deve obedecer as ordens dadas por humanos, salvo em caso de conflito com a primeira lei.
  3. Um robô deve proteger sua própria existência, também em casos onde a primeira e a segunda lei não sejam ignoradas.

Segundo Asimov, nesse trecho de uma entrevista Isaac Asimov: Three Laws of Robotics, as três leis foram criadas quando um amigo apontou um padrão que vinha se repetindo nos contos produzidos pelo escritor: os robôs sempre acabavam destruindo ou se rebelando ante seus criadores. Um efeito Frankenstein. A partir daí, seus contos passaram a se basear nessas 3 leis fundamentais a fim de evitar sempre a destruição dos seus criadores.

Desde então um pensamento vem se repetindo na minha cabeça: "Se Asimov, em seus contos, precisou que leis houvessem de ser impostas aos seus robôs para que o fim de seus contos não fossem sempre os mesmos (o criador perdendo para a criatura), e se alguns fatos de seus contos já são realidade para nós, como a inteligência artificial e os psicólogos de IAs, não seria então necessário que leis éticas fossem impostas a toda e qualquer IA produzida pelas big techs para que não caiamos no mesmo erro dos primeiros contos de asimov?".

O ChatGPT e seus concorrentes ainda são um embrião, mas a velocidade de crescimento dessas tecnologias é tão grande que há 6 meses não ouvíamos deles e hoje é assunto até para quem não é da área. Talvez uma discussão maior sobre um possível 'freio de mão' ético precise ser levantada o quanto antes a fim de sempre termos o controle do que criamos e do que criam, pois não dá pra esperar que todos tenham o mínimo de senso ético ao produzir tecnologias.

Ótimo post, pra mim robôs não tem sentimentos ou vida própria, são como ferramentas. E devem sim ser substituidos se necessario. Não existe isso de "ferir", "sofrer", defender sua "vida". São algoritmos e um monte de portas logicas, software e hardware. Uma máquina não tem sentimentos, assim como um software ou hardware também não tem. Oque acredito é que hoje as pessoas estão tão carentes, por não terem estrutura familiar que procuram afeto em qualquer coisa que pareça demonstrar afeto. Creio que no futuro vai piorar.. pode parecer ficção cientifica, mas vai ter gente casando com maquina, gente amigando com maquina, gente adotando um gato robo e por ai vai. Já temos vislumbres disso, como o caso de varios japoneses que se casaram com IAs hologramas, como o caso do Akihiko Kondo que se casou formalmente com uma IA holograma da hatsune miku. A empresa que faz o IA holograma, a Gatebox Inc. confirmou ter emitido quase 4 mil certidões de "uniões multidimensionais" desde 2018.

Quem quiser ver mais detalhes sobre a empresa vou deixar o link do site oficial abaixo: https://www.gatebox.ai/

com seu relato eu lembro do filme Ex-Machina - Instinto Artificial, onde a robô seduz e engana o rapaz que seria o seu "psicólogo robocista" afim de obter a liberdade e mata o seu criador.

Eu penso o seguinte, não acredito que será possível criar máquinas que sejam exatamente iguais aos seres humanos, por mais sofisticadas que sejam. As máquinas ainda não têm a capacidade de pensar como seres humanos e sinceramente acho que nunca terão. Portanto, mesmo que se implemente leis éticas às IA, os criadores de IA teriam de encontrar um meio de criar um cérebro artificial que pudesse aprender e se adaptar às condições ambientais.

Eu acho que o ponto não é nem mesmo recriar o ser humano, mas criar algo que tenha uma capacidade de cálculo sobre-humana, com o qual seja possível interagir de forma humana. Pra isso ela não precisa (e nem deve) ser uma cópia.

Ótimo post colega. Suas colocações foram muito pertinentes e foram muito de encontro ao que estava conversando momentos antes da publicação com minha parceira. As AI são uma coisa realmente revolucionárias... Não sei ao certo onde vamos alcançar com isso mas eu gosto de ser otimista.

Você me fez querer ler esse livro... Está na minha lista a anos e eu nunca tive a coragem de lê-lo.

Com certeza vale muito a pena!

Eu acredito que só será possível criar uma inteligência de fato inteligente apartir do momento que os cientistas conhecerem 90% do cerebro humano, porém não se sabe nem a metade disso, então uma inteligência artificial ter qualquer consciência. Seria cientificamente impossível.

O que eu vejo de incrível e assustador em IA's é na verdade o oposto disso. Elas não são construidas sobre o conhecimento acerca do cérebro humano, objetivamente, mas à partir do que é produzido pelo cérebro humano. E através de estatísticas e cálculos matemáticos, alcançam um "entemdimento" intangível aos cientistas, habilitando-as a conseguirem "reproduzir" seu comportamento. Em outras palavras, as IA's não têm evoluído de acordo com o a evolução do conhecimento sobre o cérebro humano, mas de acordo com a quantidade de parâmetros (expressões do ser humano em forma de dados) que conseguem processar.

Muito massa ver o Azimov passando aqui pelo TabNews!

Tem um conto muito bom que ele escreveu e que conseguiu fugir tanto das leis da robótica quanto da "receita do Frankestein", chamado A última pergunta. A leitura deve durar uns 20 minutos, e eu ainda arrepio com a forma como a história evolui. É bizarro ver como ele pensou em gente fazendo pergunta pra computador, máquinas que refinam suas próprias conexões e até a ideia de computadores planetários já naquela época.

Como o conto é de 1956, é facinho achar no Google, e aqui vai um link pra uma tradução pro Português.

E não esqueçamos de A Última Resposta😃
Noooossa, eu não conhecia esse! Sensacional! A história do conto me lembra a música Algorithm, do Muse. [O clipe também segue nesse enredo](https://www.youtube.com/watch?v=X8f5RgwY8CI), e dá uma boa base pra imaginar uma possível continuação do conto - na pele do nosso imortal Terry Crews xD. Obs: o álbum inteiro, chamado "Simulation Theory" vale muuuito a pena - especialmente pela vibe do TabNews.
o ver "prevendo" certas tecnologias é incrível!
Só por citar Azimov tem que levar um like/upvote! Incrivel como um escritor consegue ser tão atual como ele.
Só por citar Azimov tem que levar um like/upvote! Incrivel como um escritor consegue ser tão atual como ele.

Não me lembro de uma saudação Asimoviana, à la Long live and prosper, mas se tivesse uma correspondente para ser usada entre fãs de Asimov, usu-la-ia agora. Inclusive só abri esse artigo por que Asimov tá no título.

Essa é uma pergunta quase filosófica a respeito de IAs e existem algumas pessoas preocupadas com isso e acho que estamos longe de uma resposta a esse respeito. Tendo muito no caminho da liberdade e não gosto de governos ditando caminhos, mas isso não impede que cada um coloque seus próprios valores nos projetos em que atua.

O próprio Gepeto (apelido que adotei para o ChatGPT) tem diretrizes de perguntas que não são respondidas ou só o são usando subterfúgios e "enganando" o algoritmo. De certa maneira isso já se assemelha a um guia moral, o problema é que também se assemelha a censura o que nos leva de volta à questão de liberdade.

Como em tudo na vida, escolher uma coisa implica em desescolher outras, e grandes problemas implicam em escolhas difíceis.

Nada vem do nada. Nenhuma ideia vem do vazio, o vácuo não existe. Toda criação carrega as marcas de seu criador. Inteligências artificiais são avatares de empresas, deixam de ser físicos e passam ao etéreo, cada vez mais presentes, e rumo à onipresença.

Me preocupa a possível falta de condições de algumas pessoas de lidar com essas novas questões morais e éticas. Muitas ainda nem imaginadas por nós. Visto as muitas questões que ainda surgem diante da internet.

Muito interessante