Como seria um julgamente utilizando uma IA no lugar do juiz?
vamos ver visão de geral
Acho que não seria. A IA não serve para substituir os humanos, serve para dar mais produtividade. Se alguém usar indevidamente deveria ter uma punição muito séria de acordo com o possível dano causado.
Também a IA é um termo muito genérico. É como dizer como seria se colocasse mais açúcar na comida. Em muita coisa ficará ruim. O exemplo nem é o melhor, mas foi o que deu para pensar rapidinho. O fato é que a IA de hoje não pode nem fazer cosquinha nisso. A IA de amanhã ninguém sabe oque será, por isso muitos a temem. Qualquer especulação em cima disso não ajuda muito, é o mesmo que dizer quais serão os números da Mega Sena, a chance de acertar é pequena, a não ser que esteja falando da semana passada, aí é fácil acertar acertar, mas já não tem utilidade.
As pessoas estão deslumbradas com a IA sem motivo. Especificamente o CHat GPT é apenas um gerador de textos "muito simples". Ele não possui conhecimento e não faz julgamento, apenas pode produzir um texto que parece que ele está fazendo isso, e isso engana muita gente. O que mais precisamos entender é o que a IA é e o que ela não é. Sem entender esse básico da ferramenta ela é um perigo, não por ela em si, mas pelo uso errado que as pessoas fazem dela.
Hoje ela cometeria atrocidades com a humanidade, de um lado ou outro, fora que faria julgamentos de acordo com a visão de quem a programou. Pode ser que um dia ela consiga ser mais justa que qualquer juiz, que impõe muito a sua visão, o que não deveria acontecer, mas democracia e justiça são um teatrinho que a sociedade criou para não acontecer o caos (não sou eu que digo isso, tem filósofo importante que não me recordo o nome que traz isso), então por falta de algo melhor vamos usando e eu estou bem com isso, até o dia que eu achar a improvável melhor solução.
Faz sentido para você?
Espero ter ajudado.
Farei algo que muitos pedem para aprender a programar corretamente, gratuitamente. Para saber quando, me segue nas suas plataformas preferidas. Quase não as uso, não terá infindas notificações (links aqui).
Um possibilidade é a IA pegar todo o histórico de processos e decisões feitas por juízes humanos e a leis e se basear nisso para gerar duas decisões, como foi no treinamento do chatGPT.
As pessoas tendem a pegar os exemplos mais complexos, no caso, os processos jurídicos cheios de nuances, falta de provas concretas e reviravoltas, e dizer "Vamos ver se a IA consegue resolver essa", mas o pensamento deveria ser de dar à IA os processos mais banais, que são maioria e atolam o judiciário, tipo um carro bateu na traseira do outro e não quer pagar, ou um consumidor que recebeu um produto com defeito a a empresa não quer dar assistência. Casos em que existe pouca decisão
Nesses casos mais banais, uma IA atual consegue cuidar do processo, pois o antes/durante/depois são bem conhecidos e amplamente documentados e daria espaço para juízes humanos cuidar de casos mais complexos. E também humanos também poderiam ficar em atualizar essas leis que a IA está baseada, pois a sociedade muda e as leis precisam mudar.
Como Bacharel em Direito, creio que há muitas coisas que uma IA precisa superar para que possa exercer o 'cargo de juiz', primeiro, ela precisa decidir, a IA do momento, o chat GPT em suas respostas fica em cima do muro, e sempre fica emitidindo alertas, por exemplo. Se eu forço uma escolha, no dia de hoje 15/04, pergunto: você prefere azul ou rosa? (Consegue um decisão objetiva em uma pergunta simples) - resp: Como modelo de linguagem AI, eu não tenho preferências pessoais, emoções ou capacidade de fazer escolhas subjetivas. (meu grifo) Sou projetado para fornecer informações e ajudar com perguntas de natureza factual ou conceitual. Portanto, não posso dar uma decisão objetiva em uma pergunta sobre preferências pessoais, como a escolha entre azul e rosa (...) Em minha opinião, se o Juiz não tem capacidade de fazer escolhas subjetivas, e se por no lugar do réu, da vítima, ele não tem como ser um bom juiz, ou até de ser juiz. Conhecimento enciclopédico, o AI tem bastante e pode ser até atualizado para o dia do julgamento. Imagine-se a IA tem como objetivo proteger a humanidade, e sem conhecimento dos reais interesses da humanidade, decide que não podemos mais fumar, ou usar combustível, não seria horrível. Meu texto está horrível, mas deixo como uma contribuição para discussão.
Eu pagaria pra ver!
Atuo no Direito há muito tempo e já vi centenas (ou milhares) de decisões. A grande maioria é resultado de uma construção lógica do processo - análise das provas e frases colocadas pelos juízes nas "decisões que não decidem" (do tipo 'intime-se o MP'). E isso é bom, porque você consegue montar o quebra-cabeça que aponta a condução do processo para uma certa decisão. Em outras palavras, não há surpresa na sentença.
Porém, uma pequena parte destas decisões são carregadas de emoção e utilizam um princípio muito importante que é constitucionalmente protegido no nosso país: A proporcionalidade.
O que é o princípio da proporcionalidade?
Em resumo, é quando dois direitos se confrontam, e o juiz da causa precisa decidir por um deles. Gosto de usar de exemplo o clássico direito de legítima defesa. Você pode matar alguém, se alguém estiver na iminência de te matar (isso demonstra uma outra questão fundamental da nossa lei: Nenhum direito é absoluto).
A proporcionalidade é, então, você colocar duas forças disputando um espaço onde só uma poderá sobreviver. Por isso você dá 'vitória' para a que você achar que tem 0,000001% a mais de força que a outra.
Dito tudo isso, reafirmo o que disse no início: Literalmente pagaria para ver uma decisão de uma IA no lugar de um juiz.
Imagino que nesse caso, a IA utilizaria matemática/estatística para me dizer qual direito deveria prevalecer em cada caso, levando em consideração não apenas o contexto do caso, mas também de uma sociedade como um todo. E isso é um argumento largamente utilizado por aqueles que entendem a sociedade de uma forma, quando na verdade a maioria pensa diferente. E vivemos numa democracia!
À parte de toda a questão moral. Se a intenção é minimizar os erros e maximizar o conceito de justiça, o que me parece razoável, certamente IAs serão muito melhores que humanos. O resto é conceito moral e esse estranhamento de ter que pensar nessas coisas tão novas para o nosso tempo.
Relativizar a eficiência das máquinas em detrimento de pessoas, para qualquer área do conhecimento humano, é um assunto que será vencido cedo ou tarde.
Eles precisam de um Rosto para criminalizar e Existem Muitos "anti robôs" desenvolvidos pelos cybersecurity ... para Eles adaptarem isso, custaria milhões em dólares só pela luxúria de conceberem acesso aos "chat da Vida" ... A ferramenta é bem vinda obviamente, mas Não deve tratá-la como uma Verdade absoluta é um avanço válido e devemos acolher, Não substituir mão de obra e pessoas ... Minha Opinião muito superficial sobre o assunto pode ser debatida Mas Não ache que eu penso 100% desse jeito...
O problema da IA em um julgamento é que ela foi feita e treinada por alguém. A vantagem seria manter a coerências em decisões judiciais. Ou seja, após treinado e alimentada com uma boa base de decisões judiciais e interpretações da lei, ela sempre julgaria conforme essas decisões, mesmo que o interesse econômico e politico do momento mude, algo comum na justiça.
Do outro lado, o treinamento pode ser feito exatamente por pessoas com más intenções, afinal estamos falando de algo treinado por pessoas no poder, e não tem local com mais más intenções do que lá.
Do outro lado, ao manter a coerência e continuar a trabalhar com as regras do jogo, a IA tem o poder semelhante a uma constituição, a constituição estabelece regras que não deveriam ser mudadas, assim as decisões e lutas politicas possuem uma regra clara que os agentes terão que disputar, evitando boa parte dos abusos.
Ou seja, ter coerência pode fazer com que a maioria desses abusos na justiça acabe.