Deslocar função estritamente decisória para máquinas é muito perigoso

Autores:  Dierle Nunes e Aurélio Viana (*)

 

É sabido que nos últimos anos tem aumentado o grau de interesse e até mesmo a aplicabilidade de instrumentos computadorizados ao Direito, com a expressiva expansão do uso de softwares, técnicas de indexação, estatísticas e aspectos correlatos. Para se ter uma ideia, no Tribunal de Justiça de Minas Gerais, o denominado PJe vem sendo implantado desde o ano de 2012 e o uso desta plataforma é obrigatório para novos ajuizamentos nas comarcas de grande e médio porte. No âmbito do Superior Tribunal de Justiça, a resolução STJ/GP 10/2015 tornou obrigatório o peticionamento por meio eletrônico.

Por ora, já é evidente que as máquinas são úteis para fins de compilação de decisões judiciais e identificação de teses ou argumentos mais convincentes (estruturação de dados), mas é preciso registrar que: já existe a discussão sobre a possibilidade de serem utilizadas para decidir, ou algo muito próximo disso, pois fornecerão, por meio de algoritmos, respostas às questões submetidas a julgamento.

Portanto, na esteira dos novos ventos tecnológicos, inumeráveis problemas se revelam, na medida em que se antevê que uma decisão judicial amparada por uma escolha advinda de um algoritmo seria por muitos considerada como inatacável, despida de equívocos, em função de sua suposta neutralidade. Tal crença se distancia da realidade, principalmente porque a máquina é capaz de herdar critérios subjetivos de escolha, alguns deles claramente equivocados, exigindo-se, por isso mesmo, mecanismos de controle das escolhas feitas pelos computadores. Como pontua Dedeo: “[algoritmos] podem ser matematicamente ótimos, mas eticamente problemáticos.”

Os juristas brasileiros em geral vêm se apaixonando pelas potencialidades do uso das ferramentas e plataformas de inteligência artificial (IA) no Direito de modo completamente acrítico, talvez pelos grandiosos números de processos que temos em nosso Sistema Jurídico e pela busca de novos modos de dimensioná-los. No entanto, precisamos perceber “o risco associado à dependência acrítica em algoritmos”, sob sua suposta neutralidade, especialmente quando eles implicitamente ou explicitamente medeiam acesso a procedimentos decisórios de enorme relevância como são os judiciais. Como pontuam Osoba e Welser “as decisões algorítmicas não são automaticamente equitativas apenas por serem produtos de processos complexos”, de modo que a consistência processual dos algoritmos não é equivalente à objetividade. Já se cogita de um viés (deturpação cognitiva) algorítmico.

Em importante estudo da sua utilização O’neill tenta demonstrar como o (machine learning) aprendizado de máquinas (a depender do foco de programação e dos pontos cegos – blind points) pode reproduzir padrões deturpados e de preconceito sob uma aura de neutralidade que foge da preocupação dos programadores (e, para nós, do controle do Direito). Relata como alguns dos resultados dos algoritmos auxiliam na mantença de bolsões de pobreza, bem como na potencialização da persecução criminal de latinos e afrodescendentes e na utilização de dados para proferimento de sentenças mais severas para estes grupos nos EUA. Defende o mapeamento dos vieses nas máquinas e que estes modelos matemáticos (preditivos), típicos das Inteligências artificiais, não possam ser percebidos como neutros e de potencial inevitável, como o tempo ou as marés, e exigem de nós responsabilidade e mecanismos de fairness e accountability em relação ao Big Data.

No entanto, ao largo dessa discussão mais profunda e somente sob a premissa de persecução de maior eficiência grandes escritórios no exterior e no Brasil vêm percebendo os potenciais do uso dos serviços de soluções de lawtechs para otimizar suas atividades, em especial para o trato da litigiosidade repetitiva (de massa), e vem se apostando inclusive na utilização dessas ferramentas com função preditiva (de antecipação de resultados) para estruturar grandes bases de dados decisórios.

Desse modo, não representa uma simples “profecia” a existência de um computador-juiz, apesar de soar para a grande maioria como algo impactante (e quiçá ainda fictício) por significar uma ruptura cognitiva no processo decisório. Ocorre que o uso desses algoritmos e dessas ferramentas no ambiente jurídico se configura como uma tendência irreversível, notadamente diante da realidade envolta à prestação da atividade jurisdicional brasileira, considerando-se o atual estoque de aproximadamente 100 milhões de processos em curso, cujo número expressivo dá azo ao acolhimento de toda e qualquer técnica ou tecnologia que prometa reduzir o acervo de casos a serem decididos.

O ponto de maior atração na inteligência artificial, extraível do teste de Turing, corresponde à imitação do comportamento do homem pela máquina. De modo nada simples, para que a máquina imite o comportamento de um homem – a ponto de persuadir outros, passando-se por um de nós – são adotados itinerários complexos que envolvem uma série de aspectos, que obviamente não podem ser aqui aprofundados geradores de reflexos no Direito.

Se, num nível mais básico, um computador é como um “pateta completamente obediente”, constatando-se uma completa dependência em relação ao seu estado interior e ao input, quando se trata de IA a questão se transforma profundamente, pois, como lembra Ganascia, “o comportamento de uma máquina é, com frequência, tão imprevisível que ela não deixa transparecer a sucessão das instruções elementares que lhe deram origem”.

De certa forma, é trivial afirmar que os homens e mulheres se valem de heurísticas para a tomada de decisões, sejam cotidianas ou também na construção de uma decisão judicial, compreendida a heurística como “um procedimento simples que ajuda a encontrar respostas adequadas, ainda que geralmente imperfeitas, para perguntas difíceis”. Contudo, é de certo modo surpreendente constatar que os computadores também adotam procedimentos heurísticos, sobretudo porque dotados de alta capacidade de processamento de dados.

Ademais, numa época em que se pretende mediante algoritmos de IA se promover aprendizados de máquinas (machine learning) a partir de plataformas de serviços cognitivos (como o Watson da IBM) para reprodução do comportamento decisório humano, mediante estruturação de bases de dados (por exemplo, de precedentes) e efetiva prolação de pronunciamentos torna-se imperativa a compreensão de nosso sistema cognitivo de decisões, inclusive mediante e percepção dos vieses cognitivos humanos e algorítmicos. À medida que os agentes artificiais assumem um papel maior nos processos de tomada de decisão similar ao humano, torna-se imperativo prestar atenção aos efeitos de falhas e de comportamentos incorretos das plataformas artificiais. Percebe-se, assim, que a IA será tão boa quanto os dados que ela aprende, de modo que ao absorver dados inerentemente tendenciosos chegará a resultados igualmente equivocados.

Nesses termos e com enfoque no cenário processual brasileiro, temos que associar esse estudo com o fato do CPC/2015 ter estruturado um uso peculiar dos precedentes judiciais (ou, para dizer o mínimo, de padrões decisórios) que geram imediato reflexo em casos pendentes de julgamento e até mesmo sobre casos futuros, de modo a auxiliar no dimensionamento das litigiosidades.

Sabe-se que temos uma verdadeira anarquia no trato do direito jurisprudencial e, não raro, constata-se impossível estabelecer uma cadeia de decisões que revele o entendimento de determinado tribunal sobre uma certa temática. Vê-se, ao contrário, um ambiente composto por idas e vindas inexplicáveis, com frequentes rupturas institucionais.

Num ambiente processual sobrecarregado o uso dos computadores e, em último caso, da inteligência artificial, fomenta a aplicação de padrões decisórios de modo mecânico e, pior, enviesado, dado os riscos da pressuposição da neutralidade do algoritmo ao estruturar a base de dados e oferecer um suposto entendimento correto.

Uma decisão judicial emanada de uma máquina poderia satisfazer os anseios dos adeptos de uma eficiência a qualquer custo e daqueles que propalam, acima de tudo, a segurança jurídica e isonomia entre litigantes, tendo em vista a impressionante habilidade de cálculo e suposta neutralidade da mesma, sendo a IA vista como técnica de implementação de uma exatidão nunca vista e alcançada.

É preciso perceber, de imediato, que se faz necessário combater os vieses algorítmicos das inteligências artificiais. Como defende O’Neil há de se criar (especialmente no Direito) um sistema regulatório para pleno respeito da Democracia que combata a opacidade e irrefutabilidade dos resultados algorítmicos, de sua programação e aprendizado. A crença de que o trabalho desenvolvido por estas novas ferramentas seja neutro e sempre superior ao de um jurista humano precisa ser posta em xeque. Em outros campos já se alude a um projeto de transparência e fiscalidade.

Evidentemente que no Direito as IAs podem cumprir um papel virtuoso, entre outros, de compilação de casos passados, a permitir aos litigantes, advogados e julgadores uma melhor compreensão de como os tribunais vêm decidindo ao ofertar uma publicidade plena e estruturada dos julgamentos (do leading case até o mais atual) que favoreça a coerência, integridade e estabilidade, permita catalogar desde a propositura os casos repetitivos (e de onde provêm) e diminuir o déficit brasileiro no manejo de precedentes judiciais (anarquia interpretativa). Entretanto, nos parece muito perigoso o deslocamento da função estritamente decisória às máquinas, especialmente pela ausência de percepção dos vieses algorítmicos cada vez mais negligenciados.

 

 

 

Autores:  Dierle Nunes é advogado, doutor em Direito Processual, professor adjunto na PUC Minas e na UFMG e sócio do escritório Camara, Rodrigues, Oliveira & Nunes Advocacia (CRON Advocacia). Membro da Comissão de Juristas que assessorou na elaboração do CPC/2015.

Aurélio Viana é advogado, mestre em direito processual (PUCMinas). Vice-presidente da Comissão de Direito Imobiliário da OAB – Subseção Contagem.


Você está prestes a ser direcionado à página
Deseja realmente prosseguir?
Init code Huggy.chat End code Huggy.chat