Alcance da IA e seus impactos no sistema judicial

Alcance da IA e seus impactos no sistema judicial

A atual Capital Mundial do Futebol, o Catar, participou em julho último de um treinamento de capacitação sobre Inteligência Artificial, Justiça Criminal e Direitos Humanos, promovido pela UNESCO e Siracusa International Institute. Os magistrados do Supremo Conselho Judicial do Catar receberam treinamento sobre o uso de ferramentas de IA e suas aplicações práticas na administração da Justiça e como isso faz a interface com os direitos humanos discriminação e privacidade do jurisdicionado.

O curso promovido pela UNESCO, que envolve também riscos de segurança cibernética envolvendo inteligência artificial,   já treinou mais de 20 mil operadores do Direito, visando cooperação Norte- Sul e Sul-Sul . Além da versão presencial, neste ano foram criados os  treinamentos on-line de capacitação “IA e o Estado de Direito”, organizado em seis módulos para explorar potencialidades, riscos e responsabilidade na tomada de decisões judiciais por sistemas automatizados  por IA, deixando evidente as implicações dessa tecnologia com o devido processo legal e  o Estado de Direito, que deve atingir atores do sistema judicial de mais de  100 países, e a importância de conhecer melhor essa tecnologia para se alinhar às boas práticas tecnológicas e se posicionar sobre implicações legais.1

Um dos textos de referência utilizados no treinamento a distância da UNESCO é do juiz federal brasileiro, Fausto Martin De Sanctis, “Artificial Intelligence and Innovation in Brazilian Justice”, demonstrando o reconhecimento internacional da iniciativa pioneira do Brasil na área. Victor é  um programa de IA do Supremo Tribunal Federal, em parceria com a Universidade de Brasília (UnB), chamado Victor,  implantado em 2018  com o objetivo de agilizar a  tramitação processual  do chamado Recurso Extraordinário na alta Corte brasileira, conceituado como sendo um “instrumento processual-constitucional destinado a assegurar a verificação de eventual afronta à Constituição em decorrência de decisão judicial proferida em última ou única instância”, de acordo com apontamento do Ministro do STF, Gilmar Mendes.

Victor pode identificar a implementação da admissibilidade de recursos repetitivos, criado pela Reforma do Judiciário (EC 45/2004) , levando em conta  sua relevância em um país como o Brasil, onde a litigiosidade é uma das maiores do mundo. Victor consegue reduzir o tempo de análise dos processos (RE), uma vez que grande parte do tempo gasto era referente à admissibilidade do recurso. Para  De Sanctis, é “importante criar um ambiente adequado para o uso de IA com as precauções necessárias. O otimização do tempo, reduzindo o número de servidores necessários para tarefas básicas, e deslocá-los para os mais relevantes, são vantagens já sentidas”, diz De Santis em seu estudo.2

O segundo estudo apresentado no treinamento on-line da UNESCO é de Cingapura, que tem atraído grande controvérsia quanto ao uso de ferramentas de IA em sentenças, principalmente,  na Justiça criminal. Na Ásia, temos como referência a Malásia, com um programa piloto para crimes de porte de drogas e estupros, sendo que os juízes têm seguido a sugestão da IA em 1/3 dos casos. Cingapura criou um conselho de sentença para que o emprego da tecnologia tenha mais consistência e transparência. O texto afirma que “À medida que o público ganha maior consciência dos vários caminhos para buscar recursos para perseguir seus direitos legais, eles também podem estar mais preparados para serem auto-representados em nossos tribunais. Mais usuários do tribunal já estão interagindo diretamente com a justiça”.

O que causa maior impacto nas tecnologias de Inteligência Artificial (IA) atualmente são que elas vêm – além de  ajudar a automatizar tarefas mentais, transformando profissões como a dos operadores do direito – já conseguem fazer análises preditivas e redigir peças processuais e contratos. A capacidade humana de julgar e tomar decisões também vem sendo operacionalizadas, cada vez mais, pelas tecnologias de  IA em muitos tribunais de inúmeros países.

Um outro exemplo consistente vem da Europa. No final de novembro deste ano, a Câmara dos Lordes (Parlamento do Reino Unido) analisou o relatório do Comitê de Justiça e Assuntos internos avaliando as novas tecnologias no sistema de justiça britânico e apontou suas conclusões. Centrou sua análise no uso dos algoritmos e tecnologia de machine learn frente à  aplicação da Justiça na Inglaterra e País de Gales, incluindo policiamento preditivo, algoritmos para triagem de visto e  ferramentas de reconhecimento facial.

Para o comitê, o impacto do uso da inteligência artificial no sistema judicial foi positivo, mas fez uma série de recomendações. A primeira tratou da possível manipulação de algoritmos que podem trazer riscos a um julgamento justo aos acusados, recomendando que  o governo adotasse boas prática de governança para uso de novas tecnologia, além de criar um órgão nacional independente para essa missão, uma legislação específica, orientação para uso de IA no policiamento e no sistema de justiça criminal.

Os ingleses também demonstraram  a importância da transparência no uso das tecnologias de IA  para garantir a atuação da imprensa, da academia e do Parlamento. Quanto aos algoritmos, o comitê sugeriu uma série de recomendações, como realizar pesquisas para determinar como o uso de algoritmos preditivos afetou a tomada de decisões, promover treinamentos de funcionários públicos, e buscar junto aos produtos de tecnologia a  “explicabilidade” das ferramentas.

O presidente honorário de uma das maiores empresas de tecnologia do mundo e professor em inúmeras instituições de ensino em todo o mundo, Giancarlo Elia Valori4 considera  fundamental lastrear o desenvolvimento da IA a padrões éticos e morais diante de seu potencial e possíveis riscos : “É, portanto, nosso dever preocuparmo-nos eticamente com as questões decorrentes da Inteligência Artificial: é o medo justificado de sermos subjugados por aqueles que agora pensamos que controlamos”, diz.  Ele trouxe à toma o debate de forma mais consistente sobre a jurisprudência emergente e uso de sistema de IA na Justiça criminal e suas interfaces com os direitos humanos, ética, discriminação algorítmicas, violação de privacidade.


1 Disponível aqui.

2 Disponível aqui.

3 Disponível aqui.

4 Disponível aqui.


Fabio Rivelli é advogado, sócio do escritório Lee, Brock, Camargo Advogados (LBCA); Master in Business Administration pelo Insper; Mestrando em Direito – núcleo de Direitos Humanos pela PUC-SP; Pesquisador (estudante) registrado no CNPQ pela PUC-SP no grupo Capitalismo Humanista na área de direito econômico; Especialista em Gestão de Contencioso de Volume pela GVLaw, ranqueado pela Leaders League – 2021 como Contencioso Trabalhista de Volume, na categoria “Altamente Recomendado”. É Presidente da Comissão de Gestão, Inovação e Tecnologia, DPO e Coordenador adjunto do núcleo de estudo em decisões automatizadas da Comissão de Gestão, Inovação e Tecnologia da OAB- Guarulhos; Coordenador adjunto em bioética e governança corporativa da comissão de privacidade de dados da OAB/SP.