Implantação da IA no Judiciário passa ao largo do debate público

A quarta edição da pesquisa Inteligência Artificial no Poder Judiciário Brasileiro, coordenada pelo ministro Luis Felipe Salomão e cientificamente por mim, publicada pela FGV Justiça em 2025, oferece um abrangente retrato já produzido sobre o uso da inteligência artificial (IA) e, mais recentemente, da inteligência artificial generativa (IAG) no sistema de Justiça brasileiro. O estudo confirma que o Judiciário nacional alcançou um grau de maturidade tecnológica singular, resultado de mais de uma década de digitalização processual, de investimentos em interoperabilidade e da criação de bases de dados como o DataJud e o Codex, que estruturaram uma inédita infraestrutura de dados judiciais [1].

Contudo, a pesquisa evidencia que o avanço tecnológico não tem sido acompanhado, na mesma medida, por um amadurecimento institucional capaz de garantir o uso responsável e transparente dessas ferramentas. Mais de 60% dos tribunais brasileiros já utilizam algum tipo de IA, mas apenas cerca de 30% contam com mecanismos formais de governança, auditoria e prestação de contas [2]. Em outras palavras, há mais algoritmos do que governança. E o resultado é uma assimetria entre a velocidade da inovação e a capacidade institucional de controlá-la. Essa lacuna se torna especialmente relevante diante da expansão de sistemas de IA generativa, que vêm sendo utilizados para triagem processual, elaboração de minutas e sumarização de peças, entre outras aplicações, mas ainda operam sob regimes distintos e fragmentados de supervisão.

Um exemplo, no contrafluxo, aparentemente virtuoso vem da Justiça do Trabalho mediante um ciclo responsável no Projeto Galileu [3], que trabalha com prompts pré-programados e uma busca do juiz no centro da atividade decisória.

A assimetria entre inovação e governança não é fenômeno exclusivo do sistema de Justiça. Pesquisa recente do TEC.Institute e da MIT Technology Review Brasil [4] mostra que, embora 73% das organizações nacionais já debatam o tema da IA generativa em fóruns decisórios, apenas 15,9% dispõem de estratégia formal implementada e menos de um terço contam com lideranças dedicadas ao tema. A maior parte das instituições opera, portanto, em regime de experimentação fragmentada, sem políticas claras de ética, capacitação e supervisão técnica.

O fenômeno descrito no relatório brasileiro espelha uma preocupação internacional. A Organização para a Cooperação e Desenvolvimento Econômico (OCDE), em seu estudo Governing with Artificial Intelligence: The State of Play and Way Forward in Core Government Functions (2025), adverte que a adoção descoordenada de IA no setor público pode gerar zonas de opacidade, confusão quanto à responsabilidade e, no limite, erosão da legitimidade democrática [5]. A questão, portanto, não é apenas técnica, mas institucional: o que está em jogo é a preservação da confiança pública e da accountability em um cenário no qual as decisões e atos judiciais passam a depender, em parte, de sistemas automatizados.

Foco na governança

O relatório da FGV Justiça propõe um redirecionamento desse: da pergunta “como usar IA?” para “como governar a IA?”. É nesse sentido que o modelo de governança da OCDE oferece um referencial importante para o contexto brasileiro. A proposta parte da integração de três dimensões fundamentais: as condições habilitadoras (enablers), as salvaguardas (guardrails) e o engajamento (engagement). Juntas, elas compõem um ciclo contínuo de aprimoramento, em que inovação e controle andam lado a lado.

As chamadas condições habilitadoras representam o ponto de partida da governança. Nenhum sistema de IA é confiável se não estiver apoiado sobre uma base sólida de dados estruturados, interoperáveis e auditáveis. A experiência brasileira é rica, mas ainda fragmentada. Embora o DataJud e o Codex tenham ampliado significativamente o acesso a informações judiciais, permanecem diferenças de padronização, lacunas de atualização e ausência de integração plena entre os ramos da Justiça [6]. A OCDE aponta que, em países onde a IA pública é mais madura, a governança da informação precedeu a da tecnologia: primeiro se criou um ambiente de dados, depois se desenvolveu o algoritmo. No caso brasileiro, a criação de um verdadeiro datalake judicial, com padrões unificados de metadados e mecanismos de anonimização reversível, seria o primeiro passo para consolidar um ecossistema confiável e auditável de dados judiciais. Se os dados digitais são o combustível para uma IA com boa performance, eles funcionam como parte importante do alicerce de um redesenho institucional essencial para utilização da tecnologia.

Ademais, se constata um baixo investimento em equipes dedicadas ao desenvolvimento e, em especial, na auditoria e monitoramento dos projetos.

O diagnóstico encontra paralelo direto com a realidade brasileira descrita pela pesquisa corporativa: 75% das empresas não possuem profissionais dedicados à GenAI e 27,4% sequer têm responsável definido pela estratégia tecnológica. Essa carência estrutural reforça a urgência de que o Poder Judiciário, ao avançar em sua maturidade digital, não repita o modelo de adoção descoordenada identificado no setor privado [7].

Fator humano, proteção e engajamento

Mas a governança não se esgota nos dados e em equipes dedicadas. Ela exige também estrutura organizacional e capacitação humana. A OCDE recomenda que governos e instituições públicas criem figuras técnicas permanentes, como o chief AI officer, encarregadas de supervisionar o ciclo de vida dos sistemas de IA, garantindo a aderência a padrões éticos e de segurança [8]. No Judiciário, essa função poderia ser desempenhada por comitês de governança algorítmica, com composição interdisciplinar, integrando juristas, engenheiros de dados, especialistas em ética e em psicologia comportamental.

Ao lado disso, é indispensável promover o letramento digital e algorítmico de magistrados, servidores e assessores, preparando-os para compreender não apenas o funcionamento básico das ferramentas, mas também seus limites probabilísticos e potenciais vieses. Tais encaminhamentos deveriam ser dimensionados pelo Comitê Nacional de Inteligência Artificial do Judiciário, criado pela Resolução 615 CNJ. A OCDE, em seu relatório Empowering Learners for the Age of AI (2025), propõe que programas permanentes de AI literacy sejam incorporados às rotinas de capacitação pública, adaptando o conteúdo técnico à linguagem e às necessidades de cada instituição [9].

O componente humano é sensível no contexto da IA generativa. O relatório da TEC institute aponta que apenas 17,7% das equipes empresariais declaram alto nível de capacitação técnica, enquanto 7,5% admitem capacitação nula, cenário agravado pela prática de shadow AI, isto é, o uso de ferramentas de IA sem conhecimento institucional. Tal dado reforça a necessidade de que o Judiciário invista em programas de AI literacy permanentes, capazes de formar magistrados e servidores para uma atuação consciente e tecnicamente informada [10].

A segunda dimensão do modelo de governança é a das salvaguardas, destinadas a assegurar que a adoção da IA não comprometa a integridade institucional nem a responsabilidade individual. No caso do Judiciário, o risco mais evidente é o de que a automação se torne uma “zona de amortecimento moral”, diluindo a responsabilidade de magistrados e servidores e tornando opacos os fundamentos de suas decisões. Para evitar isso, a OCDE recomenda três mecanismos principais: a transparência, a rastreabilidade e a imputabilidade [11]. Cada sistema de IA em uso deve possuir uma ficha técnica pública, os chamados model cards, descrevendo sua finalidade, base de dados, parâmetros de treinamento, riscos identificados e a forma de supervisão humana. Trata-se de uma medida simples, mas poderosa: ela concretiza o princípio da publicidade e cria um instrumento de controle social sobre a tecnologia.

Além da transparência, é fundamental garantir a rastreabilidade, isto é, a possibilidade de reconstruir o caminho percorrido por um algoritmo na produção de determinado resultado. Essa documentação técnica, realizada por meio de logs e trilhas de auditoria, é essencial não apenas para fins de controle interno, mas também para a defesa de direitos fundamentais, pois assegura que qualquer cidadão possa questionar e compreender decisões automatizadas que o afetem. Finalmente, deve-se preservar a imputabilidade, mantendo clara a linha de responsabilidade humana: toda decisão judicial mediada por IA deve ter um responsável identificado e consciente do uso da ferramenta.

Essas salvaguardas se completam com a realização de auditorias independentes e avaliações de impacto algorítmico — algorithmic impact assessments  (AIA) , recomendadas pela OCDE como instrumentos de mensuração e mitigação de riscos. Em particular, sistemas que interfiram direta ou indiretamente no conteúdo de decisões judiciais devem ser classificados como de “alto risco” e submetidos a revisões periódicas externas [12]. Essa prática evita o fenômeno da erosão ética, descrito por Schmitz e Bryson, no qual a responsabilidade ética se dissolve dentro da estrutura burocrática automatizada [13].

A terceira dimensão é o engajamento, entendido como a integração da IA à cultura institucional e ao diálogo público. A pesquisa da OCDE mostra que boa parte dos projetos públicos de IA fracassa não por deficiência técnica, mas por ausência de engajamento dos usuários e da sociedade [14]. No Judiciário, o engajamento deve ocorrer em duas frentes: interna e externa. Internamente, os magistrados e servidores precisam participar desde as fases de concepção das ferramentas, testando, avaliando e sugerindo melhorias. Essa lógica de co-design já foi adotada em tribunais aqui e europeus e reduz significativamente as resistências à inovação. Externamente, é indispensável criar canais de transparência e participação social e dos órgãos de classe (como a OAB), como audiências públicas, consultas abertas e plataformas digitais que permitam acompanhar o ciclo de vida de cada sistema de IA em uso. Essa abordagem aproxima a tecnologia dos princípios democráticos e reforça o controle social sobre o Poder Judiciário.

Conclusão

Perceba-se que a implementação de IA no Judiciário vem passando ao largo de qualquer debate público sobre os riscos que são diagnosticados a cada dia pela literatura especializada.

Integrando essas três dimensões seria essencial a criação de um Programa Nacional de Governança de Inteligência Artificial no Poder Judiciário (Pro-IAJus), sob coordenação do Conselho Nacional de Justiça. Esse programa teria como objetivos principais: estabelecer padrões técnicos e éticos uniformes, supervisionar riscos e impactos, promover auditorias independentes e criar uma plataforma pública de transparência e avaliação de modelos. A proposta dialoga diretamente com a Resolução CNJ nº 615/2025, que já estabelece parâmetros para o uso de IA generativa, e com várias propostas estrangeiras que indicam a evolução gradual das instituições em estágios de maturidade tecnológica: da experimentação à sustentabilidade.

No modelo sugerido, cada tribunal avançaria de forma federativa e incremental, conforme demonstrasse conformidade técnica, ética e jurídica. A maturidade algorítmica seria conquistada por etapas, mediante comprovação de resultados mensuráveis, realização de auditorias externas e adoção de mecanismos de supervisão humana contínua. Para financiar esse ciclo de governança, o programa poderia incluir um Fundo Nacional de Inovação e Ética Digital, voltado a apoiar projetos de IA que apresentem alto benefício social e baixo risco institucional, com financiamento condicionado à transparência e à prestação de contas.

Pontue-se, por fim, que a lição que se extrai do mapeamento nacional da Tec institute/MIT Technology Review é inequívoca: a maturidade algorítmica depende menos da quantidade de sistemas e mais da integração entre estratégia, capacitação, governança e ética. O estudo classifica as organizações em cinco estágios de evolução, do observador ao visionário, e revela que apenas 1,7% das empresas brasileiras alcançaram o nível máximo de maturidade, com governança previsível, automação plena e ética aplicada [15]. No contexto judicial, isso indica que o verdadeiro avanço institucional não reside em multiplicar ferramentas, mas em consolidar um ecossistema confiável, auditável e humano.

O estado da arte descrito pela FGV Justiça e o modelo de governança delineado pela OCDE convergem em um ponto essencial: a inteligência artificial pode fortalecer o sistema de Justiça, mas apenas se for governada. A tecnologia não é inimiga nem panaceia, mas instrumento. Sua eficácia depende do grau de preparo institucional de quem a utiliza. O verdadeiro avanço digital do Judiciário não será medido pelo número de algoritmos implementados, mas pela capacidade de supervisioná-los com ética, transparência e responsabilidade. O avanço da inteligência artificial não depende do que ela pode elaborar, mas do quanto nós humanos permanecemos no seu controle.

A oportunidade que se apresenta ao Judiciário brasileiro é única. O país dispõe de infraestrutura tecnológica avançada, de base normativa consistente e de experiência acumulada na digitalização de processos. O desafio agora é transformar essa base técnica em uma estrutura de confiança. Um programa nacional de governança, inspirado nos padrões da OCDE e consolidado pelo CNJ, pode fazer do Brasil não apenas um caso de sucesso na automação judicial, mas um exemplo de inovação legítima, onde a eficiência tecnológica se alia à preservação da dignidade da pessoa humana e do devido processo legal.

 


[1] FGV Justiça. Inteligência Artificial no Poder Judiciário Brasileiro – 4ª edição. Rio de Janeiro: FGV, 2025. Inteligência Artificial: Tecnologia aplicada à gestão de conflitos no âmbito do Poder Judiciário brasileiro – 4a edição | Justiça

[2] Cit.

[3] Aqui

[4] TEC.Institute; MIT Technology Review Brasil. O mapa da GenAI no Brasil: da estratégia à implementação. São Paulo: TEC.Institute, 2025.  https://rd.mittechreview.com.br/tec-report_genai#rd-box-joq3m2m2

[5] OECD. Governing with Artificial Intelligence: The State of Play and Way Forward in Core Government Functions. Paris: OECD, 2025. Governing with Artificial Intelligence (EN)

[6] FGV Justiça, 2025.

[7] TEC.Institute; MIT Technology Review Brasil. Cit.

[8] OECD, Governing with Artificial Intelligence, 2025.

[9]  OECD. Empowering Learners for the Age of AI. Paris: OECD, 2025: AILitFramework_ReviewDraft.pdf

[10] TEC.Institute; MIT Technology Review Brasil. Cit.

[11] OECD, Governing with Artificial Intelligence, 2025.

[12] OECD, Governing with Artificial Intelligence, 2025

[13] SCHMITZ, Chris; BRYSON, Joanna. A moral agency framework for legitimate integration of AI in bureaucracies. Rochester, 2025.  arXiv:2508.08231 

[14] OECD, Governing with Artificial Intelligence, 2025

[15] TEC.Institute; MIT Technology Review Brasil. O mapa da GenAI no Brasil: da estratégia à implementação. Cit.



Fonte:Conjur

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *