Juízes dos EUA criam regras para conter mau uso da IA generativa


Redução de danos

Pesquisas indicam que pelo menos 80% dos membros da comunidade jurídica dos Estados Unidos acreditam que a inteligência artificial generativa (GenAI) já começou a exercer um impacto transformador na área do Direito, que se consolidará no decorrer dos próximos cinco anos.

Judiciário dos EUA tem detectado erros em peças fabricadas por IA

No entanto, a tecnologia, que está revolucionando o fluxo de trabalho dos operadores do Direito, cria, inevitavelmente, efeitos colaterais indesejáveis, como é o caso das chamadas “alucinações” da IA — uma terminologia já adotada por vários países para definir, por exemplo, citações de jurisprudências fabricadas pelos bots da inteligência artificial.

Embora juízes e seus auxiliares também tenham caído no “conto da GenAI”, eles estão especialmente preocupados com o volume de erros da ferramenta nas petições protocoladas em suas cortes: há um desperdício considerável de recursos do Judiciário, em dinheiro e em tempo de trabalho, para detectar citações fabricadas nos autos.

Alguns juízes começaram a aplicar multas e outras sanções a advogados que usaram ferramentas de GenAI em pesquisas de documentos e redação de petições sem verificar a correção delas em outros mecanismos de busca tradicionais, com 95% de confiabilidade, como Westlaw e a Lexis-Nexis (nos EUA).

Medidas de contenção

Apesar das medidas punitivas, alguns tribunais chegaram à conclusão de que é preciso fazer mais para conter essa invasão de corpos estranhos na jurisprudência: começaram a impor regras às quais os advogados, incluindo promotores e procuradores, devem obedecer.

O objetivo é o de proteger as cortes contra as “alucinações da IA” em petições e manter a integridade do sistema judicial. Tais medidas incluem:

Revelação obrigatória de uso de IA: Alguns tribunais pedem, agora, que os advogados declarem explicitamente se usaram IA generativa para pesquisar e redigir documentos; outras que declarem que seus argumentos jurídicos não foram redigidos com a ferramenta. O objetivo é promover a transparência e alertar a corte de que o documento contém fontes possivelmente duvidosas;

Certificação/verificação de revisão humana: Uma exigência comum é a de que os advogados certifiquem que “revisaram e verificaram” todos os conteúdos produzidos por IA generativa, especialmente os que se referem a citações jurídicas e declarações de fatos.

Certificados de compliance: O Tribunal Federal de Recursos da 5ª Região propôs recentemente uma emenda às regras da corte para regular o uso da ferramenta por advogados. A regra proposta iria determinar a apresentação de um “certificado de compliance” para que eles declarem que os documentos não foram produzidos por IA. Ou, caso a IA tenha sido utilizada, que os documentos foram revisados por um ser humano para garantir a precisão.

No entanto, houve dissidências internas e a proposta não foi aprovada, pelo menos por enquanto. Assim, advogados e partes continuam responsáveis ​​pela veracidade e precisão de suas petições, sem regras especiais para conteúdo gerado por IA;

Compliance com as regras de ética existentes: Juízes estão enfatizando para advogados e promotores a obrigação de cumprir as regras do Código de Ética da profissão que, entre outras coisas, requerem que garantam a veracidade e a precisão de seus pedidos à corte.

Os advogados permanecem responsáveis pessoalmente e profissionalmente por tudo que submetem ao exame judicial, tenham usado ou não a inteligência artificial em seu trabalho.

As cortes da Flórida isentam os advogados da obrigação de declarar o uso de GenAI. Mas afirmam que, se usarem, devem proteger a confidencialidade das informações do cliente, prestar serviços jurídicos com competência e precisão, informar os clientes sobre o uso dessa tecnologia (o que reflete nos honorários) e cumprir as restrições aplicáveis à publicidade dos advogados;

Sanções e penalidades: Muitos juízes chegaram à conclusão de que devem impor sanções severas a advogados e promotores que submeterem petições com alucinações da IA (como citações falsas).

Tais sanções podem incluir multas, pagamento de custos da parte adversária, treinamento obrigatório de ética no uso de IA, recomendação à ordem dos advogados para ação disciplinar ou até mesmo desqualificação para atuar em um processo;

Proibição a certos usos da IA: Algumas cortes específicas efetivamente proíbem o uso da IA para preparação de argumentos jurídicos substantivos, sem autorização prévia do juiz, devido aos altos riscos de erros;

Registro obrigatório: Em alguns casos, juízes exigem que os advogados mantenham registros de informações específicas da IA ​​e sobre que partes dos autos foram geradas por IA, para o caso de se tornarem relevantes posteriormente no processo;

Treinamento e conscientização judicial: Há uma ênfase crescente na competência judicial para compreender a inteligência artiicial, a fim de melhor identificar potenciais problemas e garantir a imparcialidade ao lidar com casos que envolvem o uso da IA generativa.

Recomendações da ABA

A American Bar Association (ABA) declara que “todas as preocupações levantadas em seu Parecer Ético 512 sugerem que as cortes e associações de advogados devem desenvolver métodos e diretrizes para lidar com o uso da inteligência artificial generativa (GenAI)”.

“O mundo está mudando rapidamente devido aos avanços tecnológicos e precisamos reconhecer o poder quase mágico que a inteligência artificial pode representar para advogados e juízes em todos os níveis”.

“A comunidade jurídica deve abraçar essa nova tecnologia, mas com transparência, consistência e em conformidade com as normas de ética. Se as regras processuais e de ética não identificarem e anteciparem os benefícios e desvantagens da incorporação da GenAI às leis e à prática jurídica, os advogados, juízes e outros profissionais do Direito poderão ficar sempre para trás em relação à tecnologia”, declara a ABA.

Por que a IA generativa trai os profissionais?

Na verdade, as falhas da IA generativa, tais como citações fabricadas ou precedentes inexistentes, não são exatamente da tecnologia. A culpa é, quase sempre, das fontes de conteúdo usadas no treinamento desses sistemas, segundo a Thomson Reuters. Muita gente sabe disso, mas nem todo mundo presta atenção nesses detalhes.

A GenAI vasculha a internet e apanha tudo o que parece relevante. Isto é, retira informações de blogs, fóruns, notícias de todos os gêneros, opiniões e de outras fontes não confiáveis — e também de fontes fidedignas. As taxas de precisam são de 50% a 60%.

As fontes de consulta tradicionais de legislação e jurisprudência, por sua vez, são criadas e mantidas por profissionais de Direito competentes. O conteúdo da Westlaw and Practical Law Materials (dos EUA), por exemplo, é mantido por mais de 1,2 mil editores jurídicos, que asseguram os mais altos padrões da pesquisa jurídica. A precisão dessa e outras fontes (como a CoCounsel e AmLaw 100) varia de 95% a 99,6%.

As fontes de informações da GenAI não são atualizadas sistematicamente, dificilmente estão sujeitas à supervisão editorial específica e não têm controle de citações. Em contraste, todas as fontes tradicionais de “grau profissional” são validadas por especialistas jurídicos competentes.

Com contribuições da Wisconsin Lawer, publicação da State Bar of Wisconsin e da GenAI



Fonte:Conjur

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *