Por que a Índia precisa urgentemente de orientação prática sobre legislação de IA | Notícias da Índia

A inteligência artificial generativa (IA) tornou-se comum para os advogados redigirem documentos, e os ganhos de eficiência são reais. Mas esta tecnologia tem uma fraqueza bem documentada: cria alucinações. Ele cria títulos de casos, citações e citações que parecem autênticas, mas não são. Isto está acontecendo cada vez mais nos tribunais indianos. Uma bancada chefiada pelo Presidente do Supremo Tribunal da Índia, Juíza Surya Kant, abordou recentemente a questão directamente, observando que, mesmo que as citações sejam genuínas, estão a ser atribuídas citações fictícias aos julgamentos, colocando um fardo adicional de verificação sobre os juízes que já estão pressionados pelo tempo. Preocupações semelhantes foram expressas em outros fóruns judiciais.

Orientações bem pensadas, desenvolvidas agora e de boa fé, permitirão que a Índia tire proveito da IA. (Foto representativa do arquivo)

Um caso merece atenção especial. O Tribunal de Apelação do Imposto de Renda de Bengaluru aprovou a ordem no caso Buckeye Trust v. PCIT citando quatro decisões. Três foram inventados; o quarto existia, mas era irrelevante. O pedido foi retirado em uma semana. Mas a preocupação mais profunda não é o erro em si, mas sim quem o cometeu. Quando um funcionário judicial utiliza inteligência artificial para tomar uma decisão ou, pior, para resolver um litígio, prejudica a confiança das partes no próprio processo de tomada de decisão.

O problema é o vácuo

A IA generativa não “conhece” a lei. Ele foi projetado para criar um texto confiável que pareça útil e, às vezes, esse texto é ficção. Quando o material alucinatório entra nos autos do tribunal, seja por petição ou por ordem judicial, ele zomba do stare decisis, substituindo o precedente vinculativo por autoridade ficcional. Um tribunal pode rejeitar uma petição indevida, mas não pode facilmente anular uma ordem que tenha sido publicada, invocada e possivelmente contestada, com o imprimatur da fundamentação judicial. Nada disso significa que a IA deva ser banida. Mas a sua utilização em processos judiciais não pode basear-se apenas na boa vontade.

O que outras jurisdições fizeram

Várias jurisdições responderam ao desenvolvimento de leis sobre IA com orientações específicas baseadas em princípios familiares: educar os utilizadores sobre as armadilhas da IA, por um lado, e verificações obrigatórias de antecedentes e responsabilidades de apresentação, por outro.

O “Guia para o uso de ferramentas generativas de IA por usuários judiciais” de Cingapura, que se aplica a todo o sistema judiciário, não proíbe o uso de IA, mas exige que o material seja verificado de forma independente, preciso e relevante, com consequências que vão desde custos até penalidades disciplinares por não conformidade.

Nos Estados Unidos, tribunais como o do Distrito Leste do Texas adotaram estruturas de divulgação e certificação que exigem que os advogados certifiquem credenciais pessoais, reconhecendo que a IA generativa pode criar credenciais jurídicas falsas e insistindo na verificação e responsabilização.

No que diz respeito ao uso de inteligência artificial nos tribunais, o Tribunal Federal do Canadá publicou princípios que limitam o uso de inteligência artificial em julgamentos e ordens sem consulta pública, refletindo o limiar mais elevado de legitimidade quando a inteligência artificial se aplica à própria decisão judicial. O Reino Unido foi mais longe ao emitir orientações específicas para funcionários judiciais que vinculam qualquer utilização de inteligência artificial a uma obrigação de proteger a integridade da administração da justiça e afirma categoricamente que a inteligência artificial não é recomendada para investigação jurídica ou análise jurídica.

A Índia, pelo contrário, registou apenas respostas irregulares caso a caso. A IA é amplamente utilizada, muitas vezes sem a devida compreensão das suas limitações e sem salvaguardas a nível do sistema para impedir que autoridades alucinatórias introduzam registos.

É necessário um conjunto de regras

A orientação prática de que a Índia necessita não tem de ser complicada. Quatro princípios retirados da experiência internacional serão suficientes.

Primeiro, reafirme a responsabilidade que não pode ser delegada. A IA não substitui os deveres profissionais. O promotor permanece responsável e vinculado ao dever de franqueza pelo que é apresentado ao tribunal. “A IA fez isso” nunca deveria se tornar uma defesa.

Em segundo lugar, a verificação obrigatória por meio de uma breve certificação por um advogado registrando que cada citação e citação foi verificada pessoalmente a partir de fontes confiáveis. Isto proporciona um equilíbrio eficaz entre a conveniência da IA ​​e a responsabilidade profissional.

Terceiro, estabeleça uma escala de aplicação clara. Erros inadvertidos podem exigir correção e despesas; a imprudência deverá resultar em custos significativos e, quando apropriado, em ações disciplinares. A Índia deveria padronizar as consequências e não confiar no desagrado temporário do tribunal.

Em quarto lugar, e isto é o mais urgente, dados os acontecimentos recentes, para prestar atenção à utilização da inteligência artificial nos tribunais. As abordagens do Canadá e do Reino Unido reflectem um ponto fundamental: a IA não pode tomar decisões. Se alguma ferramenta de inteligência artificial for utilizada durante o desenvolvimento, a total responsabilidade será do oficial do tribunal. O argumento deve ser independente, rastreável até aos autos e fundamentado sem referência a qualquer instrumento.

Resultado

O sistema jurídico funciona com base na confiança. Os advogados são confiáveis ​​para apresentar materiais precisos aos tribunais, e os juízes são confiáveis ​​para tomar decisões com base no que os registros mostram. A IA generativa ameaça ambas as formas de confiança. O Supremo Tribunal deu sinal de alarme. Esta ansiedade deve agora transformar-se em acção. Diretrizes práticas claras, concisas e aplicadas de forma consistente, darão confiança ao advogado, protegerão o tempo do tribunal e garantirão aos litigantes que a administração da justiça não está sendo silenciosamente reescrita por um software que pode compor um caso com a mesma facilidade com que formata um parágrafo. Directrizes bem pensadas, elaboradas agora e de boa fé, permitirão à Índia tirar partido da IA ​​sem trazer a sua falha mais perigosa para o centro do processo.

Link da fonte

DEIXE UMA RESPOSTA

Por favor digite seu comentário!
Por favor, digite seu nome aqui