Casos de “alucinações jurídicas” em petições reacendem debate sobre o uso responsável da inteligência artificial na advocacia
Casos de advogados sendo punidos por usarem inteligência artificial para redigir petições com informações falsas têm se tornado cada vez mais frequentes, e um artigo recente do The Verge falou sobre a situação.
Em geral, o problema ocorre quando profissionais utilizam modelos de linguagem como o ChatGPT para pesquisas jurídicas ou redação, sem verificar se as citações e jurisprudências realmente existem.
Em um caso de 2024, por exemplo, a juíza Kathryn Kimball Mizelle retirou dos autos uma moção com nove “alucinações jurídicas”, apresentadas pelos advogados do jornalista Tim Burke.
Especialistas como Andrew Perlman, reitor da Faculdade de Direito da Universidade Suffolk, defendem que a IA pode ser uma aliada valiosa — desde que seu uso seja criterioso.
Ele alerta que os advogados ainda devem verificar todas as informações produzidas por essas ferramentas, assim como fariam com um estagiário ou associado júnior.
Em resposta ao uso crescente da tecnologia, a Ordem dos Advogados dos EUA emitiu orientações sobre o uso responsável de IA, reforçando a necessidade de domínio técnico mínimo e atenção à confidencialidade.
A expectativa é que, no futuro, o uso competente de IA se torne não apenas comum, mas essencial na advocacia.
Este é seu site de notícias, entretenimento, esportes e moda musical. Entre e fique por dentro dos últimos acontecimentos em tempo real
Entre em contato: redacao@altnoticias.com.br
© Altnotícias - Todos os Direitos Reservados - 2024

