22.11.2025 – A inteligência artificial (IA) representa uma das mais profundas revoluções tecnológicas da história recente, com potencial para redefinir a sociedade, a economia e as interações humanas. Sua capacidade de processar vastas quantidades de dados, identificar padrões complexos e realizar tarefas que antes eram exclusivas da mente humana tem gerado um impacto transformador em praticamente todos os setores. Desde a medicina, com diagnósticos mais precisos, até a indústria, com otimização de processos, a IA está remodelando a forma como vivemos e trabalhamos. No epicentro dessa transformação, o mundo jurídico emerge como um campo particularmente fértil para a aplicação e, consequentemente, para a regulamentação da IA.

Historicamente, o direito tem sido uma área caracterizada pela dependência de conhecimento especializado, análise complexa de textos, argumentação lógica e julgamento humano. Contudo, a ascensão da IA, especialmente com o advento de modelos generativos e grandes modelos de linguagem (LLMs – Large Language Models), está desafiando essas premissas, introduzindo novas ferramentas e metodologias que prometem aumentar a eficiência, a acessibilidade e, potencialmente, a justiça do sistema legal. A automação de tarefas repetitivas, a pesquisa jurídica avançada, a análise preditiva de resultados de litígios e a assistência na redação de documentos são apenas alguns exemplos de como a IA já está se infiltrando na prática jurídica.

No entanto, essa revolução tecnológica não vem sem seus desafios. Questões éticas complexas, preocupações com a privacidade e segurança de dados, a possibilidade de vieses algorítmicos e a necessidade de garantir a supervisão humana e a responsabilidade são temas centrais que exigem atenção e regulamentação cuidadosas. Alucinações e vieses têm sido os grandes obstáculos para os profissionais do direito, estejam eles empossados em cargos públicos ou à frente de escritórios de advocacia ou ainda atuando internamente em instituições privadas.

O Brasil, reconhecendo a urgência e a importância de abordar esses desafios, tem se posicionado na vanguarda da regulamentação da IA no contexto jurídico. Iniciativas como a Recomendação 001/2024 da Ordem dos Advogados do Brasil (OAB) e a Resolução 615/2025 do Conselho Nacional de Justiça (CNJ) representam marcos significativos nesse esforço, buscando estabelecer diretrizes claras para o uso ético, responsável e eficaz da IA por profissionais do direito e no âmbito do sistema judiciário.

A Revolução da Inteligência Artificial e Suas Aplicações Gerais

A inteligência artificial, em sua essência, refere-se à capacidade de máquinas simularem a inteligência humana, realizando tarefas como aprendizado, raciocínio, percepção e tomada de decisões. Sua evolução tem sido exponencial, impulsionada por avanços em algoritmos, poder computacional e disponibilidade de dados. As características principais da IA moderna incluem o machine learning (ML), onde sistemas aprendem a partir de dados sem serem explicitamente programados; o deep learning (DL), um subcampo do ML que utiliza redes neurais artificiais com múltiplas camadas para processar informações complexas; e o processamento de linguagem natural (PLN), que permite às máquinas entender, interpretar e gerar linguagem humana.

Essas tecnologias têm encontrado aplicações em uma vasta gama de setores econômicos, transformando processos e criando novas possibilidades. Na saúde, a IA auxilia no diagnóstico de doenças, na descoberta de medicamentos e na personalização de tratamentos. No setor financeiro, é utilizada para detecção de fraudes, análise de risco e negociação algorítmica. No varejo, personaliza recomendações de produtos e otimiza a gestão de estoque. Na indústria automotiva, é a base para veículos autônomos e sistemas avançados de assistência ao motorista. A agricultura se beneficia da IA para monitoramento de safras e otimização de recursos.

Os impactos potenciais da IA na sociedade são incontáveis. Economicamente, a IA promete aumentar a produtividade e a eficiência, impulsionando o crescimento e o desenvolvimento sustentado. Contudo, também levanta preocupações sobre a automação de empregos e a necessidade de requalificação da força de trabalho. Socialmente, a IA pode melhorar a qualidade de vida, oferecendo soluções para desafios complexos, mas também pode acelerar desigualdades, se não for implementada de forma equitativa. A privacidade e a segurança de dados tornam-se questões críticas, dada a vasta quantidade de informações que os sistemas de IA processam.

Inteligência Artificial no Mundo Jurídico: Transformações e Oportunidades

A penetração da inteligência artificial no mundo jurídico representa uma das mais significativas transformações na prática do direito desde a invenção da imprensa. Longe de ser uma mera ferramenta auxiliar, a IA está redefinindo a forma como advogados, juízes, promotores e demais operadores do direito executam suas funções, abrindo um leque de oportunidades para otimização, eficiência e, potencialmente, para uma maior acessibilidade à justiça.

Uma das aplicações mais evidentes da IA no direito é a automação de tarefas. A pesquisa jurídica, tradicionalmente uma atividade intensiva em tempo e recursos, é revolucionada por sistemas de IA capazes de varrer vastos bancos de dados de legislação, jurisprudência e doutrina em questão de segundos, identificando precedentes relevantes e padrões que seriam difíceis de discernir manualmente. Ferramentas de análise de documentos podem revisar contratos, petições e outros textos legais para identificar cláusulas específicas, inconsistências ou riscos, reduzindo drasticamente o tempo necessário para due diligence e revisão contratual. Além disso, a IA generativa começa a auxiliar na redação de peças processuais, memorandos e pareceres, fornecendo rascunhos iniciais que podem ser refinados por profissionais humanos, liberando-os para tarefas mais estratégicas e de maior valor agregado.

A análise de dados e previsão de resultados é outra área onde a IA demonstra um potencial transformador. Ao analisar dados históricos de litígios, incluindo tipos de casos, argumentos apresentados, perfis de juízes e resultados, algoritmos de IA podem oferecer insights preditivos sobre a probabilidade de sucesso em um determinado caso, o valor esperado de uma indenização ou a duração provável de um processo. Essa capacidade de “justiça preditiva” pode auxiliar advogados na formulação de estratégias processuais, na negociação de acordos e na aconselhamento de clientes, permitindo decisões mais informadas e baseadas em evidências.

A IA também atua como assistência na tomada de decisões judiciais. Embora a decisão final deva sempre permanecer com o magistrado humano, os sistemas de IA podem fornecer subsídios valiosos, como a identificação de precedentes conflitantes, a sumarização de argumentos complexos ou a sinalização de possíveis vieses em decisões anteriores. Isso pode contribuir para uma maior consistência e equidade nas decisões judiciais, ao mesmo tempo em que acelera o processo de julgamento.

O impacto na eficiência do sistema de justiça como um todo é inegável. A automação de tarefas administrativas, a triagem inteligente de processos e a otimização da alocação de recursos podem reduzir o acúmulo de casos, diminuir os custos operacionais e acelerar a resolução de disputas, tornando o acesso à justiça mais rápido e menos oneroso para os cidadãos.

Contudo, a integração da IA no mundo jurídico não está isenta de questões éticas fundamentais. A transparência dos algoritmos é um ponto de interrogação: como as decisões são tomadas? Quais dados são utilizados? A falta de explicabilidade pode minar a confiança no sistema de justiça. A responsabilização é outro aspecto a ser questionado: quem é responsável por erros ou danos causados por sistemas de IA? A responsabilidade deve recair sobre o desenvolvedor, o usuário ou o próprio sistema? A segurança de dados e a privacidade são preocupações centrais, especialmente considerando a natureza sensível das informações jurídicas.

Um dos desafios mais prementes é o combate aos vieses algorítmicos. Se os dados de treinamento refletem preconceitos históricos ou sociais, o sistema de IA pode perpetuá-los ou até amplificá-los, levando a resultados discriminatórios. Isso é particularmente perigoso em um contexto onde a justiça e a equidade são valores supremos. A IA pode, por exemplo, reproduzir vieses raciais ou socioeconômicos presentes em decisões judiciais passadas, comprometendo a imparcialidade.

Para a profissão jurídica, a IA representa tanto uma ameaça quanto uma oportunidade. A automação de tarefas rotineiras pode liberar advogados para se concentrarem em aspectos mais estratégicos e criativos do direito, mas também exige uma requalificação e adaptação contínua. A capacidade de trabalhar e gerenciar ferramentas de IA se tornará uma competência essencial. Para as instituições judiciais, o desafio é integrar a IA de forma a preservar os princípios fundamentais do direito, garantir a supervisão humana e manter a confiança pública, ao mesmo tempo em que colhem os benefícios da eficiência e da modernização. A regulamentação, portanto, torna-se um pilar essencial para guiar essa transição, assegurando que a IA sirva aos propósitos da justiça, ao invés de subvertê-los.

Recomendação 001/2024 da Ordem dos Advogados do Brasil

A Ordem dos Advogados do Brasil (OAB), atenta à crescente e inegável influência da inteligência artificial na prática jurídica, emitiu a Recomendação 001/2024, um documento de suma importância que visa orientar os profissionais do direito sobre o uso ético e responsável dessas tecnologias. O contexto e propósito da Recomendação são claros: diante da rápida evolução da IA, especialmente dos modelos generativos, a OAB reconhece a necessidade de estabelecer balizas para que a inovação tecnológica seja empregada em conformidade com os princípios éticos e as prerrogativas da advocacia, protegendo os interesses dos clientes e a integridade do sistema jurídico.

Os fundamentos legais da Recomendação são robustos, ancorados em pilares do ordenamento jurídico brasileiro e da própria regulamentação da advocacia. Ela se baseia no Estatuto da OAB (Lei 8.906/1994), que define as prerrogativas e deveres dos advogados; no Código de Ética e Disciplina da OAB, que estabelece os padrões de conduta profissional; na Lei Geral de Proteção de Dados (LGPD – Lei 13.709/2018), que garante a proteção da privacidade e dos dados pessoais; e no Código de Processo Civil (CPC – Lei 13.105/2015), que rege a atuação processual. Além disso, a Recomendação busca alinhamento com padrões internacionais, citando a Recomendação da UNESCO sobre a Ética da Inteligência Artificial (2021) e resoluções da ONU, demonstrando uma preocupação em harmonizar as diretrizes brasileiras com o debate global sobre a governança da IA.

As principais disposições e diretrizes da Recomendação 001/2024 são abrangentes e detalhadas, abordando os pontos mais críticos do uso da IA na advocacia:

a) Confidencialidade e proteção de dados do cliente: A Recomendação enfatiza que a confidencialidade é um pilar inegociável da relação advogado-cliente. Proíbe expressamente o compartilhamento de dados confidenciais do cliente com provedores de IA para fins de treinamento de modelos, a menos que haja consentimento informado e específico. Isso visa evitar que informações sensíveis sejam absorvidas por sistemas de IA e potencialmente expostas ou utilizadas de forma indevida.

b) Supervisão humana e responsabilidade: A IA é categorizada como uma ferramenta de apoio, e não um substituto para o julgamento profissional do advogado. A Recomendação reforça que a responsabilidade final por qualquer ato ou decisão jurídica, mesmo que auxiliada por IA, recai integralmente sobre o profissional humano. Isso garante que a autonomia e a ética da advocacia permaneçam no centro da prática.

c) Verificação obrigatória de informações geradas por IA: Dada a natureza probabilística e, por vezes, alucinatória dos modelos de IA generativa, a Recomendação estabelece a obrigatoriedade de o advogado verificar e validar todas as informações, argumentos, doutrinas e jurisprudências geradas ou sugeridas por sistemas de IA. A precisão e a veracidade do conteúdo jurídico são de responsabilidade do advogado.

d) Transparência e consentimento informado do cliente: É mandatório que o advogado informe o cliente sobre o uso de ferramentas de IA em seu caso. Esse consentimento deve ser formalizado por escrito e prévio ao uso da tecnologia. A transparência é essencial para construir e manter a confiança na relação profissional.

e) Conteúdo da formalização: O termo de consentimento deve ser detalhado, explicando o propósito do uso da IA, os benefícios esperados, as limitações da tecnologia, os riscos potenciais de imprecisão ou exposição de dados, e as medidas de segurança adotadas para proteger as informações do cliente.

f) Competência e aprendizado contínuo do profissional: A Recomendação sublinha a necessidade de os advogados desenvolverem competências digitais e se manterem atualizados sobre as tecnologias de IA. O aprendizado contínuo é fundamental para utilizar a IA de forma eficaz e segura, compreendendo suas capacidades e limitações.

g) Responsabilidade gerencial em escritórios de advocacia: Escritórios e sociedades de advogados têm a responsabilidade de implementar políticas internas claras para o uso da IA, garantindo que todos os profissionais sigam as diretrizes éticas e de segurança de dados. Isso inclui a capacitação da equipe e a adoção de tecnologias seguras.

h) Especificidades em atividades contenciosas: No âmbito do contencioso, a Recomendação pode exigir cautela adicional, especialmente no que tange à apresentação de argumentos ou provas geradas por IA, que devem ser sempre revisadas e validadas pelo advogado.

As implicações práticas para advogados e escritórios de advocacia são profundas. A Recomendação exige uma mudança de mentalidade e a adoção de novos protocolos de trabalho. Advogados precisarão ser mais diligentes na verificação de informações, mais transparentes com seus clientes e mais proativos na busca por capacitação em IA. Escritórios deverão investir em infraestrutura segura, desenvolver políticas internas robustas e promover uma cultura de uso responsável da tecnologia.

Para a implementação da Recomendação na prática diária, sugere-se a criação de termos de consentimento padronizados, a realização de treinamentos regulares para a equipe, a adoção de ferramentas de IA que ofereçam garantias de segurança e privacidade, e a designação de responsáveis pela governança da IA dentro das bancas. A Recomendação 001/2024 da OAB não é apenas um guia ético. Trata-se de um chamado à adaptação de processos e responsabilidades, garantindo que a advocacia brasileira possa abraçar a inovação tecnológica sem comprometer seus valores fundamentais.

Resolução 615/2025 do Conselho Nacional de Justiça

A Resolução 615/2025 do Conselho Nacional de Justiça (CNJ) representa um marco regulatório fundamental para o uso da inteligência artificial no âmbito do sistema judiciário brasileiro. Publicada em um contexto de rápida evolução da IA, especialmente dos modelos generativos, esta Resolução atualiza e expande as diretrizes estabelecidas pela Resolução 332/2020, que já tratava do uso de IA no Judiciário, mas que se tornou insuficiente diante dos avanços tecnológicos. O propósito e escopo da Resolução 615/2025 são claros: estabelecer um arcabouço normativo robusto que permita a inovação e a eficiência no Poder Judiciário por meio da IA, ao mesmo tempo em que protege os direitos fundamentais, garante a transparência e a responsabilidade, e mitiga os riscos associados a essas tecnologias.

A Resolução é construída sobre um conjunto de princípios fundamentais que guiam a implementação e o uso da IA no Judiciário:

a) Supervisão humana e responsabilidade: Assim como na Recomendação da OAB, a Resolução do CNJ reitera que a IA deve ser uma ferramenta de apoio, e não um substituto para o julgamento humano. A decisão final e a responsabilidade por ela recaem sempre sobre o magistrado ou servidor humano.

b) Abordagem baseada em risco: A Resolução adota uma categorização de risco para as aplicações de IA (risco excessivo, alto e baixo), permitindo uma regulamentação proporcional e focada nas áreas de maior impacto. Soluções de risco excessivo são proibidas, enquanto as de alto risco exigem avaliações e salvaguardas mais rigorosas.

c) Proteção de direitos fundamentais e dados (LGPD): A Resolução reforça a necessidade de conformidade com a Lei Geral de Proteção de Dados (LGPD) e a proteção de outros direitos fundamentais, como a não discriminação, a dignidade da pessoa humana e o devido processo legal.

d) Transparência, auditabilidade e explicabilidade: Os sistemas de IA devem ser transparentes em seu funcionamento, permitindo que suas decisões sejam auditadas e explicadas. Isso é crucial para a confiança pública no sistema de justiça.

e) Qualidade e segurança de dados: A Resolução exige que os dados utilizados para treinar e operar sistemas de IA sejam de alta qualidade, precisos e seguros, minimizando o risco de vieses e erros.

Para garantir a efetivação desses princípios, a Resolução estabelece mecanismos de implementação robustos:

a) Comitê Nacional de IA do Judiciário (CNIAJ): É criado o CNIAJ, com composição multidisciplinar, responsável por formular políticas, emitir diretrizes, supervisionar a implementação da IA e garantir a conformidade com a Resolução. Suas atribuições incluem o registro e a avaliação de soluções de IA.

b) Plataforma Sinapses: A Plataforma Sinapses, já existente, é designada como o ambiente central para o registro, teste, treinamento, distribuição e auditagem de todas as soluções de IA utilizadas no Judiciário. Isso garante um controle centralizado e a possibilidade de monitoramento.

c) Avaliação de Impacto Algorítmico (AIA): Para soluções de IA de alto risco, é obrigatória a realização de uma Avaliação de Impacto Algorítmico, que deve identificar, avaliar e mitigar os riscos potenciais para os direitos fundamentais e a equidade.

d) Curadoria de dados e privacidade by design/default: A Resolução exige a adoção de práticas de curadoria de dados rigorosas e a implementação de princípios de privacidade desde a concepção (privacy by design) e por padrão (privacy by default) em todas as soluções de IA.

A Resolução também detalha diretrizes específicas e proibições:

a) Usos proibidos de IA: São expressamente proibidos usos de IA que impliquem em dependência absoluta da máquina para decisões judiciais, previsão de criminalidade com base em perfis individuais, ou classificação social de indivíduos. Essas proibições visam proteger a autonomia humana e evitar a perpetuação de injustiças.

b) Uso e contratação de LLMs e IA generativa: A Resolução estabelece requisitos específicos para o uso e a contratação de grandes modelos de linguagem (LLMs) e outras ferramentas de IA generativa, reconhecendo seus riscos e benefícios.

c) Requisitos para tribunais que contratarem LLMs privados: Tribunais que optarem por contratar LLMs de provedores privados devem garantir que os dados confidenciais não sejam utilizados para treinamento dos modelos, que haja cláusulas de confidencialidade robustas e que a soberania dos dados seja mantida.

d) Registro obrigatório em Sinapses e publicação de avaliações de impacto: Todas as soluções de IA, independentemente de serem desenvolvidas internamente ou contratadas, devem ser registradas na Plataforma Sinapses, e as Avaliações de Impacto Algorítmico devem ser publicadas para garantir a transparência.

e) Dados públicos versus confidenciais: A Resolução diferencia o tratamento de dados públicos e confidenciais, impondo salvaguardas mais rigorosas para estes últimos, especialmente no que tange ao treinamento de modelos de IA.

f) Controle do usuário e autonomia: As soluções de IA devem ser projetadas de forma a garantir o controle do usuário e a autonomia do operador humano, que deve ter a capacidade de intervir, corrigir e anular as sugestões da máquina.

A Resolução estabelece um cronograma de implementação de 12 (doze) meses para que os tribunais se adaptem às novas regras, demonstrando a urgência e a seriedade com que o CNJ trata o tema.

As implicações para magistrados, servidores judiciais e demais atores do sistema são significativas. Magistrados e servidores precisarão ser capacitados para utilizar as ferramentas de IA de forma ética e eficaz, compreendendo suas limitações e a necessidade de supervisão humana. A cultura organizacional do Judiciário precisará se adaptar para incorporar a IA como um auxiliar, sem perder de vista os valores de justiça e equidade. O impacto potencial na modernização do Poder Judiciário é imenso, prometendo maior eficiência, celeridade e, em última instância, um acesso à justiça mais equitativo e transparente para todos os cidadãos.

A Resolução 615/2025 posiciona o Brasil como um líder na governança da IA no setor público, buscando um equilíbrio entre inovação tecnológica e proteção dos direitos fundamentais.

As perspectivas futuras apontam para uma convergência cada vez maior entre tecnologia e direito. Veremos o desenvolvimento de sistemas de IA mais sofisticados, capazes de realizar análises jurídicas ainda mais complexas, prever resultados com maior precisão e até mesmo auxiliar na formulação de novas leis. A necessidade de harmonização de regulamentações entre o Brasil e o cenário internacional será crescente, à medida que a IA se torna uma tecnologia global. A cooperação internacional será vital para estabelecer padrões éticos e técnicos universais.

A reflexão sobre o papel do advogado e do magistrado na era da IA assume cada vez mais um protagonismo inevitável. Longe de serem substituídos, esses profissionais terão seus papéis redefinidos. Enquanto o advogado tende a se tornar um arquiteto jurídico, utilizando a IA para otimizar sobremaneira o seu trabalho com a pesquisa e a redação, mas focando na estratégia, na argumentação persuasiva e na relação humana com o cliente, o magistrado, por sua vez, continuará sendo o guardião da justiça, utilizando a IA como um valioso auxiliar para a análise de casos, mas mantendo a supremacia da vontade humana e a responsabilidade final pela decisão. O desafio será manter a responsabilidade final do ser humano e a supremacia da vontade humana como pilares inabaláveis do sistema de justiça, garantindo que a tecnologia sirva à humanidade e não o contrário. A IA deve ser uma ferramenta para aprimorar a justiça e não para desumanizá-la.

Post Disclaimer

A informação contida nesse site pode ser copiada ou reproduzida, sem necessidade de consentimento prévio do autor. Quando possível, o autor solicita a colaboração em citar a fonte dos dados.

Deixe uma resposta