O caso que mudou a conversa
Em 17 de fevereiro de 2026, o Juiz Jed S. Rakoff, do Tribunal Distrital dos EUA para o Distrito Sul de Nova York, decidiu que registros de conversas de um réu criminal com o chatbot Claude, da Anthropic, não são protegidos pelo attorney-client privilegePrivilégio advogado-cliente no direito norte-americano: proteção que impede a revelação compulsória de comunicações confidenciais entre advogado e cliente feitas para fins de aconselhamento jurídico. nem pela work product doctrineDoutrina do produto de trabalho: proteção que impede a divulgação de materiais preparados por ou para um advogado em antecipação a litígio..
O caso: United States v. Heppner, No. 25 Cr. 503 (S.D.N.Y.). Bradley Heppner, CEO de uma empresa de serviços financeiros, enfrentava acusações de fraude de valores mobiliários, fraude eletrônica, conspiração, declarações falsas a auditores e falsificação de registros. Após receber uma intimação do grand jury e contratar advogados de defesa, Heppner usou o Claude para pesquisar e analisar sua situação jurídica. Criou cerca de 31 documentos com base nessas interações.
Agentes do FBI apreenderam esses registros junto com dispositivos eletrônicos na residência de Heppner. A defesa tentou proteger os documentos como "análise gerada por inteligência artificial para fins de obtenção de aconselhamento jurídico". O juiz rejeitou o argumento por dois fundamentos independentes.
Pilar 1: IA não é advogado
O privilege exige uma comunicação entre cliente e advogado para fins de aconselhamento jurídico. Um chatbot não é advogado. Não tem inscrição na ordem, não deve fiduciário ao usuário, não pode ser disciplinado por conduta profissional. Interagir com uma IA sobre questões jurídicas equivale, para fins de privilégio, a discutir o caso com qualquer pessoa que não seja seu advogado.
Pilar 2: não há expectativa razoável de confidencialidade
Rakoff examinou a política de privacidade da Anthropic e constatou que ela permite a coleta de inputs e outputs do usuário, o uso desses dados para treinamento de modelos, a revisão humana para fins de segurança e a divulgação a terceiros, incluindo autoridades governamentais. Ao aceitar esses termos, o usuário renuncia a qualquer expectativa razoável de confidencialidade. A inserção de informações privilegiadas no sistema equivale a divulgá-las voluntariamente a terceiros.
O caso Heppner é frequentemente confundido na internet com SEC v. Terraform Labs (23-cv-01346), outro caso do mesmo Juiz Rakoff. O caso Terraform tratou de fraude com criptoativos e resultou em condenação de US$ 4,5 bilhões. A decisão sobre IA e privilégio é exclusiva de Heppner. Para fins de citação acadêmica: United States v. Heppner, No. 25 Cr. 503 (JSR) (S.D.N.Y. Feb. 17, 2026).
A brecha que o juiz deixou aberta
Rakoff não proibiu o uso de IA na prática jurídica. Ele sinalizou que a proteção pode existir se a ferramenta for utilizada sob determinadas condições.
A decisão mencionou a doutrina KovelUnited States v. Kovel (1961): estende o privilégio advogado-cliente a terceiros (contadores, consultores, tradutores) que auxiliam o advogado na prestação de aconselhamento jurídico, desde que atuem sob sua direção., que estende o privilégio a terceiros que auxiliam o advogado na preparação do caso. Se uma ferramenta de IA for utilizada sob direção expressa do advogado, dentro de um sistema confidencial e com termos contratuais que proíbam o treinamento e a divulgação, a proteção pode ser sustentável.
Na direção oposta, existe o precedente Tremblay v. OpenAI, No. 3:23-cv-3223 (N.D. Cal. June 18, 2024). Nesse caso, o Juiz Martínez-Olguín do Distrito Norte da Califórnia reconheceu que prompts de advogados no ChatGPT constituíam work product de opinião e seriam protegidos, porque o usuário demonstrou que entendia, com base nos termos de uso, que suas interações seriam privadas.
A variável determinante nos dois casos não é a plataforma. É a combinação entre: (a) quem usou a IA (advogado ou cliente), (b) sob quais termos contratuais e (c) se havia expectativa razoável de confidencialidade. Essa tríade define o resultado.
O que muda no Brasil
O Brasil opera em sistema de Civil Law. Não adota a doutrina do privilege com a mesma mecânica de waiver do Common Law. Mas os vetores de risco são convergentes. Onde o advogado americano perde o privilege, o advogado brasileiro enfrenta três exposições simultâneas: infração ética (OAB), violação da LGPD (ANPD) e responsabilidade civil perante o cliente.
O sigilo profissional no Brasil não é um "privilégio" que se renuncia. É um dever ético e uma prerrogativa legal. O art. 7º, XIX, da Lei 8.906/94 (Estatuto da Advocacia) assegura a inviolabilidade das comunicações do advogado. O Código de Ética e Disciplina da OAB (art. 36) veda a revelação de informações confidenciais do cliente sem autorização.
Quando o advogado insere dados do cliente em uma plataforma cujos termos de uso permitem revisão humana e treinamento de modelos, ele está expondo informações sigilosas a terceiros. A OAB pode considerar isso violação do dever de sigilo, independentemente de o vazamento ter ocorrido de fato. O risco é a conduta, não o resultado.
O advogado é controlador dos dados pessoais dos clientes (art. 5º, VI, LGPD). Ao enviar dados para servidores nos EUA, realiza transferência internacional de dados (art. 33, LGPD). A LGPD exige base legal para isso: consentimento específico do titular, cláusulas contratuais padrão (SCCs) ou decisão de adequação da ANPD.
A Anthropic declara em sua política de privacidade que utiliza SCCs aprovadas pela ANPD (Resolução CD/ANPD nº 19/2024). A OpenAI menciona "mecanismos de transferência legalmente válidos" sem especificar SCCs da ANPD. O Google remete à política geral, que aborda GDPR mas não LGPD especificamente. Há uma diferença prática entre conformidade formal e proteção efetiva do sigilo.
Conformidade com a LGPD é condição necessária, mas não suficiente. A LGPD é lei geral. O Estatuto da OAB é lei especial. O dever de sigilo advocatício exige um padrão mais alto do que a mera base legal para tratamento de dados.
Se dados do cliente forem utilizados para treinar modelos públicos ou acessados por revisores humanos da plataforma, o advogado pode ser condenado a indenizar por danos morais e materiais. A responsabilidade é objetiva no que diz respeito à falha no dever de custódia dos dados (art. 42, LGPD). Não depende de dolo. A mera demonstração de que o dado foi exposto a terceiros sem consentimento do titular pode bastar.
O contrato de honorários que não prevê cláusula sobre uso de IA agrava a exposição. O cliente pode alegar que jamais consentiu, expressa ou tacitamente, com o compartilhamento de suas informações processuais com uma empresa de tecnologia estrangeira.
O problema da revisão humana
Existe um argumento recorrente de que a IA funciona como "infraestrutura", equiparável a um serviço de e-mail ou nuvem. Se os dados são processados automaticamente e nenhum ser humano os lê, não haveria exposição a terceiros. A premissa está errada para as versões consumidor de todas as três grandes plataformas.
O Google é o mais explícito: declara que revisores humanos treinados, incluindo provedores de serviço terceirizados, analisam um subconjunto de conversas do Gemini. A recomendação literal é: "não insira informações confidenciais que você não gostaria que um revisor visse ou que o Google usasse para melhorar seus serviços". A Anthropic informa que equipes internas e revisores treinados podem acessar conversas para fins de segurança e enforcement de políticas. A OpenAI também utiliza revisores humanos em um subconjunto de conversas.
Para o Direito brasileiro, essa distinção é relevante. Processamento automatizado pode ser enquadrado como operação técnica sem acesso humano ao conteúdo. Revisão humana transforma a operação em acesso efetivo por pessoas estranhas à relação processual. Isso configura exposição do sigilo sob o art. 7º, XIX, do Estatuto da OAB, independentemente da existência de DPA, NDA ou cláusula de desassociação de identidade.
As três plataformas tratam o feedback do usuário (thumbs up/down, ratings) como porta de entrada para reutilização de dados. A Anthropic armazena a conversa inteira quando o usuário classifica uma resposta. Isso ocorre mesmo com opt-out de treinamento ativado. Um advogado que avalia a qualidade de uma resposta sobre estratégia processual pode estar, sem perceber, consentindo com o armazenamento integral do diálogo que contém dados sigilosos do cliente.
A distinção que importa no Brasil não é entre IA gratuita e IA paga. É entre IA com revisão humana e IA sem acesso humano ao conteúdo.
Matriz de riscos para advogados brasileiros
A matriz classifica cenários de uso por nível de risco. O critério: probabilidade de que a conduta configure violação do sigilo profissional (OAB), infração à LGPD ou fundamento para responsabilidade civil perante o cliente.
| Risco | Cenário de uso | Fundamento | Recomendação |
|---|---|---|---|
| VERMELHO | Inserir peça processual com nomes das partes, número do processo e estratégia em IA consumidor (ChatGPT Free, Claude Free, Gemini) | Dados treinam o modelo por padrão. Revisão humana possível. Nenhuma expectativa de confidencialidade sustentável. Exposição total do sigilo. | Não usar. Risco de infração ética (OAB), violação LGPD e responsabilidade civil. |
| VERMELHO | Copiar e-mails entre advogado e cliente para "resumir" ou "organizar" em IA consumidor | Comunicação privilegiada exposta a terceiros. Sob a lógica de Heppner, a informação perde proteção no momento da inserção. | Não usar. Se precisar resumir, copie para ferramenta offline ou API com DPA. |
| VERMELHO | Usar IA consumidor para analisar documentos de due diligence, auditoria ou investigação interna | Documentos com informações comerciais sensíveis e potencialmente privilegiadas. Revisão humana e treinamento possíveis. | Não usar. Requer ambiente Enterprise com garantia contratual de não-treinamento e não-acesso humano. |
| AMARELO | Usar IA consumidor com opt-out de treinamento ativado para pesquisa jurisprudencial genérica | Opt-out reduz risco, mas exceções de segurança permanecem. Dados sinalizados podem ser revisados mesmo com opt-out. Feedback dado pode reativar armazenamento. | Aceitável com cautela. Não inserir dados identificadores do cliente. Não dar feedback em respostas sobre o caso. |
| AMARELO | Usar planos pagos (Pro/Plus) para redigir minutas com dados anonimizados | Plano pago não altera termos de treinamento. A proteção vem do opt-out e da anonimização, não do pagamento. Se a anonimização falhar, os riscos são iguais. | Aceitável se: (1) anonimização completa, (2) opt-out ativado, (3) sem feedback. |
| AMARELO | Usar Temporary Chat (ChatGPT) ou Keep Activity desativado (Gemini) para consultas pontuais | Reduz retenção. ChatGPT: não salva em histórico e não treina. Gemini: retém 72h, revisão humana permanece possível. | Aceitável para consultas genéricas sem dados do cliente. Preferir ChatGPT Temporary Chat. |
| VERDE | Usar via API com Zero Data Retention (OpenAI) ou API comercial (Anthropic/Google Vertex) | APIs comerciais excluem dados do treinamento por padrão. ZDR elimina retenção de conteúdo. DPA disponível. Sem revisão humana do conteúdo. | Recomendado para uso profissional. Exigir DPA assinado. Documentar a configuração. |
| VERDE | Usar plano Enterprise/Team (ChatGPT Enterprise, Claude for Work, Gemini Enterprise) com DPA | Dados não treinam modelos. NDA e DPA incluídos. SOC2/ISO disponível. Equiparável a provedor de infraestrutura. | Recomendado. Preservar documentação contratual. Informar no contrato de honorários. |
| VERDE | Usar IA local (modelos open source em servidor próprio, sem envio de dados a terceiros) | Nenhum dado sai do ambiente do escritório. Não há terceiro envolvido. Sigilo preservado integralmente. | Ideal para sigilo. Exige investimento em infraestrutura e expertise técnica. |
Antes de colar qualquer informação em uma IA, faça a pergunta: "se o juiz do processo, a OAB ou a ANPD lessem exatamente o que estou digitando, haveria problema?" Se a resposta é sim ou talvez, não cole. Use API com DPA ou anonimize completamente.
O que muda entre consumidor e enterprise
Opt-out de treinamento
toque para verConfiguração que impede o uso dos dados para treinar modelos. Disponível nas três plataformas. Não é absoluto: exceções de segurança e feedback podem reativar o uso. Ativar é necessário, mas insuficiente isoladamente.
DPA
toque para verData Processing Agreement. Contrato entre controlador (escritório) e operador (plataforma de IA) que define obrigações de tratamento de dados. Exigido pela LGPD para uso profissional. Disponível apenas em planos Enterprise e API.
SCCs ANPD
toque para verCláusulas Contratuais Padrão aprovadas pela ANPD (Resolução nº 19/2024). Mecanismo para transferência internacional de dados pessoais. A Anthropic é a única das três plataformas que declara expressamente adotá-las para o Brasil.
Doutrina Kovel
toque para verPrecedente de 1961 que estende o privilégio advogado-cliente a terceiros que auxiliam o advogado (contadores, peritos). Em Heppner, Rakoff sinalizou que a IA poderia ser enquadrada nessa doutrina se usada sob direção do advogado em ambiente confidencial.
Admissibilidade de provas: o cenário brasileiro
No Brasil, não existe discovery nos moldes americanos. A produção de provas é controlada pelo juiz (arts. 396-404, CPC). Isso cria uma camada de proteção processual que não existe nos EUA. Mas não elimina o risco.
No processo civil, se a parte adversária souber que o escritório usou IA para elaborar estratégia, pode requerer a exibição dos logs de conversação. O juiz pode deferir se considerar que a informação é relevante e que a exposição voluntária à plataforma retirou a proteção de sigilo. Não há precedente nesse sentido, mas a lógica é consistente com o sistema processual.
No processo penal, a proteção é mais robusta. O art. 243, §2º, do CPP proíbe a apreensão de documentos de advogados, salvo quando o próprio advogado é investigado. A questão em aberto: se os dados estão armazenados nos servidores de uma empresa de tecnologia nos EUA (e não no escritório), essa proteção se estende? A resposta dependerá de como os tribunais brasileiros enquadrarão a IA: como extensão do escritório (proteção) ou como terceiro independente (sem proteção).
Risco: Requerimento de exibição de logs de IA pela parte contrária (arts. 396-404, CPC).
Defesa: Arguir sigilo profissional (art. 7º, XIX, Estatuto OAB). Demonstrar que o uso da IA ocorreu em ambiente contratualmente protegido (Enterprise + DPA) ou que os dados foram anonimizados.
Cenário provável: Se o advogado usou versão consumidor sem opt-out, o juiz pode considerar que houve renúncia voluntária à proteção. Se usou Enterprise com DPA, o argumento de infraestrutura é sustentável.
Risco: Quebra de sigilo telemático (art. 2º, Lei 9.296/96) direcionada aos servidores da plataforma de IA.
Defesa: Art. 243, §2º, CPP (proteção de documentos de advogado). Art. 7º, II e III, do Estatuto da OAB (inviolabilidade do escritório e dos meios de comunicação).
Cenário provável: Se os dados estão em servidor de terceiro que pode acessá-los e divulgá-los conforme seus próprios termos, a proteção do art. 243, §2º, pode ser relativizada. Questão sem precedente direto.
Risco OAB: Processo disciplinar por violação do dever de sigilo (art. 36, CED). A simples inserção de dados sigilosos em plataforma com termos que permitem revisão humana pode configurar infração, independentemente de vazamento efetivo.
Risco ANPD: Autuação por transferência internacional irregular (art. 33, LGPD) ou tratamento sem base legal adequada (art. 7º, LGPD). Multas de até 2% do faturamento da pessoa jurídica, limitadas a R$ 50 milhões por infração (art. 52, LGPD).
Saídas práticas
O uso de IA na advocacia brasileira não precisa parar. Precisa ser estruturado. As medidas abaixo cobrem os três vetores de risco (OAB, LGPD, responsabilidade civil) e são implementáveis em escritórios de qualquer porte.
Para onde isso vai
US v. Heppner não criou direito novo. Aplicou regras de evidência consolidadas a uma tecnologia recente. A consequência prática é que qualquer informação inserida em IA consumidor pode ser tratada como informação voluntariamente divulgada a terceiros.
No Brasil, não há decisão equivalente. Mas a estrutura jurídica que sustentaria a mesma conclusão já existe: dever de sigilo (Estatuto OAB), responsabilidade do controlador (LGPD) e regras de admissibilidade de prova (CPC/CPP). A ausência de precedente não é segurança. É lacuna. E lacunas são preenchidas no caso concreto, sob circunstâncias que o advogado raramente controla.
O cenário não exige que advogados abandonem a IA. Exige que tratem a ferramenta com o mesmo rigor que aplicam a qualquer outro prestador de serviço que tem acesso a informações do cliente: contrato específico, controle de escopo, documentação de compliance e consentimento informado do titular.
A OAB ainda não se pronunciou formalmente sobre o tema. A ANPD não publicou orientação específica para IA generativa e sigilo profissional. O PL 2338/2023 (Marco Legal da IA) não aborda a interação entre IA e sigilo advocatício. Quem se posicionar agora terá definido a própria proteção antes que o regulador ou o tribunal defina por ele.






