O caso que mudou a conversa

Em 17 de fevereiro de 2026, o Juiz Jed S. Rakoff, do Tribunal Distrital dos EUA para o Distrito Sul de Nova York, decidiu que registros de conversas de um réu criminal com o chatbot Claude, da Anthropic, não são protegidos pelo attorney-client privilegePrivilégio advogado-cliente no direito norte-americano: proteção que impede a revelação compulsória de comunicações confidenciais entre advogado e cliente feitas para fins de aconselhamento jurídico. nem pela work product doctrineDoutrina do produto de trabalho: proteção que impede a divulgação de materiais preparados por ou para um advogado em antecipação a litígio..

O caso: United States v. Heppner, No. 25 Cr. 503 (S.D.N.Y.). Bradley Heppner, CEO de uma empresa de serviços financeiros, enfrentava acusações de fraude de valores mobiliários, fraude eletrônica, conspiração, declarações falsas a auditores e falsificação de registros. Após receber uma intimação do grand jury e contratar advogados de defesa, Heppner usou o Claude para pesquisar e analisar sua situação jurídica. Criou cerca de 31 documentos com base nessas interações.

Agentes do FBI apreenderam esses registros junto com dispositivos eletrônicos na residência de Heppner. A defesa tentou proteger os documentos como "análise gerada por inteligência artificial para fins de obtenção de aconselhamento jurídico". O juiz rejeitou o argumento por dois fundamentos independentes.

0 docs
gerados por Heppner no Claude sobre sua defesa
0 pilares
independentes na fundamentação de Rakoff
0 decisões
equivalentes no Brasil até abril/2026

Pilar 1: IA não é advogado

O privilege exige uma comunicação entre cliente e advogado para fins de aconselhamento jurídico. Um chatbot não é advogado. Não tem inscrição na ordem, não deve fiduciário ao usuário, não pode ser disciplinado por conduta profissional. Interagir com uma IA sobre questões jurídicas equivale, para fins de privilégio, a discutir o caso com qualquer pessoa que não seja seu advogado.

Pilar 2: não há expectativa razoável de confidencialidade

Rakoff examinou a política de privacidade da Anthropic e constatou que ela permite a coleta de inputs e outputs do usuário, o uso desses dados para treinamento de modelos, a revisão humana para fins de segurança e a divulgação a terceiros, incluindo autoridades governamentais. Ao aceitar esses termos, o usuário renuncia a qualquer expectativa razoável de confidencialidade. A inserção de informações privilegiadas no sistema equivale a divulgá-las voluntariamente a terceiros.

Ponto que exige precisão

O caso Heppner é frequentemente confundido na internet com SEC v. Terraform Labs (23-cv-01346), outro caso do mesmo Juiz Rakoff. O caso Terraform tratou de fraude com criptoativos e resultou em condenação de US$ 4,5 bilhões. A decisão sobre IA e privilégio é exclusiva de Heppner. Para fins de citação acadêmica: United States v. Heppner, No. 25 Cr. 503 (JSR) (S.D.N.Y. Feb. 17, 2026).

A brecha que o juiz deixou aberta

Rakoff não proibiu o uso de IA na prática jurídica. Ele sinalizou que a proteção pode existir se a ferramenta for utilizada sob determinadas condições.

A decisão mencionou a doutrina KovelUnited States v. Kovel (1961): estende o privilégio advogado-cliente a terceiros (contadores, consultores, tradutores) que auxiliam o advogado na prestação de aconselhamento jurídico, desde que atuem sob sua direção., que estende o privilégio a terceiros que auxiliam o advogado na preparação do caso. Se uma ferramenta de IA for utilizada sob direção expressa do advogado, dentro de um sistema confidencial e com termos contratuais que proíbam o treinamento e a divulgação, a proteção pode ser sustentável.

Na direção oposta, existe o precedente Tremblay v. OpenAI, No. 3:23-cv-3223 (N.D. Cal. June 18, 2024). Nesse caso, o Juiz Martínez-Olguín do Distrito Norte da Califórnia reconheceu que prompts de advogados no ChatGPT constituíam work product de opinião e seriam protegidos, porque o usuário demonstrou que entendia, com base nos termos de uso, que suas interações seriam privadas.

Heppner: sem proteção
Uso por cliente, não por advogado
Plataforma consumidor com termos que permitem treinamento
Sem direção de advogado no uso da ferramenta
Sem NDA ou DPA com a plataforma
Tremblay: com proteção
Uso pelo advogado em preparação para litígio
Prompts refletiam impressões e opiniões do advogado
Expectativa razoável de privacidade demonstrada
Termos de uso indicavam que dados seriam privados
Leitura estratégica

A variável determinante nos dois casos não é a plataforma. É a combinação entre: (a) quem usou a IA (advogado ou cliente), (b) sob quais termos contratuais e (c) se havia expectativa razoável de confidencialidade. Essa tríade define o resultado.

O que muda no Brasil

O Brasil opera em sistema de Civil Law. Não adota a doutrina do privilege com a mesma mecânica de waiver do Common Law. Mas os vetores de risco são convergentes. Onde o advogado americano perde o privilege, o advogado brasileiro enfrenta três exposições simultâneas: infração ética (OAB), violação da LGPD (ANPD) e responsabilidade civil perante o cliente.

Exposição 1: Infração ética (OAB)

O sigilo profissional no Brasil não é um "privilégio" que se renuncia. É um dever ético e uma prerrogativa legal. O art. 7º, XIX, da Lei 8.906/94 (Estatuto da Advocacia) assegura a inviolabilidade das comunicações do advogado. O Código de Ética e Disciplina da OAB (art. 36) veda a revelação de informações confidenciais do cliente sem autorização.

Quando o advogado insere dados do cliente em uma plataforma cujos termos de uso permitem revisão humana e treinamento de modelos, ele está expondo informações sigilosas a terceiros. A OAB pode considerar isso violação do dever de sigilo, independentemente de o vazamento ter ocorrido de fato. O risco é a conduta, não o resultado.

Exposição 2: LGPD e transferência internacional

O advogado é controlador dos dados pessoais dos clientes (art. 5º, VI, LGPD). Ao enviar dados para servidores nos EUA, realiza transferência internacional de dados (art. 33, LGPD). A LGPD exige base legal para isso: consentimento específico do titular, cláusulas contratuais padrão (SCCs) ou decisão de adequação da ANPD.

A Anthropic declara em sua política de privacidade que utiliza SCCs aprovadas pela ANPD (Resolução CD/ANPD nº 19/2024). A OpenAI menciona "mecanismos de transferência legalmente válidos" sem especificar SCCs da ANPD. O Google remete à política geral, que aborda GDPR mas não LGPD especificamente. Há uma diferença prática entre conformidade formal e proteção efetiva do sigilo.

Conformidade com a LGPD é condição necessária, mas não suficiente. A LGPD é lei geral. O Estatuto da OAB é lei especial. O dever de sigilo advocatício exige um padrão mais alto do que a mera base legal para tratamento de dados.

Exposição 3: Responsabilidade civil perante o cliente

Se dados do cliente forem utilizados para treinar modelos públicos ou acessados por revisores humanos da plataforma, o advogado pode ser condenado a indenizar por danos morais e materiais. A responsabilidade é objetiva no que diz respeito à falha no dever de custódia dos dados (art. 42, LGPD). Não depende de dolo. A mera demonstração de que o dado foi exposto a terceiros sem consentimento do titular pode bastar.

O contrato de honorários que não prevê cláusula sobre uso de IA agrava a exposição. O cliente pode alegar que jamais consentiu, expressa ou tacitamente, com o compartilhamento de suas informações processuais com uma empresa de tecnologia estrangeira.

O problema da revisão humana

Existe um argumento recorrente de que a IA funciona como "infraestrutura", equiparável a um serviço de e-mail ou nuvem. Se os dados são processados automaticamente e nenhum ser humano os lê, não haveria exposição a terceiros. A premissa está errada para as versões consumidor de todas as três grandes plataformas.

O Google é o mais explícito: declara que revisores humanos treinados, incluindo provedores de serviço terceirizados, analisam um subconjunto de conversas do Gemini. A recomendação literal é: "não insira informações confidenciais que você não gostaria que um revisor visse ou que o Google usasse para melhorar seus serviços". A Anthropic informa que equipes internas e revisores treinados podem acessar conversas para fins de segurança e enforcement de políticas. A OpenAI também utiliza revisores humanos em um subconjunto de conversas.

Para o Direito brasileiro, essa distinção é relevante. Processamento automatizado pode ser enquadrado como operação técnica sem acesso humano ao conteúdo. Revisão humana transforma a operação em acesso efetivo por pessoas estranhas à relação processual. Isso configura exposição do sigilo sob o art. 7º, XIX, do Estatuto da OAB, independentemente da existência de DPA, NDA ou cláusula de desassociação de identidade.

A armadilha do feedback

As três plataformas tratam o feedback do usuário (thumbs up/down, ratings) como porta de entrada para reutilização de dados. A Anthropic armazena a conversa inteira quando o usuário classifica uma resposta. Isso ocorre mesmo com opt-out de treinamento ativado. Um advogado que avalia a qualidade de uma resposta sobre estratégia processual pode estar, sem perceber, consentindo com o armazenamento integral do diálogo que contém dados sigilosos do cliente.

A distinção que importa no Brasil não é entre IA gratuita e IA paga. É entre IA com revisão humana e IA sem acesso humano ao conteúdo.

Matriz de riscos para advogados brasileiros

A matriz classifica cenários de uso por nível de risco. O critério: probabilidade de que a conduta configure violação do sigilo profissional (OAB), infração à LGPD ou fundamento para responsabilidade civil perante o cliente.

Risco Cenário de uso Fundamento Recomendação
VERMELHO Inserir peça processual com nomes das partes, número do processo e estratégia em IA consumidor (ChatGPT Free, Claude Free, Gemini) Dados treinam o modelo por padrão. Revisão humana possível. Nenhuma expectativa de confidencialidade sustentável. Exposição total do sigilo. Não usar. Risco de infração ética (OAB), violação LGPD e responsabilidade civil.
VERMELHO Copiar e-mails entre advogado e cliente para "resumir" ou "organizar" em IA consumidor Comunicação privilegiada exposta a terceiros. Sob a lógica de Heppner, a informação perde proteção no momento da inserção. Não usar. Se precisar resumir, copie para ferramenta offline ou API com DPA.
VERMELHO Usar IA consumidor para analisar documentos de due diligence, auditoria ou investigação interna Documentos com informações comerciais sensíveis e potencialmente privilegiadas. Revisão humana e treinamento possíveis. Não usar. Requer ambiente Enterprise com garantia contratual de não-treinamento e não-acesso humano.
AMARELO Usar IA consumidor com opt-out de treinamento ativado para pesquisa jurisprudencial genérica Opt-out reduz risco, mas exceções de segurança permanecem. Dados sinalizados podem ser revisados mesmo com opt-out. Feedback dado pode reativar armazenamento. Aceitável com cautela. Não inserir dados identificadores do cliente. Não dar feedback em respostas sobre o caso.
AMARELO Usar planos pagos (Pro/Plus) para redigir minutas com dados anonimizados Plano pago não altera termos de treinamento. A proteção vem do opt-out e da anonimização, não do pagamento. Se a anonimização falhar, os riscos são iguais. Aceitável se: (1) anonimização completa, (2) opt-out ativado, (3) sem feedback.
AMARELO Usar Temporary Chat (ChatGPT) ou Keep Activity desativado (Gemini) para consultas pontuais Reduz retenção. ChatGPT: não salva em histórico e não treina. Gemini: retém 72h, revisão humana permanece possível. Aceitável para consultas genéricas sem dados do cliente. Preferir ChatGPT Temporary Chat.
VERDE Usar via API com Zero Data Retention (OpenAI) ou API comercial (Anthropic/Google Vertex) APIs comerciais excluem dados do treinamento por padrão. ZDR elimina retenção de conteúdo. DPA disponível. Sem revisão humana do conteúdo. Recomendado para uso profissional. Exigir DPA assinado. Documentar a configuração.
VERDE Usar plano Enterprise/Team (ChatGPT Enterprise, Claude for Work, Gemini Enterprise) com DPA Dados não treinam modelos. NDA e DPA incluídos. SOC2/ISO disponível. Equiparável a provedor de infraestrutura. Recomendado. Preservar documentação contratual. Informar no contrato de honorários.
VERDE Usar IA local (modelos open source em servidor próprio, sem envio de dados a terceiros) Nenhum dado sai do ambiente do escritório. Não há terceiro envolvido. Sigilo preservado integralmente. Ideal para sigilo. Exige investimento em infraestrutura e expertise técnica.
Regra prática

Antes de colar qualquer informação em uma IA, faça a pergunta: "se o juiz do processo, a OAB ou a ANPD lessem exatamente o que estou digitando, haveria problema?" Se a resposta é sim ou talvez, não cole. Use API com DPA ou anonimize completamente.

O que muda entre consumidor e enterprise

Opt-out de treinamento

toque para ver

Configuração que impede o uso dos dados para treinar modelos. Disponível nas três plataformas. Não é absoluto: exceções de segurança e feedback podem reativar o uso. Ativar é necessário, mas insuficiente isoladamente.

DPA

toque para ver

Data Processing Agreement. Contrato entre controlador (escritório) e operador (plataforma de IA) que define obrigações de tratamento de dados. Exigido pela LGPD para uso profissional. Disponível apenas em planos Enterprise e API.

SCCs ANPD

toque para ver

Cláusulas Contratuais Padrão aprovadas pela ANPD (Resolução nº 19/2024). Mecanismo para transferência internacional de dados pessoais. A Anthropic é a única das três plataformas que declara expressamente adotá-las para o Brasil.

Doutrina Kovel

toque para ver

Precedente de 1961 que estende o privilégio advogado-cliente a terceiros que auxiliam o advogado (contadores, peritos). Em Heppner, Rakoff sinalizou que a IA poderia ser enquadrada nessa doutrina se usada sob direção do advogado em ambiente confidencial.

Admissibilidade de provas: o cenário brasileiro

No Brasil, não existe discovery nos moldes americanos. A produção de provas é controlada pelo juiz (arts. 396-404, CPC). Isso cria uma camada de proteção processual que não existe nos EUA. Mas não elimina o risco.

No processo civil, se a parte adversária souber que o escritório usou IA para elaborar estratégia, pode requerer a exibição dos logs de conversação. O juiz pode deferir se considerar que a informação é relevante e que a exposição voluntária à plataforma retirou a proteção de sigilo. Não há precedente nesse sentido, mas a lógica é consistente com o sistema processual.

No processo penal, a proteção é mais robusta. O art. 243, §2º, do CPP proíbe a apreensão de documentos de advogados, salvo quando o próprio advogado é investigado. A questão em aberto: se os dados estão armazenados nos servidores de uma empresa de tecnologia nos EUA (e não no escritório), essa proteção se estende? A resposta dependerá de como os tribunais brasileiros enquadrarão a IA: como extensão do escritório (proteção) ou como terceiro independente (sem proteção).

Risco: Requerimento de exibição de logs de IA pela parte contrária (arts. 396-404, CPC).

Defesa: Arguir sigilo profissional (art. 7º, XIX, Estatuto OAB). Demonstrar que o uso da IA ocorreu em ambiente contratualmente protegido (Enterprise + DPA) ou que os dados foram anonimizados.

Cenário provável: Se o advogado usou versão consumidor sem opt-out, o juiz pode considerar que houve renúncia voluntária à proteção. Se usou Enterprise com DPA, o argumento de infraestrutura é sustentável.

Risco: Quebra de sigilo telemático (art. 2º, Lei 9.296/96) direcionada aos servidores da plataforma de IA.

Defesa: Art. 243, §2º, CPP (proteção de documentos de advogado). Art. 7º, II e III, do Estatuto da OAB (inviolabilidade do escritório e dos meios de comunicação).

Cenário provável: Se os dados estão em servidor de terceiro que pode acessá-los e divulgá-los conforme seus próprios termos, a proteção do art. 243, §2º, pode ser relativizada. Questão sem precedente direto.

Risco OAB: Processo disciplinar por violação do dever de sigilo (art. 36, CED). A simples inserção de dados sigilosos em plataforma com termos que permitem revisão humana pode configurar infração, independentemente de vazamento efetivo.

Risco ANPD: Autuação por transferência internacional irregular (art. 33, LGPD) ou tratamento sem base legal adequada (art. 7º, LGPD). Multas de até 2% do faturamento da pessoa jurídica, limitadas a R$ 50 milhões por infração (art. 52, LGPD).

Saídas práticas

O uso de IA na advocacia brasileira não precisa parar. Precisa ser estruturado. As medidas abaixo cobrem os três vetores de risco (OAB, LGPD, responsabilidade civil) e são implementáveis em escritórios de qualquer porte.

Medida 1
Política interna de uso de IA
Redigir norma interna que proíba a inserção de dados identificadores de clientes (nomes, CPFs, CNPJs, números de processo em segredo de justiça) em qualquer IA não homologada pelo escritório. Distribuir a todos os advogados, estagiários e funcionários. Atualizar anualmente.
Medida 2
Cláusula no contrato de honorários
Incluir cláusula informando que o escritório utiliza ferramentas de IA como auxílio à pesquisa e redação, com descrição das medidas de proteção adotadas (plano Enterprise, DPA, anonimização). Obter ciência expressa do cliente. Isso antecipa e neutraliza alegações de uso não autorizado.
Medida 3
Migrar para planos Enterprise ou API
ChatGPT Enterprise, Claude for Work (Team/Enterprise) e Google Workspace com Gemini Enterprise excluem dados do treinamento e oferecem DPA. A API com Zero Data Retention (OpenAI) ou a API comercial da Anthropic são alternativas para escritórios com equipe técnica. O custo é inferior ao risco de uma condenação por infração ética.
Medida 4
Anonimização como regra
Criar procedimento de anonimização antes de qualquer interação com IA, mesmo em planos Enterprise. Substituir nomes por letras (Parte A, Parte B), omitir CPFs, CNPJs e valores específicos, remover referências a processos em segredo de justiça. Funciona como segunda linha de defesa.
Medida 5
Não dar feedback em conversas sensíveis
As três plataformas usam feedback (thumbs up/down, ratings) como gatilho para armazenamento e treinamento, mesmo com opt-out ativado. Em qualquer conversa que contenha informações do cliente, não interagir com os mecanismos de feedback.
0 de 8 itens verificados
Meu escritório tem política interna de uso de IA
Meus contratos de honorários contêm cláusula sobre uso de IA
Uso plano Enterprise ou API com DPA assinado
Ativei opt-out de treinamento nas plataformas consumidor que ainda uso
Tenho procedimento de anonimização antes de inserir dados em IA
Nunca dou feedback (thumbs up/down) em conversas com dados de clientes
Verifiquei se minha plataforma adota SCCs da ANPD para transferência internacional
Minha equipe foi treinada sobre esses riscos nos últimos 6 meses

Para onde isso vai

US v. Heppner não criou direito novo. Aplicou regras de evidência consolidadas a uma tecnologia recente. A consequência prática é que qualquer informação inserida em IA consumidor pode ser tratada como informação voluntariamente divulgada a terceiros.

No Brasil, não há decisão equivalente. Mas a estrutura jurídica que sustentaria a mesma conclusão já existe: dever de sigilo (Estatuto OAB), responsabilidade do controlador (LGPD) e regras de admissibilidade de prova (CPC/CPP). A ausência de precedente não é segurança. É lacuna. E lacunas são preenchidas no caso concreto, sob circunstâncias que o advogado raramente controla.

O cenário não exige que advogados abandonem a IA. Exige que tratem a ferramenta com o mesmo rigor que aplicam a qualquer outro prestador de serviço que tem acesso a informações do cliente: contrato específico, controle de escopo, documentação de compliance e consentimento informado do titular.

A OAB ainda não se pronunciou formalmente sobre o tema. A ANPD não publicou orientação específica para IA generativa e sigilo profissional. O PL 2338/2023 (Marco Legal da IA) não aborda a interação entre IA e sigilo advocatício. Quem se posicionar agora terá definido a própria proteção antes que o regulador ou o tribunal defina por ele.