Usar ou não usar informações dos clientes nas inteligências artificiais?

Veja o nível de exposição jurídica ao utilizar plataformas de IA

Usar ou não usar informações dos clientes nas inteligências artificiais?

Analisamos os Termos e Condições e Políticas de Privacidade das principais IAs utilizadas pelos advogados. Veja uma avaliação comparativa, riscos e recomendações

"

Adotar a inteligência artificial é abraçar o progresso e a modernidade na advocacia. Mas lembre-se: enquanto a tecnologia impulsiona seu escritório para o futuro, a negligência com os dados pode fazer seu castelo desmoronar num piscar de olhos.”

"

Metodologia de Análise

Foram examinados os documentos contratuais e políticas de privacidade das seguintes plataformas:

  • OpenAI/ChatGPT
  • Google Gemini/AIStudio e API
  • Google NotebookLM Enterprise
  • Felo.ai
  • Perplexity.ai
  • Gamma.app
  • DeepSeek
  • Claude.ai (Anthropic)
  • Napkin.ai

 

Para o Qwenlm, não foram localizados os documentos pertinentes, o que constitui, por si só, um elemento de risco relevante para consideração dos operadores jurídicos.

Um paralelo importante

No cotidiano dos escritórios de advocacia, é comum a utilização de ferramentas amplamente difundidas – como o WhatsApp para comunicação instantânea e os serviços de e-mail do Google, Microsoft, além de provedores como Hostgator, Hostinger e LocaWeb – para trocar informações que frequentemente carregam um alto grau de confidencialidade.

Contratos, documentos de divórcio, acordos de guarda e dados de saúde circulam diariamente por esses canais.

Essas empresas, que conquistaram a confiança dos usuários no Brasil, adotam políticas de segurança e termos de uso padronizados que, embora robustos, muitas vezes não contemplam as especificidades e a criticidade dos dados manejados na prática jurídica.

Acreditamos que as plataforma de IA seguirão o mesmo caminho. Em pouco tempo as políticas de segurança serão ainda mais robustas, o que aumentará o nível de confiança dos usuários no Brasil.

Um comparativo sobre os serviços de tecnologia que foram ganhando a confiança dos advogados com o passar dos anos

Quais IAs mencionam explicitamente nas Políticas de Privacidade que os dados estão protegidos e não serão utilizados/expostos?

A análise engloba os documentos de termos de uso e políticas de privacidade de diversas soluções de inteligência artificial, com foco na proteção de dados sensíveis, segurança digital e conformidade com a LGPD.

É fundamental que advogados que utilizam essas IAs estejam atentos tanto às medidas técnicas e organizacionais implementadas quanto às cláusulas contratuais que possam impactar a responsabilidade profissional e a proteção da privacidade dos clientes.

Avaliação de segurança das plataformas de IA – Análise comparativa
Plataforma Mencionam explicitamente nas Políticas de Privacidade que os dados estão protegidos e não serão utilizados/expostosNível de Segurança
OpenAI/ChatGPT🟢
Google Gemini API🟢
Google NotebookLM Enterprise🟢
Felo.ai🟢
Perplexity.ai🟡
Gamma.app🟡
DeepSeek🟡
Qwenlm🔴
Claude.ai (Anthropic)🟢
Napkin.ai🟡
   
Legenda:
  • 🟢 Verde: Alto nível de segurança
  • 🟡 Amarelo: Nível médio de segurança
  • 🔴 Vermelho: Baixo nível de segurança
  • ✓: Mencionam que os dados estão protegidos e não serão utilizados/expostos
  • ✗: Não mencionam proteção explícita dos dados

Transparência e clareza contratual

OpenAI/ChatGPT

Os termos apresentam estrutura robusta e detalhada, com seções específicas sobre tratamento de dados. Contudo, observa-se linguagem ampla quanto ao uso de conteúdos inseridos (“inputs”) para treinamento e aprimoramento de modelos, o que pode gerar questionamentos sob a ótica da LGPD.

Google (Gemini API e NotebookLM Enterprise)

A documentação do Google apresenta maior granularidade e especificidade no tratamento diferenciado entre dados pessoais e dados de treinamento. A vinculação aos Termos de Serviço do Google Cloud para o NotebookLM Enterprise traz camada adicional de conformidade corporativa, incluindo certificações internacionais de segurança.

Plataformas Emergentes (Felo.ai, Perplexity.ai, Gamma.app, DeepSeek)

Estas plataformas apresentam documentação menos madura em comparação com as líderes de mercado, com destaque negativo para inconsistências na tradução para português e lacunas na especificação de mecanismos concretos de proteção de dados.

Claude.ai (Anthropic)

Apresenta documentação contratual que equilibra clareza e abrangência, com seções específicas sobre dados de entrada e comprometimento explícito com a não-utilização de dados inseridos para treinamento sem consentimento específico.

Mecanismos de proteção de dados

PlataformaCriptografiaControle de AcessoRetenção de DadosLocalização do Processamento
OpenAI/ChatGPTImplementada em trânsito e em repousoGranular, com opções premium para empresas30 dias por padrão, extensívelPredominantemente EUA
Google Gemini APIPadrão empresarialIntegrado ao IAM do Google CloudConfigurável para clientes enterpriseConforme região do Google Cloud
Claude.aiImplementada em múltiplas camadasRecursos avançados na versão enterprisePolítica de minimização de retençãoPredominantemente EUA
Plataformas emergentesVariável, frequentemente subdetalhadaLimitado, frequentemente binárioFrequentemente não especificadoMajoritariamente sem especificação clara

1. Adequação à LGPD

Bases legais e consentimento

A maioria das plataformas analisadas opera sob o modelo de consentimento como base legal primária, o que gera complexidades no ambiente corporativo jurídico, onde o tratamento de dados de terceiros (clientes do escritório) ocorre frequentemente.

Claude.ai e Google (enterprise) apresentam abordagens mais sofisticadas quanto ao papel de operador/controlador, com menções explícitas a contratos de processamento de dados que podem ser customizados.

Transparência e direitos dos titulares

OpenAI, Google e Claude.ai incorporam mecanismos específicos para atendimento aos direitos dos titulares previstos no Art. 18 da LGPD. As plataformas emergentes frequentemente limitam-se a declarações genéricas sem procedimentos operacionais claros.

Transferência internacional de dados

Todas as plataformas analisadas apresentam desafios quanto à adequação ao Art. 33 da LGPD (transferência internacional), com predominância de processamento em servidores norte-americanos. Google oferece opções de regionalização de dados em sua versão enterprise, aspecto relevante para conformidade.

2. Riscos específicos para advocacia no Brasil

Confidencialidade e sigilo profissional

A inserção de informações de clientes nestas plataformas pode configurar potencial violação do dever de sigilo profissional (Art. 34, VII do Estatuto da OAB) se não forem implementados controles adequados. Plataformas que utilizam dados de entrada para treinamento de modelos representam risco agravado.

Responsabilidade compartilhada

A ausência de cláusulas específicas sobre o papel da plataforma como operadora de dados no contexto da LGPD pode gerar ambiguidade quanto à responsabilidade em caso de incidentes.

Manutenção de evidências

A maioria das plataformas não oferece mecanismos robustos de auditoria e preservação de evidências, aspecto crítico no contexto processual.

3. Recomendações práticas para o advogado

  • Utilize versões enterprise: Prefira plataformas líderes (como OpenAI, Google e Claude.ai) que oferecem contratos personalizáveis e controles de segurança extras.
  • Minimize os dados inseridos: Ao usar essas ferramentas, evite incluir informações identificáveis. Por exemplo, troque nomes de partes por “Parte 1” e “Parte 2” ou use “CLIENTE” em documentos estratégicos.
  • Avaliação de risco: Registre formalmente a análise de risco antes de adotar qualquer ferramenta, seguindo orientações do ANPD adaptadas à realidade jurídica.
  • Contratos específicos com fornecedores: Negocie cláusulas que reforcem a confidencialidade, limitem o uso de dados para treinamento e definam procedimentos em caso de incidentes.
  • Ambientes segregados: Configure áreas separadas para diferentes tipos de casos, evitando a mistura de informações sensíveis.
  • Desabilite o uso de dados para treinamento: Sempre que possível, opte por plataformas que permitam essa opção, principalmente para casos que envolvam informações delicadas.

 

4. Realidade do advogado brasileiro

A tecnologia de IA pode transformar a prática jurídica, mas não adianta querer mudar os termos de condições de empresas estrangeiras ou dar recomendações vagas.

Na prática, é preciso agir com cautela: se não quiser expor dados sensíveis, substitua nomes e informações identificáveis por termos genéricos. Plataformas líderes, como Google Enterprise, Claude.ai Enterprise e OpenAI Enterprise, oferecem maior segurança, mas exigem que você implemente salvaguardas adicionais.

Já as plataformas emergentes têm riscos maiores e devem ser usadas apenas para dados não sensíveis ou após negociações específicas.

Mantenha-se sempre atualizado com as mudanças nos contratos dessas plataformas e com a evolução da jurisprudência, tanto no âmbito do ANPD quanto nos tribunais brasileiros.

"

Se não quiser expor dados sensíveis, substitua nomes e informações identificáveis por termos genéricos. Plataformas líderes, como Google Enterprise, Claude.ai Enterprise e OpenAI Enterprise, oferecem maior segurança, mas exigem que você implemente salvaguardas adicionais.

"
"

A IA coloca no seu colo a chance de transformar a prática jurídica e superar desafios. Contudo, a verdadeira vitória depende de não dar bobeira com a segurança dos dados dos clientes.

"

Advogados podem ou não podem usar as IAs com segurança?

Os advogados podem utilizar as IAs mencionadas, mas com ressalvas e medidas mitigatórias específicas.

Não existe uma proibição legal expressa, porém há riscos significativos que demandam controles adequados para a conformidade com a LGPD e demais normativas, especialmente o Código de Ética e Disciplina da OAB.

Tabela de análise de riscos por atividade e plataforma

Atividade JurídicaOpenAI EnterpriseGoogle EnterpriseClaude EnterprisePlataformas Emergentes
Revisão de contratos sem dados pessoais🟢🟢🟢🟡
Revisão de peças com dados sensíveis🟡🟡🟡🔴
Elaboração de pareceres genéricos🟢🟢🟢🟡
Elaboração de pareceres com informações confidenciais🟡🟡🟡🔴
Pesquisa jurisprudencial🟢🟢🟢🟢
Análise de documentos de diligência (due diligence)🔴🟡🟡🔴
Automatização de documentos padronizados🟢🟢🟢🟡
Gestão de casos e informações de clientes🔴🔴🔴🔴
Análise predictiva de resultados processuais🟡🟡🟡🔴
Comunicação com clientes via IA🔴🔴🔴🔴

Legenda:

  • 🟢 Risco Baixo: Uso aconselhável com controles básicos
  • 🟡 Risco Moderado: Controles robustos específicos
  • 🔴 Risco Alto: Uso não recomendado ou que exige salvaguardas extraordinárias

 
Parâmetros objetivos considerados na avaliação
  1. Base legal para tratamento: Legítimo interesse para casos genéricos; contratos com cláusulas específicas para casos com dados pessoais
  2. Impacto do sigilo profissional: Versões enterprise com DPAs (Data Processing Agreements) oferecem maior proteção, mas não eliminam completamente o risco
  3. Jurisdição aplicável: Todas as plataformas apresentam desafios jurisdicionais por processarem dados majoritariamente fora do Brasil
  4. Medidas técnicas de segurança: Plataformas enterprise implementam mecanismos mais robustos de segregação e proteção
  5. Transparência quanto ao uso de dados para treinamento: Mesmo plataformas que permitem opt-out de treinamento mantêm ambiguidades contratuais quanto à retenção
Recomendações objetivas para viabilizar o uso
  1. Implementar anonimização efetiva antes da inserção de dados nas plataformas, removendo informações identificáveis de clientes e partes
  2. Contratar exclusivamente versões enterprise para casos que envolvam qualquer tipo de informação confidencial
  3. Elaborar política de uso interno com diretrizes claras sobre tipos de dados permitidos em cada plataforma
  4. Documentar a avaliação de impacto (DPIA simplificado) como evidência de diligência profissional
  5. Informar explicitamente aos clientes sobre o uso dessas ferramentas nos contratos de prestação de serviços advocatícios

 

O uso de IAs no ambiente jurídico brasileiro não constitui violação automática à LGPD ou ao Código de Ética da OAB, desde que implementados controles proporcionais aos riscos. As versões enterprise das plataformas consolidadas (OpenAI, Google e Claude) apresentam perfil de risco mais aceitável para uso profissional, enquanto plataformas emergentes devem ser limitadas a casos de menor sensibilidade.

O elemento determinante não é o uso em si, mas a natureza dos dados inseridos e os controles implementados pelo escritório ou profissional. A responsabilidade pela conformidade permanece integralmente com o advogado, independentemente das limitações contratuais das plataformas.

 

Ouça uma reflexão rápida no PodCast

"

A inteligência artificial é a faísca que acende a revolução na advocacia – um futuro de eficiência e inovação. Mas, se o advogado vacilar com a proteção dos dados, o incêndio pode virar tragédia.

"
  • All
  • Blog
    •   Back
    • Inteligência Artificial
    • Gestão
    • Pessoas
    • Financeiro
    • Marketing
    • Clientes
    • Rotinas
    • Legal Design
    • CRM
    •   Back
    • CRM
Mais

End of Content.

Desde de 2012 temos ajudado o mercado jurídico a evoluir.

© 2012 – 2024 – Todos os direitos reservados – Advoco Brasil – Política de Privacidade

Controle de Comissão para Advogados

Com a ferramenta inovadora da AdvocoBrasil, você controla suas comissões de forma fácil, rápida e segura.

Nossa ferramenta:

  • Automatiza o cálculo de comissões, evitando erros e economizando tempo.
  • Oferece visualização em tempo real em um dashboard, facilitando a gestão financeira do seu escritório.
  • Permite a criação de regras personalizadas para o cálculo de comissões, de acordo com as necessidades do seu escritório.
Precificação com base na tabela da OAB

Com esta ferramenta simples, porém inovadora da Advocobrasil, você precifica seus honorários em segundos, com precisão e confiança.

Nossa ferramenta:

  • Compara os preços da tabela da OAB com a realidade do mercado e com os preços/hora do seu escritório.
  • Você faz a estimativa a quantidade de horas a ser trabalhada para cada ato jurídico, com base em dados reais.
  • Ao final você terá uma visão completa com a precificação detalhada para cada caso.
Construindo uma visão uníssona

Como lidar com a falta de alinhamento, as limitações, ansiedades, perdas de controle, egos inflados e a falta de visão dos sócios?
Nossa abordagem avalia quão alinhados os sócios estão com a visão de gestão atual, conexão com o futuro e principalmente sobre a clareza de seus papeis e responsabilidades de liderança.

Lidar com gente parece fácil, mas não é!

Liderar um escritório de advocacia exige mais do que conhecimento jurídico.

É necessário visão estratégica, capacidade de inspirar e impulsionar o crescimento. A Advoco Brasil ajuda criando um ambiente de alto desempenho e cultivando uma cultura de inovação.

O mercado muda o tempo todo, você também deveria!

As ferramentas digitais, as novas leis e as demandas dos clientes exigem adaptabilidade e visão de futuro.

AdvocoBrasil ajuda a identificar as tendências do mercado e a desenvolver estratégias para se manter competitivo e relevante, com metodologias de Gestão de Mudanças.

Todo gestor entende de desenvolvimento de negócios, você também deveria!

Atrair novos clientes e fidelizar os existentes é fundamental.

A AdvocoBrasil te ajuda a desenvolver estratégias de marketing jurídico eficazes, a construir relacionamentos sólidos com clientes e a identificar novas oportunidades de negócio.

0%