Sigilo jurídico – O uso de chatbots de inteligência artificial como ferramenta de orientação tem gerado preocupação no meio jurídico dos Estados Unidos. Escritórios de advocacia passaram a orientar seus clientes a adotar cautela ao recorrer a essas plataformas, sobretudo em situações que envolvem processos judiciais ou possíveis responsabilidades legais.
O debate ganhou força após uma decisão recente da Justiça federal em Nova York. No caso, Bradley Heppner, ex-executivo do setor financeiro, utilizou o Claude, da Anthropic, para elaborar relatórios relacionados ao seu processo e os compartilhou com seus advogados.
LEIA: PEC ou PL: qual caminho é mais viável para pôr fim à escala 6×1
A defesa argumentou que essas conversas não deveriam ser acessadas, já que continham informações ligadas à estratégia jurídica. No entanto, o tribunal de Nova York decidiu que os documentos produzidos com o auxílio de inteligência artificial poderiam ser examinados pelos promotores.
Pela legislação americana, comunicações entre advogados e clientes são protegidas por confidencialidade. Contudo, ferramentas de inteligência artificial não fazem parte dessa relação jurídica, o que pode tornar as informações compartilhadas com chatbots acessíveis a terceiros em disputas judiciais.
A decisão reforça um entendimento relevante: ao dividir informações jurídicas com terceiros, há risco de quebra de sigilo. No caso das plataformas de IA, isso ocorre porque elas não são consideradas integrantes da relação de defesa, mesmo quando utilizadas para organizar argumentos ou produzir documentos.
Em paralelo, outro tribunal federal, em Michigan, apresentou uma interpretação distinta ao julgar um caso trabalhista. O juiz Anthony Patti entendeu que as conversas de um indivíduo com o ChatGPT constituíam parte de seu próprio “produto de trabalho” e, portanto, não deveriam ser compartilhadas.
A divergência entre decisões evidencia que o tema ainda está em aberto e tende a evoluir à medida que novos casos forem analisados pela Justiça.
Diante desse cenário, escritórios de advocacia consultados pela Reuters passaram a adotar medidas preventivas. Entre as recomendações estão o uso mais criterioso das plataformas e orientações específicas sobre como formular consultas. Em alguns casos, contratos com clientes já incluem cláusulas que tratam do uso de inteligência artificial.
Um escritório, por exemplo, alertou em um documento recente: “A divulgação de comunicações privilegiadas a uma plataforma de IA de terceiros pode constituir uma renúncia ao sigilo entre advogado e cliente”.
Outras firmas recomendam que o uso dessas ferramentas ocorra apenas sob orientação jurídica direta, com a indicação clara de que a pesquisa está sendo conduzida a pedido de um advogado. Também há sugestões para priorizar sistemas fechados, voltados ao ambiente corporativo, embora especialistas ressaltem que a eficácia dessas medidas ainda precisa ser comprovada.
As empresas responsáveis pelos chatbots também destacam limitações. Nos termos de uso, OpenAI e Anthropic informam que dados podem ser compartilhados com terceiros e orientam os usuários a buscar aconselhamento profissional qualificado antes de utilizar essas ferramentas para decisões legais.
Para especialistas, a recomendação central permanece: evitar compartilhar informações sensíveis fora do ambiente protegido da relação entre advogado e cliente, mesmo diante dos avanços tecnológicos.
(Com informações de Olhar Digital)
(Reprodução/Freepik)