Blog DSF Advogados

Na Era da Inteligência Artificial, a perícia digital como grande aliada das empresas

29/07/2025

Vivemos um momento singular da história, no qual a velocidade das transformações tecnológicas ultrapassou as fronteiras da imaginação humana. Plataformas inteligentes tomam decisões em milissegundos, modelos de linguagem escrevem textos com coerência quase humana, sistemas embarcados preveem comportamentos de consumo e algoritmos moldam nosso cotidiano de maneira invisível. Porém, além desta facilitação toda, esse contexto trouxe também problemas: dados vasados através de sistemas de IA ou tomando decisões sem explicações, sistemas copiando outros já existentes ou que não são implantados adequadamente, tecnologias que não funcionam como prometem entre outros.

A complexidade desses temas exige não apenas domínio técnico, mas também sensibilidade ética e conhecimento aprofundado dos marcos legais e regulatórios que envolvem a tecnologia no ambiente corporativo.

No que diz respeito às soluções que incorporam inteligência artificial, no Brasil, ainda que o Projeto de Lei 2338/2023 não tenha sido aprovado até o momento, algumas legislações já podem ser utilizadas para barrar ou responsabilizar o seu uso. A LGPD é uma delas.

A propósito, dentro deste projeto de lei, os Artigos 63 e 64 merecem especial atenção. O Artigo 63 estabelece que os sistemas de inteligência artificial devem ser projetados de modo a permitir auditorias independentes. Isso inclui não apenas a possibilidade de revisar os algoritmos e os dados utilizados, mas também a documentação técnica, as decisões tomadas pelo sistema e o comportamento preditivo em diferentes contextos de uso. Ou seja, essa exigência formaliza o direito (e o dever) de acessar, investigar e questionar o funcionamento interno de modelos de IA, algo que até este momento fica no campo da boa vontade técnica ou contratual. Já o Artigo 64 impõe às empresas que desenvolvem ou simplesmente operam sistemas de IA de alto risco o dever de disponibilizar relatórios técnicos, registros de incidentes e evidências sobre o comportamento do sistema. Isso reforça o princípio da prestação de contas e amplia a responsabilidade dos desenvolvedores e operadores da IA. Na prática, cria um ambiente no qual eventuais falhas, desvios ou discriminações algorítmicas poderão (e deverão) ser auditadas com rigor, inclusive por meio de perícias judiciais ou extrajudiciais. E isso entra em vigor em 180 dias da publicação da lei aprovada, ou seja, se não estiver previsto desde já nos projetos que utilizam IA, não haverá tempo hábil para fazer quando passar a ser exigido.

Por esta razão, uma das recomendações ao se utilizar IA pelas empresas é que adotem, desde o início do projeto, uma abordagem baseada nos princípios da chamada IA responsável. Essa prática não se resume a boas intenções; trata-se de um compromisso

técnico e ético que deve nortear todo o ciclo de vida da solução, da concepção, passando pelos artefatos (repositório de datasets) até uso em produção (escala). Os seis princípios internacionalmente reconhecidos da IA responsável — justiça, confiabilidade e segurança, privacidade e proteção de dados, inclusão, transparência e responsabilização — constituem hoje uma base indispensável para o desenvolvimento ético e legalmente sustentável dessas tecnologias.

Empresas que negligenciam esses princípios acabam por abrir precedentes perigosos — tanto no âmbito legal quanto na reputação de marca. Aliás, isso já é discutido na justiça, onde a ausência de explicabilidade em decisões algorítmicas levou à exclusão injusta de usuários de plataformas ou à tomada de decisões com impactos financeiros severos. O desafio, nesse ponto, é técnico e ético: construir modelos que aprendem, sim, mas que também sejam auditáveis e submetidos a padrões de controle confiáveis.

Outro ponto de atenção crescente para as empresas está relacionado à investigação de plágios em códigos de software. O desenvolvimento acelerado de soluções digitais, muitas vezes feito sob pressão de prazos e custos, tem levado empresas a negligenciar boas práticas de governança no desenvolvimento de softwares. Em diversos processos judiciais, as partes acusadas utilizaram trechos de código idênticos, ou quase idênticos, a soluções desenvolvidas internamente por outros profissionais ou empresas, sem a devida autorização ou licenciamento.

Os casos mais delicados envolvem o uso indevido de bibliotecas de código aberto. Existe uma percepção equivocada no mercado de que “open source” é sinônimo de “uso livre”. A ausência de gestão clara sobre essas dependências pode configurar violação de direitos autorais — e, portanto, gerar litígios complexos.

Outro cenário sensível e, talvez, o mais recorrente em todas as empresas, diz respeito aos desacordos na implantação de sistemas empresariais. Muitas empresas contratam plataformas ou soluções sob medida e, ao longo da implementação, surgem conflitos sobre atrasos, funcionalidades não entregues, mudanças de escopo ou falhas operacionais. Muitas vezes as falhas decorrem da comunicação entre as partes — escopos mal definidos, ausência de testes homologatórios ou falta de versionamento claro das entregas.

Em todos estes problemas vividos pelas empresas, a análise pericial é fundamental para o apoio jurídico na solução da demanda para demonstrar se o que foi contratado efetivamente foi entregue. Veja-se que o enfrentamento destas situações se transforma em um processo minucioso que envolve inspeções técnicas, leitura de contratos, análise de requisitos funcionais e verificação dos artefatos técnicos e documentações geradas durante o projeto.

A atuação do perito digital, nesse contexto, é imprescindível. Com base em evidências técnicas, são realizadas comparações e cruzamentos de dados que revelam a verdade técnica dos fatos, ajudando o Judiciário a tomar decisões baseadas não em suposições, mas em fatos verificáveis.

Em suma, as empresas que desejam estar tecnicamente protegidos e juridicamente preparados para os desafios da era digital devem compreender que a inteligência artificial deve ser tratada com o mesmo nível de governança e controle que se aplica às decisões humanas.

E perícia digital não deve ser vista apenas como uma resposta reativa aos conflitos judiciais. Ela pode e deve ser um instrumento estratégico de prevenção, orientação e fortalecimento técnico das organizações. Em um mundo onde a inteligência artificial decide, o código opera e os dados falam, é preciso ter profissionais preparados para ouvir tecnicamente o que esses sistemas dizem. E o papel da perícia digital tornou-se não apenas relevante, mas essencial para garantir segurança jurídica, integridade ética e discernimento técnico nos litígios que envolvem tecnologia, dados e inteligência artificial.

Bárbara Ravanello
Advogada Especialista em Direito Digital e Sócia da DSF advogados

Pós Doc. Pedro Augusto Bocchese
Perito do Tribunal de Justiça do RS
Membros do Grupo de Pesquisas em IA da DSF Advogados

Partners