top of page

Propriedade Intelectual e Inteligência Artificial: O Conteúdo Que Sua Empresa Cria em Plataformas Como Claude, ChatGPT e Manus Realmente Lhe Pertence?

  • Foto do escritor: Guilherme Henrique Soares
    Guilherme Henrique Soares
  • há 21 horas
  • 6 min de leitura

O Novo Dilema Jurídico das Empresas na Era da IA Generativa


A adoção massiva de ferramentas de inteligência artificial generativa transformou radicalmente a rotina corporativa brasileira nos últimos anos. Textos publicitários, códigos de programação, imagens institucionais, planilhas financeiras, estratégias de marketing e até pareceres técnicos passaram a ser produzidos, parcial ou integralmente, com o auxílio de plataformas como Claude, ChatGPT, Manus, Gemini e Midjourney. Esse movimento, embora represente ganhos expressivos de produtividade e redução de custos operacionais, traz consigo uma questão jurídica complexa e ainda pouco compreendida pelo empresariado nacional. O conteúdo gerado por essas ferramentas realmente pertence à empresa que o produziu?


A resposta, ao contrário do que muitos imaginam, está longe de ser óbvia. Envolve a interpretação da Lei de Direitos Autorais brasileira, dos termos de uso das plataformas estrangeiras, da Lei Geral de Proteção de Dados (LGPD) e das tendências regulatórias internacionais que vêm influenciando o ordenamento pátrio. Para gestores, sócios e administradores, compreender essas nuances tornou-se essencial para proteger ativos intangíveis, evitar litígios e garantir segurança jurídica nas operações empresariais cotidianas.


O Marco Legal Brasileiro da Propriedade Intelectual Diante da Inteligência Artificial


A Lei nº 9.610, de 19 de fevereiro de 1998, conhecida como Lei de Direitos Autorais, é o principal diploma legal que regula a proteção de obras intelectuais no Brasil. Seu artigo 11 estabelece, de forma categórica, que autor é a pessoa física criadora de obra literária, artística ou científica. Essa premissa traz uma consequência jurídica fundamental, pois a legislação brasileira não reconhece, ao menos até o presente momento, a autoria de obras produzidas exclusivamente por máquinas ou sistemas automatizados.


Quando uma empresa utiliza o Claude para redigir um relatório, o ChatGPT para elaborar um texto publicitário ou o Manus para automatizar análises de dados, surge uma zona cinzenta jurídica. Se o conteúdo foi gerado integralmente pela inteligência artificial, sem intervenção criativa humana significativa, ele pode não ser considerado obra protegida pelos direitos autorais. Isso significa, na prática, que esse material poderia, em tese, ser utilizado por terceiros sem que a empresa tenha respaldo legal para impedir tal uso, situação que representa um risco patrimonial relevante.


Por outro lado, quando existe contribuição humana substancial no processo, seja na elaboração de comandos sofisticados, na revisão técnica do material gerado, na curadoria criteriosa do conteúdo ou na combinação criativa de diferentes resultados, é possível sustentar a proteção autoral. O critério-chave passa a ser o grau de envolvimento intelectual do colaborador humano no processo criativo, conforme entendimento doutrinário que vem se consolidando no direito comparado.


Termos de Uso das Plataformas e Suas Implicações Contratuais


Outro aspecto frequentemente negligenciado pelas empresas refere-se aos termos de uso das plataformas de inteligência artificial. Cada provedor estabelece regras próprias sobre a titularidade do conteúdo gerado, e essas cláusulas costumam ter validade contratual mesmo no Brasil, por força do princípio da autonomia da vontade e dos artigos 421 e seguintes do Código Civil brasileiro.


A OpenAI, desenvolvedora do ChatGPT, prevê em seus termos que o usuário detém os direitos sobre os outputs gerados, ressalvada a possibilidade de outputs idênticos serem entregues a outros usuários em consultas similares. A Anthropic, criadora do Claude, adota lógica semelhante, com restrições específicas quanto ao uso do conteúdo para treinamento de modelos concorrentes. Plataformas como Midjourney apresentam regimes distintos entre usuários pagantes e gratuitos, sendo que estes últimos podem ter direitos consideravelmente limitados sobre as imagens geradas.


Essa diversidade contratual exige atenção redobrada das empresas, especialmente daquelas que produzem conteúdo comercializável a partir dessas ferramentas. Ignorar os termos de uso pode acarretar não apenas a perda de direitos sobre o material produzido, mas também a exposição a litígios envolvendo descumprimento contratual, uso indevido de propriedade intelectual de terceiros e até mesmo violação de cláusulas de confidencialidade firmadas com clientes ou parceiros comerciais.


Riscos Empresariais e a Proteção de Informações Confidenciais


Para além da questão da titularidade, o uso corporativo de ferramentas de IA generativa levanta preocupações sérias relacionadas à confidencialidade e à Lei Geral de Proteção de Dados, Lei nº 13.709/2018. Quando colaboradores inserem informações sensíveis em prompts, como dados de clientes, segredos comerciais, estratégias internas, informações financeiras ou dados pessoais protegidos, esses elementos podem ser armazenados, processados ou eventualmente utilizados para o treinamento dos modelos, dependendo da plataforma e do plano contratado.


O Superior Tribunal de Justiça tem reforçado, em diversos julgados recentes, a responsabilidade objetiva das empresas pelo tratamento inadequado de dados pessoais, com aplicação cumulativa de sanções administrativas da LGPD e indenizações por danos morais coletivos. Nesse contexto, a ausência de políticas internas claras sobre o uso de inteligência artificial pode configurar negligência empresarial, com graves consequências patrimoniais e reputacionais, especialmente em casos de incidentes de segurança envolvendo informações estratégicas.


Empresas que operam em setores regulados, como o financeiro, jurídico, de saúde e de tecnologia, enfrentam riscos ainda mais elevados. O vazamento inadvertido de informações confidenciais por meio de prompts em ferramentas públicas pode caracterizar quebra de sigilo profissional, violação de cláusulas contratuais com clientes e até mesmo infração às normativas setoriais, como as resoluções do Banco Central, da Comissão de Valores Mobiliários e dos conselhos profissionais responsáveis pela fiscalização de cada categoria.


Jurisprudência Internacional e Tendências Regulatórias Brasileiras


A jurisprudência internacional tem oferecido importantes diretrizes sobre a propriedade intelectual de conteúdos gerados por inteligência artificial. Nos Estados Unidos, o caso Thaler versus Perlmutter, julgado pela U.S. District Court em 2023 e confirmado em sede recursal pela U.S. Court of Appeals em 2025, estabeleceu que obras criadas exclusivamente por sistemas autônomos de IA, sem intervenção humana significativa, não podem ser registradas perante o U.S. Copyright Office. Decisões com fundamentação semelhante têm sido proferidas no Reino Unido, na União Europeia e na China.


No Brasil, o Projeto de Lei nº 2.338/2023, conhecido como Marco Legal da Inteligência Artificial, encontra-se em tramitação avançada no Congresso Nacional e promete trazer maior clareza ao tema. O texto em discussão prevê regras específicas sobre responsabilização, transparência algorítmica, direitos dos usuários e tratamento de dados utilizados no treinamento de modelos. Embora ainda pendente de aprovação final, suas disposições já refletem o entendimento doutrinário e jurisprudencial que vem se consolidando, tanto no âmbito nacional quanto internacional.


O Conselho Administrativo de Recursos Fiscais, o CARF, também começou a se debruçar sobre questões tributárias envolvendo despesas com plataformas de IA, especialmente quanto à dedutibilidade de gastos com serviços contratados de empresas estrangeiras e à eventual incidência de tributos como IRRF, CIDE e PIS/COFINS-Importação. Esses aspectos, frequentemente ignorados pelos gestores, podem gerar autuações fiscais relevantes para empresas que utilizam intensivamente tais ferramentas em suas operações comerciais.


Boas Práticas e Estratégias Empresariais de Mitigação de Riscos


Diante desse cenário complexo, empresas atentas têm adotado uma série de boas práticas para mitigar riscos jurídicos relacionados ao uso de inteligência artificial generativa. A primeira delas consiste na elaboração de políticas internas claras, que regulamentem o uso dessas ferramentas pelos colaboradores, estabelecendo o que pode ou não ser inserido nos prompts, quais plataformas estão autorizadas e quais procedimentos devem ser observados para garantir a confidencialidade das informações empresariais.


A contratação de planos empresariais, em vez do uso de versões gratuitas ou pessoais, costuma oferecer maior proteção contratual, com cláusulas específicas de confidencialidade, não utilização dos dados inseridos para treinamento e até mesmo indenização contra reivindicações de terceiros relacionadas à propriedade intelectual. Empresas que produzem conteúdo de valor comercial a partir de IA devem documentar adequadamente o processo criativo, evidenciando a contribuição humana substancial, de modo a fortalecer eventuais reivindicações de proteção autoral em contextos litigiosos.


A revisão contratual com clientes, fornecedores e parceiros comerciais também se torna fundamental, especialmente em setores onde a confidencialidade é elemento essencial da relação. Cláusulas que disciplinem o uso de IA na execução de serviços, com transparência sobre quais ferramentas serão utilizadas e quais salvaguardas serão adotadas, conferem segurança jurídica a todas as partes envolvidas e reduzem significativamente o risco de futuros conflitos.


A Importância da Assessoria Jurídica Preventiva

A questão sobre a propriedade do conteúdo gerado por ferramentas de inteligência artificial está longe de ser meramente acadêmica. Trata-se de tema de profunda relevância empresarial, com implicações diretas sobre patrimônio intangível, conformidade regulatória, proteção de dados pessoais e responsabilidade civil. A resposta à pergunta inicial, portanto, depende de uma análise multifatorial que envolve a legislação brasileira, os termos contratuais das plataformas, o grau de contribuição humana e o contexto regulatório em constante evolução.


Empresas que desejam aproveitar plenamente os benefícios da inteligência artificial, sem se expor a riscos jurídicos desnecessários, precisam adotar uma postura proativa.


Isso envolve a compreensão crítica do marco legal aplicável, a implementação de políticas internas robustas, a revisão constante de práticas operacionais e o acompanhamento das tendências regulatórias que se desenham no horizonte. A assessoria jurídica especializada e preventiva mostra-se especialmente valiosa nesse contexto, contribuindo para a construção de uma estratégia consistente que alie inovação tecnológica e segurança jurídica, dois pilares indispensáveis para a competitividade empresarial no ambiente contemporâneo.

Comentários

Avaliado com 0 de 5 estrelas.
Ainda sem avaliações

Adicione uma avaliação

© 2026 por Soares, Goulart & Caetano Advogados

  • Whatsapp
  • Instagram
  • LinkedIn Social Icon
  • Facebook
bottom of page