Regulamentação da Inteligência Artificial no Brasil e seus impactos para empresas
- Guilherme Henrique Soares
- há 4 horas
- 5 min de leitura
A inteligência artificial deixou de ser uma promessa tecnológica para se tornar parte integrante da operação de empresas em diversos setores da economia. Ferramentas baseadas em algoritmos são utilizadas para análise de dados, automação de processos, atendimento ao consumidor, tomada de decisões estratégicas e desenvolvimento de novos produtos. Esse avanço tecnológico, contudo, também levanta questões jurídicas relevantes relacionadas à responsabilidade civil, proteção de dados, transparência algorítmica e proteção de direitos fundamentais.
No Brasil, o debate sobre a regulamentação da inteligência artificial ganhou força nos últimos anos e culminou na elaboração do Projeto de Lei nº 2.338/2023, que busca estabelecer um marco legal para o desenvolvimento, a implementação e o uso responsável dessa tecnologia. A proposta foi aprovada pelo Senado Federal em dezembro de 2024 e atualmente tramita na Câmara dos Deputados, em um contexto de intensas discussões políticas, econômicas e regulatórias.
Para empresários e gestores, compreender os fundamentos dessa futura regulação não é apenas uma questão teórica. Trata-se de um elemento essencial de governança corporativa, gestão de riscos e compliance regulatório. À medida que a inteligência artificial se torna parte central das estratégias empresariais, cresce também a necessidade de compreender os limites jurídicos do uso dessa tecnologia no ambiente empresarial.
O atual cenário regulatório da inteligência artificial no Brasil
Apesar da crescente utilização de sistemas de inteligência artificial no país, o Brasil ainda não possui uma lei geral específica em vigor que regulamente essa tecnologia. Atualmente, o uso de sistemas algorítmicos é disciplinado de forma indireta por diferentes normas já existentes no ordenamento jurídico brasileiro.
Entre essas normas destaca-se a Lei Geral de Proteção de Dados Pessoais, Lei nº 13.709/2018, que estabelece regras para o tratamento de dados pessoais e impõe limites relevantes à utilização de decisões automatizadas. O artigo 20 da LGPD garante ao titular de dados o direito de solicitar revisão de decisões tomadas exclusivamente com base em tratamento automatizado de dados pessoais, o que inclui sistemas baseados em inteligência artificial.
Além da LGPD, outros diplomas legais também podem incidir sobre o uso de inteligência artificial no contexto empresarial. O Código de Defesa do Consumidor pode ser aplicado em casos de publicidade enganosa ou práticas comerciais abusivas decorrentes do uso de sistemas automatizados. A legislação concorrencial e a legislação de propriedade intelectual também podem ser relevantes quando algoritmos influenciam decisões de mercado ou geram conteúdo protegido por direitos autorais.
Nesse cenário de fragmentação normativa, a ausência de um marco legal específico gera insegurança jurídica tanto para empresas quanto para usuários de tecnologia. Essa lacuna regulatória tem motivado o avanço do debate legislativo sobre a criação de um regime jurídico próprio para a inteligência artificial no Brasil.
O Projeto de Lei nº 2.338/2023 e o futuro marco legal da inteligência artificial
O Projeto de Lei nº 2.338/2023 representa atualmente a principal iniciativa legislativa voltada à regulamentação da inteligência artificial no Brasil. A proposta estabelece princípios, diretrizes e mecanismos de governança para o desenvolvimento e a utilização de sistemas de inteligência artificial, com foco na proteção de direitos fundamentais e na promoção da inovação tecnológica.
Inspirado em modelos regulatórios internacionais, especialmente no AI Act da União Europeia, o projeto adota uma abordagem baseada na avaliação de riscos. Nesse modelo, os sistemas de inteligência artificial são classificados conforme o nível de risco que podem representar para indivíduos ou para a sociedade, sendo estabelecidas obrigações regulatórias proporcionais a esses riscos.
Aplicações consideradas de alto risco, como sistemas utilizados em decisões que afetam direitos fundamentais ou em setores sensíveis como saúde, segurança pública e relações de trabalho, poderão estar sujeitas a requisitos mais rigorosos de transparência, supervisão humana e auditoria.
O projeto também prevê a criação de mecanismos de governança e fiscalização, bem como a definição de responsabilidades para desenvolvedores, fornecedores e usuários de sistemas de inteligência artificial. A proposta busca equilibrar dois objetivos frequentemente tensionados no debate regulatório. De um lado, a necessidade de proteger direitos individuais e coletivos. De outro, a importância de incentivar a inovação tecnológica e a competitividade econômica.
Para o ambiente empresarial, a eventual aprovação do projeto poderá significar uma mudança relevante no modo como sistemas de inteligência artificial são desenvolvidos e implementados nas organizações.
Responsabilidade jurídica e gestão de riscos no uso empresarial de IA
Uma das principais preocupações jurídicas relacionadas ao uso de inteligência artificial no ambiente corporativo diz respeito à responsabilidade por decisões automatizadas. À medida que sistemas algorítmicos passam a influenciar decisões comerciais, financeiras ou operacionais, surge a necessidade de determinar quem responde por eventuais danos causados por essas tecnologias.
A discussão jurídica envolve diferentes modelos de responsabilidade, incluindo responsabilidade civil objetiva, responsabilidade baseada em culpa e responsabilidade compartilhada entre diferentes agentes envolvidos no desenvolvimento e na operação do sistema de inteligência artificial.
Em determinados contextos, especialmente quando há impacto direto sobre consumidores ou titulares de dados pessoais, tribunais brasileiros podem interpretar que empresas possuem o dever de garantir transparência, supervisão humana e mecanismos de controle sobre decisões automatizadas.
Outro aspecto relevante envolve o risco de discriminação algorítmica. Sistemas de inteligência artificial treinados com grandes volumes de dados podem reproduzir vieses existentes na sociedade, gerando decisões potencialmente discriminatórias em processos de recrutamento, concessão de crédito ou avaliação de desempenho.
Esse tipo de risco reforça a importância de auditorias algorítmicas, avaliações de impacto regulatório e implementação de políticas internas de governança tecnológica.
Tendências regulatórias e impactos estratégicos para empresas
O avanço da regulamentação da inteligência artificial não é um fenômeno exclusivo do Brasil. Diversas jurisdições ao redor do mundo têm desenvolvido estruturas regulatórias voltadas à governança dessa tecnologia, com destaque para a União Europeia, que aprovou recentemente o primeiro marco legal abrangente sobre inteligência artificial.
Nesse contexto global, o Brasil busca construir um modelo regulatório que combine proteção de direitos fundamentais, estímulo à inovação e segurança jurídica para o ambiente de negócios.
A tendência regulatória aponta para a adoção de mecanismos de governança corporativa voltados especificamente ao uso responsável de tecnologias baseadas em inteligência artificial. Entre essas práticas estão a implementação de programas de compliance tecnológico, a criação de comitês internos de governança de dados e algoritmos e a realização periódica de avaliações de impacto regulatório.
Empresas que adotam essas práticas de forma antecipada tendem a reduzir riscos jurídicos, fortalecer a confiança de consumidores e investidores e se posicionar de forma mais competitiva em um cenário de crescente regulação tecnológica.
A regulamentação da inteligência artificial no Brasil representa um dos temas jurídicos mais relevantes da atualidade para o ambiente empresarial. O avanço do Projeto de Lei nº 2.338/2023 sinaliza que o país caminha para a criação de um marco legal específico para disciplinar o desenvolvimento e o uso dessa tecnologia.
Para empresas que já utilizam ou pretendem utilizar inteligência artificial em suas operações, acompanhar esse processo regulatório é fundamental para a gestão de riscos e para a construção de estratégias empresariais sustentáveis no longo prazo.
Nesse contexto, a adoção de práticas de governança tecnológica, transparência algorítmica e proteção de dados tende a se tornar um elemento central da gestão corporativa contemporânea. A análise preventiva de riscos jurídicos e regulatórios pode contribuir para que empresas utilizem a inteligência artificial de forma ética, segura e juridicamente responsável.

