Regulación de la Inteligencia Artificial en Brasil y sus impactos para las empresas
- Guilherme Henrique Soares

- hace 2 días
- 5 Min. de lectura
La inteligencia artificial ha dejado de ser una promesa tecnológica para convertirse en parte integral de las operaciones empresariales en diversos sectores de la economía. Las herramientas basadas en algoritmos se utilizan para el análisis de datos, la automatización de procesos, la atención al cliente, la toma de decisiones estratégicas y el desarrollo de nuevos productos. Este avance tecnológico, sin embargo, también plantea cuestiones jurídicas relevantes relacionadas con la responsabilidad civil, la protección de datos, la transparencia algorítmica y la protección de los derechos fundamentales.
En Brasil, el debate sobre la regulación de la inteligencia artificial ha ganado fuerza en los últimos años y culminó en la elaboración del Proyecto de Ley nº 2.338/2023, que busca establecer un marco legal para el desarrollo, la implementación y el uso responsable de esta tecnología. La propuesta fue aprobada por el Senado Federal en diciembre de 2024 y actualmente se encuentra en trámite en la Cámara de Diputados, en un contexto de intensos debates políticos, económicos y regulatorios.
Para empresarios y gestores, comprender los fundamentos de esta futura regulación no es solo una cuestión teórica. Se trata de un elemento esencial de gobernanza corporativa, gestión de riesgos y cumplimiento normativo. A medida que la inteligencia artificial se convierte en una parte central de las estrategias empresariales, también crece la necesidad de comprender los límites jurídicos del uso de esta tecnología en el entorno empresarial.
El escenario regulatorio actual de la inteligencia artificial en Brasil
A pesar del creciente uso de sistemas de inteligencia artificial en el país, Brasil aún no cuenta con una ley general específica en vigor que regule esta tecnología. Actualmente, el uso de sistemas algorítmicos está regulado de manera indirecta por diferentes normas ya existentes en el ordenamiento jurídico brasileño.
Entre estas normas se destaca la Ley General de Protección de Datos Personales, Ley nº 13.709/2018, que establece reglas para el tratamiento de datos personales e impone límites relevantes al uso de decisiones automatizadas. El artículo 20 de la LGPD garantiza al titular de los datos el derecho de solicitar la revisión de decisiones tomadas exclusivamente con base en el tratamiento automatizado de datos personales.
Además de la LGPD, otras normas legales también pueden aplicarse al uso de inteligencia artificial en el contexto empresarial. El Código de Defensa del Consumidor puede aplicarse en casos de publicidad engañosa o prácticas comerciales abusivas derivadas del uso de sistemas automatizados. La legislación de competencia y la legislación de propiedad intelectual también pueden ser relevantes cuando los algoritmos influyen en decisiones de mercado o generan contenido protegido por derechos de autor.
En este escenario de fragmentación normativa, la ausencia de un marco legal específico genera inseguridad jurídica tanto para las empresas como para los usuarios de la tecnología. Este vacío regulatorio ha impulsado el avance del debate legislativo sobre la creación de un régimen jurídico propio para la inteligencia artificial en Brasil.
El Proyecto de Ley nº 2.338/2023 y el futuro marco legal de la inteligencia artificial
El Proyecto de Ley nº 2.338/2023 representa actualmente la principal iniciativa legislativa orientada a la regulación de la inteligencia artificial en Brasil. La propuesta establece principios, directrices y mecanismos de gobernanza para el desarrollo y el uso de sistemas de inteligencia artificial, con enfoque en la protección de derechos fundamentales y en la promoción de la innovación tecnológica.
Inspirado en modelos regulatorios internacionales, especialmente en el AI Act de la Unión Europea, el proyecto adopta un enfoque basado en la evaluación de riesgos. En este modelo, los sistemas de inteligencia artificial se clasifican según el nivel de riesgo que pueden representar para los individuos o para la sociedad, estableciendo obligaciones regulatorias proporcionales a dichos riesgos.
Las aplicaciones consideradas de alto riesgo, como los sistemas utilizados en decisiones que afectan derechos fundamentales o en sectores sensibles como la salud, la seguridad pública y las relaciones laborales, podrán estar sujetas a requisitos más estrictos de transparencia, supervisión humana y auditoría.
El proyecto también prevé la creación de mecanismos de gobernanza y supervisión, así como la definición de responsabilidades para desarrolladores, proveedores y usuarios de sistemas de inteligencia artificial. La propuesta busca equilibrar dos objetivos que suelen entrar en tensión en el debate regulatorio. Por un lado, la necesidad de proteger derechos individuales y colectivos. Por otro, la importancia de incentivar la innovación tecnológica y la competitividad económica.
Para el entorno empresarial, la eventual aprobación del proyecto podrá representar un cambio relevante en la forma en que los sistemas de inteligencia artificial son desarrollados e implementados dentro de las organizaciones.
Responsabilidad jurídica y gestión de riesgos en el uso empresarial de la IA
Una de las principales preocupaciones jurídicas relacionadas con el uso de inteligencia artificial en el entorno corporativo se refiere a la responsabilidad por decisiones automatizadas. A medida que los sistemas algorítmicos comienzan a influir en decisiones comerciales, financieras u operativas, surge la necesidad de determinar quién responde por eventuales daños causados por estas tecnologías.
El debate jurídico involucra diferentes modelos de responsabilidad, incluida la responsabilidad civil objetiva, la responsabilidad basada en culpa y la responsabilidad compartida entre distintos agentes involucrados en el desarrollo y operación del sistema de inteligencia artificial.
En determinados contextos, especialmente cuando existe impacto directo sobre consumidores o titulares de datos personales, los tribunales brasileños pueden interpretar que las empresas tienen el deber de garantizar transparencia, supervisión humana y mecanismos de control sobre decisiones automatizadas.
Otro aspecto relevante involucra el riesgo de discriminación algorítmica. Los sistemas de inteligencia artificial entrenados con grandes volúmenes de datos pueden reproducir sesgos existentes en la sociedad, generando decisiones potencialmente discriminatorias en procesos de contratación, concesión de crédito o evaluación de desempeño.
Este tipo de riesgo refuerza la importancia de auditorías algorítmicas, evaluaciones de impacto regulatorio y la implementación de políticas internas de gobernanza tecnológica.
Tendencias regulatorias e impactos estratégicos para las empresas
El avance de la regulación de la inteligencia artificial no es un fenómeno exclusivo de Brasil. Diversas jurisdicciones en todo el mundo han desarrollado estructuras regulatorias orientadas a la gobernanza de esta tecnología, con destaque para la Unión Europea, que recientemente aprobó el primer marco legal integral sobre inteligencia artificial.
En este contexto global, Brasil busca construir un modelo regulatorio que combine protección de derechos fundamentales, estímulo a la innovación y seguridad jurídica para el entorno empresarial.
La tendencia regulatoria apunta hacia la adopción de mecanismos de gobernanza corporativa específicamente orientados al uso responsable de tecnologías basadas en inteligencia artificial. Entre estas prácticas se encuentran la implementación de programas de cumplimiento tecnológico, la creación de comités internos de gobernanza de datos y algoritmos y la realización periódica de evaluaciones de impacto regulatorio.
Las empresas que adoptan estas prácticas de forma anticipada tienden a reducir riesgos jurídicos, fortalecer la confianza de consumidores e inversores y posicionarse de manera más competitiva en un escenario de creciente regulación tecnológica.
Conclusión
La regulación de la inteligencia artificial en Brasil representa uno de los temas jurídicos más relevantes de la actualidad para el entorno empresarial. El avance del Proyecto de Ley nº 2.338/2023 indica que el país avanza hacia la creación de un marco legal específico para disciplinar el desarrollo y el uso de esta tecnología.
Para las empresas que ya utilizan o pretenden utilizar inteligencia artificial en sus operaciones, seguir este proceso regulatorio resulta fundamental para la gestión de riesgos y para la construcción de estrategias empresariales sostenibles a largo plazo.
En este contexto, la adopción de prácticas de gobernanza tecnológica, transparencia algorítmica y protección de datos tiende a convertirse en un elemento central de la gestión corporativa contemporánea. El análisis preventivo de riesgos jurídicos y regulatorios puede contribuir a que las empresas utilicen la inteligencia artificial de manera ética, segura y jurídicamente responsable.





Comentarios