La Comisión de Ciencia, Tecnología e Innovación Productiva, emitió dictamen de mayoría sobre el proyecto de ley que regula la Inteligencia Artificial (IA) en Argentina.
La iniciativa es del presidente de la comisión, Daniel Gollán (Unión por la Patria). Si bien recogió aportes de otras fuerzas política, el kirchnerismo logró su aprobación solo con firmas propias.
La propuesta de regulación de la IA desató fuertes críticas por parte de La Libertad Avanza. Damián Arabia advirtió que “va aniquilar el desarrollo de IA en Argentina, sobre todo, a las empresas más pequeñas; los más grandes, directamente, se van del país".
El kirchnerismo esta a punto de sacar un dictamen de regulación de la Inteligencia Artificial que va a aniquilar miles de PyMEs, startups, desarrolladores independientes y a los unicornios argentinos. pic.twitter.com/Tuc5k6wPVx
— DAMIÁN ARABIA (@DamianArabia) November 11, 2025
“El Estado no puede regular lo que no entiende", concluyó el legislador bullrichista, cuya postura fue respaldada por Javier Milei en las redes sociales.
En el mismo sentido, Sabrina Ajmechet dijo que "el proyecto propone una fórmula que ya fracaso: el control total como forma de gobierno". Así, instó a “trabajar con más tiempo y en miradas plurales". Gollán objetó que Ajmechet no participó en anteriores reuniones de la comisión: “Para consensuar, hay que venir a las reuniones”.
La iniciativa que avanzó en Diputados plantea que “la rápida evolución de la inteligencia artificial (IA) trae consigo oportunidades transformadoras, pero también riesgos significativos que justifican la necesidad de un marco regulatorio adecuado”.
Así, se establece que “sin una regulación clara, el desarrollo y despliegue de sistemas de IA pueden generar impactos negativos en la sociedad, la economía y los derechos individuales”.
Entre ellos se mencionan la discriminación algorítmica, la violación de privacidad y la falta de transparencia (sistemas de "caja negra").
De esta manera, se prohíben “usos inaceptables”. Por ejemplo, la manipulación subliminal que altere la autonomía de las personas, o los sistemas de vigilancia masiva sin autorización judicial previa.
También se habla de “Sistemas de alto riesgo”, que incluyen aplicaciones en ámbitos sensibles como salud, justicia, seguridad pública y empleo, donde los errores algorítmicos podrían tener consecuencias graves. Para esos casos, se exigirán auditorías obligatorias de transparencia y no discriminación, y certificación previa a su implementación.
En tanto, se prevé la creación de un Sandbox regulatorio, que son entornos controlados para probar innovaciones en IA con supervisión estatal, bajo condiciones que aseguren la mitigación de riesgos durante las pruebas y la evaluación de impactos antes de su escalamiento.
Además, contempla la creación de una Agencia de Gestión del Conocimiento (A.G.C.) para “impulsar, regular y supervisar el desarrollo y uso responsable de los sistemas de Inteligencia Artificial (IA)”. Se compone de un Consejo Asesor Federal, un Consejo Directivo, una Dirección ejecutiva, un Comité de Inteligencia Artificial y un Observatorio de la Inteligencia Artificial.
FA