12/11/2025 - Edición Nº1009

Política

Extensa regulación

Proyecto K sobre la IA desató la polémica en el Congreso y ya tiene dictamen

11/11/2025 | La iniciativa es del diputado Daniel Gollán, de Unión por la Patria. Los libertarios aseguraron que va a "aniquilar" al sector.



La Comisión de Ciencia, Tecnología e Innovación Productiva, emitió dictamen de mayoría sobre el proyecto de ley que regula la Inteligencia Artificial (IA) en Argentina.

La iniciativa es del presidente de la comisión, Daniel Gollán (Unión por la Patria). Si bien recogió aportes de otras fuerzas política, el kirchnerismo logró su aprobación solo con firmas propias.

La propuesta de regulación de la IA desató fuertes críticas por parte de La Libertad Avanza. Damián Arabia advirtió que “va aniquilar el desarrollo de IA en Argentina, sobre todo, a las empresas más pequeñas; los más grandes, directamente, se van del país".

“El Estado no puede regular lo que no entiende", concluyó el legislador bullrichista, cuya postura fue respaldada por Javier Milei en las redes sociales.

En el mismo sentido, Sabrina Ajmechet dijo que "el proyecto propone una fórmula que ya fracaso: el control total como forma de gobierno". Así, instó a “trabajar con más tiempo y en miradas plurales". Gollán objetó que Ajmechet no participó en anteriores reuniones de la comisión: “Para consensuar, hay que venir a las reuniones”.

Puntos clave del proyecto

La iniciativa que avanzó en Diputados plantea que “la rápida evolución de la inteligencia artificial (IA) trae consigo oportunidades transformadoras, pero también riesgos significativos que justifican la necesidad de un marco regulatorio adecuado”.

Así, se establece que “sin una regulación clara, el desarrollo y despliegue de sistemas de IA pueden generar impactos negativos en la sociedad, la economía y los derechos individuales”.

Entre ellos se mencionan la discriminación algorítmica, la violación de privacidad y la falta de transparencia (sistemas de "caja negra").

De esta manera, se prohíben “usos inaceptables”. Por ejemplo, la manipulación subliminal que altere la autonomía de las personas, o los sistemas de vigilancia masiva sin autorización judicial previa.

También se habla de “Sistemas de alto riesgo”, que incluyen aplicaciones en ámbitos sensibles como salud, justicia, seguridad pública y empleo, donde los errores algorítmicos podrían tener consecuencias graves. Para esos casos, se exigirán auditorías obligatorias de transparencia y no discriminación, y certificación previa a su implementación.

En tanto, se prevé la creación de un Sandbox regulatorio, que son entornos controlados para probar innovaciones en IA con supervisión estatal, bajo condiciones que aseguren la mitigación de riesgos durante las pruebas y la evaluación de impactos antes de su escalamiento.

Además, contempla la creación de una Agencia de Gestión del Conocimiento (A.G.C.) para “impulsar, regular y supervisar el desarrollo y uso responsable de los sistemas de Inteligencia Artificial (IA)”. Se compone de un Consejo Asesor Federal, un Consejo Directivo, una Dirección ejecutiva, un Comité de Inteligencia Artificial y un Observatorio de la Inteligencia Artificial.

FA