El Congreso vive días de debate, luego que el Gobierno anunciara la extensión de las sesiones extraordinarias este diciembre. Entre las principales normativas que se espera que trate el Poder Legislativo, se encuentran:
- Reforma laboral
- Reforma tributaria
- Reforma integral del Código Penal
- Presupuesto 2026
A estos se suma un proyecto de ley destinado a regular el uso de la inteligencia artificial en el país, con el fin de alinear la normativa local con los marcos internacionales ya vigentes en la Unión Europea y otras jurisdicciones.
El debate cobró mayor impulso en noviembre, luego de que la provincia de Buenos Aires aprobara la primera regulación subnacional sobre IA en el Estado, publicada en el Boletín Oficial mediante la Resolución 9/2025.
La normativa bonaerense establece reglas claras para el uso responsable de sistemas algorítmicos en la administración pública, prohibiendo expresamente aplicaciones de alto riesgo y obligando a los organismos a reportar el impacto de sus decisiones, un antecedente que presiona al Congreso para acelerar la discusión y evitar que la regulación quede fragmentada por jurisdicción.
Entre los principios que se buscan incorporar a la ley nacional figuran la neutralidad tecnológica, la centralidad de la persona humana, la transparencia, la no discriminación y la seguridad, además de la obligación de demostrar responsabilidad en el diseño y aplicación de sistemas de IA.
Ley de inteligencia artificial: el proyecto que tratará el Congreso
La discusión se viene gestando desde mediados de año en la Comisión de Ciencia, Tecnología e Innovación Productiva de la Cámara de Diputados, donde se presentaron más de 10 iniciativas que apuntan a establecer un marco regulatorio para el desarrollo y aplicación de sistemas de inteligencia artificial.
El objetivo es fijar criterios de transparencia, protección de datos personales y límites al uso de tecnologías consideradas de "riesgo inaceptable", como aquellas que puedan manipular conductas sociales o vulnerar derechos fundamentales. Pero el gobierno nacional descree de la regulación, en sintonía con el enfoque EE.UU., para estimular la innovación
Desde Argencon advierten que el dictamen representa un "riesgo serio para el futuro del sector en el país". La entidad, que agrupa a las principales empresas de la economía del conocimiento, sostuvo que la propuesta impulsada por el diputado Daniel Gollán impone un esquema "intervencionista y burocrático" que frenaría la adopción social de la IA y limitaría la competitividad de las industrias tecnológicas nacionales.
En su comunicado, subraya que la IA generativa es la mayor disrupción global de las últimas décadas, con impacto en la industria, el comercio, la educación, la salud y la vida cotidiana. Por eso, reclamó que Argentina adopte una estrategia que acelere su despliegue y no lo restrinja con estructuras de control obsoletas, como registros, auditorías y certificaciones previas.
La organización recordó que experiencias similares en otros países quedaron rápidamente desactualizadas y recibieron fuertes críticas. En contraposición, presentó junto a cámaras y asociaciones del ecosistema tecnológico una hoja de ruta consensuada para promover un modelo de gobernanza eficaz, que combine desarrollo económico con medidas para mitigar usos indebidos de la IA.
Argencon enfatizó que de un marco regulatorio adecuado dependen cientos de miles de empleos, miles de empresas y exportaciones por más de u$s10.000 millones en 2025, con un potencial de crecimiento ilimitado.
"Lamentamos que el dictamen no esté inspirado en estos objetivos y que prevalezca un criterio contrario a la innovación", señaló la entidad, que ratificó su disposición a colaborar con el Congreso para garantizar un uso ético de la IA y convertirla en una fuente genuina de trabajo e innovación para los jóvenes argentinos.
Ezequiel Kieczkier, CEO de Olivia, consultora especializada en transformación digital de organizaciones, considera que la norma puede fomentar una innovación responsable, al establecer un marco claro que permita experimentar con nuevas soluciones sin comprometer la ética ni la seguridad y subraya la importancia de asegurar una eficiente protección de datos y privacidad.
En diálogo con iProUP, el ejecutivo describe que responder reclamos, documentar decisiones automatizadas y explicar el funcionamiento de los modelos no es solo un tema de compliance, sino de "cultura organizacional", lo que exigirá "equipos capaces de comunicar y acompañar al usuario".
Gonzalo Ruíz Díaz, socio de PASBBA Abogados y especialista en nuevas tecnologías, detalla que una regulación bien diseñada puede convertirse en un marco de previsibilidad para empresas y en una herramienta de protección para usuarios. Destaca que esto permitiría transformar lo que hoy se percibe como una "caja negra" en sistemas explicables y auditables.
Ley de Inteligencia Artificial: ¿Argentina puede convertirse en un hub global?
Respecto a los incentivos y sandboxes regulatorios, Kieczkier señala que Argentina tiene potencial para convertirse en un hub de IA, pero que no basta con infraestructura: "se necesita un ecosistema con talento y culturas organizacionales que favorezcan la experimentación y la colaboración". Los sandboxes, dijo, son una "oportunidad para aprender haciendo y reducir la resistencia interna".
Ruíz Díaz enfatiza que, para lograrlo, se necesitan condiciones adicionales:
- Estabilidad macroeconómica
- Infraestructura robusta
- Energía competitiva
- Conectividad de calidad
- Políticas claras de datos y ciberseguridad
En ese sentido, "iniciativas privadas como el proyecto Stargate de OpenAI muestran oportunidades reales, pero requieren un entorno regulatorio simple y confiable", precisa.
Para Sergio Aguilera, Director de Carreras de Informática de la Universidad de Belgrano, los sandboxes pueden favorecer la inversión y el desarrollo de capacidades locales. Sin embargo, subraya que Argentina debe evitar caer en su "histórica creatividad regulatoria" que desalienta inversiones.
Sobre la creación de un ente que nuclee la supervisión de esta tecnología, el experto remarca que su mayor impacto sería cultural más que técnico. "Si funciona con agilidad y mirada moderna, puede convertirse en un habilitador de la innovación y no en un freno burocrático, impulsando estándares claros, colaboración público-privada y aprendizaje".
En cuanto a los sectores productivos, Aguilera enumera seis áreas que podrían beneficiarse rápidamente de un marco regulatorio, "al combinar incentivos comerciales con protección al individuo":
- Software y servicios informáticos
- Agtech y agroindustria
- Salud
- Fintech
- Servicios profesionales de exportación
- Educación digital
Ruíz Díaz coincide con los rubros que se verían beneficiados y acota que la IA mejoraría procesos críticos como scoring, prevención de fraude, trazabilidad agrícola, diagnósticos médicos y optimización logística. "Un esquema claro de responsabilidad y certificación aceleraría la adopción en estas áreas", asevera.
Seguridad, privacidad, transparencia y uso ético de la IA: las normas que buscan proteger al usuario
La idea del proyecto de Gollán es que cualquier desarrollo, contratación o implementación de estas tecnologías en el país cumpla con estándares que garanticen un uso ético y seguro.
La iniciativa también establece la clasificación de los sistemas de IA según su nivel de riesgo, siguiendo el modelo europeo. Esto permitiría prohibir aquellos considerados inaceptables, regular estrictamente los de alto riesgo –como los aplicados en salud, justicia o seguridad– y otorgar mayor flexibilidad a los de bajo impacto.
Además, establece una serie de principios y derechos de las personas, con mecanismos brindados a las personas en caso de verse afectados por la IA, tales como:
- Impugnación y revisión humana
- Rectificación y supresión de datos
- Corrección de sesgos discriminatorios directos, indirectos, ilegales y/o abusivos
Para Ruíz Díaz, una entidad regulatoria que actúe como habilitador –claro en estándares, rápido en sus respuestas, alineado con normas internacionales, fuerte en sandboxes e incentivos, y razonable en sus exigencias– puede "acelerar la adopción de IA y atraer proyectos de gran escala". Pero avisa que, si se convierte en un "organismo lento, fragmentado o discrecional", ocurrirá lo contrario: "más fricción, menos inversión y desarrollos que migran a otros países".
En postura del ejecutivo de Olivia, los mecanismos de reclamo "aportan transparencia y confianza", y obligan a las compañías a "adoptar prácticas más responsables y centradas en las personas". Mientras que el directivo de la UB detalla que los mecanismos de reclamos "deben ser más trabajados para que no sumen una serie de costos que hagan a la protección inviable".
De aprobarse un dictamen en Diputados, el proyecto podrá avanzar hacia el Senado en 2026 y abriría el camino para que Argentina cuente con una ley marco que regule la artificial en todos los ámbitos.
Sin embargo, Aguilera advierte que un tema no definido en la propuesta de ley, es "explicar cuál será el capital humano calificado que trabajará en la aplicación de la regulación, de forma que tenga el nivel técnico y que no sume costos inviables y cual será el ritmo de actualización de las regulaciones devenidas en función de los cambios tecnológicos y sociales que se vayan modificando".