Noticiero Digital N° 1221

Reglamento de IA: blanco y negro

El Reglamento de la Ley de Inteligencia Artificial Nº 31814 marca un hito en el Perú al establecer principios de transparencia, explicabilidad y una clasificación de riesgos inspirada en estándares internacionales. Reconoce usos prohibidos, regula estrictamente los de alto riesgo y fomenta centros nacionales de innovación, datos y cómputo. Sin embargo, carece de presupuesto específico y de una estrategia clara para formación de talento, investigación e inversión, lo que limita su impacto real. En este reportaje, América Sistemas compendia las opiniones de sus lectores y analiza los retos prácticos para convertir esta norma en motor de desarrollo.

Reglamento de la Ley de IA: buenas intenciones, retos prácticos

El Reglamento establece un marco técnico-jurídico claro: incorpora transparencia y explicabilidad, crea centros nacionales (innovación, datos y cómputo), y adopta una clasificación de riesgos (inaceptable/alto/medio/bajo). Sin embargo, deja la financiación y la formación al arbitrio de las entidades, con riesgo de elevar costos y frenar adopciones en PYMES y sectores rurales.

 

(americasistemas.com.pe. Lima, Perú – 17 de setiembre 2025) Casi una decena de lectores a nuestra solicitud nos hacen llegar diferentes puntos de vista acerca del reglamento recientemente publicado, a continuación, y gracias a ellos presentamos un análisis detallado y compendio de posturas que esperamos sean de utilidad:

  1. Qué trae el Reglamento (resumen objetivo)

El Reglamento desarrolla y operacionaliza la Ley Nº 31814: define términos técnicos (modelo fundacional, ciclo de vida, sesgo, etc.), incorpora el principio de transparencia y explicabilidad, y crea instrumentos institucionales (Centro Nacional de Innovación Digital e IA; Centro Nacional de Computación de Alto Rendimiento; Centro Nacional de Datos). Asimismo establece una clasificación por riesgo (inaceptable, alto, medio, bajo) y detalla obligaciones para sistemas de riesgo alto y los usos prohibidos.

Puntos normativos clave:

  • Transparencia y exigencia de explicación en decisiones con impacto significativo (art. 19).
  • Prohibición de usos de riesgo inaceptable (p. ej. técnicas subliminales, perfiles sociales punitivos) (art. 15).
  • Obligaciones estrictas para riesgo alto: evaluación de riesgo, auditoría por tercero independiente, trazabilidad, registro de uso (6 meses), informes de validación, control humano intervenible.
  • Instrumentos de fomento: publicación de modelos/algoritmos financiados por el Estado (art. 30), sandbox para pruebas controladas (art. 38), acceso a HPC y recursos en la nube para entidades públicas y estudiantes (arts. 13 y 29).
  1. Lo positivo — ¿qué aporta de valor?
  • Claridad regulatoria: al definir obligaciones y plazos, reduce incertidumbre legal para usuarios públicos y privados.
  • Protección de derechos: pone énfasis en dignidad humana, no discriminación, privacidad y mecanismos para canales de reclamo.
  • Infraestructura y apertura: la obligación de publicar modelos/datos de proyectos estatales y la creación de centros e HPC favorecen replicabilidad y experimentación pública.
  1. Limitaciones y riesgos reales (aplicación práctica)

Aunque el Reglamento apunta en la dirección correcta, hay brechas entre la letra y la realidad operativa:

  1. No hay presupuesto central asignado. Las entidades deben incluir recursos en su Plan Operativo y presupuesto de apertura (art. 8.2.b), lo que significa dependencia de partidas internas ya tensionadas y ninguna garantía de inversión nacional específica. Esto dificulta la implementación efectiva de los centros y servicios anunciados.
  2. Costos y carga administrativa especialmente para PYMES/startups. Las exigencias de auditoría externa, trazabilidad, registro y supervisión humana elevan costos operativos (art. 16). En sectores con grandes volúmenes (p. ej. 10k solicitudes diarias de crédito), la revisión humana obligatoria puede ser inviable sin automatizaciones complementarias y mayor presupuesto.
  3. Escasez de talento. El Reglamento demanda equipos multidisciplinares, oficiales de gobierno de datos y auditores de modelos — perfiles aún limitados en Perú. Sin una estrategia de formación e incentivos robusta, la supervisión humana y la auditoría técnica será difícil de sostener.
  4. Tensión explicabilidad vs. rendimiento. El énfasis en “IA explicable” (art. 4.i y art. 19) es legítimo para la protección de derechos, pero técnicamente los modelos más interpretables (regresión, árboles simples) a menudo rinden menos que redes profundas o modelos de gran escala. Para aplicaciones críticas (diagnóstico médico urgente, scoring en zonas rurales), exigir explicabilidad absoluta puede ralentizar decisiones o encarecer soluciones. Esta tensión exige soluciones técnicas matizadas (contratos de explicación, auditable por proxy, uso de explicadores post-hoc).
  5. Riesgo de regulación prematura. Varias voces lectoras apuntan que regular fuertemente antes de consolidar capacidades (infraestructura humana, investigación y aulas fortalecidas) puede frenar la adopción y desplazar innovación hacia jurisdicciones con regulación menos gravosa.

 

  1. Lo que dijeron nuestros lectores (síntesis de posiciones)

Hicimos un compendio de los comentarios recibidos en AS y encontramos cinco temas recurrentes:

  • Aprecio por la intención protectora y la alineación con estándares internacionales.
  • Preocupación por la ausencia de financiamiento y plan de formación.
  • Observación técnica: los LLMs no son la panacea para sectores como minería/petróleo; son una capa de razonamiento — los modelos especializados (RN, XGBoost, RL) siguen siendo clave.
  • Petición de una Estrategia Nacional de IA (ENIA) que convierta reglas en políticas públicas con metas, financiamiento e indicadores.
  • Voluntad de colaborar desde el sector privado y la academia en mesas de trabajo y sandboxes.

(Esta síntesis resume las contribuciones ciudadanas recibidas y su tratamiento por la redacción de AS.)

 

  1. Recomendaciones prácticas (para que el reglamento no quede en letra muerta)
  • Crear un fondo público-privado para IA que cofinancie infraestructura (HPC, datos) y subvenciones a PYMES/startups que necesiten cumplir obligaciones de riesgo alto (vinculado a art. 13 y 30).
  • Plan nacional de formación (rápido y escalable): becas, diplomaturas, programas técnicos focalizados en auditoría de modelos y controles humanos (aprovechar art. 32 y 33).
  • Enfoque proporcional: definir requisitos diferenciados para micro/pequeñas empresas y para pruebas piloto en sandboxes (usar art. 38 para flexibilizar exigencias en entornos controlados).
  • Promover estándares técnicos locales en coordinación con INACAL y la academia para que las auditorías y certificaciones sean asequibles y contextualizadas.
  • Medir impacto: la Secretaría debe publicar indicadores anuales (adopción, brecha de talento, costos) y ajustar la regulación con base en evidencia (la disposición a revisar categorías de riesgo ya está contemplada; artículo 6.f).

El Reglamento es un paso indispensable: protege derechos, introduce gobernanza y abre instrumentos de apoyo. Pero su éxito dependerá de recursos, capacitación y gobernanza operacional. Si la política pública que sigue (ENIA y presupuestos vinculados) articula formación, financiamiento y entornos experimentales, el Perú podrá convertir la regulación en motor de desarrollo; de lo contrario, corre el riesgo de convertirse en un candado prematuro que frene la innovación en un país con brechas digitales aún altas.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

"COMPROMISO CON EL PÉRU"

Ciberseguridad Nacional
– “La seguridad es un proceso, no un producto.” — Bruce Schneier, criptógrafo y experto en seguridad (1999)

– “Hay dos tipos de empresas: las que han sido hackeadas y las que aún no saben que lo han sido.” — John Chambers, ex CEO de Cisco (2015).

– “La ciberseguridad es responsabilidad de todos, no solo del área de TI.” — Ginni Rometty, ex CEO de IBM (2014).

– “El mayor riesgo es pensar que no estás en riesgo.” — James Comey, ex director del FBI (2014).

Lucha Anticorrupción
– “La ética es saber la diferencia entre lo que tienes derecho de hacer y lo que es correcto hacer.” — Potter Stewart, juez de la Corte Suprema de EE.UU. (1981).

“Si pierdes dinero, pierdes poco; si pierdes un amigo, pierdes mucho; si pierdes la integridad, lo pierdes todo.” — Proverbio chino (atribuido, s. XX).

“Las empresas que prosperan a largo plazo son aquellas que construyen confianza.” — Ratan Tata, empresario indio (2006).

– “La integridad es hacer lo correcto, incluso cuando nadie está mirando.” — C.S. Lewis, escritor británico (c. 1940).

Responsabilidad Digital
– “El phishing en el Perú aumentó un 120% en 2024. ¡Desconfía de links sospechosos!” — División de Ciberpolicía (2024).

————————————————————

UNI: MBA en Gerencia y Tecnología

Conversando con los CEO´s Perú

Ley de Inteligencia Artificial 31814

Conversatorio de especialistas sobre Conectividad para el Desarrollo del Perú.

América Sistemas