Un sólido documento técnico, remitido a esta redacción por especialistas en sistemas, advierte sobre vulnerabilidades potenciales en la arquitectura del conteo electoral. El análisis identifica riesgos en la consolidación digital de datos, manipulación de bases de datos y posibles alteraciones mediante algoritmos difíciles de detectar. También cuestiona la integridad del procesamiento automatizado de actas y la trazabilidad de los registros. Aunque no afirma irregularidades concretas, el informe subraya que la falta de auditorías profundas abre espacios críticos. Expertos coinciden en que solo una revisión forense integral garantizará transparencia, confiabilidad y legitimidad en los resultados electorales.
Lo que no se dice sobre el conteo digital
Analistas advierten posibles vulnerabilidades en el procesamiento digital electoral. Alertan sobre sofisticadas técnicas difíciles de rastrear y exigen auditorías independientes para garantizar la transparencia del proceso en el Perú.
(americasistemas.pe. Lima, Perú – 15 de abril 2026) En medio del proceso electoral 2026, una alerta comienza a tomar forma en círculos técnicos especializados: lo que no se ve podría ser más determinante que lo que se muestra.
En las últimas horas, esta redacción ha recibido comunicaciones de diversos analistas del sector tecnológico y expertos en sistemas informáticos, todos con un punto en común: la preocupación por eventuales mecanismos sofisticados de manipulación digital que, de existir, serían extremadamente difíciles de detectar.
Ninguno afirma contar con pruebas concluyentes. Sin embargo, coinciden en que el contexto operativo, ciertas decisiones técnicas y patrones observados en la transmisión de resultados ameritan, como mínimo, una revisión exhaustiva.
El riesgo invisible: la capa digital
A diferencia de los fraudes tradicionales —asociados a actas físicas o interferencias logísticas— el foco de estas advertencias se sitúa en la capa más compleja del proceso: la consolidación informática de resultados.
Según explican especialistas consultados, existe una hipótesis conocida en auditoría forense como “sesgo de agregación” o “microalteraciones acumulativas”. Este mecanismo no altera actas individuales, sino que impacta en la forma en que los datos son procesados en la base central.
El principio es simple, pero potente: pequeñas variaciones, casi imperceptibles en registros individuales, pueden generar diferencias relevantes cuando se replican miles de veces.
“Es como ajustar mínimamente cada operación. Nadie lo detecta en el detalle, pero el resultado global cambia”, explicó uno de los analistas.
Infraestructura bajo la lupa
Otro elemento que genera inquietud es la arquitectura tecnológica. Fuentes técnicas señalan que parte del procesamiento podría realizarse en entornos externos o distribuidos, lo que incrementa la complejidad de auditoría en tiempo real. No es secreto que ONPE utiliza el centro de datos de un conocido integrador con pasado vergonzante. En las actuales circunstancias, hay que hablar claro.
En este escenario, el acceso a logs de transacciones, trazabilidad de cambios y validación independiente de algoritmos se vuelve crítico. Sin estos elementos, cualquier verificación posterior podría quedar limitada.
Algunos especialistas advierten que incluso auditorías superficiales —como revisiones de “estado cero” o simulaciones previas— podrían no ser suficientes para descartar anomalías en procesos dinámicos. Es lo que recientemente ONPE ha realizado.
Patrones regionales y precedentes
Las alertas también se apoyan en antecedentes internacionales. Casos en la región han mostrado cómo fallas técnicas, interrupciones en la transmisión o demoras logísticas pueden generar espacios de incertidumbre. Como lo que está pasando ahora, con detenciones de funcionarios de mando medio para desviar la atención.
Aunque cada proceso electoral es distinto, los analistas coinciden en que existen patrones recurrentes que deben ser considerados como señales de riesgo, no necesariamente como pruebas de irregularidad. Importante mencionar que los resultados de la elección presidencial anterior, genera altas sospechas.
El rol de las instituciones
Frente a este escenario, el llamado es claro: fortalecer los mecanismos de control.
Diversas voces consultadas señalan que el Jurado Nacional de Elecciones debe asumir un rol más activo en la supervisión técnica, incorporando equipos altamente especializados en auditoría de sistemas, bases de datos y ciberseguridad electoral.
Asimismo, se plantea la necesidad de garantizar:
- Acceso a auditorías independientes
- Verificación cruzada con actas digitalizadas
- Monitoreo continuo de integridad de datos
- Transparencia en la infraestructura tecnológica
Advertencia, no sentencia
Este reportaje no afirma la existencia de fraude. Lo que recoge es una coincidencia relevante entre expertos: la posibilidad de vulnerabilidades en sistemas complejos no puede ser ignorada.
En procesos donde la legitimidad depende de la confianza, la opacidad tecnológica se convierte en un riesgo político.
La historia reciente ha demostrado que no basta con que los resultados sean correctos: deben ser verificables, auditables y creíbles. Hoy, más que nunca, la transparencia no es una opción. Es una obligación.
Documento técnico enviado a nuestra redacción
¿QUE ESTARIA PASANDO?:
Se tiene que revisar la arquitectura del software y el modelo de gestión de la base de datos, acá una explicación técnica de cómo se operaría un presunto fraude informático:
1. Manipulación en la Capa de Consolidación (Middleware)
El presunto fraude no ocurriría en el scaneo de cada acta individual, sino en el proceso de conectividad de datos y la sumatoria. Se presume la existencia de un «Algoritmo de Compensación» dentro del Servidor de Aplicaciones o de algún algoritmo particular en el proxy del proveedor de hosting.
El Proceso: Cuando el sistema recibe los datos de las actas de escrutinio de los centros de cómputo secundarios, el código que realiza la suma (Middleware) podría tener una instrucción condicional.
La Técnica: Si un Candidato A recibe una cantidad de votos en una mesa de un “distrito o zona opositora” el algoritmo aplica un redondeo acumulativo. Por ejemplo, resta 0.05 votos a cada registro de la oposición y los suma al candidato favorecido. En 90,000 mesas, esto genera un desplazamiento controlado de algunos votos que no existe en el papel, sino solo en la memoria volátil del servidor antes de escribirse en el disco.
2. Alteración de Procedimientos Almacenados (Stored Procedures)
La base de datos utiliza procesos internos para calcular los porcentajes finales.
La técnica de fraude: Se inyecta un script malicioso directamente en el motor de la base de datos. Este script no altera el número de votos de la mesa, sino que altera el Total_Acumulado.
El Riesgo: Si sumas manualmente todas las actas de la tabla MESAS, el resultado será X, pero si consultas la tabla TOTALES_NACIONAL, el sistema devuelve X + Y. Esta discrepancia solo se detecta comparando la suma aritmética simple de los registros brutos contra el reporte consolidado.
3.El «Apagón» como Cortina de humo para Inyección de comandos SQL.
Los problemas de conectividad e internet reportados no serían fallas fortuitas, sino «ventanas de mantenimiento» forzadas.
Propósito Técnico: Durante una caída de red o de sistema, se pueden ejecutar comandos DML (Data Manipulation Language) como actualización (UPDATE) masivos de forma directa sobre la base de datos sin que pasen por la interfaz de usuario ni por la validación de los personeros técnicos.
El rastro: Esto deja rastro en los Transaction Logs. Por eso es crítico utilizar el comando Flashback o similares, ya que permite «rebobinar» la base de datos a una hora particular por ejemplo las 2:00 AM (antes del supuesto ajuste) y compararla con el estado a las 3:00 AM. Si hay cambios en los totales sin nuevas inserciones de actas, el fraude es evidente.
4. Sesgo Algorítmico en la «Caja Negra» del OCR
Se presume que el software de Reconocimiento Óptico de Caracteres (OCR) que lee las actas digitalizadas podría tener un factor de error inducido.
Funcionamiento: El software podría estar programado para tener una «confusión estadística» selectiva (por ejemplo, confundir un 1 con un 7 o un 0 con un 8 u otros casos) basándose en el geoposicionamiento de la mesa. Si la mesa es de una zona donde el candidato favorecido es débil, el OCR remite datos erroneos a favor del otro pero solo dentro del margen de error permitido, haciendo que la detección manual sea muy difícil.
5.Inexistencia de Firma Digital en consolidación de Datos
Cada registro de voto en la base de datos debe estar relacionado a un archivo .pdf que tenga una Firma Digital válida.
La Vulnerabilidad: El fraude ocurriría si la base de datos permite sumar votos de registros que no tienen un «Hash» (identificador único) vinculado a una imagen de acta firmada. Es decir, votos «fantasma» que existen en la tabla de base de datos pero no tienen un respaldo documental en el servidor de archivos (Storage).
QUE SE DEBE HACER: Protocolo de Auditoría Forense Estructural
1. Auditoría de Integridad Referencial y Hash Matching
El análisis se centra en la verificación del vínculo entre el objeto digital (imagen del acta) y su representación en la base de datos. Se evaluará la consistencia entre ambos componentes con el objetivo de identificar posibles rupturas en la trazabilidad de la información.
Hash de Verificación Cross-Platform:
Cada acta digitalizada debe ser sometida a un proceso de validación mediante hash (SHA-256), verificando que el valor calculado del archivo fuente coincida de manera exacta con el almacenado en el repositorio (BLOB Storage) y su referencia en la base de datos. Esta validación permite garantizar la integridad del documento digital. Cualquier discrepancia detectada será tratada como una inconsistencia que deberá ser analizada en el contexto del flujo transaccional y los procesos de ingesta de datos.
Validación de Consistencia OCR:
Se realizará una reconciliación independiente del proceso de reconocimiento óptico de caracteres (OCR) mediante el uso de herramientas alternativas y muestreo manual controlado. El objetivo es identificar posibles errores sistemáticos, desviaciones en la interpretación de caracteres o sesgos asociados a la calidad de imagen o características específicas de los documentos procesados. Esta validación permitirá contrastar los resultados obtenidos por el sistema principal con una fuente independiente de verificación.
2. Análisis Estadístico mediante la Ley de Benford
El análisis estadístico se emplea como una herramienta complementaria para la identificación de posibles anomalías en grandes volúmenes de datos, evaluando la distribución de los valores numéricos generados durante el proceso de consolidación. En conjuntos amplios, como los resultados agregados de múltiples mesas, es posible observar patrones de frecuencia relativamente estables en la aparición de ciertos dígitos, particularmente en posiciones significativas. Se analizarán estas distribuciones mediante técnicas como la Ley de Benford, con el objetivo de detectar desviaciones relevantes o concentraciones atípicas de valores. Dichas desviaciones, en caso de identificarse, serán tratadas como indicadores de riesgo que requieren validación adicional, debiendo contrastarse con la trazabilidad transaccional, la integridad de los datos y la consistencia con las fuentes originales, evitando su interpretación como evidencia concluyente sin un análisis forense complementario.
3. Auditoría de Transacciones y Recuperación Histórica
El análisis se enfocará en la reconstrucción del comportamiento real de los datos dentro de la base de datos, utilizando mecanismos como Flashback Query, UNDO y, de estar disponible, análisis de Redo Logs o herramientas como LogMiner. Se evaluará la secuencia de operaciones DML (INSERT, UPDATE), identificando si los registros han sido modificados posterior a su inserción inicial. Se verificará que cada dato siga el flujo esperado del sistema (ingreso de acta → inserción → consolidación), descartando modificaciones no justificadas. Asimismo, se analizará la consistencia temporal de las transacciones mediante timestamps de alta resolución, con el fin de detectar patrones anómalos como actualizaciones masivas en ventanas reducidas o secuencias de modificación no alineadas con el comportamiento operativo esperado.
4. Prueba de Caja Negra y Estrés Algorítmico
Se presume que el fraude reside en el Código Fuente del Motor de Consolidación.
Validación del Lote Controlado: Al ingresar un lote de prueba (Dummy Data), se busca verificar si el sistema aplica un «factor de ponderación invisible». Si el resultado consolidado difiere de la suma aritmética simple de los archivos de entrada, se confirma la presencia de un algoritmo de manipulación incrustado en el Servidor de Aplicaciones.
5. Mitigación y Blindaje de la Firma Digital
Desacople de Firma Digital: Se presume que el sistema permite el registro de votos en la base de datos sin que el campo de la firma digital del acta esté validado. El sustento técnico exige un Join Estricto en la consulta: registro que no tenga una firma digital verificada por el servidor de certificados, debe ser descartado automáticamente por el motor de búsqueda.
6. Auditoría de la Capa de Aplicación y Lógica de Negocio
Se realizará una evaluación de la capa de aplicación responsable del procesamiento, validación y consolidación de la información, con el objetivo de identificar posibles transformaciones de datos previas a su persistencia en la base de datos. El análisis incluirá la revisión de servicios, APIs, componentes de backend y lógica de negocio implementada en el motor de procesamiento, verificando que las reglas aplicadas sobre los datos sean consistentes, trazables y estén alineadas con los procedimientos definidos. Asimismo, se evaluará la interacción entre la aplicación y la base de datos, asegurando que las operaciones de inserción y actualización respondan a un flujo controlado y auditable. Se prestará especial atención a la existencia de lógica no documentada, transformaciones adicionales o mecanismos de procesamiento que puedan generar discrepancias entre los datos de entrada y los resultados almacenados o publicados.
