x
A P E X Q C A d v i s o r
Cuando la base de datos cambia y el sistema no lo sabe - ETp y Sigma Ricos Parte 2 - APEX QC Advisor

Repensando el ETa desde la evidencia – Parte 2

Repensando el error permitido desde la evidencia — Parte 2 | Pulse QC
Pulse QC apexqcadvisor.com
Serie · Error Total Permitido y Riesgo · Parte 2

Repensando el error permitido desde la evidencia

Cuando la base de datos cambia y el sistema no lo sabe

Francisco Acevedo Barranco · Pulse QC 2026 · Marzo No. 6 · ⚬APEX⚬ QC Advisor

En la primera parte de esta serie planteamos una idea que, con frecuencia, es fácil de ignorar: el control de calidad comienza en el momento en que decidimos qué nivel de error estamos dispuestos a tolerar. Ese punto de partida —el Error Total Permitido— no es simplemente un parámetro técnico. Es el marco conceptual que sostiene todo el sistema. Es la referencia contra la cual interpretamos cada dato, cada desviación, cada aparente estabilidad. Y en consecuencia, es el primer problema serio: no es un marco único, pero sí el más comúnmente asociado al cumplimiento… como si, para fines prácticos, no significaran lo mismo.

Tengo que aprovechar para recordarte que, cualquiera sea la magnitud de estos comentarios, son propios — y entiendo perfectamente si no los compartes parcial o absolutamente. Pero creo igualmente valioso poner mi perspectiva en tus manos para que consideres mis razones y, con ello, puedas articular una visión informada y —espero— propia de lo que adoptes como filosofía de control de calidad.


El error permitido no tiene una sola forma

En teoría, la conversación sobre especificaciones analíticas parece resuelta. Desde Milán (2014) entendemos que existen modelos jerárquicos, que algunos enfoques son más clínicamente relevantes que otros, y que la variación biológica ofrece una base fisiológica sólida. Pero en la práctica, lo que realmente ocurre es más sutil.

No solo existen distintos modelos. Existen distintas versiones dentro del mismo modelo. Durante años, muchos laboratorios han trabajado con especificaciones derivadas de la base de datos de la Dra. Carmen Ricos, con la subsecuente colaboración del Dr. Callum Fraser — lo que terminamos por simplificar como “Variabilidad Biológica”. Era, en cierto sentido, el estándar de facto para variación biológica, que también es una mejor traducción, la verdad.

Hoy, ese lugar lo ocupa la base de datos de la EFLM. Ambas comparten el mismo principio conceptual. Pero no comparten la misma exigencia. Y esa diferencia, aparentemente técnica, tiene consecuencias que van mucho más allá de los decimales.

El experimento que revela el problema

El documento que analizamos en esta segunda parte no propone una teoría. Hace algo mucho más interesante.

Assessing precision, bias, and sigma metrics of 22 measurands using Ricos and EFLM specifications and implementation of internal quality control procedure in clinical chemistry laboratory, de Khouloud Hkimi y Sonia Gara (2026), mantiene todo constante: mismo laboratorio, mismo analizador, mismos datos de precisión, mismos datos de sesgo. Cambia únicamente el origen del Error Total Permitido. Primero, utilizando especificaciones basadas en Ricos. Después, utilizando especificaciones basadas en EFLM.

El resultado es tan simple como inquietante. Al aplicar Ricos, aproximadamente un tercio de los analitos alcanza desempeño de clase mundial. Al aplicar EFLM, esa proporción disminuye — y la cantidad de analitos con desempeño inaceptable supera la mitad.

Nada cambió en el sistema analítico. Pero todo cambió en la forma de interpretarlo.

La métrica sigma no es un descriptor absoluto. Es una función del estándar que elegimos. Cuando reducimos el TEa, reducimos el margen dentro del cual el sistema puede operar sin ser penalizado. Y entonces, lo que antes parecía estable, ahora parece insuficiente.

Lo que está pasando en realidad

Es tentador interpretar este resultado como una simple diferencia entre bases de datos. Una actualización, quizás más estricta, quizás más refinada. Pero esa lectura es superficial.

Lo que realmente estamos observando es que la identidad del error permitido está cambiando. La base de datos de la EFLM no es solo más reciente — es metodológicamente más rigurosa. Filtra, depura, selecciona con mayor criterio los estudios de variación biológica que incorpora. Eso tiene una consecuencia inevitable: los límites se vuelven más estrechos. Y cuando los límites se estrechan, la tolerancia desaparece.

La ecuación no ha cambiado. El método tampoco. Pero el resultado sí. Y eso genera una reacción casi automática: pensar que el problema está en el desempeño analítico — cuando en realidad está en el marco de referencia que usamos para evaluarlo.

No todos los objetivos son equivalentes

Durante años, el enfoque basado en variación biológica ha sido considerado uno de los más sólidos. Y lo es. Pero incluso dentro de este enfoque, no todas las especificaciones tienen el mismo peso, ni la misma aplicabilidad, ni la misma coherencia con la realidad operativa de un laboratorio.

El documento lo muestra con claridad. Analitos críticos —electrolitos, glucosa, creatinina— no alcanzan niveles aceptables de desempeño incluso bajo criterios históricos, y mucho menos bajo criterios más estrictos. Esto no puede ignorarse, porque entonces la pregunta deja de ser técnica y pasa a ser estratégica: ¿Estamos midiendo calidad o aspiración?

La base de datos EFLM representa, sin duda, un avance en términos de rigor científico. Sus límites son más consistentes, más depurados, más alineados con una visión ideal del desempeño analítico. Pero esa misma fortaleza introduce una tensión real. En muchos casos, esos objetivos superan la capacidad real de los métodos rutinarios actuales. Y cuando eso ocurre, el riesgo no es solo técnico. Es operativo.

Un sistema que constantemente falla contra su estándar corre el riesgo de normalizar el fallo. De convertir la desviación en rutina. De erosionar la confianza en las propias herramientas de control.

Laboratorio clínico

Antes de actualizar tus especificaciones a EFLM, evalúa analito por analito. El cambio puede revelar brechas de desempeño reales — o puede simplemente reencuadrar como inaceptable lo que antes parecía estable. La diferencia entre esos dos escenarios no la resuelve la base de datos: la resuelve el criterio clínico que aplicas sobre tus datos.

Socio de canal

La transición entre Ricos y EFLM es una conversación pendiente en la mayoría de tus cuentas de laboratorio. El distribuidor que llegue primero con criterio estructurado sobre este cambio — no con un catálogo, sino con una evaluación — tendrá una ventaja competitiva que el siguiente ciclo de precios no puede reproducir.

Fabricante IVD

Si tu portafolio tiene métodos que no alcanzan los nuevos estándares EFLM para analitos críticos, necesitas una posición explícita sobre eso. El silencio frente a esa brecha no protege la marca — la expone. El criterio responsable es anticiparse al laboratorio que eventualmente lo descubrirá solo.

El problema no es elegir un estándar. Es no entenderlo

El error no está en usar la VB de Ricos, ni en usar EFLM. Está en asumir que cualquiera de ellos es automáticamente correcto sin considerar el contexto. Porque el TEa no es una constante universal. Es una decisión. Y esa decisión debe considerar el tipo de analito, la estabilidad biológica, la relevancia clínica, la capacidad tecnológica y, sobre todo, la población a la que sirve el laboratorio.

Aquí es donde ambas partes de esta serie convergen. En la primera discutimos que el TEa define el sistema. En esta segunda parte vemos que la forma específica de ese TEa redefine completamente la realidad operativa.

No solo cambia la métrica sigma — eso es lo de menos. Cambia la frecuencia de control, la selección de reglas, la percepción de robustez, la asignación de recursos, y el nivel de riesgo que estamos dispuestos a tolerar. El QC deja de ser una herramienta de monitoreo. Se convierte en una herramienta de decisión.

El documento también deja otra enseñanza que vale la pena rescatar. Muchos de los analitos con bajo desempeño no fallan exclusivamente por sesgo — fallan por imprecisión. Y eso cambia la naturaleza de la intervención.

No se trata de recalibrar, sino de entender la estabilidad del sistema, la consistencia del proceso, la variabilidad inherente que estamos aceptando sin cuestionar.

Lo que esto obliga a hacer

Si tomamos en serio lo que hemos discutido en estas dos partes, entonces hay una conclusión inevitable: no podemos seguir hablando de calidad analítica sin hablar de cómo definimos el error permitido. Y no podemos seguir utilizando especificaciones analíticas sin cuestionar de dónde vienen, qué representan y si realmente son coherentes con el contexto en el que operamos.

El riesgo no está en elegir mal una regla de Westgard. El riesgo está en evaluar correctamente un sistema… contra un estándar que nunca cuestionamos.

Entre Ricos y EFLM no hay solo una actualización. Hay una transición en cómo entendemos la calidad. Y eso nos obliga a hacer algo que hacemos todo el tiempo —sí— pero que rara vez motiva cambios sustanciales: detenernos y pensar en términos de riesgo.


El Error Total Permitido no es un número. Es una declaración. En la primera parte entendimos que es el punto de partida del sistema. En esta segunda parte vemos que su definición concreta determina la historia que contamos sobre nuestro propio desempeño.

Referencias

El análisis de esta serie se basa en evidencia publicada en revistas con revisión por pares. Se recomienda acceder al artículo original para profundizar en la metodología.

Hkimi, K., & Gara, S. (2026). Assessing precision, bias, and sigma metrics of 22 measurands using Ricos and EFLM specifications and implementation of internal quality control procedure in clinical chemistry laboratory. Clinical Biochemistry, 142, 111108. https://doi.org/10.1016/j.clinbiochem.2026.111108
Pulse QC · ⚬APEX⚬ QC Advisor apexqcadvisor.com/pulse-qc

Francisco Acevedo-Barranco

Fundador de ⚬APEX⚬ QC Advisor, firma especializada en transformar la calidad de un requisito de cumplimiento en una decisión estratégica. En Pulse QC traduzco ciencia, normativa y criterio propio en herramientas de pensamiento para laboratorios clínicos, socios de canal y fabricantes IVD que quieren operar mejor. QFB con maestría en Estadística Aplicada y más de una década liderando estrategias de control de calidad analítico para la industria IVD en América Latina.

Leave a Comment