En las industrias farmacéutica y biotecnológica, las decisiones no se toman en el vacío. Cambios de proveedor, desviaciones en calidad, dudas sobre parámetros de proceso… Cada decisión puede tener consecuencias importantes, y los datos están ahí para ayudar. Pero hay un riesgo silencioso: usar herramientas sofisticadas para contestar mal lo que no se entendió bien. El problema no es técnico, es conceptual. Por eso, antes de aplicar fórmulas, conviene empezar por lo básico: ¿cuál es exactamente la pregunta?
La revolución de los datos ha multiplicado las herramientas (gráficos de control, pruebas de hipótesis, modelos predictivos, diseños de experimentos, …), pero el fallo más caro sigue siendo conceptual: responder con técnica impecable a una pregunta mal planteada. Eso produce conclusiones que no se sostienen, decisiones que no cambian nada y una falsa sensación de control. Para evitarlo, no hay atajo: hay que empezar por la pregunta.
Antes de elegir técnicas conviene aclarar qué tipo de pregunta tenemos entre manos. En estadística práctica, las preguntas suelen caer en seis familias: describir (cómo es), explorar (qué patrones sugieren los datos), inferir (cuánto vale algo en la población y con qué incertidumbre), predecir (anticipar resultados futuros), causar (cambio en una variable genera un cambio en otra) y explicar mecanismos (entender cómo o por qué ocurre un fenómeno). Confundirlas es habitual: vender una correlación exploratoria como prueba causal, o presentar un buen modelo predictivo como si revelara el mecanismo.
Para bajar esta distinción a tierra, seguiremos un único hilo conductor que recorrerá el artículo. Imagina una planta farmacéutica que, tras un cambio de proveedor, sospecha mayor variabilidad en el contenido de API. Con esa inquietud arranca todo.
Del planteo a la decisión: una guía útil
Primero, identificar el tipo de pregunta. La inquietud inicial suena causal (“¿el nuevo proveedor provoca más variabilidad?”), pero los datos disponibles suelen ser registros observacionales: lotes desbalanceados por línea y turno, humedad ambiental a veces sin anotar, mediciones con distinta granularidad. Con ese material, una afirmación causal directa sería frágil. Lo que sí es contestable, ya, es una inferencia: “¿ha aumentado la variabilidad y cuánto?”. Y, si queremos actuar en planta, una predicción: “¿qué lotes presentan mayor riesgo de fuera de especificación?”. La pregunta causal quedará abierta para cuando diseñemos datos específicos (un experimento o un cuasi-experimento).
Con el tipo de pregunta claro, entra en juego una guía de trabajo sencilla que evita saltos y ayuda a decidir:
Pregunta → Datos → Métrica → Robustez → Resultado útil → Límites
No es una lista rígida; es una secuencia que se retroalimenta.
Pregunta. Reformulamos la inquietud de la planta en términos prácticos: “¿La variabilidad intralote del contenido de API ha aumentado en al menos un 20% desde junio, afectando a la capacidad del proceso?”. Esta versión ya sugiere la decisión posible (revisar parámetros o intensificar controles) y fija una magnitud.
Datos. Antes de calcular nada, verificamos cobertura por línea y turno, consistencia de unidades, granularidad (lote/sublote) y posibles sesgos (por ejemplo, más muestreos en turnos problemáticos). Si falta una variable clave —humedad— lo anotamos como limitación y, si es viable, planificamos su captura en adelante.
Métrica. En procesos con colas o asimetría, la mediana y el rango intercuartílico reflejan mejor la variabilidad típica que la media y la desviación típica. Para calidad importan, además, el porcentaje fuera de especificación y, cuando proceda, Cp/Cpk (si se cumplen sus supuestos). Elegir la métrica correcta no es estética: determina si vemos el problema o lo tapamos.
Robustez. Un resultado sólido no depende de una única elección razonable. Probamos alternativas: media vs. mediana, ventanas mensuales vs. trimestrales, con y sin transformar en logaritmos, reglas claras para tratar valores atípicos. Si planteamos un modelo operativo para priorizar inspecciones, validamos con conjunto de reserva y validación cruzada; informamos su área bajo la curva (AUC) y, sobre todo, su utilidad práctica (cuántos fuera de especificación detecta si priorizamos, por ejemplo, el 30% de lotes).
Resultado útil. El objetivo no es un panel bonito, sino una frase que empuje una acción: “Desde julio, la mediana de variabilidad intralote aumentó de 0,12% a 0,19% (diferencia +0,07 puntos porcentuales; con un intervalo de confianza del 95% [+0,04; +0,10]) y el rango intercuartílico creció un 25%. Recomendamos ajustar tiempo de mezcla y control de humedad. Mientras tanto, un modelo sencillo prioriza el 30% de lotes con humedad ambiental >60% y captura el 70% de los fuera de especificación”. Esa frase enlaza inferencia (cuánto cambió) con operación (qué hacer mañana).
Límites. Declararlos fortalece el análisis: desbalanceo por líneas, humedad ausente en parte del verano, tamaños de lote cambiantes. Y se añade cómo se reducirán en la siguiente vuelta: sensores, registro homogéneo, diseño de experimentos.

Tipos de pregunta en la práctica farmacéutica y biotecnológica
Con este mismo hilo podemos volver atrás y situar, ahora sí con orden, el mapa de tipos de pregunta en la práctica cotidiana:
Este orden evita el “estiramiento interpretativo”: presentar un buen clasificador como si fuese prueba de causa, o una asociación como si fuese mecanismo. También agiliza la comunicación entre Producción, Calidad e I+D: todos saben qué parte del análisis hace qué y con qué límites.
Cerrar el círculo
Volvamos al caso de la planta. Tras la constatación inferencial del aumento de variabilidad y la implantación temporal de una priorización de lotes, llega el momento de responder la pregunta causal que quedó pendiente: “si ajusto tiempo de mezcla y humedad, ¿qué ocurre con la variabilidad y el perfil de impurezas?”. Aquí la guía nos lleva a un diseño de experimentos sencillo (por ejemplo, 2×2 con réplicas) o a un cuasi-experimento si no es posible aleatorizar (diseños por bloques, series temporales con intervención y controles). Sólo con ese cambio de diseño se puede hablar con propiedad de “efecto”.
En paralelo, la planta aprende. La próxima vez que surja una sospecha, el orden ya estará interiorizado: clarificar qué se pregunta, asegurar con qué datos se puede contestar, acordar cómo se medirá, comprobar si se sostiene al variar elecciones razonables y comunicar un resultado que mueva una decisión, con sus límites por delante. No hay magia, hay método.
Un modo de trabajar que cambia la práctica
Este modo de trabajar también evita errores habituales en entornos técnicos: tratar una asociación observada como si probara una causa, interpretar una reducción temporal en fallos como efecto de una acción sin control adecuado, o confundir predicción con explicación. Situar cada hallazgo en su tipo de pregunta protege tanto la calidad del análisis como las decisiones que se toman a partir de él.
Los datos importan y los métodos importan, pero mandan las preguntas. Nombrar bien el tipo de pregunta y seguir una guía sencilla evita errores caros. No es una invitación a “poner más pasos”: es una forma de ahorrar trabajo mal dirigido. En los sectores farmacéuticos y biotecnológicos, donde decisiones pequeñas pueden tener consecuencias grandes, esa diferencia separa un informe que se olvida de un análisis que cambia la práctica.
| Nombre | Francesc Martori |
|---|---|
| Empresa | IQS – Universitat Ramon Llull |
| Cargo | Departamento de Matemáticas y Análisis de Datos |
Política de privacidad | Cookies | Aviso legal | Información adicional| miembros de CEDRO