Parte I
Es una época emocionante: las capacidades para recolección, almacenamiento, procesamiento, análisis, interpretación y toma decisiones a partir de datos aumenta en potencia, velocidad, variedad y volumen.
Sea una empresa pequeña, una gran corporación, agencias estatales, organismos sin fines de lucros, todas las organizaciones tenemos a mano el conocimiento, prácticas, y muchas herramientas, tecnologías, que facilitan la conversión de los datos en información y luego en conocimiento para la toma de decisiones.

Visualizar datos. Controlar procesos. Monitor gerencial
El Control Estadístico de Procesos puede ser parte de los mecanismos de analítica de datos en nuestras empresas.
Y es justo el enfoque de esta serie de artículos en donde abordaremos cómo SPC provee capacidades de:
- – Visualización de datos (data visualization)
- – Tratamiento estadístico de señales contra ruido (capacidad y estabilidad)
- – Tableros de control (para cuadro de mando integral o BSC, Balance Scorecard).
Quizás aun más importante: como SPC ha recorrido desde la primera parte del siglo XX múltiples vías de implementación y despliegue que unidades de Tecnología de Información, CIO, Data Automation o similares, pueden aprovechar para incorporar en los planes y proyectos de inteligencia de negocios, minería de datos, BIg Data y temas relacionados.

Retos. Errores. Obstáculos.
Igualmente, esta serie de artículos aborda problemáticas específicas, mitos, como el no identificar correctamente el flujo de datos y su gestión (data management, llamado en la jerga de tecnología y codificación) y entonces esto termina siendo uno de los mayores impedimentos u obstáculos para una correcta implementación de SPC, y aprovechamiento de los datos en general
De datos a información y conocimiento.
Datos. Generalmente generarlos no es “problema”. Entender la dinámica de generación, flujo, procesamiento y cómo obtener información y conocimiento, bien, ese es el desafío.
Aquellos flujos de proceso identificados o no (esto como parte de prácticas de administración de procesos de negocio, BPM), funcionan como conductos en donde se generan datos sobre actividades específicas en los procesos.
Una correcta caracterización de los procesos, o bien del entendimiento del flujo de datos, es necesaria para poder escalar de datos puntuales a elementos descriptivos (visuales) que aporten información y conocimiento.
El SPC ha trabajado en esta dinámica durante décadas, y es valioso tomar las lecciones aprendidas y adaptarlas a la época actual, según el contexto.
¿Qué es Big Data?
Esa es la pregunta que cada empresa debe hacerse, porque lo cierto del caso es que desde un ángulo de enfoque muy general: “muchos datos” sin procesar o procesados son Big Data.
¿Qué es “muchos”? Para una miPYME quizás unos cuantos gigabytes de transacciones; para otras empresas quizás petabytes de transacciones diarias.
No es la cantidad de datos lo que importa en una estrategia de Big Data, fundamentalmente. Lo crítico es el diseño de la capacidad de aprendizaje que se obtendrá de los datos.
Las 3 V´s en Big Data

Es común referirse a Big Data en términos de las 3V´s acuñadas por Doug Laney:
Volumen: el influjo de datos que las organizaciones (sean miPYME, multinacionales o empresas estatales, ONG, etc.) reciben de múltiples fuentes. Las fuentes son canales de proceso conocidos o no estructurados que podrían tener o no mecanismos de recolección de los datos, incluyendo:
– Campañas de e-mail marketing
– Redes Sociales
– Tráfico web
– Transacciones de proceso
– Sensores máquina-a-máquina (como lo visto en Industry 4.0)
El almacenamiento estructurado de estos datos es parte de los desafíos del “Volumen” en Big Data. Tecnologías como Hadoop o servicios cloud como Azure facilitan la tarea.
Variedad: Los datos pueden provenir en gran cantidad de formatos. Y creciente en modalidades, incluyendo:
– Transacciones verbales
– Transacciones manuales
– Texto
– Número
– Fechas
– Formularios web
– Video
– Audio
– Tecnologías financieras
Los especialistas en mejoramiento continuo están acostumbrados al concepto de variación, y en la “Variedad” de Big Data es bueno entender sobre variación: la variedad no es la variación, pero las cambiantes tecnología de acopio de datos si pueden ofrecer un reto de variabilidad en la compleja y generosa Variedad de datos.
Velocidad: La internet, las telecomunicaciones y la adopción de nuevas tecnologías ha generado flujos de datos más veloces.
La granularidad de los datos es un desafío: transacciones en milisegundos (con sensores de proceso, RFID, u otros); la capacidad de procesar las transacciones de forma rápida, pero mejor aún, oportuna, es clave en la “velocidad” de Big Data.
Quizás el concepto de subagrupación racional y variación en el corto y largo plazo, serán importantes en estas lides del Big Data.
LEAN Six Sigma y expertos en Calidad: gráficos sí; pero, ¿implementación?
Al tratar sobre SPC, generalmente los especialistas en mejoramiento continuo, en términos de calidad, validación de configuración y caracterización de procesos, Lean Six Sigma y temas similares, son entrenados en la confección e interpretación de gráficas de control.
No obstante, no resulta inusual encontrar oportunidades para reforzar o mejorar la preparación de este grupo profesional.
Algunas oportunidades son:
- – no abordan directamente o no son entrenados en cómo capturar datos y usarlos dentro de un flujo estructurado para poder hacer una mejor implementación.
- – ya no es SPC para manufactura. Es SPC en la era de la analítica de datos. Pero, no necesariamente esto es parte del conocimiento adquirido en LEAN Six Sigma.
- – la caracterización de procesos, identificación de las variables “Y” críticas y las variables de entrada “X” asociadas, no siempre ha sido mapeada.
- – La asociación de variables identificadoras para un mejor entendimiento de las mediciones podría dejarse de lado, reduciendo la potencia de análisis derivada del SPC.
T.I: Tecnologías de información como aliado en la estrategia de administración de datos
Se tiende a delegar la función de implementación y despliegue inclusive, del programa SPC, en las labores o funciones de departamentos como Tecnologías de Información (T.I.); T.I., es un aliado en toda esta implementación; pero. no deben ser los únicos responsables de este tema.
La guía del departamento de T.I., y en particular de sus especialistas en gestión de datos e información (algunas veces representados por un CIO, Chief-Information-Officer), es fundamental para alinear y potenciar esfuerzos. Un programa SPC es más potente cuando T.I. entiende como calza en los planes de:
– Visualización de datos
– Big Data
– Minería de datos
En la próxima entrega, abordaremos elementos relacionado con SPC propiamente, y como podemos aprovechar las técnicas de implementación y despliegue para favorecer procesos de analítica de datos.

Original: Viernes 30 de Diciembre, 2016.
Leave a Reply