Soluciones

Cómo lidiar con la Internet de las Cosas y la explosión de Big Data

Internet de las Cosas traerá consigo un aluvión de datos, que las organizaciones deben transformar en información relevante. Este insumo es indispensable para la toma de decisiones y la ejecución de acciones estratégicas. La alternativa tradicional de almacenar esos datos para luego aplicarle análisis y tratar de obtener algún insight de ellos, parece poco conducente dentro de este nuevo contexto.

La dificultad de este nuevo contexto aumenta al comprender que no necesariamente los analistas saben qué preguntas formular sobre los datos de que van llegando, y a veces incluso ignoran cuál es la naturaleza de esos datos que llegan de manera incesante, o de los datos acumulados a lo largo de años provenientes de máquinas, sensores y otros dispositivos conectados. En otras palabras, y como dice Santiago Fainstein, gerente de Soluciones y Desarrollo de Negocios de SAS Institute Argentina, estas organizaciones “no saben lo que saben, o aún peor: no saben lo que no saben”, y por las dudas guardan esos datos. El problema es que la Internet de las Cosas genera una cantidad fabulosa de datos. “Datos que almacenamos para preguntas que todavía no se nos ocurrieron”, agrega Fainstein.

Para muchos negocios, este tipo de análisis asincrónico no permite capturar algunas de las oportunidades emergentes. Es, en todo caso, una pobre capacidad de reacción. No sirve de mucho enterarse un mes después que cierto cliente está insatisfecho con el servicio, o que la red no es capaz de soportar ciertos picos de tráfico. Se necesita detectar el conflicto en tiempo real, y actuar en consecuencia. Por ejemplo, monitorear tendencias en vivo en el flujo de tráfico puede ayudar a realizar controles de tráfico de manera más efectiva, particularmente en lo referente a las comunicaciones a automóviles que permiten evitar los cuellos de botella y incluso accidentes potenciales. Incluir sensores dentro de los dispositivos hogareños puede alertar a la gente sobre problemas potenciales —como refrigeradores que no están enfriando de manera adecuada—, o incluso hacer sugerencias útiles (como informar que te quedarás sin leche en un día, al ritmo de consumo actual).

Las industrias ya comenzaron a capturar datos de sensores en tiempo real y a aplicar insights analíticos en tiempo real. Esto les permite, en distintos escenarios, mejorar la eficiencia de los sistemas urbanos, optimizar el funcionamiento de la grilla energética, o monitorear sistemas de agua para evitar fallas en la infraestructura, o incluso inundaciones. A esto se suman aplicaciones médicas (diagnósticos en tiempo real que pueden evitar que la condición del paciente empeore), monitoreo de sistemas complejos (como grandes maquinarias, aviones y centros de datos, para actuar preventivamente ante el riesgo de caídas o descompostura), monitoreo de comportamiento durante las transacciones (sobre todo en verticales como finanzas y retail), monitoreo de interacciones en redes sociales, variación de las cotizaciones en las transacciones bursátiles, detección de fraudes financieros y de ciberataques, y un largo etcétera. Para todos estos ejemplos, analizar información luego de que ha sido almacenada, sencillamente no alcanza. Es necesario el análisis (o minería) del flujo (streaming) de los datos en tiempo real.

¿Qué se puede hacer con el análisis del flujo de datos en tiempo real? Muestreo, conteo, detección de patrones, filtrado y análisis aplicando modelos más complejos en cuasi-tiempo real. Por la necesidad de performance de estos procesos (todo dato que no se procesa y no se almacena, se pierde) es necesario ejecutar estas tareas “in memory”, lo cual implica que en esta clase de despliegues se requiera mucha experiencia en la gestión y dimensionamiento de esta memoria. Por otra parte, esta información (muchas veces desestructurada) no puede ser almacenada en bases de datos convencionales. Los sistemas que proveen esta clase de procesamiento de los datos en tránsito se denominan Data Stream Management Systems (o DSMS, en oposición a los sistemas de gestión de bases de datos tradicionales, o DBMS).

ITSitio_Ficha_datastream

Para Martín Volpacchio, profesor de Data Mining Avanzado en la Maestría de Data Mining de la Facultad de Ingeniería de la Universidad Austral, y con una amplia experiencia como Big Data Analytics Manager del Grupo Telefónica/Movistar en Argentina, generalmente hay dos objetivos: ejecutar análisis de modelos básicos y predecir la clase o el valor nuevo de un elemento de ese flujo basándose en la sucesión de elementos anteriores.

ITSitio_Ficha_sas_stream_processing

Para este tipo de procesos, SAS provee un motor de análisis llamado Event Stream Processing, que puede ser integrado a las soluciones de SAS. En la medida que los datos arriban, de manera continua, son reenviados a otras aplicaciones SAS (como SAS Asset Performance Analytics, SAS Decision Manager, SAS High-Performance Risk) para el análisis en profundidad. SAS Event Stream Processing inicia y ejecuta un query predefinido contra los eventos que ingresan “in memory” y en tiempo real. Los eventos permanecen en memoria, permitiendo que el motor realice manipulación de datos más complejas y detección de patrones. SAS Event Stream Processing usa técnicas tales como:

  • Evaluación
  • Agregación
  • Correlación
  • Análisis temporal

Los dispositivos de comunicación conectados, o Internet de las Cosas, serán la siguiente fuente de Big Data. Pero no se trata ya sólo de big data: estos datos llegarán en flujos, muy velozmente. No está clara la manera de sacar valor de ellos, ni cómo almacenarlos y procesarlos bajo el esquema tradicional de minería de datos en reposo. Se requieren tecnologías como el procesamiento de flujos de eventos de para rescatar de este tsunami información relevante y oportuna, que permita establecer acciones inmediatas. SAS Event Stream Processing ayuda a adquirir, entender y explotar esos datos, soportando la vigilancia de éstos en tiempo real, las acciones fruto de esas analíticas, y análisis probabilístico y alertas.

Autor

  • Pamela Stupia

    Editora de ITSitio para toda la región. Comenzó su camino en medios gráficos y digitales hace más de 10 años. Escribió para diario La Nación y revista Be Glam del mismo grupo.

    Ver todas las entradas

[mdx-adserve-bstreet region="MED"]

Pamela Stupia

Editora de ITSitio para toda la región. Comenzó su camino en medios gráficos y digitales hace más de 10 años. Escribió para diario La Nación y revista Be Glam del mismo grupo.

Publicaciones relacionadas

Botón volver arriba