Cómo hacer para que la nube y el Big Data vayan de la mano

La máxima “estar cerca es muy bueno” también aplica en el análisis de cantidades masivas de información. ¿Cómo hacer que esa cercanía sea compatible con la necesidad que tienen los desarrolladores de sacar provecho de la nube pública? Ezequiel Pontnau, de Huawei, lo explica.

Cierto aviso institucional de un canal de televisión abierta tenía por leit motiv aquello de “estar cerca es muy bueno”. A la hora de evaluar las ventajas de la nube para la práctica del llamado “Big Data” —hablamos de la captación, el almacenamiento y el análisis de grandes volúmenes de datos de procedencia heterogénea, para descubrir insights del negocio— la frase aplica de forma casi literal. Ezequiel Pontnau, ejecutivo de cuenta para Banca, Gobierno y Retail en el área de Cloud & Enterprise Intelligence de Huawei Argentina, hace hincapié en la diferencia que una nube pública local como la que Huawei provee desde el barrio de Barracas (Ciudad de Buenos Aires) aporta en términos logísticos.

“Tener una nube local nos permite acercar mucho más la plataforma de Big Data al desarrollador y a la organización que está queriendo hacer el proyecto. Desde el punto de vista de logística, podríamos tener la exportación de una base de datos y de todas las fuentes de información en un disco externo de 2TB. Te venís a Barracas, lo enchufás en la red de 10Gbps, y lo subís directamente al clúster de Big Data”, grafica Pontnau.

A esto se asocia el costo de infraestructura. La nube pública permite rápidamente ir de “cero a cien” y luego con la misma velocidad “de cien a cero” en materia de infraestructura, con requisitoria bajo demanda y pagando sólo lo que se consume. “El pago por uso es fundamental, sobre todo en los ambientes bajos. Cuando un programador tiene que empezar a desarrollar, y consigue el presupuesto para arrancar con un proyecto, debe decidir entre aprovisionarse con cinco o seis servidores en su sitio, más el almacenamiento centralizado, más el networking que necesitás para armar el clúster de Hadoop… o bien arrancar en la nube, con un clúster chico que sale decenas de dólares por mes, luego subir a uno de centenas de dólares por mes, y tal vez hacer una campaña de un par de semanas en una infraestructura que podría costar algunos miles de dólares por mes (pero si lo usaras el mes entero)”, comenta en ejecutivo. En el caso de Huawei, además, esto se paga en pesos.

Tanto Open Cloud (la nube con tecnología de Huawei provista de la mano de Movistar/Telefónica desde los centros de datos de esta última), como Huawei Cloud (la nube de Huawei, con sus propios canales de comercialización y de provisión de valor agregado) ofrecen servicios relacionados con Big Data. La arquitectura está formada por un clúster con dos nodos de management, más la cantidad de trabajadores/workers que se quiera crear y el tamaño que se quiera asumir. En este orden, existen dos tipos de clúster. Uno para procesamiento en batch (clúster de Hadoop, más la disciplina de MapReduce, más todas las APIs tradicionales para masajear gigas y teras de información), y otro complementario de procesamiento en tiempo real (donde se trabaja con las APIs de Kafka y Flume). Este último permite recibir eventos y mensajería en tiempo real, y generar reacciones programadas.

A lo largo de la charla, cuya versión completa podrán ver en el video del programa #HablandodeSoftware, Pontnau da ejemplos y escenarios de uso, además de detalles técnicos útiles para que ISVs y desarrolladores tomen la mejor decisión.

Etiquetas
Mostrar más
Alejandro Alonso

Alejandro Alonso

Periodista especializado en ciencia y tecnología. Trabajó en publicaciones como Banqueros & Empresarios, Telecomunicaciones & Negocios, Customer Service, Prensa Económica, Computerworld, e Insider, entre otras.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Close