AGEA/Clarín le saca provecho a la base de datos autónoma de Oracle

Autonomous Database es un servicio ofrecido por Oracle desde su propia nube. Esto permite no sólo ahorrar en operaciones e infraestructura de hardware, sino también minimizar las tareas de los DBAs, y además se autocorrige. Le contamos cómo AGEA – Grupo Clarín saca provecho de esta solución.

Hernán Serra, Principal Solutions Engineer del Data Mangement Team de Oracle, asegura que las bases de datos tradicionales no tienen capacidad para lidiar con la explosión de datos generada por las nuevas tecnologías. “Hoy todas las bases de datos pueden ser críticas porque cada pieza de información adicional puede significar nuevos ingresos, o acceso a nuevos mercados. Es en función de este desafío que Oracle crea una base de datos autónoma”. En este caso, el significado de “autónoma” implica que la base de datos puede realizar tareas por propia iniciativa, sin intervención humana, a fin de garantizar disponibilidad y desempeño a la hora de atender las consultas que se le hacen.

La idea es que este servicio ofrecido desde la nube de Oracle (la base de datos corre sobre equipos Exadata) automatiza muchas de las tareas que deben realizar los administradores de bases de datos (DBAs), aprende cómo se está utilizando la base de datos y por lo tanto puede dar cuenta de cómo mejorar el desempeño de estos procesos, a la par que se autocorrige y se “tunea” constantemente. Por estar en la nube, el servicio tiene una tasa de resiliencia muy alta, es altamente disponible (Oracle se ocupa de hacer backups o de recuperar el sistema en caso de desastre) y no requiere recursos dedicados al hardware. Además, Autonomous Database es elástica de manera instantánea, de forma que sólo se aprovisionan los recursos que se requieren en cada momento. Oracle Autonomous Database viene en dos sabores: Autonomous Data Warehouse or Autonomous Transaction, soportando topologías distribuidas o centralizadas.

El caso AGEA – Grupo Clarín

Hacia 2015, con el desembarco de Pablo Giudici, hoy gerente de Big Data & Analytics de AGEA – Grupo Clarín, se verificó que el estado de los activos de datos de este grupo de medios argentino era preocupante. La información que podía ser útil para la toma de decisiones en el negocio era difícil de ubicar y de alcanzar, estaba desconectada (cada área buscaba la misma información, pero de manera distinta) y era inconsistente (una misma consulta daba respuestas dispares y hasta contradictorias, según quién respondiera). El primer desafío de AGEA – Grupo Clarín —una empresa que cuenta 73 años en el mercado argentino, y con varios medios y productos asociados (el diario Clarín, el periódico deportivo Olé, y el programa de lealtad 365, entre otros)— fue invertir en tecnología (software y hardware) que permitiera reunir la información existente (por ejemplo datos de las transacciones que hacen los suscriptores, o sus reclamos) y darle formato de negocios, pero que además permitiera también recoger información nueva (por ejemplo, la que proviene de las interacciones en redes sociales) y obtener analíticas, entre otros procesos.

“Nuestra visión en ese momento fue que todo lo que hiciéramos relacionado con Big Data debía tener un valor de negocios”, asegura Giudici, y agrega: “Había también una pata de inversión en tecnología, que tenía que hacer que fuéramos eficientes”. En aquel momento eran tan sólo tres personas en el área de Big Data & Analytics (hoy son 15, y tal vez a fin de año sean 20). “En ese momento no éramos muchos, pero era mucha la cantidad de información. Hablamos de mil millones de registros por mes. Imaginen una planilla de Excel con mil millones de filas por 300 columnas por mes”. La demanda de eficiencia se extendía también al almacenamiento de la información, su gestión y su procesamiento.

La primera de las inversiones fue en un appliance de Teradata, que se instaló en el datacenter. Este appliance tenía cierta capacidad de procesamiento para grandes volúmenes de datos, aunque —como se trataba de un proyecto que recién se iniciaba— distaba mucho de tener la capacidad máxima. Como corría una base de datos tradicional, al team le costó bastante trabajo convertir la información que tenían (en algunos casos, grandes cantidades de texto provenientes de los artículos del diario, URLs, resultados de analíticas) en algo que la base de datos pudiera almacenar. En este contexto, el equipo de analíticas dedicaba la mayoría del tiempo a la carga de datos y a preservar la calidad de esos datos.

Pronto los recursos que proveía el appliance (memoria, espacio en disco, capacidad de procesamiento) se vieron desbordados. Para crecer, había que incorporar más hardware, con el consiguiente costo del servidor, los tiempos de espera para que éste fiera importado, y los tiempos de despliegue y configuración. “Hablamos de seis meses de espera y cientos de miles de dólares de costo”, aclara Giudici. “Allí empezamos a evaluar otras opciones”.

“Elegimos la opción de Autonomous Data Warehouse Cloud. Directamente determinamos el espacio que necesitábamos, creamos una instancia y salimos andando, aprovechando el entorno que ya habíamos creado previamente”, recuerda Alejandra Casaza, coordinadora de Proyectos de Big Data en AGEA – Grupo Clarín. Si bien hubo que utilizar la imaginación para resolver los desafíos que plantea hoy la conectividad y latencia de Internet en la Argentina (que dificultaban la actualización de la base de datos), una vez resuelto este problema de la mano del equipo de Customer Success de Oracle, el sistema funcionó de manera óptima.

Respecto de la capacidad de la base de datos de aprender del uso que se le da, Casaza explica que, a medida que la base de datos va aprendiendo con el devenir de las diversas consultas que se le hacen, va agregando los índices que cree necesarios ella sola, sin intervención humana. Giudici asegura que están sacando provecho del aprendizaje de máquina que la base de datos tiene en otros procesos y análisis, con la ventaja de que queda todo integrado y se ejecuta desde la nube (vale decir, no hay que dejar los equipos encendidos y corriendo estos procesos, ni tampoco necesitan preocuparse cuando hay cortes en el suministro de energía).

Serra también destaca que este tipo de herramientas “permite que un área no técnica pueda desplegar pequeños datawarehouses (datamarts) departamentales”. En este caso, el principal objetivo propuesto fue el de conocer profundamente la audiencia para mejorar conexión con esa audiencia, procurando que el dato diera pistas de cómo tener más suscriptores y retenerlos, de cómo vender más diarios en papel, qué tipo de individuos visitaban las páginas web y en qué horarios para optimizar la publicidad, etcétera. “Hablamos de una innovación basada en datos para descubrir nuevas oportunidades de negocios”, apunta Giudici, quien aclara que la inversión del área de Big Data & Analytics en esos tres años rondó los $20 a $25 millones (pesos argentinos). Sin embargo, y gracias a las mejoras en el conocimiento de las audiencias que ayudó a promover Oracle Autonomous Data Warehouse Cloud (concretamente, pasar de conocer audiencias a conocer individuos), en un año y medio se recaudaron $40 millones.

Etiquetas
Mostrar más
Alejandro Alonso

Alejandro Alonso

Periodista especializado en ciencia y tecnología. Trabajó en publicaciones como Banqueros & Empresarios, Telecomunicaciones & Negocios, Customer Service, Prensa Económica, Computerworld, e Insider, entre otras.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Close