¿Qué necesitan aprender los partners para ayudar a los clientes con su infraestructura?

Con la llegada de nuevas arquitecturas híbridas y multinube que permiten movilizar libremente las cargas de trabajo y ejecutar aplicaciones nativas de nube, la infraestructura de los clientes empresariales se ha vuelto sumamente compleja. Claves para estar al día con las nuevas posibilidades.

Hubo un tiempo en que la infraestructura de los clientes podía describirse de manera más o menos simple, con servicios y máquinas virtuales corriendo on y off premises. La llegada de los microservicios, los contenedores, las aplicaciones nativas de nube, la necesidad de compartir información a través de las APIs y la demanda de portabilidad de las diferentes cargas de trabajo en entornos que son al mismo tiempo híbridos (desplegados en infraestructura ubicada en las propias instalaciones y fuera de ellas) y multinube (invocando servicios e impulsando la portabilidad de las cargas de trabajo desde y hacia múltiples nubes públicas y privadas) el panorama se volvió mucho más intrincado. La pregunta, entonces, parece natural: ¿Qué nuevas capacidades, conocimientos y habilidades debería desarrollar un partner para no perderse en este nuevo mapa?

Octavio Duré, director de Ingeniería de Soluciones para el Sur de América Latina de VMware, sostiene que hubo numerosos cambios en la infraestructura tecnológica de las empresas a fin de que pudieran ejecutar aplicaciones modernas, y esto se tradujo de cara al canal en nuevos requerimientos. “Antes, cuando diseñábamos las redes, teníamos en cuenta hasta la disposición física del datacenter en el campus, o la distribución de las sucursales, o la geografía de los usuarios… Esto pasó a ser prehistórico, porque hoy tenemos aplicaciones hiperdistribuídas con contenedores corriendo en mi datacenter y otros corriendo en distintas nubes públicas, que en conjunto se coordinan para prestar un servicio”.

Fuente: IDC. Click para ampliar.

Duré sostiene que el partner deber ser capaz de apoyar a los clientes en la gestión (lo más homogénea posible) de esa arquitectura hiperdistribuida, arrancando por la infraestructura de red que, de buenas a primeras, pasa de la oficina y el datacenter a extenderse a todo el mundo. “La propuesta de VMware en este sentido, tiene que ver con virtualizar esa red para que pueda ser gestionada a través de software”, apunta Duré. Así virtualizada, la red puede ser extendida a las nubes públicas. “Nuestro producto estrella es NSX, agrega Duré. Lo que permite NSX es extender de manera virtualizada la red a las nubes, manteniendo coherencia en las herramientas de gestión, y así lograr visibilidad completa del tráfico de cargas de trabajo y contenedores (desde la red física del centro de datos hasta la nube pública). A todo esto ahora se suma SD-WAN, para conectar sucursales con la misma filosofía.

Tres pilares: cultura, arquitectura, tecnología

Estefanía Zmaragdis, arquitecta de Nube Pública en IBM Cloud para la Argentina, Paraguay y Uruguay, establece algunos parámetros para contextualizar el problema, dividiendo los desafíos en tres pilares: el cultural, el de conocimiento de las arquitecturas, y el de conocimiento de las tecnologías/herramientas/soluciones disponibles. El primero de estos aspectos abarca a las personas y los procesos, y busca dotar a los equipos de trabajo de la flexibilidad necesaria como para que puedan adoptar de forma ágil nuevas plataformas, “ya sea con base en las diferentes ofertas de nube pública, o en soluciones en formato SaaS”.

Luego está la arquitectura en sí: cómo hacemos para que, una vez que ya tenemos esta cultura de la implementación, poder trabajar en el diseño de una plataforma que nos permita aprovechar al máximo cada una de esas capacidades”, agrega Zmaragdis. Hablamos de desarrollar arquitecturas desacopladas y basadas en eventos, utilizando contenedores y microservicios, y exponiendo capacidades a través de APIs.

Estefania Zmaragdis

Finalmente están los aspectos de tecnología. “Ahí es donde nosotros, desde IBM, hemos diseñado distintas estrategias tecnológicas que están basadas en la nube pública, como oferta de uso de nube pública, y también bajo el concepto del uso de la plataforma de contenedores, donde como parte de la compra que hicimos el año pasado de Red Hat, hoy en día usamos Openshift Container Platform como la herramienta que sostiene todo el software y la tecnología de IBM portable y flexible para que cualquier cliente pueda adoptar soluciones o desarrollar las propias, y se pueda mover tanto on premises como hacia la nube que elija”. A esto se suman una serie de herramientas y recursos que Zmaragdis denomina aceleradores y que les permiten a los partners “usar la nube de IBM de forma segura y unificada, con un manejo de gobierno de operaciones que le permitan soportar ese Día 2. No es sólo innovar (a través del uso de nube), sino cómo soporto la innovación”.

Erica Chacón, arquitecto de Integración de Nube Híbrida en IBM para Argentina, Uruguay y Paraguay, completa el panorama desde el punto de vista de la nube híbrida: “En términos generales, uno de los puntos-clave es tener conocimiento sobre plataformas de contenedores”. A la hora de hablar de propuesta de valor de los contenedores, la palabrita clave es “portabilidad”. IBM instrumentó soluciones de software en contenedores llamadas Cloud Paks, y agrupadas temáticamente. “Son nuestra iniciativa más importante para poder lograr la portabilidad de las soluciones, pero orientadas al negocio”. De esta manera es posible resolver más rápida y eficientemente cuestiones relacionadas con el desarrollo de las aplicaciones, la gestión de los procesos de negocios, la integración, la explotación de datos y la seguridad, entre otras, a través de soluciones de software ya “containerizadas”, valga el neologismo.

Erica Chacón

“Y como hablamos de Agilidad —insiste Chacón—, no se trata solamente de adoptar las tecnologías, sino de tener la cultura para trabajar con ellas”. En este sentido, la arquitecta pone el foco en prácticas de DEVOPS y DEVSECOPS (puede consultar sobre la complementación entre ambas, aquí). “Para ello IBM ofrece distintas soluciones. En el caso de las soluciones híbridas, hay todo un stack basado en la suite de UrbanCode que tiene aceleradores para poder acompañar desde el punto de vista de métodos ágiles la implementación de soluciones basadas en contenedores en entornos multicloud e híbridos”.

El rol del arquitecto

Para Estefanía Zmaragdis, de IBM, en esta nueva etapa, donde hablamos de arquitecturas multicloud e híbridas, donde tenemos plataformas on premises y en distintas nubes, “el rol del arquitecto es clave, porque es quien va a conocer no sólo cuál es la necesidad sino cuáles son las distintas opciones para atender el desafío del cliente. Tenemos opciones de infraestructura más tradicional, de contenedores, de SaaS, de plataformas, y cada una será utilizada según sea necesario para resolver una necesidad en particular, y ahí es donde entra el rol del arquitecto. No es sólo disponer mi solución en la nube, sino hacerlo en la modalidad de nube que mejor aplica mejor en cada caso”.

Franco Cerliani, Partner Manager para la región SOLA East de Red Hat, coincide con esta apreciación. “Hoy en día el arquitecto tiene un rol fundamental. Los partners pueden identificar una necesidad, pero el único que va a tener una mirada holística para abastecer al cliente con una solución robusta, y que pueda cubrir sus necesidades de principio a fin, es el arquitecto. No podemos prescindir de ellos. Contamos con arquitectos en Red Hat y estamos formando nuevos arquitectos también”.

Cerliani admite que hay una carencia de estos profesionales. “No abundan. Es un rol que comenzó a tomar mucha relevancia en este último tiempo. Antes tenías arquitectos más asociados a infraestructura o a las capas de software. Hoy deben tener una mirada más holística. Con todo, dentro de los partners hay muchas figuras de preventa y consultoría que están tomando capacidades de arquitectura”.

De las estrategias a las habilidades

Franco Cerliani, de Red Hat, explica que la estrategia de su compañía apunta a la nube híbrida abierta. “Todo el stack de nuestros productos está desarrollado en código abierto. Ésa es nuestra visión de cómo organizar el stack de tecnología y servicios para cubrir tres capacidades que hoy los clientes necesitan resolver”. La primera la capacidad de cómputo elástica que se logra a través de la infraestructura de nube híbrida abierta, y que en el caso de Red Hat permite ofrecer a los clientes una única plataforma para administrar las capacidades de cómputo y las cargas de trabajo. “No importa si el cliente necesita correr una aplicación on premises, o en la nube privada o en la pública, lo va a ver como una única plataforma. Entonces de esa forma el cliente se garantiza de que la aplicación la puede correr en cualquier entorno dependiendo de las necesidades del contexto”.

Franco Cerliani

El segundo punto es tener capacidad de desarrollo nativo en la nube. “Esto significa poder proveer a los equipos de desarrollo todas las capacidades que necesitan para poder escribir el código que necesitan en el lenguaje que quieran. No importa si lo hace desde una laptop o un servidor, en la nube privada o pública, ellos van a ver una única plataforma. Para nosotros esa plataforma es Red Hat Openshift, que está basada en una plataforma abierta que gestiona los contenedores, que es Kubernetes. De esa forma los equipos pueden abocarse a escribir el código que necesitan para resolver el problema puntual y enfocarse en generar valor al negocio, desentendiéndose del sitio desde donde tienen que correr el negocio”.

La tercera capacidad se relaciona con que hoy el cliente está procesando cargas de trabajo en distintos entornos. Si bien esto nos da mucha flexibilidad y poder de elección, agrega complejidad en la administración de múltiples entornos muy heterogéneos. “Parte de nuestro stack permite a los equipos de Administración y operación gestionar esos entornos de una manera más homogénea y simple. Parte de nuestra tecnología, como por ejemplo Ansible, permite automatizar la carga de trabajos que tienen esos equipos, y les permitimos enfocarse y eficientizar más sus aplicaciones para generar más valor al negocio y no pensar tanto en tareas que son automatizables. Y obviamente, en la base de esta pirámide está Linux”, resume Cerliani.

“Tenemos un montón de contenido, de cursos, de workshops”, comenta Cerliani. “Contamos con una plataforma que se llama Open, a la cual accede todo el ecosistema de partners, y en la cual están la documentación y los cursos de todo nuestro stack de tecnología, segmentados por estas tres capacidades y con numerosos learning paths. Además tenemos calendarizados un montón de workshops para ver los temas en profundidad”.

Un punto de vista desde la nube

Hoy en día la mayoría de las empresas piensan repartir sus cargas de trabajo en la nube entre dos o tres proveedores, pero al analizar variables y practicidad termina predominando la elección de un único proveedor principal”, analiza Mauricio Muñoz, gerente senior regional de Arquitectos Especialistas de Soluciones de AWS. De hecho, creemos que ejecutarán casi todas sus cargas de trabajo de TI en la nube. Una de las razones, precisamente, es porque quieren disminuir esa complejidad y así parte del trabajo que antes se hacía on premises ahora está a cargo de Amazon Web Services lo cual alivia la carga operativa del cliente permitiéndole enfocarse en su diferencial de negocio. Estas compañías también logran beneficios vinculados con el ahorro de costos de TI y mejoras en los aspectos de productividad, agilidad empresarial y resiliencia operativa”.

Muñoz considera que, con el advenimiento de la nube, “las personas de TI no necesitan dedicar tiempo a tareas que no generan diferenciación. Esto hace que puedan dedicarse a alinear la infraestructura a las necesidades del negocio. Estos profesionales estarán enfocados en tareas como integración y despliegue continuo (conocido como DEVOPS) y su implementación en diferentes áreas de la organización, como por ejemplo DEVSECOPS (implementar procesos automatizados que mantengan el ambiente en un estado de conformidad y avanzando a la misma velocidad de las aplicaciones) o MLOPS (implementar los procesos de tratamiento de información para mantener modelos actualizados de Machine Learning)”.

Mauricio Muñoz

En realidad, agrega, “no deberíamos mirar solamente hacia la incorporación de skills técnicos porque a medida que un cliente realiza la transición hacia a la Nube, las tareas no diferenciadoras se reducen y abre paso a un espacio de innovación de cara a los clientes finales al dedicar mayor tiempo a crear y adaptar sus aplicaciones para satisfacer las necesidades. Es decir, lo que sí existe es un cambio cultural hacia builders en donde se adquieren nuevos skills mediante la construcción, por ejemplo, al crear nuevas funcionalidades. Esto contribuye a que los equipos puedan innovar rápidamente y llevar a cabo tareas que generan valor dentro del negocio”.

—En este contexto, ¿cuál es el rol del Arquitecto?
—La función del arquitecto de nube, como sabemos existe hace tiempo y su rol no se ha modificado, continúa siendo la persona que entiende las necesidades del negocio y las traduce en ambientes técnicos. Sin embargo, el cambio radica en la arquitectura de computación en la nube, especialmente a medida que las tecnologías evolucionan y contamos con nuevas herramientas asociadas. El arquitecto de soluciones entiende el modelo de negocio y cuáles son las oportunidades o preocupaciones de las áreas de negocio. Mediante su conocimiento actualizado de los componentes tecnológicos, propone soluciones. Es así como adquieren una postura builder siendo capaces de crear soluciones que serán el diferencial de la compañía.

—¿Qué servicios de AWS pueden ayudar a simplificar el panorama?
—Hemos desarrollado soluciones para que los clientes puedan integrar la red, la seguridad y el control de acceso como potenciar las migraciones automatizadas de la carga de trabajo. Servicios tales como ser Amazon VPC que aprovisiona una red virtual aislada en AWS que es una extensión de su red local, AWS Direct Connect, que posibilita establecer conectividad privada a AWS, y AWS Storage Gateway, que le permite a las aplicaciones en las instalaciones usar el almacenamiento en la nube de AWS, hacen que sea posible para los clientes ejecutar su infraestructura en las instalaciones junto con AWS.

“La propia idea de la Nube AWS es eliminar la necesidad de ejecutar tareas que no traen diferenciación para el negocio y, como tal, la Nube simplifica la TI. En la Nube, los clientes AWS pueden contar con una instancia en minutos, sea de pocos MB en memoria y baja cantidad de procesamiento, hasta instancias con TB en memoria RAM o con procesadores especiales para procesamiento matemático y gráfico (GPU). La visibilidad que entrega la nube es otra de las funcionalidades que aprecian nuestros clientes como simplificación de su ambiente.  En un ambiente tradicional es difícil contar con una visibilidad total de los recursos y de las actividades que se están realizando. En la Nube de AWS no solamente se cuenta con la visibilidad de los recursos, sino que se cuenta con servicios que registran las actividades, mantienen la información actualizada de configuración y pueden actuar automáticamente en caso de que se detecte alguna desviación con las políticas definidas. Esa unión de control y automatización definitivamente es una de las cualidades que nuestros clientes más aprecian en cuanto a la simplificación de sus tareas en la Nube”, finaliza el arquitecto de AWS.

Etiquetas
Alejandro Alonso

Alejandro Alonso

Periodista especializado en ciencia y tecnología. Trabajó en publicaciones como Banqueros & Empresarios, Telecomunicaciones & Negocios, Customer Service, Prensa Económica, Computerworld, e Insider, entre otras.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Close
X