Brian Roche, CEO de Veracode: «El 80% del código generado por IA presenta vulnerabilidades»
El ejecutivo habló con ITSitio sobre los desafíos que enfrenta la ciberseguridad en la era de la inteligencia artificial. Anticipó cómo el mercado se encamina hacia un escenario donde la IA protege a las empresas del código inseguro generado también por modelos de lenguaje.
La inteligencia artificial ya revoluciona el desarrollo de software, pero también multiplica las amenazas. Brian Roche, CEO de Veracode, en diálogo exclusivo con ITSitio, advirtió que los directores de seguridad informática (CISOs) enfrentan hoy un escenario en el que el código generado por modelos de lenguaje puede ser veloz y eficiente, pero en un 80% de los casos arrastra vulnerabilidades críticas.
Ver esta publicación en Instagram
En una conversación a fondo, Roche explicó cuáles son los cuatro grandes desafíos que marcan la agenda de la ciberseguridad: el uso seguro de la IA, los riesgos de la cadena de suministro, la visibilidad integral de los riesgos y la simplificación de la experiencia de los desarrolladores. Además, compartió cómo Veracode busca transformar la seguridad de un centro de costos en un motor de innovación para las empresas de América Latina y el mundo.
—¿Cuáles son hoy los principales desafíos que enfrentan los CISOs en esta era de la inteligencia artificial?
—El desafío número uno ya no es la visibilidad sobre todo el parque de aplicaciones, como lo era hace un año. Hoy el problema central es la IA y su uso seguro. Los CISOs saben que la inteligencia artificial acelera el trabajo de los desarrolladores y les permite producir código más rápido, pero ese mismo código muchas veces no es seguro. En algunos lenguajes, el 80% del código generado por modelos de lenguaje presenta vulnerabilidades. El rol de un CISO es demostrar que tiene un proceso para asegurar el software, y también garantizar que ese software realmente sea seguro.
El segundo gran desafío es la cadena de suministro, porque los proveedores pueden transformarse en un “caballo de Troya” que introduce riesgos. El tercero es la visibilidad y el reporte simplificado de riesgos. Y el cuarto, facilitar la experiencia de los desarrolladores, para que puedan escribir código de manera más simple y rápida, pero sin sacrificar seguridad por velocidad.
—¿Y cómo se logra eso?
—Con nuestra plataforma. Los CISOs necesitan demostrar cumplimiento y poder reportarlo de manera sencilla. Nosotros ofrecemos una visión completa de todos los riesgos: del código que se escribe internamente, del que proviene de open source o de IA, y de la cadena de suministro. Además, monitoreamos el software una vez que está en producción, para dar tranquilidad y simplificar la gestión.
—¿De qué manera usan ustedes la IA para reforzar la seguridad?
—Hace diez años los desarrolladores empezaron a usar open source para ganar velocidad y competitividad. Hoy, el equivalente moderno es la IA: los desarrolladores le piden a un modelo que genere código de manera masiva y rápida. El problema es que ese código no suele ser seguro. De hecho, en los flujos de trabajo con agentes, el 94% tiene vulnerabilidades que pueden ser explotadas con técnicas como el prompt injection, exponiendo datos o propiedad intelectual.
Por eso construimos un modelo de lenguaje entrenado con nuestra experiencia en seguridad de más de dos décadas. Es un modelo en el que se puede confiar: toma código inseguro y lo convierte en código seguro, sin frenar la velocidad de los equipos. Incluso funciona con lenguajes heredados, como Cobol, en los que ya casi no hay desarrolladores. De esa forma transformamos la seguridad de un centro de costos en un centro de valor, porque reducimos herramientas y tareas repetitivas y devolvemos esos ahorros a la innovación.

—¿Qué mensaje les daría a sus partners en América Latina?
—Nuestra misión es “asegurar el mundo libre”. Queremos que las personas sepan que su dinero en el banco está protegido o que un maestro pueda confiar en la infraestructura que usa. Para lograrlo, necesitamos a nuestros partners de canal, que son clave para escalar esa misión. Este año reforzamos nuestra estrategia channel first: todos nuestros equipos están alineados para trabajar con el canal, compensarlos bien y darles herramientas para tener conversaciones de alto valor con sus clientes. No se trata solo de vender software, sino de resolver un problema global.
—¿Están expandiendo el ecosistema de canal en Argentina y la región?
—Sí. Empezamos el año con unos 50 partners prioritarios, y hoy tenemos alrededor de 1.400 en total. Estamos invirtiendo en esos principales para que sean exitosos. Esta semana, por ejemplo, organizamos un desayuno con 30 partners y un encuentro con CISOs y CEOs para compartir nuestra estrategia. Queremos generar un ecosistema sin fricciones, que conecte a toda la comunidad y nos permita resolver el problema de la seguridad a escala.
IA contra IA
El CEO de Veracode proyecta un horizonte en el que la inteligencia artificial general se vuelva una realidad, con máquinas conscientes de sí mismas. Mientras ese cambio se aproxima, remarcó, la gran batalla actual es entre inteligencias artificiales que ya se combaten en el terreno del código.
—¿Qué tendencias ve en ciberseguridad para los próximos tres o cuatro años?
—Avanzamos hacia la inteligencia artificial general: en 5 a 7 años veremos máquinas con conciencia de sí mismas. Eso va a cambiar el mundo. Mientras tanto, la adopción de flujos de trabajo con agentes traerá eficiencia, pero también más brechas y vulnerabilidades. Lo que no cambiará es la necesidad de probar que el software es seguro, porque bancos, hospitales y empresas de IT necesitan esa garantía.
Ya vivimos en un mundo de IA contra IA: nuestra IA se enfrenta al código inseguro generado por otras IA. Eso ya ocurre hoy, no es un escenario lejano.
—¿Y qué impacto tendrá esto en el trabajo humano?
—Cada revolución tecnológica genera temor por los empleos. Pero la IA será la próxima ola de automatización: liberará a las personas para hacer tareas de mayor valor. Claro que llegará un momento en que las máquinas sean más inteligentes que nosotros. Ahí la pregunta es si alguna vez un ser inferior tuvo autoridad sobre uno superior; nunca pasó. Por eso necesitamos “educar a nuestros hijos de IA” con valores, ética y límites.
—¿Algún mensaje final?
—Sí. La pregunta que todos debemos hacernos es ¿nuestro software es seguro?. No hablamos solo de empresas: es un tema de seguridad nacional, tanto en Argentina, como en Brasil, Estados Unidos o Europa. Aún no tenemos regulaciones que marquen cómo debe desarrollarse la tecnología, y ese vacío es un riesgo enorme. Mi invitación es a que cualquiera que tenga dudas nos contacte: queremos ayudar a que el software sea seguro.
LEER MÁS:
Claude suma potencia: convierte datos en gráficos, informes y documentos al instante
Con un pedido de 10.000 millones de dólares, OpenAI producirá su chip de IA en 2026
OpenAI prepara una plataforma de contratación para competir con LinkedIn



