Seguridad

Inteligencia artificial: nuevos desafíos en ciberseguridad

La IA se utiliza para realizar ataques más sofisticados, incluyendo phishing, malware e incluso ataques dirigidos. Los expertos advierten sobre el riesgo de ataques entre IA y la importancia de la ética en la programación.

Vamos a hablar de un tema que nos interpela mucho en el mundo de la ciberseguridad que es cómo se está utilizando la Inteligencia artificial ya no solamente para phishing para malware sino que empieza a utilizarse para más cuestiones. ¿Qué es lo nuevo?

  • Qué va mejorando. Ya se puede utilizar Inteligencia artificial generativa para realizar ataques. En marzo más o menos del año pasado surgió el proyecto pentest gpt y surgieron otros proyectos parecidos. El más conocido es el de pentest gpt que funciona como un asistente virtual para un profesional de ciberseguridad que está haciendo un penetration test. El problema, obviamente, es que el penetration test puede ser uno lícito o puede ser un intento de ataque. La Inteligencia artificial generativa, lamentablemente, no va a discriminar.

Esto ha evolucionado razonablemente bien y recordemos que al principio de pentest gpt y alguna cosa parecida, alguien que más o menos sabía veía lo que la Inteligencia artificial generativa proponía y decía “no, jamás podes empezar un ataque por acá”. Esto fue mejorando hoy en día las últimas pruebas llegan a un grado de razonabilidad. Hoy la inteligencia artificial generativa llega a ser exitosa en ambientes de complejidad baja y media. Mucho más allá de eso no va. Pero seguramente en algún momento va a tener un grado de madurez para generar buenos ciberataques.

Inteligencia artificial: nuevos desafíos en ciberseguridad
La IA se utiliza para realizar ataques más sofisticados, incluyendo phishing, malware e incluso ataques dirigidos.
  • Ojo cuando logran de manera bastante granular inyectar en el modelo de una Inteligencia artificial determinado tipo de errores o determinado tipo de información errada. Con eso la Inteligencia artificial va a hacer evolucionar ese modelo pero ese modelo arrastra un error con lo cual ese modelo en determinado momento va a fallar. Este es un problema que existe desde la década del 50 del siglo pasado que se empezó a desarrollar la Inteligencia artificial. Ahí se empezó a concebir el tema de Adversarial Attack porque contaminar un modelo predictivo de una Inteligencia artificial es un ataque importante. ¿Cuál es la vuelta de tuerca ahora? Que eso en vez de hacerlo un humano que programa sobre el modelo de Inteligencia artificial o programa el ataque se puede hacer desde otras inteligencias artificiales, entonces una o más inteligencias artificiales pueden atacar a otra Inteligencia artificial objetivo.
Inteligencia artificial: nuevos desafíos en ciberseguridad
La ética en la programación de la IA es crucial para evitar ataques y proteger la propiedad intelectual y los datos personales.
  • La propiedad intelectual y los datos personales también están en riesgo en todo este sistema. Están en riesgo en una forma bastante compleja. O sea hemos visto cuestiones como que el New York Times demandó a chat gpt por uso indebido de propiedad intelectual. En realidad lo que hay detrás de esto pueden ser cosas bastante más complejas que tienen que ver con ataque Inteligencia artificial específicamente en el sentido de si alguien con el suficiente conocimiento puede hacer una pequeña modificación o un pequeño ataque en un determinado algoritmo de Inteligencia artificial, ese algoritmo de Inteligencia artificial lo que va a hacer es un uso indebido de información confidencial, propiedad intelectual o inclusive datos personales de individuos. El tema es que ese uso indebido proviene de una pequeñísima modificación o alteración en la programación. Esa alteración puede ser intencional o puede ser accidental; el punto es que no tenemos que perder de vista que siempre vamos a depender en lo que es Inteligencia artificial de la capacidad ética y la capacidad de trabajar bien de las personas que programan Inteligencia artificial.

Autores

  • Sebastián Davidovsky

    Sebastián Davidovsky es periodista. Actualmente trabaja en La Nación, en Radio con Vos, en Urbana Play y en Luzu. Escribió “Engaños Digitales, Víctimas Reales”, Ediciones B y es el conductor del Podcast "Internet me Arruinó". En 2017 y 2019 recibió el premio ESET al periodismo en Seguridad Informática. En 2023 el premio Sadosky que entrega la Cámara del Software. Cubrió ferias de tecnología en distintas partes del mundo, como el CES de Las Vegas y el Mobile World Congress, en Barcelona. Anteriormente, trabajó en la TV Pública, Diario Clarín y Radio Metro. Es jefe de cátedra en la Universidad de Palermo.

    Ver todas las entradas
  • Gustavo Aldegani

    Experto en Ciberseguridad, con 30 años de experiencia en Implementación de Sistemas Informáticos Seguros en organizaciones militares, de gobierno y privadas de Estados Unidos y América Latina. Profesor de la Universidad de Belgrano, escritor y conferencista.

    Ver todas las entradas

[mdx-adserve-bstreet region="MED"]

Sebastián Davidovsky

Sebastián Davidovsky es periodista. Actualmente trabaja en La Nación, en Radio con Vos, en Urbana Play y en Luzu. Escribió “Engaños Digitales, Víctimas Reales”, Ediciones B y es el conductor del Podcast "Internet me Arruinó". En 2017 y 2019 recibió el premio ESET al periodismo en Seguridad Informática. En 2023 el premio Sadosky que entrega la Cámara del Software. Cubrió ferias de tecnología en distintas partes del mundo, como el CES de Las Vegas y el Mobile World Congress, en Barcelona. Anteriormente, trabajó en la TV Pública, Diario Clarín y Radio Metro. Es jefe de cátedra en la Universidad de Palermo.

Gustavo Aldegani

Experto en Ciberseguridad, con 30 años de experiencia en Implementación de Sistemas Informáticos Seguros en organizaciones militares, de gobierno y privadas de Estados Unidos y América Latina. Profesor de la Universidad de Belgrano, escritor y conferencista.

Publicaciones relacionadas

Botón volver arriba