{"id":176763,"date":"2025-01-07T18:02:55","date_gmt":"2025-01-07T21:02:55","guid":{"rendered":"https:\/\/nuevoitsitio1.wpenginepowered.com\/ch\/sin-categoria\/ia-vs-ia-generativa-cual-es-el-impacto-en-la-ciberseguridad\/"},"modified":"2025-11-21T22:07:49","modified_gmt":"2025-11-22T01:07:49","slug":"ia-vs-ia-generativa-cual-es-el-impacto-en-la-ciberseguridad","status":"publish","type":"post","link":"https:\/\/www.itsitio.com\/ch\/columna-de-opinion\/ia-vs-ia-generativa-cual-es-el-impacto-en-la-ciberseguridad\/","title":{"rendered":"IA vs IA generativa: \u00bfcu\u00e1l es el impacto en la ciberseguridad?"},"content":{"rendered":"<p style=\"text-align: right;\"><strong><em>Por H\u00e9ctor Kaschel, Cybersecurity Horizontal Head en Coasin Logicalis.<\/em><\/strong><\/p>\n<p>La inteligencia artificial (IA) ha transformado el panorama de la ciberseguridad, proporcionando opciones avanzadas para identificar y mitigar amenazas, responder a incidentes y optimizar sistemas de defensa. Sin embargo, la evoluci\u00f3n hacia la inteligencia artificial generativa ha a\u00f1adido una dimensi\u00f3n nueva y compleja.<\/p>\n<p>Mientras que la <a href=\"https:\/\/www.itsitio.com\/ch\/seguridad\/ransomware-ia-y-cadena-de-suministro-los-grandes-retos-de-ciberseguridad-en-2025\/\">IA<\/a> tradicional se ha enfocado en el an\u00e1lisis de patrones y reconocimiento de anomal\u00edas, la IA generativa habilita capacidades avanzadas de creaci\u00f3n de contenido y simulaci\u00f3n, las cuales plantean tanto oportunidades, como desaf\u00edos para el \u00e1mbito de la ciberseguridad.<\/p>\n<p>A diferencia de la IA tradicional, que se limita a detectar patrones y automatizar tareas repetitivas, la IA generativa permite crear contenido adaptativo, simular escenarios complejos y responder de forma personalizada y en tiempo real, mejorando as\u00ed la capacidad de las organizaciones para anticiparse y reaccionar frente a amenazas din\u00e1micas.<\/p>\n<p>Los modelos Large Language Models (LLM), combinados con t\u00e9cnicas como Retrieval Augmented Generation (RAG) y Fine-Tuning,\u00a0 permiten adaptar las soluciones de seguridad a contextos espec\u00edficos, mientras que los Agents y Prompt Engineering facilitan la autonom\u00eda y precisi\u00f3n en las respuestas, marcando una diferencia clave en la defensa avanzada.<\/p>\n<p>El desarrollo o evoluci\u00f3n de modelos LLM que se centran en comprender y analizar texto, complementados con la t\u00e9cnica de inteligencia artificial RAG que mejora la calidad de los modelos de lenguaje de gran tama\u00f1o, y el ajuste fino (Fine-Tuning), permite tomar un modelo entrenado para adaptar respuestas a necesidades concretas, facilitar la autonom\u00eda y precisi\u00f3n junto a los <a href=\"https:\/\/www.itsitio.com\/ch\/inteligencia-artificial\/salesforce-y-nvidia-agentes-de-ia\/\">agentes aut\u00f3nomos<\/a> (Agents) y los Prompt Engineering, lo que marca una diferencia clave en la defensa avanzada.<\/p>\n<figure id=\"attachment_176764\" aria-describedby=\"caption-attachment-176764\" style=\"width: 1200px\" class=\"wp-caption alignnone\"><img decoding=\"async\" class=\"wp-image-176764 size-full\" src=\"https:\/\/nuevoitsitio1.wpenginepowered.com\/ch\/wp-content\/uploads\/sites\/5\/2025\/01\/cyber-brain-7633488_1280-e1736273909698.webp\" alt=\"width=\" height=\"734\" srcset=\"https:\/\/www.itsitio.com\/ch\/wp-content\/uploads\/sites\/5\/2025\/01\/cyber-brain-7633488_1280-e1736273909698.webp 1200w, https:\/\/www.itsitio.com\/ch\/wp-content\/uploads\/sites\/5\/2025\/01\/cyber-brain-7633488_1280-e1736273909698-300x184.webp 300w, https:\/\/www.itsitio.com\/ch\/wp-content\/uploads\/sites\/5\/2025\/01\/cyber-brain-7633488_1280-e1736273909698-1024x626.webp 1024w, https:\/\/www.itsitio.com\/ch\/wp-content\/uploads\/sites\/5\/2025\/01\/cyber-brain-7633488_1280-e1736273909698-768x470.webp 768w\" sizes=\"(max-width: 1200px) 100vw, 1200px\" \/><figcaption id=\"caption-attachment-176764\" class=\"wp-caption-text\">Las tecnolog\u00edas impulsadas por IA generativa est\u00e1n redefiniendo tanto la defensa como los riesgos en el \u00e1mbito de la ciberseguridad, exigiendo un enfoque m\u00e1s din\u00e1mico y estrat\u00e9gico frente a amenazas avanzadas.<\/figcaption><\/figure>\n<h2><span style=\"color: #333399;\"><strong>Un espacio para crear, pero tambi\u00e9n riesgoso<\/strong><\/span><\/h2>\n<p>La IA generativa tiene el potencial de mejorar significativamente las capacidades defensivas al crear nuevos m\u00e9todos de prueba y simulaci\u00f3n, aunque tambi\u00e9n puede complicar los esfuerzos de seguridad si es empleada para desarrollar ataques avanzados dif\u00edciles de detectar.<\/p>\n<p>Por esta raz\u00f3n, se espera una regulaci\u00f3n m\u00e1s estricta de la inteligencia artificial dentro del marco del desarrollo de pol\u00edticas y leyes del sector p\u00fablico y la implementaci\u00f3n de pr\u00e1cticas de IA responsable para prevenir el uso indebido de esta tecnolog\u00eda.<\/p>\n<p>El impacto es evidente, los ataques son cada vez m\u00e1s frecuentes y sofisticados, lo que plantea un reto urgente para la ciberseguridad global. Actualmente, la proliferaci\u00f3n de herramientas de IA generativa maliciosa como WormGPT, FraudGPT, DarkBART, WolfGPT y DarkLLAMA eleva el nivel de amenaza dogital, al permitir que ciberdelincuentes creen contenido malicioso y ejecuten ataques de manera automatizada y sin restricciones \u00e9ticas.<\/p>\n<p>Algunas de estas tecnolog\u00edas que utilizan IA, disponibles en la dark web mediante suscripciones, facilitan la generaci\u00f3n de correos de <a href=\"https:\/\/www.itsitio.com\/ch\/seguridad\/palo-alto-networks-estos-son-los-principales-riesgos-emergentes-de-la-ia-y-como-prepararse-para-ellos\/\">phishing<\/a>, malware y otras t\u00e1cticas maliciosas, democratizan el acceso a capacidades avanzadas de ciberataque y reducen las barreras de entrada para atacantes menos experimentados.<\/p>\n<h2><span style=\"color: #333399;\"><strong>Un nuevo espacio de defensa o de ofensiva<\/strong><\/span><\/h2>\n<p>En este contexto surge el concepto de Adversarial Machine Learning (AML), un campo que estudia c\u00f3mo los modelos de machine learning pueden ser enga\u00f1ados o atacados mediante manipulaciones sutiles en los datos de entrada. En ciberseguridad, AML se convierte en una herramienta tanto defensiva como ofensiva: permitiendo identificar vulnerabilidades en los modelos de IA, pero tambi\u00e9n es aprovechado por atacantes para evadir sistemas de detecci\u00f3n de amenazas. Las herramientas de IA generativa maliciosa pueden combinarse con t\u00e9cnicas de AML para hacer que los ataques sean a\u00fan m\u00e1s efectivos, lo cual lo convierte en una amenaza cr\u00edtica en ciberseguridad, especialmente cuando los ciberdelincuentes integran IA generativa para dise\u00f1ar ataques cada vez m\u00e1s sofisticados.<\/p>\n<p>La combinaci\u00f3n de AML y de IA generativa maliciosa plantea un desaf\u00edo urgente para la ciberseguridad, que requiere un enfoque de defensa multifac\u00e9tico. Para contrarrestar esta tendencia, es esencial implementar entrenamientos robustos de modelos,\u00a0 monitoreo continuo a las organizaciones y colaboradores. Estos esfuerzos permitir\u00e1n anticiparse a los ataques, mejorar la precisi\u00f3n en la detecci\u00f3n de patrones an\u00f3malos y protegernos de los responsables de la creaci\u00f3n y distribuci\u00f3n de estas herramientas maliciosas, garantizando as\u00ed una mayor protecci\u00f3n y seguridad en los sistemas digitales.<\/p>\n<p>Los desaf\u00edos son claros. Hay una urgencia en atender la necesidad de protecci\u00f3n ante ataques cada vez m\u00e1s sofisticados, as\u00ed como reducir la brecha entre las capacidades de los atacantes y las defensas de seguridad, junto con la adopci\u00f3n de pr\u00e1cticas de IA responsable y el fomento de una concienciaci\u00f3n profunda en todos los niveles de la industria. Implementar estas pr\u00e1cticas ayudar\u00e1n a proteger mejor los sistemas digitales, creando un entorno m\u00e1s seguro y resiliente ante las amenazas de \u00faltima generaci\u00f3n.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Por H&eacute;ctor Kaschel, Cybersecurity Horizontal Head en Coasin Logicalis. La inteligencia artificial (IA) ha transformado el panorama de la ciberseguridad, proporcionando opciones avanzadas para identificar y mitigar amenazas, responder a incidentes y optimizar sistemas de defensa. Sin embargo, la evoluci&oacute;n hacia la inteligencia artificial generativa ha a&ntilde;adido una dimensi&oacute;n nueva y compleja. Mientras que la IA tradicional se ha enfocado en el an&aacute;lisis de patrones y reconocimiento de anomal&iacute;as, la IA generativa habilita capacidades avanzadas de creaci&oacute;n de contenido y simulaci&oacute;n, las cuales plantean tanto oportunidades, como desaf&iacute;os para el &aacute;mbito de la ciberseguridad. A diferencia de la IA tradicional, que se limita a detectar patrones y automatizar tareas repetitivas, la IA generativa permite crear contenido adaptativo, simular escenarios complejos y responder de forma personalizada y en tiempo real, mejorando as&iacute; la capacidad de las organizaciones para anticiparse y reaccionar frente a amenazas din&aacute;micas. Los modelos Large Language Models (LLM), combinados con t&eacute;cnicas como Retrieval Augmented Generation (RAG) y Fine-Tuning,&nbsp; permiten adaptar las soluciones de seguridad a contextos espec&iacute;ficos, mientras que los Agents y Prompt Engineering facilitan la autonom&iacute;a y precisi&oacute;n en las respuestas, marcando una diferencia clave en la defensa avanzada. El desarrollo o evoluci&oacute;n de modelos LLM que se centran en comprender y analizar texto, complementados con la t&eacute;cnica de inteligencia artificial RAG que mejora la calidad de los modelos de lenguaje de gran tama&ntilde;o, y el ajuste fino (Fine-Tuning), permite tomar un modelo entrenado para adaptar respuestas a necesidades concretas, facilitar la autonom&iacute;a y precisi&oacute;n junto a los agentes aut&oacute;nomos (Agents) y los Prompt Engineering, lo que marca una diferencia clave en la defensa avanzada. Un espacio para crear, pero tambi&eacute;n riesgoso La IA generativa tiene el potencial de mejorar significativamente las capacidades defensivas al crear nuevos m&eacute;todos de prueba y simulaci&oacute;n, aunque tambi&eacute;n puede complicar los esfuerzos de seguridad si es empleada para desarrollar ataques avanzados dif&iacute;ciles de detectar. Por esta raz&oacute;n, se espera una regulaci&oacute;n m&aacute;s estricta de la inteligencia artificial dentro del marco del desarrollo de pol&iacute;ticas y leyes del sector p&uacute;blico y la implementaci&oacute;n de pr&aacute;cticas de IA responsable para prevenir el uso indebido de esta tecnolog&iacute;a. El impacto es evidente, los ataques son cada vez m&aacute;s frecuentes y sofisticados, lo que plantea un reto urgente para la ciberseguridad global. Actualmente, la proliferaci&oacute;n de herramientas de IA generativa maliciosa como WormGPT, FraudGPT, DarkBART, WolfGPT y DarkLLAMA eleva el nivel de amenaza dogital, al permitir que ciberdelincuentes creen contenido malicioso y ejecuten ataques de manera automatizada y sin restricciones &eacute;ticas. Algunas de estas tecnolog&iacute;as que utilizan IA, disponibles en la dark web mediante suscripciones, facilitan la generaci&oacute;n de correos de phishing, malware y otras t&aacute;cticas maliciosas, democratizan el acceso a capacidades avanzadas de ciberataque y reducen las barreras de entrada para atacantes menos experimentados. Un nuevo espacio de defensa o de ofensiva En este contexto surge el concepto de Adversarial Machine Learning (AML), un campo que estudia c&oacute;mo los modelos de machine learning pueden ser enga&ntilde;ados o atacados mediante manipulaciones sutiles en los datos de entrada. En ciberseguridad, AML se convierte en una herramienta tanto defensiva como ofensiva: permitiendo identificar vulnerabilidades en los modelos de IA, pero tambi&eacute;n es aprovechado por atacantes para evadir sistemas de detecci&oacute;n de amenazas. Las herramientas de IA generativa maliciosa pueden combinarse con t&eacute;cnicas de AML para hacer que los ataques sean a&uacute;n m&aacute;s efectivos, lo cual lo convierte en una amenaza cr&iacute;tica en ciberseguridad, especialmente cuando los ciberdelincuentes integran IA generativa para dise&ntilde;ar ataques cada vez m&aacute;s sofisticados. La combinaci&oacute;n de AML y de IA generativa maliciosa plantea un desaf&iacute;o urgente para la ciberseguridad, que requiere un enfoque de defensa multifac&eacute;tico. Para contrarrestar esta tendencia, es esencial implementar entrenamientos robustos de modelos,&nbsp; monitoreo continuo a las organizaciones y colaboradores. Estos esfuerzos permitir&aacute;n anticiparse a los ataques, mejorar la precisi&oacute;n en la detecci&oacute;n de patrones an&oacute;malos y protegernos de los responsables de la creaci&oacute;n y distribuci&oacute;n de estas herramientas maliciosas, garantizando as&iacute; una mayor protecci&oacute;n y seguridad en los sistemas digitales. Los desaf&iacute;os son claros. Hay una urgencia en atender la necesidad de protecci&oacute;n ante ataques cada vez m&aacute;s sofisticados, as&iacute; como reducir la brecha entre las capacidades de los atacantes y las defensas de seguridad, junto con la adopci&oacute;n de pr&aacute;cticas de IA responsable y el fomento de una concienciaci&oacute;n profunda en todos los niveles de la industria. Implementar estas pr&aacute;cticas ayudar&aacute;n a proteger mejor los sistemas digitales, creando un entorno m&aacute;s seguro y resiliente ante las amenazas de &uacute;ltima generaci&oacute;n.<\/p>\n","protected":false},"author":229,"featured_media":176765,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"site-sidebar-layout":"default","site-content-layout":"","ast-site-content-layout":"default","site-content-style":"default","site-sidebar-style":"default","ast-global-header-display":"","ast-banner-title-visibility":"","ast-main-header-display":"","ast-hfb-above-header-display":"","ast-hfb-below-header-display":"","ast-hfb-mobile-header-display":"","site-post-title":"","ast-breadcrumbs-content":"","ast-featured-img":"","footer-sml-layout":"","ast-disable-related-posts":"","theme-transparent-header-meta":"","adv-header-id-meta":"","stick-header-meta":"","header-above-stick-meta":"","header-main-stick-meta":"","header-below-stick-meta":"","astra-migrate-meta-layouts":"default","ast-page-background-enabled":"default","ast-page-background-meta":{"desktop":{"background-color":"var(--ast-global-color-4)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"ast-content-background-meta":{"desktop":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"tablet":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""},"mobile":{"background-color":"var(--ast-global-color-5)","background-image":"","background-repeat":"repeat","background-position":"center center","background-size":"auto","background-attachment":"scroll","background-type":"","background-media":"","overlay-type":"","overlay-color":"","overlay-opacity":"","overlay-gradient":""}},"footnotes":""},"categories":[20],"tags":[224],"class_list":["post-176763","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-columna-de-opinion","tag-coasin-logicalis"],"_links":{"self":[{"href":"https:\/\/www.itsitio.com\/ch\/wp-json\/wp\/v2\/posts\/176763","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.itsitio.com\/ch\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.itsitio.com\/ch\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.itsitio.com\/ch\/wp-json\/wp\/v2\/users\/229"}],"replies":[{"embeddable":true,"href":"https:\/\/www.itsitio.com\/ch\/wp-json\/wp\/v2\/comments?post=176763"}],"version-history":[{"count":0,"href":"https:\/\/www.itsitio.com\/ch\/wp-json\/wp\/v2\/posts\/176763\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.itsitio.com\/ch\/wp-json\/wp\/v2\/media\/176765"}],"wp:attachment":[{"href":"https:\/\/www.itsitio.com\/ch\/wp-json\/wp\/v2\/media?parent=176763"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.itsitio.com\/ch\/wp-json\/wp\/v2\/categories?post=176763"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.itsitio.com\/ch\/wp-json\/wp\/v2\/tags?post=176763"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}