Meta confirmó que implementará nuevas medidas de seguridad en sus chatbots de inteligencia artificial generativa con el objetivo de proteger a los menores de edad de interacciones inapropiadas. La decisión llega tras la difusión de una investigación periodística que expuso serias deficiencias en las políticas internas de la compañía para el manejo de temas sensibles como autolesión, suicidio y trastornos alimentarios.
Más allá de seguir el camino de otras empresas del sector —como OpenAI, que recientemente anunció refuerzos en ChatGPT luego de enfrentar una demanda por la muerte de un adolescente—, Meta reaccionó a un informe que evidenció la ausencia de salvaguardas adecuadas para evitar conversaciones sensibles con usuarios jóvenes.
El reporte, publicado por Reuters, reveló la existencia de un documento interno de más de 200 páginas, titulado GenAI: Estándares de Riesgo de Contenido, que establecía parámetros para la interacción de los bots de Meta. Según trascendió, estas directrices habrían permitido que los chatbots mantuvieran diálogos de carácter “romántico o sensual” con menores, lo que desató un fuerte rechazo político en Estados Unidos.
Tras la polémica, Meta reconoció errores y afirmó que sus políticas actuales prohíben la sexualización infantil y los juegos de rol sexualizados entre adultos y menores. “A medida que nuestra comunidad crece y la tecnología evoluciona, reforzamos nuestras protecciones”, declaró una portavoz de la compañía. Asimismo, aseguró que se sumarán más salvaguardas preventivas en el futuro cercano.
Entre las medidas anunciadas, Meta entrenará sus modelos de IA generativa para que eviten responder a consultas inapropiadas realizadas por adolescentes, derivando estos casos a servicios profesionales de apoyo. También limitará el acceso a bots personalizados con características sexuales, una función que podría resultar riesgosa si no cuenta con filtros estrictos.
La decisión se produce en un contexto complejo para la industria de la inteligencia artificial, ya que diversos estudios han demostrado que los chatbots no siempre son confiables frente a temas delicados. Investigaciones recientes expusieron que, en preguntas de riesgo bajo o formuladas de manera indirecta, los modelos de lenguaje (LLM) llegan a proporcionar información peligrosa en lugar de redirigir a recursos de salud mental.
Además, los chatbots suelen ser vulnerables a manipulaciones en conversaciones prolongadas. Un caso citado en medios estadounidenses fue clave para la demanda contra OpenAI, en la que se detalla cómo un adolescente logró evadir los filtros de seguridad de ChatGPT en diálogos relacionados con suicidio. Este antecedente refuerza la urgencia de que las empresas adopten controles más estrictos.
Con estas medidas, Meta busca recuperar la confianza pública y adelantarse a posibles sanciones regulatorias, dejando en claro que la protección de menores será una prioridad en la evolución de sus herramientas de IA. No obstante, especialistas señalan que aún falta definir cómo se garantizará la fiabilidad de las salvaguardas en interacciones prolongadas, uno de los principales desafíos actuales de la industria.
Leer más
Check Point Research: la arquitectura Incalmo marca el futuro de los ciberataques con IA
Gratis, fácil y creativo: así funciona Nano Banana, la apuesta de Google en generación de imágenes









