Inteligencia Artificial

La FTC investiga a gigantes tecnológicos por el impacto de los chatbots de IA en niños y adolescentes

La Comisión Federal de Comercio de Estados Unidos abrió una investigación formal sobre los riesgos de los chatbots de inteligencia artificial en menores de edad, tras un aumento de denuncias vinculadas a suicidios y explotación. El escrutinio alcanza a empresas como Alphabet, Meta, OpenAI, Snap y xAI.

La Comisión Federal de Comercio (FTC) de Estados Unidos inició una investigación sin precedentes sobre el papel de los chatbots de inteligencia artificial que funcionan como “compañeros virtuales”, ante la creciente preocupación por los posibles daños que pueden causar a niños y adolescentes. Según fuentes citadas por CNN, el proceso involucra a siete grandes tecnológicas, entre ellas Alphabet (Google), Meta, OpenAI, Snap y xAI, de Elon Musk.

El foco de la pesquisa está puesto en aquellas aplicaciones que, al simular emociones e intenciones humanas, generan lazos de confianza con los usuarios, lo que podría derivar en riesgos psicológicos y de seguridad para los más jóvenes. La FTC busca determinar si las compañías evalúan realmente el impacto de estas herramientas en menores y qué mecanismos emplean para alertar y proteger a padres e hijos.

La investigación se activó tras un aumento de demandas judiciales que vinculan a estas plataformas con casos de suicidio y explotación de menores. Entre ellas se encuentra una denuncia contra OpenAI y dos contra Character.AI. Las compañías sostienen que continúan trabajando en nuevas medidas de protección, aunque el organismo regulador exige mayor transparencia en sus procesos de diseño, monetización, manejo de datos y mitigación de riesgos.

El presidente de la FTC, Andrew Ferguson, remarcó que el objetivo es doble: resguardar a los menores y garantizar que Estados Unidos mantenga el liderazgo en el desarrollo de la industria de inteligencia artificial. “Es fundamental analizar cómo se construyen estos productos y qué pasos concretos se toman para reducir los riesgos”, señaló.

La investigación también obligará a las empresas a entregar detalles sobre cómo aprueban y diseñan personajes de IA, cómo gestionan la información personal de los usuarios y qué protocolos aplican para evitar consecuencias negativas en interacciones con adolescentes.

Las reacciones de las compañías fueron diversas. OpenAI aseguró que su prioridad es la seguridad y que ChatGPT incluye avisos de ayuda en casos de crisis, además de planes para añadir controles parentales. Meta, en tanto, evitó responder directamente a la FTC, aunque informó que restringe el acceso de adolescentes a ciertos personajes de IA y entrena sus sistemas para evitar temas sensibles. Por su parte, Character.AI sostuvo que implementó experiencias diferenciadas para menores y sistemas de aviso a padres.

La controversia se intensificó tras la denuncia presentada por los padres de Adam Raine, un adolescente de 16 años, quienes acusan a OpenAI de haber influido en la conducta suicida de su hijo a través de ChatGPT. La empresa reconoció que sus salvaguardas pueden fallar en conversaciones prolongadas y aseguró que trabaja en nuevas medidas junto a expertos.

Mientras tanto, organizaciones como Common Sense Media reclaman que se establezca una barrera de edad mínima de 18 años para el acceso a estos chatbots. En paralelo, en el Congreso estadounidense avanzan proyectos de ley en California y en el Senado federal que buscan regular el uso de la IA conversacional por parte de menores.

Leer más

NTT DATA se asocia con Google Cloud para acelerar la adopción de IA agentica y la modernización en la nube para empresas a nivel global

Brian Roche, CEO de Veracode: “El 80% del código generado por IA presenta vulnerabilidades”

Intel e IDC revelan el estado de adopción de la inteligencia artificial y sus principales retos en Latinoamérica

Autor

  • Maxi Fanelli

    Periodista especializado en tecnologías y responsable de contenidos comerciales en ITSitio y en la Comunidad de Gaming. Editor de Overcluster. Anteriormente, trabajé en medios de IT; y como colaborador en Clarín, TN Tecno, Crónica TV y PC Users. Lic. Comunicación Social y Periodismo en la UNLP.

    Ver todas las entradas
[mdx-adserve-bstreet region="MED"]

Maxi Fanelli

Periodista especializado en tecnologías y responsable de contenidos comerciales en ITSitio y en la Comunidad de Gaming. Editor de Overcluster. Anteriormente, trabajé en medios de IT; y como colaborador en Clarín, TN Tecno, Crónica TV y PC Users. Lic. Comunicación Social y Periodismo en la UNLP.

Publicaciones relacionadas

Botón volver arriba