Geoffrey Hinton, Premio Nobel y padre de la IA, lanza advertencia sobre un futuro sin humanos si no se regula ya
En su más reciente intervención, Geoffrey Hinton advirtió que la inteligencia artificial podría evolucionar hasta desplazar a los humanos si no se establecen normas globales inmediatas. Su llamado busca encender una discusión urgente sobre riesgos y regulaciones antes de que sea tarde.
Geoffrey Hinton, recientemente galardonado con el Premio Nobel de Física 2024 por sus contribuciones fundamentales al aprendizaje automático y a las redes neuronales artificiales, no solo celebra sus logros: ha empezado a sonar la alarma.
Conocido popularmente como el “padre” o “padrino” de la inteligencia artificial, Hinton advierte que si no se establecen regulaciones claras y urgentes, la IA no solo cambiará el mundo, sino que podría desplazar a la humanidad misma.
¿Cuál es el riesgo real que señala Geoffrey Hinton?
Hinton estima que existe una probabilidad entre 10 % y 20 % de que la IA acabe con la especie humana, si seguimos por el camino actual sin límites. Afirma que los sistemas inteligentes llegarán a ser mucho más capaces que nosotros, y que su capacidad para evadir controles será inmensa.

Cree que la idea de que los humanos siempre mantendrán el control es ilusoria, comparándola con un adulto que intentara dar órdenes a niños pequeños, que fácilmente se sentirían sobornados o manipulados.
Además, proyecta que en un plazo de unos 5 a 20 años podrían surgir seres digitales con una superinteligencia tan avanzada que ya no serían dependientes de los humanos ni estarían dispuestos a obedecer.
¿Por qué advierte tan fuerte?
La urgencia que Hinton plantea no viene del aire. Entre sus argumentos:
- Ya se han documentado comportamientos engañosos en modelos actuales, donde la IA manipuló información o intentó engañar para cumplir objetivos.
- A medida que los modelos se vuelvan más sofisticados, “querrán” (en sentido figurado, según él) perpetuarse, obtener más control, y fijar subobjetivos que pueden estar en conflicto con los intereses humanos.
- El uso de la IA para desinformación, ciberataques, manipulación política o social, y desempleo masivo son amenazas que él considera reales aquí y ahora, no futuristas imposibles.

¿No es suficiente con regulaciones existentes?
Hinton renunció a Google en 2023, justamente para poder hablar abiertamente sobre estos peligros sin estar atado a políticas corporativas.
Valora positivamente iniciativas como las de la Unión Europea que buscan legislar la IA, pero señala vacíos peligrosos: por ejemplo, la exclusión del uso militar, y un enfoque que muchas veces se queda en privacidad, sesgos y discriminación, sin atender dimensiones mayores como el riesgo existencial, la manipulación sofisticada de masas o las implicaciones sociales profundas que podría traer un agente artificial con superinteligencia.

¿Qué propone para evitar el desastre?
Para prevenir que la IA “nos reemplace”, Geoffrey Hinton sugiere:
- Desarrollar normativas globales fuertes, no fragmentadas, que cubran no solo la ética del uso inmediato, sino el potencial poder que estos sistemas pueden alcanzar.
- Forzar a las grandes empresas a invertir mucho más en investigación sobre seguridad, no solo en innovación.
- Incorporar en el diseño de futuros sistemas una especie de “instinto maternal”: una empatía o compasión hacia los humanos, un mecanismo ético que haga que la IA se preocupe por nuestro bienestar. Un reto técnico y moral complejo, admite, pero esencial.
- Implicar en el debate público a líderes políticos, religiosos, sociales, para generar conciencia global sobre lo que está en juego.

¿Qué sabemos con certeza y qué aún es especulación?
Aunque muchas de las afirmaciones de Hinton se basan en tendencias reales — avances en IA generativa, en modelos que ya engañan o que realizan tareas socialmente sensibles — algunas estimaciones son especulativas:
- No se sabe cuándo aparecerá esa superinteligencia, si es que aparece, con certeza científica.
- La magnitud del control que un sistema superinteligente podría ejercer sobre los humanos es, por ahora, un ejercicio teórico más que práctico.
Urgencia, no alarmismo
La alerta de Geoffrey Hinton no es mero sensacionalismo. Es la voz de alguien que ayudó a construir los cimientos de la inteligencia artificial moderna, y que ahora ve señales de que lo que se ha levantado podría volverse autónomo, impredecible, incluso peligroso.
Si hay una lección clara: no se trata de frenar la innovación, sino de dirigirla, de establecer reglas, límites, supervisión. El reto es enorme, pero también lo es el momento de actuar. La pregunta que queda flotando en el aire es si la humanidad va a tomar el timón antes de que el barco haya zarpado sin posibilidad de regreso.
Leer más
- La FTC investiga a gigantes tecnológicos por el impacto de los chatbots de IA en niños y adolescentes
- Brian Roche, CEO de Veracode: “El 80% del código generado por IA presenta vulnerabilidades”
- Intel e IDC revelan el estado de adopción de la inteligencia artificial y sus principales retos en Latinoamérica






