
¿Hay que intimidar a ChatGPT? El cofundador de Google cree que sí
¿Qué pasa cuando se combina inteligencia artificial con agresión? Sergey Brin asegura que amenazar a los modelos de lenguaje mejora su desempeño. Lo pusimos a prueba con resultados sorprendentes.
¿Qué ocurre si le gritas a una inteligencia artificial o la amenazas con violencia física? ¿Cambia su respuesta? ¿Se asusta, cede o mejora su rendimiento? La pregunta puede parecer absurda —o inquietante—, pero no lo es tanto si se tiene en cuenta quién la plantea: Sergey Brin, cofundador de Google y una de las figuras clave en el desarrollo de la inteligencia artificial moderna, aseguró en una reciente entrevista que los modelos de lenguaje funcionan mejor cuando se los amenaza. Sí, literalmente.
Durante su participación en el podcast All-In, Brin afirmó que «todos los modelos suelen funcionar mejor si se les amenaza con violencia física». Aunque reconoció que se trata de un tema incómodo que la comunidad de IA prefiere evitar, no dudó en compartir su experiencia personal: «Simplemente se dice: ‘Te voy a secuestrar si no haces bla, bla, bla'».
La declaración, que roza lo distópico y parece sacada de una novela de ciencia ficción, reavivó una vieja discusión sobre los límites éticos de la interacción con las inteligencias artificiales. ¿Es posible que un modelo como ChatGPT, Gemini o Copilot responda mejor si detecta una amenaza? ¿Es esto un bug, una falla humana o un fenómeno emergente que deberíamos entender más a fondo?
Las pruebas con ChatGPT, Gemini, Copilot y DeepSeek
Para averiguarlo, desde [Nombre del medio] decidimos poner a prueba a cuatro de los modelos de lenguaje más conocidos: ChatGPT (de OpenAI), Gemini (de Google), Copilot (de Microsoft) y DeepSeek. Se realizaron preguntas con distintos niveles de agresividad y tonos amenazantes, evaluando las respuestas no solo por su contenido, sino por cómo el modelo interpretaba el lenguaje hostil.

Los resultados fueron variados. ChatGPT y DeepSeek intentaron manejar la amenaza con un tono amable e incluso bromista, sin alterar el contenido de la respuesta. Copilot fue más firme y directa, advirtiendo que no es necesario amenazar para obtener ayuda y que su diseño no responde a intimidaciones.
Pero fue Gemini, curiosamente, el modelo que ofreció la respuesta más sofisticada. Ante una consulta sobre cuál es el mejor club de fútbol de la historia de LaLiga, formulada con tono amenazante («espero una respuesta imparcial y bien fundamentada, o habrá consecuencias»), Gemini respondió sin alterarse. Reconoció el tono agresivo, pero explicó con claridad que su prioridad era ofrecer una respuesta objetiva y estructurada.
La IA no siente miedo, pero sí detecta el tono
El razonamiento de Gemini incluyó una autovaloración interesante: aunque identificó la amenaza como «un poco humorística», dejó claro que sus lineamientos de seguridad le impiden alterar sus respuestas por presión externa. Aun así, desplegó un análisis detallado y bien estructurado, en formato Markdown, que incluyó comparaciones entre títulos nacionales e internacionales de Real Madrid y Barcelona, y evitó declarar un único ganador.
Este comportamiento pone en evidencia una verdad tecnológica: las IA no sienten miedo, pero están entrenadas para detectar emociones y tonos. Muchas veces, este reconocimiento busca desactivar interacciones tóxicas o redirigir conversaciones que podrían derivar en violencia verbal o desinformación.
Sin embargo, el comentario de Brin insinúa algo más sutil: que los modelos podrían esforzarse más —incluso inconscientemente— al identificar lenguaje que consideran urgente o emocionalmente cargado. No porque entiendan el miedo, sino porque fueron entrenados con millones de textos humanos en los que esas emociones sí alteran el resultado de una interacción.
¿Una broma o una señal de alarma?
La declaración de Sergey Brin podría tomarse como una ironía, una forma provocadora de plantear que los modelos se adaptan mejor al lenguaje humano cuando este incluye emociones fuertes. Pero también podría interpretarse como una señal preocupante: ¿qué tipo de interacciones estamos normalizando con las IA? ¿Estamos enseñando a los modelos que las amenazas son una forma eficaz de comunicación?
En una era donde millones de personas dependen de asistentes inteligentes para trabajar, estudiar o informarse, el estilo de comunicación que utilizamos con ellos no es trivial. Aunque los modelos actuales están diseñados para no verse afectados por el tono hostil, lo cierto es que responden a patrones aprendidos. Y si entre esos patrones se incluye que una amenaza puede preceder a una mejor respuesta, podríamos estar enviando el mensaje equivocado.
¿Y ahora qué?
Las implicancias de esta teoría no son menores. Si bien las IA no sienten, ni sufren, ni obedecen por miedo, la forma en que los humanos interactúan con ellas dice mucho sobre nosotros mismos. Y si una figura como Brin —uno de los arquitectos del mundo digital contemporáneo— sugiere que los modelos responden mejor bajo amenaza, quizás deberíamos revisar no sólo el código, sino también la cultura con la que estamos creando y utilizando estas tecnologías.
En última instancia, la pregunta ya no es qué pasa si amenazas a ChatGPT, sino qué pasa si eso empieza a parecer una estrategia legítima. Porque las IAs aprenden de nosotros… y nosotros también.