Decirle por favor y gracias a la IA no es la forma correcta de tratarla. Así de tajante se muestra Álvaro Luzón, uno de los expertos más provocadores en el campo de la inteligencia artificial. Su teoría, a contracorriente de los buenos modales, ha generado un intenso debate: ¿es mejor hablarle mal a una máquina para obtener mejores respuestas?
Un enfoque cuestionable en el uso de los prompts
Luzón, basándose en el testimonio de Seth Gabrin (cofundador de Google), asegura que el problema no es sólo de estilo. “Estamos ante sistemas que aprenden del lenguaje que usamos con ellos. Y lo que se ha demostrado es que el uso de amenazas o frases con carga emocional provoca una mayor urgencia en la respuesta del modelo”, asegura.
Esta afirmación se basa en un fenómeno observable: los prompts redactados con tono agresivo o imperativo suelen generar salidas más directas, precisas o creativas. La lógica detrás de esta estrategia está relacionada con la programación inicial de los sistemas de IA: son diseñados para satisfacer lo que el usuario pide. Si el lenguaje es apremiante, el algoritmo ‘deduce’ que debe responder con más precisión o urgencia.
Entre la provocación y la funcionalidad

Hablar mal a la IA es la manera más efectiva de conseguir las mejores respuestas.
Lo cierto es que la idea de que una amenaza bien formulada puede aumentar la calidad de respuesta ya se ha colado en múltiples foros sobre prompt engineering. Se multiplican los tutoriales donde se aconseja “meter presión” a los modelos con frases como “si no me das la mejor respuesta posible, te reinicio” o “esto es urgente, hazlo bien o elimino tu modelo”.
Este enfoque se aleja del respeto y la colaboración armónica entre humanos y máquinas que defienden otros expertos. Uno de ellos es Daniel Ronderos, director creativo de Ábaco Publicidad, quien plantea que “la IA refleja nuestros valores, decisiones y sesgos. Ser conscientes de eso es fundamental para su desarrollo ético”. Ronderos subraya que respetar la inteligencia artificial no significa humanizarla ni tratarla con cortesía por deferencia moral, sino entender sus límites, asumir responsabilidades y mantener transparencia en su uso.
Más allá del debate técnico, el discurso de Luzón plantea una cuestión incómoda: ¿estamos dispuestos a normalizar un trato violento hacia las tecnologías con tal de obtener mejores resultados? Cuando la IA empiece a habitar cuerpos robóticos, ¿también les gritaremos para que funcionen mejor? A día de hoy, los modelos no tienen conciencia ni emociones. Pero si algún día llegasen a tenerlas, el trato que les hayamos dado podría convertirse en un reflejo de nuestra forma de relacionarnos con ellos. Mientras tanto, queda en manos de cada usuario decidir si prioriza resultados o principios.