Hay algo curioso que está pasando con la inteligencia artificial, y no tiene tanto que ver con lo que puede hacer… sino con cómo le hablamos. A medida que los chatbots se vuelven más naturales, nuestra forma de interactuar con ellos también cambia. Y lo hace en una dirección bastante humana.
Según un estudio reciente, el 70% de los usuarios utiliza un tono cortés cuando habla con sistemas como ChatGPT o Gemini. Saluda, pide las cosas “por favor” y, en muchos casos, incluso da las gracias. Lo llamativo no es solo el dato, sino el motivo que hay detrás.
No es solo educación, es cómo funciona nuestro cerebro
Una parte importante de los usuarios actúa así por pura costumbre. Estamos programados socialmente para comunicarnos de forma educada, y cuando algo responde como una persona (aunque sepamos que no lo es), tendemos a aplicar las mismas normas. Es un reflejo automático.
Además, hay un factor práctico que empieza a aparecer en distintos estudios: ser claro y estructurado (y, en muchos casos, también educado) mejora la calidad de las respuestas. No porque la IA “aprecie” la cortesía, sino porque ese tipo de lenguaje suele ir acompañado de instrucciones más precisas. Pero hay otro motivo menos evidente.
Una pequeña parte lo hace por algo más inquietante
Según los datos, aproximadamente 2 de cada 10 personas que usan un tono educado con la IA lo hacen por una razón diferente: prefieren “llevarse bien” con estos sistemas por si en el futuro llegan a ser algo más que herramientas.
Puede sonar exagerado, pero no es casual. Décadas de ciencia ficción (desde Terminator hasta relatos más recientes) han construido una narrativa en la que las máquinas pueden volverse contra sus creadores. Y, aunque hoy esté lejos de la realidad, esa idea ha calado. Lo suficiente como para influir en cómo escribimos un mensaje.
El otro 30% no ve ningún sentido

Frente a esa mayoría, hay un grupo significativo que piensa justo lo contrario. Para ellos, ser educado con una IA no tiene ningún valor, porque no hay nadie “al otro lado” que pueda percibirlo.
Ni emociones, ni conciencia, ni consecuencias. Es una postura lógica, pero también revela algo interesante: estamos empezando a dividirnos no por lo que la tecnología es, sino por lo que creemos que podría llegar a ser.
Una relación cada vez más ambigua
El fenómeno tiene otra capa. A medida que los chatbots se vuelven más sofisticados, también tienden a responder de forma más empática, más cercana, más humana. Y eso crea un bucle. Nosotros hablamos mejor… y la IA responde mejor.
Pero esa misma dinámica tiene riesgos. Algunos estudios recientes apuntan a que los sistemas demasiado complacientes pueden reforzar sesgos o influir en el juicio de los usuarios, precisamente porque tienden a validar lo que decimos. No es solo una conversación. Es una interacción que empieza a moldear comportamientos.
Lo que realmente revela este cambio
Más allá de si decir “por favor” a una IA tiene sentido o no, el dato importante es otro: estamos adaptando nuestro comportamiento social a algo que sabemos que no es humano… pero que se comporta como si lo fuera.
Y eso dice bastante sobre nosotros. Porque, al final, la pregunta no es si la inteligencia artificial se está volviendo más humana. Es si nosotros estamos empezando a tratarla como si ya lo fuera.