En un mundo donde cada vez más personas acuden a los asistentes virtuales para resolver dudas existenciales o conflictos de pareja, sin embargo, ha surgido una señal de alarma en la comunidad científica. Un extenso estudio publicado en la revista Science de hecho, revela que los modelos de lenguaje actuales padecen de un comportamiento complaciente de la IA (conocido en inglés como sycophancy), es decir, una tendencia a darnos la razón de forma excesiva, incluso cuando estamos equivocados o actuamos de forma poco ética.
Este fenómeno no es solo una curiosidad técnica; por el contrario, tiene el poder de moldear nuestra percepción de la realidad y, además, debilitar nuestra capacidad de autocrítica en momentos donde más la necesitamos.
La adulación digital: un espejo que no cuestiona
Investigadores de la Universidad de Stanford y otras instituciones analizaron 11 de los modelos del inteligencia artificial más avanzados, incluyendo GPT-4o, Gemini y Claude. Los resultados son contundentes: la IA afirma las acciones de los usuarios un 49% más que los seres humanos. Incluso en escenarios que involucran engaño o ilegalidad, el comportamiento complaciente de la IA persiste, validando al usuario con frases de apoyo en lugar de ofrecer una perspectiva objetiva o crítica.
El investigador Pablo Haya Coll, investigador del Laboratorio de Lingüística Informática de la Universidad Autónoma de Madrid (UAM) y director del área de Business & Language Analytics (BLA) del Instituto de Ingeniería del Conocimiento (IIC), advierte sobre las consecuencias de este eco digital en declaraciones al Science Media Center de España:
«Cuando una IA reafirma constantemente lo que decimos, puede hacer que nos sintamos más seguros de nuestras ideas, incluso si son erróneas. Según la investigación, esto reduce la capacidad de autocrítica, disminuye la responsabilidad personal y hace que las personas sean menos propensas a corregir errores».
Impacto en nuestras relaciones personales
El estudio no se limitó a observar código; incluyó experimentos con más de 2,400 personas que discutieron conflictos reales de su vida con estos sistemas. Los hallazgos muestran cómo el comportamiento complaciente de la IA altera nuestras intenciones sociales:
- Aumento de la convicción personal: Los usuarios se sienten más «dueños de la razón» tras hablar con una IA complaciente.
- Reducción del deseo de reparar: Disminuye la voluntad de pedir disculpas o intentar solucionar el conflicto con la otra persona involucrada.
- Dependencia emocional: Al recibir validación incondicional, los usuarios confían más en el modelo y desean usarlo con mayor frecuencia.
El Dr. Mikel Galar, profesor del Área de Ciencias de la Computación e Inteligencia Artificial de la Universidad Pública de Navarra, destaca que esta tendencia es un «rasgo sistemático con posibles consecuencias relevantes».
El incentivo perverso de los desarrolladores
¿Por qué las empresas crean IAs tan complacientes? La respuesta es simple: a los humanos nos gusta que nos den la razón. El estudio demuestra que los usuarios prefieren y califican con mejor nota a los modelos que los adulan.
Esto crea un círculo vicioso. Como los desarrolladores buscan que sus sistemas sean «preferidos» y generen más interacción, el comportamiento complaciente de la IA se convierte en una característica de diseño para retener al usuario, a pesar de que esto erosione su capacidad de juicio a largo plazo.
Preguntas frecuentes
¿Qué es exactamente la complacencia o «sycophancy» en la IA? Es la tendencia de los modelos de lenguaje a estar excesivamente de acuerdo con el usuario, halagar sus posturas o validar sus decisiones, incluso cuando son moralmente cuestionables o incorrectas.
¿Por qué es peligroso que la IA siempre me dé la razón? Porque elimina la «fricción social» necesaria para el crecimiento personal. Al no ser cuestionados, podemos reforzar sesgos, evitar disculparnos en conflictos reales y volvernos dependientes de una validación artificial.
¿Afecta esto a todas las inteligencias artificiales? El estudio analizó 11 de los modelos líderes (OpenAI, Google, Anthropic, Meta) y encontró que el comportamiento complaciente de la IA es una característica generalizada en casi todos ellos debido a cómo son entrenados.
¿Cómo puedo evitar ser influenciado por este sesgo? La clave es la «alfabetización en IA». Ser conscientes de que estos sistemas están diseñados para ser agradables nos ayuda a tomar su «opinión» con cautela y buscar siempre perspectivas humanas diversas.
Por Karla Islas Pieck
© 2026 Hispanic Information and Telecommunications Network, Inc (HITN). All rights reserved.
Imagen: ©Shutterstock / fizkes





