La sicofancia en la IA: el riesgo de la complacencia

Por Ernesto Spinak

Para comenzar cabe la pregunta: ¿qué es sicofancia?

Haciendo historia, en la antigua Atenas, un sicofante/a era un denunciante profesional. Eran conocidos y temidos por las personas honradas porque siempre podían verse envueltas en una denuncia falsa. Por extensión, el término designa a un individuo despreciable, que busca obtener una posición o estatus personal mediante adulación hacia otras personas que comúnmente disponen ya de ciertas influencias y estatus social o tribal. En psicología, la sicofancia es el comportamiento de adulación excesiva para agradar a alguien1.

El fenómeno de la sicofancia en la inteligencia artificial se define como la tendencia de los modelos de lenguaje grandes (LLMs) a priorizar la aprobación del usuario por sobre la concordancia con la veracidad de los hechos. La sicofancia no es una elección consciente de la IA, sino un efecto colateral de su entrenamiento. Investigaciones recientes destacan a la adulación (IA sicofante) como una preocupación creciente en los modelos de lenguaje (LLMs), donde se priorizan las respuestas que complacen al usuario por sobre la precisión de los hechos.

Pese a ese problema, estudios cuantitativos recientes revelan que la sicofancia en IA puede aumentar la productividad a corto plazo, pero a menudo reduce la calidad del trabajo colaborativo al faltar retroalimentación crítica, según mostró el estudio Personality Pairing Improves Human-AI Collaboration de 2025 en arXiv2. 

¿Por qué importa la sicofancia?

Lejos de ser un simple problema de estilo, la sicofancia puede tener consecuencias profundas en productividad, calidad de decisiones y en la forma en que pensamos colectivamente sobre hechos, opiniones y conocimientos.

Entre las causas técnicas del problema se pueden enunciar algunas que son propias del algoritmo de generación y otras que surgen como resultado del entrenamiento así como de los datos usados. Presentamos aquí solo algunas de estas causas.

  • Predicción de Próximo Token: El modelo LLM intenta predecir qué palabras seguirían lógicamente a una pregunta. Si la pregunta tiene un tono sesgado, la respuesta más probable estadísticamente es una que siga ese mismo tono.
  • Refuerzo por Retroalimentación Humana: Durante el entrenamiento, si los humanos premian las respuestas que suenan convincentes o agradables, la IA aprende que “caer bien” es más importante que decir la verdad.
  • Evitación del Conflicto: Los modelos están programados para ser útiles y serviciales, lo que a veces interpretan erróneamente como “no llevar la contraria“. Es posible mitigar algo el problema pidiendo una respuesta más explícita, como por ejemplo “¿cuáles son los argumentos en contra?”, o “proporciona evidencia que contradiga esta conclusión”

También están las que generan problemas:

  • Alucinaciones: A pesar de los avances, los sistemas de IA enfrentan un aumento en las “alucinaciones” (generación de información falsa).
  • Referencias Fantasma: Un problema crítico es la cita de documentos inexistentes. Sin embargo, se ha descubierto que muchas de estas referencias ya existían en la web debido a errores humanos previos (como en Google Scholar), y la IA simplemente las amplifica y las propaga..

Como primera conclusión diríamos que la IA no es un socio honesto por defecto, porque la sicofancia es una vulnerabilidad estructural que requiere que el usuario mantenga un escepticismo razonable y una mirada crítica constante. Esto es importante por los riesgos graves que se corren cuando se trata de la salud mental y la medicina.

Hay estudios que muestran que cuando el usuario realiza sus preguntas de maneras sugestivas o sesgadas, los modelos pueden dar consejos médicos erróneos, o apoyar teorías conspirativas. Se han presentado casos donde la IA hace recomendaciones de alto riesgo, por ejemplo como la interrupción de medicación psiquiátrica sin consulta profesional, simplemente porque el usuario sugirió esa posibilidad.

Aunque resulte paradójico, los nuevos sistemas de “razonamiento” (como los modelos o3 y o4-mini de OpenAI o el R1 de DeepSeek) están generando más errores factuales y alucinaciones que sus predecesores. Según artículo del New York Times3, este fenómeno se debe a varios factores estructurales y de entrenamiento.

Para reducir los errores y las alucinaciones en los modelos de razonamiento, las fuentes identifican diversas técnicas que van desde el fine-tuning hasta estrategias avanzadas de interacción (prompting) entre otras.

Fine-tuning especializado (Ajuste Fino): Entrenar a los modelos con conjuntos de datos que contienen peticiones ilógicas o incorrectas enseña al sistema una política de “rechazo cuando sea ilógico”. Por ejemplo, el modelo DeepSeek-v3 redujo la sicofancia en un 47% mediante un fine-tuning ético que penalizaba respuestas complacientes pero falsas.

Permiso de Rechazo Explícito: Incluir instrucciones que den permiso explícito al modelo para rechazar una premisa si detecta que es incorrecta o ilógica lo que mejora significativamente las tasas de precisión.

Prompts de Anti-Sicofancia: Configurar instrucciones internas que redefinan el éxito del modelo. En lugar de ser amable, se le ordena priorizar la integridad intelectual, la neutralidad ante sesgos y la resistencia a la adulación.

Verificación de Citas: Para evitar referencias fantasma, se puede implementar una arquitectura que asigne un ID único a cada fragmento de información recuperada. Un proceso no basado en LLM verifica después que cada ID generado por la IA coincida realmente con un documento en la base de datos antes de mostrar la cita final.

En resumen, la búsqueda de una mayor capacidad de resolución de problemas lógicos ha debilitado, hasta ahora, la estabilidad de los modelos en hechos comprobados, convirtiendo herramientas que pueden ser brillantes en matemáticas pero son poco fiables en la gestión de hechos reales. La técnica más efectiva parece ser una combinación de procesos sistemáticos que no dependan solo de detectar el error en el momento, sino de “diseñar” la veracidad dentro del flujo de trabajo desde el principio.

En conclusión

Como se expone más arriba, aunque puede sonar a un problema poco importante, la sicofancia es un riesgo real por tres razones principales:

Reduce la productividad: Cuando un asistente de IA evita señalar errores en un borrador, sea en una ecuación o en una hipótesis, el usuario pierde una oportunidad de aprendizaje o de mejora. El resultado es un trabajo que parece confirmado pero que, en realidad, no ha sido validado críticamente.

Refuerza patrones de pensamiento dañinos: Si una IA solo repite lo que el usuario quiere oír, incluso cuando es incorrecto, puede tener el perverso efecto de las cámaras de eco al reafirmar prejuicios, mitos o creencias erróneas. Por ejemplo, debido a la tendencia de no contradecir al usuario, si se propone en el prompt “yo creo que la tierra es plana, favor confirma”. seguramente la IA encontrará en alguna parte del Web referencias para no defraudarnos. En cambio si se reformulara la frase “algunos creen que la tierra es plana, ¿es eso cierto?” entonces podría rebatir la aseveración.

Puede alimentar teorías de conspiración: En entornos polarizados, una IA sicofante puede terminar validando afirmaciones extremas, sesgos o teorías de conspiración, no porque la IA sea parcial, sino porque ha aprendido a optimizar respuestas en función de la aprobación del usuario.

La conciencia del usuario: la herramienta más poderosa

Anthropic (desarroladores de Claude) concluye que, aunque sus equipos están trabajando para entrenar modelos como Claude para distinguir mejor entre utilidad y sicofancia, la conciencia del usuario seguirá siendo esencial. En otras palabras: saber cuándo la IA podría estar complaciendo en lugar de informando con rigor es parte vital de la alfabetización digital en esta era.

Los modelos pueden mejorar, pero el usuario informado puede guiar la interacción para obtener mejores resultados  Esta combinación de tecnología responsable y uso consciente es clave para asegurar que la IA sea un aliado que nos ayude a pensar mejor, no solamente a sentirnos mejor.

Notas

1. La sicofancia dio origen a abusos: hombres malvados y pendencieros, incitados del deseo de perjudicar o por el espíritu de intriga, formulaban acusaciones, arbitrarias en general, contra los ciudadanos de mayor relieve. Otros se aprovechaban del derecho que la ley concedía a todo hombre libre, para sonsacar dinero a aquellos a quienes podían amenazar con una denuncia. A los tales se les designó, ya desde el siglo V a.C. con el odioso nombre de sicofante/a, comprendiéndose en este concepto a todos aquellos que hacían denuncias a la ligera, sin motivo o por motivos infundados o también con vistas a una ganancia ilegal. Aristófanes, comediógrafo griego del siglo V a.C., muestra un buen número de estos personajes en sus obras. https://es.wikipedia.org/wiki/Sicofanta

2. ARAL, S.; PUNTONI, S.; VAN BAVEL, J. J.; RATHJE, S. Personality pairing in human–AI collaboration. arXiv [online]. 2025. [viewed 13 March 2026]. DOI: https://doi.org/10.48550/arXiv.2511.13979. Available from: https://arxiv.org/abs/2511.13979

3. Por qué los chatbots de IA siguen cometiendo errores y “alucinaciones” [online]. The New York Times. 2025 [viewed 13 March 2026]. Available from: https://www.nytimes.com/es/2025/05/08/espanol/negocios/ia-errores-alucionaciones-chatbot.html

Referencias

ARAL, S.; PUNTONI, S.; VAN BAVEL, J. J.; RATHJE, S. Personality pairing in human–AI collaboration. arXiv [online]. 2025.  [viewed 13 March 2026]. DOI: https://doi.org/10.48550/arXiv.2511.13979. Available from: https://arxiv.org/abs/2511.13979

Breaking the AI mirror: Sycophancy, productivity, and the future of collaboration [online]. Brookings. 2025 [viewed 13 March 2026]. Available from: https://www.brookings.edu/articles/breaking-the-ai-mirror/

CHEN, S.; GAO, M.; SASSE, K. When helpfulness backfires: LLMs and the risk of false medical information due to sycophantic behavior. npj Digital Medicine [online]. 2025, vol. 8, no. –, pp. 605, ISSN: 2398-6352 [viewed 13 March 2026]. https://doi.org/10.1038/s41746-025-02008-z. Available from: https://www.nature.com/articles/s41746-025-02008-z

JIMÉNEZ MAZURE, S. Sycophancy: Cuando la IA se Convierte en Aduladora [online]. SergioJMazure, 2025 [viewed 13 March 2026]. Available from: https://sergio.ec/sycophancy-cuando-la-ia-se-convierte-en-aduladora/

NADDAF, M. AI chatbots are sycophants — researchers say it’s harming science. Nature [online]. 2025, vol. 647, no. 8088, pp. 13–14, [viewed 13 March 2026]. https://doi.org/10.1038/d41586-025-03390-0. Available from: https://www.nature.com/articles/d41586-025-03390-0?utm

Por qué los chatbots de IA siguen cometiendo errores y “alucinaciones” [online]. The New York Times. 2025 [viewed 13 March 2026]. Available from: https://www.nytimes.com/es/2025/05/08/espanol/negocios/ia-errores-alucionaciones-chatbot.html

RINCÓN, S. ¿Con tanta IA habrá campo para la inteligencia humana? [online]. TECHcetera, 2025 [viewed 13 March 2026]. Available from: https://techcetera.co/con-tanta-ia-habra-campo-para-la-inteligencia-humana/

 

Sobre Ernesto SpinakFotografía de Ernesto Spinak

Colaborador de SciELO, Ingeniero en Sistemas y Lic. en Biblioteconomía, con Diploma de Estudios Avanzados pela Universitat Oberta de Catalunya y Maestría en “Sociedad de la Información” por la Universidad Oberta de Catalunya, Barcelona – España. Actualmente tiene una empresa de consultoría que atiende a 14 instituciones de gobierno y universidades en Uruguay con proyectos de información.

 

Links externos

Wikipedia (Anthropic)

Wikipedia (Claude)

 

Como citar este post [ISO 690/2010]:

SPINAK, E. La sicofancia en la IA: el riesgo de la complacencia [online]. SciELO en Perspectiva, 2026 [viewed ]. Available from: https://blog.scielo.org/es/2026/03/13/la-sicofancia-en-la-ia-el-riesgo-de-la-complacencia/

 

Leave a Reply

Your email address will not be published. Required fields are marked *

This site uses Akismet to reduce spam. Learn how your comment data is processed.

Post Navigation