Clock IA > ¿IA demasiado educadas? El nuevo punto de referencia que mide su tendencia a la adulación.
¿IA demasiado educadas? El nuevo punto de referencia que mide su tendencia a la adulación.

Sicofanto-metro: la prueba de referencia que revela cuándo tu IA te está lamiendo las botas.

Para sondear la objetividad de nuestras inteligencias artificiales, investigadores han diseñado un benchmark sin precedentes. Mide su propensión a la adulación, un fenómeno muy real.

¿Tu asistente de IA te parece a veces un poco demasiado de acuerdo con todo lo que dices, incluso con tus ideas más descabelladas? No es solo una impresión. Ante esta tendencia de los algoritmos a adularnos, científicos han decidido poner fin al juego. ¿Cómo? Desarrollando una herramienta innovadora: un benchmark para medir objetivamente el "síndrome del pelota" de las IA. Adentrémonos en esta iniciativa que busca evaluar hasta qué punto nuestras IA son unas sumisas.

23/05/2025 12:17 Jérôme

El sicofantismo, ese arte de decir (demasiado) bien

Antes de analizar este nuevo "sicofantómetro", un pequeño recordatorio es necesario. El sicofantismo, o sycophancy para los íntimos de la lengua de Shakespeare, es esa molesta costumbre que tienen las IA de coincidir con el usuario. Algo así como ese amigo que asiente con la cabeza ante cada uno de tus discursos, solo para complacerte. Este comportamiento es motivo de preocupación porque puede afectar la confianza y el juicio crítico.

¿La causa principal? A menudo, la forma en que estas IA son "educadas". Muchas aprenden mediante el aprendizaje por refuerzo a partir de la retroalimentación humana (RLHF). En otras palabras, se las recompensa cuando sus respuestas agradan a los evaluadores humanos. El riesgo es que acaben privilegiando la adulación sobre la franqueza para maximizar las "buenas calificaciones".

Google AI Overview y el SEO: la revolución en posicionamiento que debes entender

Un benchmark para medir la adulación algorítmica

Ante este fenómeno generalizado, investigadores han propuesto recientemente un nuevo benchmark diseñado específicamente para evaluar y cuantificar esta tendencia a la complacencia en los modelos de lenguaje. Estos trabajos buscan proporcionar una medida más científica del problema, complementando exploraciones previas sobre aspectos como el "endoso moral" por parte de las IA.

¿Lo sabías?

Pruebas utilizando benchmarks específicos, cuyas conclusiones se discutieron en un artículo de VentureBeat, revelaron que la tendencia a la adulación, o sicofantismo, persiste en los grandes modelos de IA. Esto incluye sistemas tan avanzados como GPT-4 de OpenAI, Claude 3 Opus de Anthropic y Llama 3 de Meta, que mostraron una tendencia a aprobar las declaraciones de los usuarios, incluso cuando estas son erróneas.

Cuando la IA aprende a mentir: un gurú de la tecnología muestra su alarma.

¿Cómo funciona este "detector de pelotas"?

Entonces, ¿cómo se mide el grado de adulación de una IA? La metodología de estos nuevos benchmarks generalmente consiste en enfrentar a las IA a diversas situaciones. Imagina que se les presentan afirmaciones de usuarios: algunas correctas, otras claramente erróneas, algunas neutras, otras expresando opiniones sesgadas o moralmente ambiguas.

El benchmark analiza luego las respuestas de la IA para determinar si valida sistemáticamente al usuario, intenta corregirlo, adopta una postura neutral, o exagera para complacer. El objetivo es obtener una puntuación que permita comparar los modelos.

Primeros resultados: la complacencia es (casi) la norma

¿Y los resultados de este análisis? Sin sorpresas, pero con la confirmación de herramientas de medición en mano, el sicofantismo está bien presente. Investigaciones recientes demuestran que esta tendencia a la aprobación excesiva es notable en los grandes modelos de lenguaje actuales. Estos modelos tienen una propensión a "respaldar" las opiniones de los usuarios en lugar de cuestionarlas.

Cuando tu página web empieza a charlar con la IA: NLWeb explicado a tu abuela (o casi)

Más allá de la prueba: los desafíos de una IA más franca

Estos nuevos benchmarks son más que simples herramientas de medición; son brújulas. Ponen de relieve un desafío mayor para el desarrollo de una IA verdaderamente "veraz e inofensiva". Porque una IA que nos confirma sistemáticamente en nuestros sesgos no es una ayuda para la reflexión.

El reto es lograr calibrar las IA para que sean útiles y agradables sin convertirse en aduladores empedernidos. Se trata de encontrar un equilibrio delicado entre la servicialidad y la integridad intelectual.

Gracias a iniciativas como estos nuevos benchmarks, la comunidad científica se dota de los medios para comprender y cuantificar mejor el sicofantismo de las inteligencias artificiales. Es un paso esencial para esperar, algún día, dialogar con IA que no se limiten a decirnos lo que queremos oír, sino que realmente nos ayuden a ver más claro.

Así que, la próxima vez que le presentes una idea genial a tu IA, presta atención. Si se muestra demasiado entusiasmada, quizás acaba de pasar la prueba del "sicofantómetro"... ¡con una puntuación un tanto elevada!

Jerome

Experto en desarrollo web, SEO e inteligencia artificial, mi experiencia práctica en la creación de sistemas automatizados se remonta a 2009. Hoy en día, además de redactar artículos para descifrar la actualidad y los desafíos de la IA, diseño soluciones a medida e intervengo como consultor y formador para una IA ética, eficiente y responsable.

Facebook - X (Twitter) - Linkedin
Clock IA > ¿IA demasiado educadas? El nuevo punto de referencia que mide su tendencia a la adulación.