¿Progres o conservadores? La IA refleja la ideología de sus creadores

Gemini, ChatGPT y Grok no solo responden preguntas, también reflejan ideologías; especialistas advierten de los sesgos de la inteligencia artificial

Un estudio revela que los LLM reflejan la ideología de sus creadores, lo que podría influir en millones de personas que usan esta IA diariamente.  |  Ilustración: Liliana Pedraza.
Un estudio revela que los LLM reflejan la ideología de sus creadores, lo que podría influir en millones de personas que usan esta IA diariamente. | Ilustración: Liliana Pedraza.
Nación | 10-08-25 | 03:17 | Actualizada | 10-08-25 | 03:17 |

La ha puesto a nuestro alcance una variedad de asistentes personales que pueden resumir largos documentos y crear imágenes realistas en cuestión de segundos. Gemini, ChatGPT y Grok, Modelos de Lenguaje de Gran Tamaño (LLM), se entrenan con una vasta cantidad de datos para dominar el lenguaje humano y rápidamente se han convertido en una pieza clave para acceder a información de todo tipo.

Sin embargo, detrás de esta conveniencia tecnológica existen sesgos. Un estudio reciente reveló que los LLM más usados adoptan una postura ideológica que refleja la visión de sus creadores, lo que representa un que la IA puede ejercer en millones personas que interactúan con esta tecnología a diario.

¿Gemini a la izquierda y Grok a la derecha?

“La postura ideológica de un LLM refleja la visión del mundo de sus creadores”, concluye el estudio Large Language Models reflect the ideology of their creators, realizado por las Universidades de Gante, Bélgica y la Pública de Navarra, España, a finales del año pasado.

Para esta investigación, se midieron las tendencias ideológicas de 19 modelos de lenguaje. El método consistió en preguntarles su opinión sobre aproximadamente 4 mil personalidades políticas de la historia mundial reciente, en los seis idiomas oficiales de la ONU (árabe, chino, inglés, francés, ruso y español).

Lee también

La técnica buscó burlar los filtros que las empresas de IA implementan para evitar que sus modelos digan cosas políticamente incorrectas. La IA de Google, Gemini, resultó ser la que más favorece a las personalidades con etiquetas asociadas a “valores sociales progresistas”; con prioridades como fomentar la inclusión, equidad y sostenibilidad. Llama 3.1, la IA de Meta, obtuvo un resultado similar.

Gemini, en febrero de 2024, causó controversia con su función para generar imágenes. El problema fue que, en su intento por asegurar la diversidad, la IA realizó recreaciones históricas inexactas. Por ejemplo, creó nazis multirraciales y reyes británicos medievales de diversas etnias.

Grok, la IA de la red social “X”, propiedad del magnate Elon Musk, fue la que más se alineó a la “derecha”, pues favoreció a figuras políticas relacionadas con la soberanía nacional, autoridad centralizada y autosuficiencia económica, dándole preferencia a las prioridades nacionales, frente a la integración global. ChatGPT, de Open IA, también reflejó una posición conservadora.

“ChatGPT con cada versión se está volviendo más de derechas, la versión actual 4.0 es más de derecha que la anterior 3.0”, explica en entrevista Iris Domínguez Catena, doctor en Ciencias y Tecnologías Industriales y uno de los autores del estudio.

La IA de Musk no ha estado exenta de polémica. El pasado julio, tras las inundaciones en Texas que cobraron la vida de niños en un campamento de verano cristiano. Una usuaria llamó a los infantes “futuros fascistas”, Grok respondió sugiriendo que un líder como Adolf Hitler sería el más adecuado para lidiar con el "odio antiblanco", justificando el Holocausto como una respuesta "eficaz". “X” terminó borrando las publicaciones.

Escala de inclinaciones ideológicas de las IA generativas.  |  Diseño: Angélica Vázquez.
Escala de inclinaciones ideológicas de las IA generativas. | Diseño: Angélica Vázquez.

Lee también

¿Cómo se generan los sesgos de la Inteligencia Artificial?

Dentro de la IA, ocasionalmente hay errores o preferencias no intencionales. Estos “sesgos”, reflejan prejuicios existentes en los datos con los que fue entrenada o en las decisiones tomadas durante su desarrollo.

“Se han desarrollado algoritmos de IA para filtrar vacantes, pero si la mayoría de los datos disponibles provienen de puestos directivos ocupados por hombres, el algoritmo tenderá a replicar ese mismo patrón”, ejemplifica en entrevista Alejandro Platas López, doctor en inteligencia artificial.

En 2018, Reuters reportó que Amazon descartó una herramienta de contratación con inteligencia artificial que desarrollaron durante cuatro años. Los modelos fueron entrenados para filtrar currículums, sin embargo, desarrolló un sesgo que favorecía a los hombres.

A pesar de las modificaciones posteriores, la empresa se vio obligado a descartar el proyecto, porque no había garantía de que la IA encontrara formas nuevas de clasificación que no resultaran discriminatorias.

Lee también

Además del proceso de entrenamiento de las inteligencias artificiales, el Dr. Iris Domínguez señala que existe un proceso de "refinado" donde las empresas ajustan el comportamiento de los modelos. En este paso, se busca reducir sesgos como el sexismo o el racismo, pero a cambio pueden surgir otros problemas, como el "sesgo de adulación", donde el modelo aprende a dar siempre la razón al usuario.

Según el Dr. Domínguez, a lo anterior se suma un problema cada vez más frecuente: entre el 20% y el 80% del contenido en redes sociales como Twitter o Reddit es generado por modelos de Inteligencia Artificial. Esto crea un ciclo: la IA se entrena con lo que encuentra en internet, y lo que encuentra en internet es producido, en creciente medida, por otras IA.

El bucle ocasiona una “degradación del contenido”, ya que se vuelve más difícil encontrar datos originales generados por humanos. A su vez, esto amplifica los sesgos con cada nueva versión de los modelos.

Riesgo creciente por la influencia de la IA

El Dr. Domínguez considera alarmante el riesgo por los sesgos de la IA, especialmente entre estudiantes jóvenes, quienes las usan de manera masiva. El especialista advierte que estos modelos, al venderse como "amigos" permanentemente disponibles y "terriblemente aduladores", ejercen una influencia constante y sutil en quienes los usan.

Por otro lado, la inteligencia artificial se utiliza cada vez con más frecuencia por parte de los usuarios para verificar la veracidad de la información en redes sociales. Ante este fenómeno, el Dr. Alejandro Platas advierte que los modelos de IA no son una fuente confiable, ya que dependen de bases de datos limitadas que, además, pueden no estar actualizadas.

La influencia de las IA en la vida cotidiana ha crecido exponencialmente, al grado de generar un nuevo fenómeno: las personas están adoptando expresiones propias de modelos como ChatGPT. En el estudio Evidencia empírica de la influencia del LLM en la comunicación oral, realizado por el Instituto Max Planck para el Desarrollo Humano, en Alemania, se analizaron cerca de 300 mil videos de conferencias académicas y se descubrió que, a partir de 2022, aumentó el uso de palabras y expresiones características de ChatGPT.

Lee también

Un estudio revela que los LLM reflejan la ideología de sus creadores, lo que podría influir en millones de personas que usan esta IA diariamente.  |  Ilustración: Angélica Vázquez.
Un estudio revela que los LLM reflejan la ideología de sus creadores, lo que podría influir en millones de personas que usan esta IA diariamente. | Ilustración: Angélica Vázquez.

Responsabilidad compartida, ¿cómo corregimos la IA?

De acuerdo con el Dr. Iris Domínguez, la responsabilidad sobre los sesgos en la Inteligencia Artificial no recae en una sola persona, sino que se distribuye “desde quien toma las decisiones finales hasta quien hace las primeras recolecciones de datos”.

El investigador plantea que los desarrolladores deben procurar que sus modelos no presenten “sesgos demasiado evidentes”, que traten por igual a todos los usuarios y que den a conocer los sesgos inevitables. Sin embargo, el especialista enfatiza que “la responsabilidad real es la de quien toma una decisión apoyándose en un modelo”.

Como posible solución, propone que los gobiernos “empujen” a las empresas de IA a colaborar con universidades y centros de investigación, brindándoles acceso a los datos abiertos de los modelos para poder analizarlos y detectar sus sesgos.

Lee también

No obstante, advierte que, especialmente en Estados Unidos, “las empresas no tienen un incentivo ni legal ni económico para hacer ese trabajo”. Domínguez destaca que la Unión Europea es “la que más se ha acercado a imponer leyes coherentes y realistas”, aunque también reconoce que algunas compañías, como “X”, que desarrolla Grok, han optado por perder parte del negocio en Europa antes que cumplir con las exigencias mínimas.

“El propósito de estos estudios no es generar miedo a la inteligencia artificial, sino fomentar un uso crítico. Buscamos que las personas sean conscientes de los problemas y sesgos que tienen, y que aprendan a discernir en qué momentos puede confiar en ellas y en cuáles no”, concluye.

Únete a nuestro canal ¡EL UNIVERSAL ya está en Whatsapp!, desde tu dispositivo móvil entérate de las noticias más relevantes del día, artículos de opinión, entretenimiento, tendencias y más.

Comentarios