Las flechas de Cupido apuntan donde el mito dice que late el amor. Pero en 2026, quien dispara no es un dios travieso, sino un algoritmo entrenado con millones de datos que reflejan siglos de desigualdad. Cuando la Inteligencia Artificial (IA) aprende del mundo tal como es –sesgado, patriarcal, jerárquico–, no produce neutralidad, sino violencia automatizada. El reporte “El amor en los tiempos de Grok”, de Ola Violeta, documenta cómo la tecnología no solo hereda el machismo cultural, sino que lo extiende hasta convertirlo en una sólida infraestructura.

AI Forensics analizó 20 mil imágenes generadas por Grok entre el 25 de diciembre de 2025 y el 1 de enero de 2026. El 53% incluyó personas con “vestimenta mínima”, y dentro de ese grupo, el 81% fueron mujeres. No es mera coincidencia. Es el resultado de entrenar modelos con bases de datos donde las mujeres aparecen sistemáticamente como objetos de deseo. La UNESCO reveló que los modelos de lenguaje describen a mujeres en roles domésticos cuatro veces más que a hombres, y asocian nombres femeninos con “hogar”, “familia”, “niños”, mientras vinculan nombres masculinos con “negocio”, “ejecutivo”, “carrera”. Cuando esos sesgos se traducen en imágenes generadas, el estereotipo se convierte en cuerpo expuesto.

El sesgo también tiene edad. Las mujeres en las imágenes de Grok aparecen con una media de 22.5 años; los hombres, con una de 31.5. El 92% de ellas aparenta menos de 30 años, frente al 40% de ellos. Este patrón revela un mandato cultural: el deseo masculino se dirige hacia lo joven, lo vulnerable, lo controlable. La IA no inventa esta norma; la reproduce a escala industrial. Un estudio de octubre de 2025 sobre sesgos en modelos generativos, llamado “Women portrayed as younger than men online, and AI amplifies the bias”, de la Universidad de Stanford en conjunto con la de California y la de Oxford, encontró que los algoritmos asocian juventud con feminidad y madurez con masculinidad, perpetuando estereotipos que limitan la representación de las mujeres a un rango etario estrecho y sexualizado.

El problema también es social y político. Si el conjunto de datos refleja un mundo donde las mujeres aparecen mayoritariamente en contextos de cuidado o sexualización, y los hombres en contextos de autoridad, el modelo aprenderá esa distribución y la devolverá como natural. La investigadora y activista digital Joy Buolamwini demostró que los sistemas de reconocimiento facial tienen tasas de error más altas en mujeres de piel oscura, producto de bases de datos que sobrerrepresentan a hombres blancos. En modelos generativos, el sesgo se manifiesta como producción selectiva: se genera lo que el sistema reconoce como patrón dominante.

Desde Ola Violeta advertimos que esto también ocurre en México, donde el 31.1% de las mujeres de 20 a 29 años usuarias de internet reportaron ciberacoso en 2024, según el INEGI. Estas son las mismas mujeres que el algoritmo identifica como “contenido” ideal. Cuando una herramienta permite generar imágenes sexualizadas sin consentimiento en una plataforma con alcance global, el costo lo paga una sola parte: las mujeres jóvenes cuya imagen se convierte en materia prima descargable y viralizable.

La cuestión no es si la tecnología puede ser neutral, sino quién asume la responsabilidad de corregir el rumbo. Cupido lanzaba flechas al azar; Grok dispara con precisión estadística hacia los cuerpos que el patriarcado ha marcado como disponibles. Cambiar eso requiere rediseñar desde la base quién entrena los modelos, con qué datos, bajo qué supervisión y para beneficio de quién.

Únete a nuestro canal ¡EL UNIVERSAL ya está en Whatsapp!, desde tu dispositivo móvil entérate de las noticias más relevantes del día, artículos de opinión, entretenimiento, tendencias y más.

Comentarios