En enero de 2025, un ensayo titulado Hipnocracia: Trump, Musk y la nueva arquitectura de la realidad irrumpió en el mercado editorial europeo como un pequeño terremoto intelectual. Rápidamente escaló posiciones entre los más vendidos, fue citado por académicos, reseñado en múltiples idiomas y discutido en mesas redondas internacionales. Su autor, Jianwei Xun, aparecía como un filósofo hongkonés dedicado a explorar la conciencia colectiva en la era digital. Pero había un detalle crucial: Xun no existe. Fue generado por inteligencia artificial bajo la dirección del ensayista italiano Andrea Colamedici, quien reveló que se trataba de una “performance cultural”.
La noticia causó revuelo. No solo por la osadía del gesto, sino porque evidenció cuán fácilmente una ficción digital puede ocupar el espacio simbólico de una verdad cultural. Colamedici no intentaba engañar —afirma— sino poner a prueba los propios límites del discurso académico, de la crítica, del consumo de ideas. Con la ayuda de herramientas como ChatGPT y Claude, construyó una narrativa envolvente que exploraba, desde dentro, el fenómeno que analizaba: el poder hipnótico de las tecnologías digitales para moldear nuestra percepción de la realidad.
El término “hipnocracia” refiere a eso: una forma de control no basada en la censura, sino en la saturación de estímulos. Un régimen donde la conciencia colectiva es modulada por algoritmos y emociones artificiales. Lejos de los totalitarismos clásicos, la nueva arquitectura del poder opera a través de la dispersión, la distracción y la multiplicación de relatos. En lugar de reprimir verdades, las ahoga en un océano de versiones posibles. La verdad no desaparece, simplemente deja de importar.
Este experimento recuerda inevitablemente el affaire Sokal de 1996, cuando el físico Alan Sokal logró publicar un artículo paródico en una revista de estudios culturales, exponiendo la falta de rigor de ciertos sectores académicos. Pero aquí el asunto es aún más inquietante: no se trata de una burla intelectual, sino de una obra construida con inteligencia artificial que desafía los cimientos mismos de la autoría. ¿Quién es el autor cuando una máquina co-escribe? ¿Puede haber originalidad sin intención? ¿Y si la IA no solo imita la escritura, sino que también inventa su propia sensibilidad?
En este contexto, el caso Jianwei Xun no es simplemente una anécdota. Es una advertencia y una propuesta. Nos advierte sobre lo fácilmente que puede desdibujarse la línea entre ficción y realidad, pero también propone repensar la creación intelectual como una experiencia expandida. Tal como Fernando Pessoa imaginó a sus heterónimos para explorar distintas voces del alma humana, hoy la inteligencia artificial puede crear “heterónimos digitales” que nos interpelan desde lugares inesperados.
Tal vez el verdadero protagonista de esta historia no sea la inteligencia artificial, sino nuestra necesidad de creer. Creer en voces, en nombres, en ideas. Incluso si esas voces son inventadas, esos nombres falsos y esas ideas, espejismos. Porque en la era de la hipnocracia, la narrativa ya no necesita ser verdadera. Solo necesita ser lo bastante verosímil como para capturar nuestra atención.
herles@escueladeescritoresdemexico.com