La se ha convertido en el mayor laboratorio para la (IA). “[Es] una de las herramientas del progreso humano más revolucionarias, sin la menor duda, pero que tiene las dos caras: como todo avance, lo positivo para el progreso, y lo negativo para el retroceso”, dice el ingeniero en sistemas computacionales Gabriel Corvera a. Y en este contexto, ni el espectáculo, la cultura, la sociedad y la política se han salvado de lo fake.

El banderazo oficial para esta nueva forma de expresión llegó desde el primer spot republicano hecho con imágenes generadas por IA en la campaña 2024, que mostraba una Unión Americana devastada, en ruinas, bajo la administración del demócrata Joe Biden; y de ahí, el otro acto formal del nuevo fake, el video difundido por el hoy presidente Donald Trump el 20 de julio en Truth Social, donde el exmandatario Barack Obama aparecía “arrestado” en la Oficina Oval.

Desde que el presidente de la primera potencia mundial lo oficializó, la frontera entre una propaganda real y la simulación artificial comenzó su vocación de manipulación y engaño. “El video del arresto rompió la línea de intolerancia porque si el presidente valida un montaje humillante, el mensaje descendente es que todo vale si genera conversación”. El clip de Obama no buscaba convencer a nadie de un hecho imposible; “su meta era más maliciosa: humillar al adversario y saturar la conversación”, señala el especialista. Cuando fue expuesto como falso, la excusa estuvo lista; “es parodia”, dijeron desde la Casa Blanca y sus defensores.

Lee también:

Esa dinámica encarna lo que Hany Farid, profesor de UC Berkeley, describe como “el dividendo del mentiroso”, es decir, “cuando por fin sorprendes a un político o cualquier otro personaje social diciendo o haciendo algo deplorable, ahora tiene ‘coartada razonable’; eso es el dividendo del mentiroso”. Lo verdadero queda debilitado porque todo podría ser fruto de un fake.

La normalización de este tipo de sucesos en redes se ha ido construyendo por escalones. Antes de Obama, circularon imágenes falsas de Trump “abrazando” a Anthony Fauci para erosionarlo entre republicanos; también hubo memes con voz clonada para ridiculizar a Kamala Harris, amplificados por influencers con audiencias millonarias.

Otro caso emblemático del inicio de los fake incendiarios ocurrió en enero de 2024, cuando en plenas elecciones primarias demócratas de New Hampshire, un robot llamada con voz clonada del entonces presidente Biden instó a demócratas a no votar. La presidenta, en ese momento, de la Comisión Federal de Comunicaciones de Estados Unidos, Jessica Rosenworcel, advirtió que “el escenario de pesadilla es que las llamadas automáticas usen clonación de voz con IA para engañarnos; eso que llaman futuro ya está aquí”; y añadió que “cuando quien llama suena como alguien de la política que conoces, una celebridad que te gusta o un familiar, cualquiera puede ser engañado”.

Lee también:

Limitaciones jurídicas

Para quienes buscan enfrentar este uso de la IA, las limitaciones jurídicas son claras. La Primera Enmienda de la Constitución estadounidense protege con amplitud el discurso político. La difamación es un asunto civil y las figuras públicas sólo ganan si prueban lo que se denomina malicia real, es decir, para que una figura pública gane una demanda de difamación, no basta con demostrar que una afirmación es falsa y dañina para su reputación. Además, debe probar que el emisor actuó con malicia real, es decir, que sabía que era falso o que publicó con “temerario desprecio por la verdad” (reckless disregard for the truth).

Como ha dicho Ellen L. Weintraub, de la Comisión Federal Electoral, “el público tiene derecho a saber si lo que ve en línea —en redes— es real o no”. Pero esa demanda de transparencia choca con la imposibilidad constitucional de censura previa.

El Congreso y el gobierno federal estadounidenses tienen muy poco margen para limitar la difusión de deepfakes o contenidos manipulados incluso si son dañinos o engañosos. Ante ese vacío, los gobiernos estatales (California, Texas, Minnesota, Nueva York, entre otros) empezaron a aprobar sus propias leyes más estrictas sobre el uso de IA y deepfakes en campañas electorales.

Lee también:

Lo que hicieron California y algunos otros estados fue aprobar leyes que buscaban bloquear de antemano (es decir, ex ante) la difusión de deepfakes políticos en periodos cercanos a elecciones o imponer etiquetado obligatorio en todo contenido generado con IA. La intención era proteger a los votantes, pero el problema es que esas medidas chocaron con la Constitución estadounidense, porque implicaban censura previa del discurso político, algo casi siempre inconstitucional.

Por eso, el 5 de agosto, un tribunal tumbó partes clave de la ley californiana anti-deepfakes, dejando claro que la única vía posible es actuar después de que aparece el contenido (ex post); y solo si hay pruebas claras de daño (fraude, suplantación y difamación), con medidas muy específicas y puntuales, no con prohibiciones generales.

Una herramienta prioritaria

Mientras la justicia ponía límites, la Casa Blanca aceleraba. El 6 de agosto, la Administración de Servicios Generales de Estados Unidos anunció que agencias federales tendrían acceso a ChatGPT Enterprise por apenas un dólar, un acuerdo simbólico que buscó enviar una señal: la IA es prioridad nacional. Un día antes, el gobierno de Trump había presentado su America’s AI Action Plan, que plantea invertir en centros de datos, transmisión de medios y cómputo como infraestructura estratégica; y exportar un stack de IA con sello estadounidense.

El Departamento de Seguridad Nacional (DHS) de Estados Unidos ya había empezado a desplegar estas herramientas en migración y fronteras; especialmente en lo referente a traducción automática, reconocimiento facial, análisis de documentos y normalización de dispositivos decomisados. Todo en apoyo a la eficiencia; pero el trasfondo es ampliar el perímetro de vigilancia. Esta misma semana, Amnistía Internacional (AI) denunció que el gobierno de Trump está usando la IA para rastrear y vigilar a inmigrantes en general, pero sobre todo refugiados y solicitantes de asilo, así como a quienes se manifiesten públicamente en defensa de los derechos del pueblo palestino.

El sector privado no quedó al margen. xAI, la empresa de Elon Musk, vio cerrarse puertas en el sector público después de que su chatbot Grok difundiera respuestas con contenido antisemita. El gobierno dejó clara la línea roja: sólo adoptará sistemas “productivos y veraces”. La competencia tecnológica se convirtió así en una competencia cultural.

Lee también:

Las plataformas han prometido transparencia, pero la aplicación es irregular. YouTube exige a los creadores declarar si un video realista es IA; Meta amplió el rótulo de “Hecho con IA”. Aun así, “lo que más circula no son deepfakes perfectos, sino cheapfakes: fotos animadas, voces clonadas y sincronización de labios que apenas convencen”, subraya el especialista, empaquetados con titulares diseñados para crear indignación y clics antes de que aparezca cualquier advertencia.

La cultura popular volvió masivo el problema. “Muchos están recibiendo un anuncio estafa con mi deepfake… ¿están listas las plataformas para esto? Es un problema serio”, reclamó MrBeast, el influencer con el mayor número de seguidores en YouTube. El actor Tom Hanks alertó hace poco con un mensaje, “¡Cuidado! Hay un video por ahí promoviendo un plan dental con una versión mía de IA; yo no tengo nada que ver con eso”. Scarlett Johansson, tras denunciar la clonación de su voz, declaró muy molesta que “en un tiempo en que lidiamos con deepfakes y la protección de nuestra propia imagen e identidad, estas cuestiones exigen absoluta claridad”.

La Oficina de Copyright (Derechos de Autor) estadounidense buscó ordenar la conversación y definió “réplica digital” como “un video, imagen o grabación de audio creada o manipulada digitalmente para representar de forma realista pero falsa a una persona”. Esa categoría permite proteger legalmente la voz y la imagen como bienes comerciales y abre la puerta a demandas civiles por explotación no autorizada.

Lee también:

Pero el fenómeno ya no se limita a Estados Unidos. El presidente de Francia y su esposa, Emmanuel y Brigitte Macron, demandaron en Delaware a una comentarista estadounidense que insistía en que “Brigitte Macron es un hombre” y usó IA. Ucrania tampoco se salvó. En plena guerra, un deepfake del presidente Volodimir Zelensky llamando a rendirse mostró hasta qué punto la desinformación bélica puede desestabilizar.

La respuesta técnica no está en detectores infalibles de fakes, sino en la procedencia de la acción. El verificador estándar C2PA, conocido como “Credenciales de Contenido”, permite firmar fotos, videos y audios para demostrar autoría y ediciones. “Atención, este verificador no revela fakes, pero ofrece trazabilidad; seguimiento de origen”.

Es decir, si un medio publica con credenciales, le resulta más fácil refutar montajes que intentan usurpar su marca. El problema es la adopción; las cámaras profesionales ya lo integran, pero los celulares, las plataformas y las aplicaciones aún no lo ponen al alcance del usuario común.

Lee también:

“La paradoja de los deepfakes es que incluso las evidencias auténticas se vuelven discutibles cuando todo puede ser manipulado”, explicó Hany Farid, profesor de UC Berkeley. Sam Gregory, director de WITNESS, lo explicó con toda claridad en su comparecencia ante el Senado de Estados Unidos: “Estas herramientas, con su potencial para crear simulaciones realistas de imagen, audio y video a gran escala, así como contenido personalizado, tendrán implicaciones de gran alcance para los consumidores, para la producción creativa y, en general, para nuestra confianza en la información que vemos y escuchamos”. La situación se agrava cuando desde el gobierno se difunden esas deepfakes.

Dicho de otro modo, la expansión de simulaciones hiperrealistas y de contenidos hechos a la medida no sólo transformará la industria creativa y la experiencia de los usuarios, sino que pondrá en jaque lo más delicado: la confianza pública en lo que consideramos verdad. En el caso de estados Unidos, el reto es cómo sostener esa confianza sin sacrificar su tradición de libertad de expresión casi absoluta.

El futuro dependerá menos de prohibiciones, que casi siempre caen en tribunales, y más de responsabilidad compartida; credenciales técnicas, procesos profesionales en medios, sanciones rápidas cuando hay fraude y hábitos ciudadanos de verificación. “La libertad debe seguir siendo el principio fundamental; pero la procedencia y los procesos son la única defensa posible en esta era de la AI”, concluye el ingeniero Corvera.

Únete a nuestro canal ¡EL UNIVERSAL ya está en Whatsapp!, desde tu dispositivo móvil entérate de las noticias más relevantes del día, artículos de opinión, entretenimiento, tendencias y más.