Más Información
La inteligencia artificial (IA) no sólo ha revolucionado la industria del entretenimiento, en sectores como la energía nuclear, la IA ha demostrado su capacidad para prever fallos y mejorar la seguridad.
Hoy en día, el manejo de residuos radiactivos y el riesgo de proliferación de armas nucleares son desafíos críticos. Problemática que, aunque compleja, se explica mejor en el documental "Under the cloud", en el que el escultor, arquitecto y artista visual mexicano Pedro Reyes visibiliza sus posibles fatales consecuencias.
“La relación entre la IA y las armas nucleares es fascinante. La primera computadora, creada en Los Álamos (donde se desarrolló la bomba de Hiroshima), se encargó de calcular las probabilidades de ganar una guerra nuclear. Su conclusión fue que la única forma de ganar una guerra nuclear es no participar en ella”, dice Pedro.
La inquietud por el activismo nuclear lo llevó a Nuevo México, un lugar que ha sufrido directamente el impacto de la minería de uranio, elemento que se usa en la generación de energía nuclear y la fabricación de armas nucleares.
El resultado de este viaje es "Under the cloud", disponible en MUBI, que aborda la historia actual y los efectos nocivos de la energía nuclear y la bomba atómica.
El documental reúne testimonios de aquellos que resisten las consecuencias del legado nuclear, como el de la activista Leona Morgan, mujer de origen Diné que ha estado luchando contra el colonialismo nuclear desde 2007.
Lee también: Paul McCartney teme que la Inteligencia Artificial plagie a los artistas
El problema con la IA, indica Reyes, es que, al tomar decisiones basadas en datos, no puede distinguir entre lo real y lo ficticio.
“Una IA podría confundir una falsa alarma con una amenaza real y provocar una respuesta equivocada, como un contraataque. La falta de seguridad en el desarrollo de IA es una de las críticas de quienes participaron en su creación”.
En 25 minutos, Reyes alerta además sobre cómo la IA ha revolucionado tecnologías que buscan maximizar el daño.
“Activistas están promoviendo legislaciones para evitar el uso de IA en armas, consideran que la decisión de matar debe seguir siendo responsabilidad humana. Si la IA toma estas decisiones, no se puede responsabilizar a nadie”.