Más Información

México y EU llegan a un acuerdo sobre Tratado de Aguas; no se ha violado ninguna disposición, dice gobierno mexicano

FGR acusa a María Amparo Casar de uso ilícito de atribuciones por pensión vitalicia; comparecerá en el reclusorio Oriente

Hallan muerto a Enrique "Kike" Estrada, director del DIF en El Salto, Jalisco; autoridades investigan fallecimiento

Asistencia de peregrinos a la Basílica rompe récord; llegan 12 millones 800 mil personas, asegura alcalde de la GAM, Janecarlo Lozano

Padres y normalistas de Ayotzinapa marchan en Chilpancingo; acusan impunidad por asesinatos y la desaparición de los 43

Sheinbaum reconoce labor de las Fuerzas Armadas; hombres y mujeres que entregan su esfuerzo y su vida por amor al pueblo, destaca

Trump minimiza nuevas fotos con el pederasta Epstein publicadas por el Congreso; "no son gran cosa", dice

Recuperado, Ealy Ortiz retoma su liderazgo en EL UNIVERSAL; encabeza comida de fin de año de la empresa
Londres.- La inteligencia artificial (IA) plantea un "riesgo de extinción" comparable al de las pandemias o la guerra nuclear, adviertió este martes en una carta un grupo de más de 300 expertos e investigadores de la industria.
Científicos y directivos de Microsoft, Google y otras empresas de la industria tecnológica emitieron una nueva advertencia acerca de los peligros que representa la inteligencia artificial para la humanidad.
“Mitigar el riesgo de extinción de la IA debería ser una prioridad global junto con otros riesgos a escala social, tales como las pandemias y la guerra nuclear”, dice el comunicado publicado online.
Sam Altman, director general de OpenAI, fabricante de ChatGPT, y el científico Geoffrey Hinton, considerado el padrino de la inteligencia artificial, están entre los cientos de personalidades destacadas que firmaron la declaración, publicada en el sitio web de Center for AI Safety (centro por la seguridad de la IA).
También están el director ejecutivo de Google DeepMind, Demis Hassabis; Dario Amodei, director ejecutivo de Anthropic, y Youshua Bengio, dos de los tres investigadores de IA que ganaron el Premio Turing 2018 -conocido popularmente como el Premio Nobel de la informática- por su trabajo en IA.
Los temores de que sistemas de inteligencia artificial se vuelvan más inteligentes que el ser humano y escapen a todo control se han intensificado con la aparición de una nueva generación de chatbots altamente capacitados como ChatGPT.
Leen también ¿Cuáles son los riesgos de la inteligencia artificial, según Geoffrey Hinton?
Aumenta temor porque IA se vuelva más inteligente que los humanos
La advertencia más reciente fue intencionalmente lacónica -apenas una frase- para abarcar a una coalición amplia de científicos que podrían no estar de acuerdo sobre los riesgos más probables o las mejores soluciones para prevenirlos, dijo Dan Hendrycks, director general del Center for AI Safety, con sede en San Francisco.
“Una variedad de personas de todas las universidades principales y diversas disciplinas están preocupadas por esto y piensan que es una prioridad global”, dijo Hendrycks. “Por eso tuvimos que conseguir gente que saliera de las sombras, por así decir, para hablar sobre esto porque muchos hablaban en silencio entre ellos”.
Lee también ¿Lava del volcán Popocatépetl llegaría a CDMX en caso de erupción? IA responde en TikTok
En marzo, más de mil investigadores y tecnólogos, entre ellos Elon Musk, habían firmado una carta mucho más larga para pedir una pausa de seis meses en el desarrollo de la IA porque crea “profundos riesgos para la sociedad y la humanidad”.
Países en todo el mundo se apresuran a elaborar regulaciones para el desarrollo de la tecnología. La Unión Europea abre el camino con su Ley de IA, que espera aprobar en los próximos meses.
En este mes, mayo, Altman, Hassabis y Amodei se reunieron con el presidente de Estados Unidos, Joe Biden, y la vicepresidenta, Kamala Harris, para hablar sobre la regulación de la AI.
Además, el director ejecutivo de OpenAI testificó ante el Senado estadounidense y advirtió que los riesgos de esta tecnología eran lo suficientemente serios como para justificar la intervención del gobierno.
Leen también Llegó el futuro: Neuralink, empresa de Elon Musk, recibe permiso para ensayar implantes cerebrales en humanos
mcc
Más Información
Noticias según tus intereses
ViveUSA
[Publicidad]















