Más Información

PT va con el "Plan B", pero sin revocación de mandato; acompañamos a Sheinbaum y estaremos con ella hasta 2030: Alberto Anaya

"Es un narco" y "demuéstremelo"; Saúl Monreal y Lilly Telléz tienen encontronazo durante debate del "Plan B" en el Senado

¿El CJNG estará en la banca durante el Mundial 2026?; expertos en seguridad analizan el panorama tras la muerte de "El Mencho"

Ambientalistas acusan al gobierno de no atender derrame de petróleo en el Golfo de México; exigen transparencia

Sheinbaum instala comisión especial para la Ley contra el Feminicidio; acude Hugo Aguilar, ministro presidente de la Corte
El gobernador de California Gavin Newsom promulgó una legislación innovadora que exige a las empresas de inteligencia artificial más grandes del mundo que divulguen públicamente sus protocolos de seguridad y reporten incidentes críticos.
La ley conocida como SB 53 "ayudará al estado de California a incentivar la innovación al mismo tiempo que se protege la seguridad pública", declaró Newsom al anunciar la promulgación.
La ley es una de las medidas más significativas de California destinadas a regular el rápido avance de la industria de la inteligencia artificial de Silicon Valley. También le permitirá al estado conservar su posición como un centro global de tecnología.
"Con una tecnología tan transformadora como la IA, tenemos la responsabilidad de apoyar la innovación mientras implementamos medidas de seguridad sensatas", dijo en un comunicado el senador estatal Scott Wiener, ponente del proyecto de ley.
La nueva ley representa un exitoso segundo intento de Wiener de establecer regulaciones de seguridad para la IA después de que Newsom vetó la propuesta anterior tras una furiosa oposición de la industria tecnológica.
También ocurre después de un intento fallido de la administración Trump de impedir que los estados promulguen regulaciones sobre inteligencia artificial. El gobierno argumenta que crearían un caos regulatorio y ralentizarían la innovación hecha en Estados Unidos en una carrera contra China.
La nueva ley estipula que las grandes compañías de IA tienen que divulgar públicamente editados sus protocolos de seguridad y protección de la propiedad intelectual.
Lee también California responde a Texas y a Trump; modifica su propio mapa electoral para favorecer a demócratas
La legislación también establece protecciones para informantes de empleadores que revelen evidencia de peligros o violaciones de seguridad. También requiere que las empresas informen sobre casos en los que los sistemas de IA se comporten de manera peligrosa y engañosa durante las pruebas.
Por ejemplo, si un sistema de IA miente sobre la efectividad de los controles diseñados para evitar que brinde asistencia para la construcción de armas biológicas, los desarrolladores deben divulgar el incidente si éste aumenta significativamente los riesgos de daños catastróficos.
El grupo de trabajo detrás de esta ley fue liderado por destacados expertos como la investigadora Fei-Fei Li, de la Universidad de Standford, conocida como la "madrina de la IA".
desa/mgm
Más Información
Noticias según tus intereses
ViveUSA
[Publicidad]



















