OpenAI ha dejado clara su oposición al proyecto de ley SB 1047 de California, el cual impondría nuevos requisitos de seguridad a las empresas de inteligencia artificial (IA).
De acuerdo con la startup, este proyecto perjudicaría a la innovación en el sector de la IA, además que enfatiza que las regulaciones de esta tecnología deben quedar en manos del gobierno federal.
Esto se dio a conocer a través de una carta escrita por el director de estrategia de OpenAI, Jason Kwon, la cual se envió al senador Scott Wiener, encargado de presentar el proyecto de la Ley SB 1047.
Leer también: Para qué sirven los orificios de los EarPods de Apple
"La SB 1047 amenazaría ese crecimiento, ralentizaría el ritmo de innovación y llevaría a los ingenieros y empresarios de clase mundial de California a abandonar el estado en busca de mayores oportunidades en otro lugar", señaló Know. Y agrega "dados estos riesgos, debemos proteger la ventaja de IA de Estados Unidos con políticas federales, en lugar de estatales".
Además, el especialista solicitó una oportunidad para exponer algunas de las principales preocupaciones que surgen si esta ley se aprueba.
OpenAI se une a otros líderes tecnológicos y políticos que se han manifestado en contra de la legislación.
¿Qué respondió Scott Wiener a OpenAI?
Después de la publicación de la carta de Know, Scott Wiener respondió que ha estado en conversaciones de IA desde hace meses. Y señaló que la legislación no se limita a las compañías con sede en California sino que también a los desarrolladores que hacen negocios ahí.
Y señaló "En lugar de criticar lo que realmente hace el proyecto de ley, OpenAI sostiene que este asunto debería dejarse en manos del Congreso. Estoy de acuerdo en que lo ideal sería que el Congreso se ocupara de esto".
En medio de estas preocupaciones, OpenAI suspendió las negociaciones para expandir sus oficinas en San Francisco, según reporta Bloomberg.
¿En que consiste la Ley SB 1047?
La Ley de Innovación Segura para Modelos de Inteligencia Artificial, también conocida como Ley SB 1047 establece estándares del desarrollo de modelos de IA y pruebas de seguridad previas a su implementación para evitar los riesgos y amenazas de la seguridad pública que puede generar esta tecnología.
Además, la ley propone que se incluyan formas de apagar por completo modelos que representen un riesgo crítico para los usuarios y en caso de no cumplir con las disposiciones de la ley se propone implementar diferentes sanciones como multas civiles, acciones civiles y reparación del daño para personas afectadas.
Por el momento, la ley se dirigirá al pleno de la Asamblea de California para su votación final y en caso de que se apruebe volverá al Senado del estado para una votación final.
Leer también: Aprovecha el cine gratis del IPN y lánzate a ver estas películas
Recibe todos los viernes Hello Weekend, nuestro newsletter con lo último en gastronomía, viajes, tecnología, autos, moda y belleza. Suscríbete aquí: https://www.eluniversal.com.mx/newsletters