Monday, September 30, 2024
HomeEstados UnidosGobernador de California, Gavin Newsom, veta un proyecto de ley histórico sobre...

Gobernador de California, Gavin Newsom, veta un proyecto de ley histórico sobre inteligencia artificial que exigiría pruebas de seguridad

El gobernador de California, Gavin Newsom, vetó un proyecto de ley histórico destinado a establecer medidas de seguridad pioneras en el país para grandes modelos de inteligencia artificial (IA), al que varias empresas tecnológicas expresaron su oposición.

La decisión del domingo supone un duro golpe a los esfuerzos por controlar una industria local que está evolucionando rápidamente y con poca supervisión.

El proyecto de ley habría establecido algunas de las primeras regulaciones sobre modelos de IA a gran escala en el país y allanado el camino para las regulaciones de seguridad de la IA en todo el país, dijeron los partidarios.

A principios de este mes, el gobernador demócrata dijo a una audiencia en Dreamforce, una conferencia anual organizada por el gigante del software Salesforce, que California debe liderar la regulación de la IA frente a la inacción federal, pero que la propuesta “puede tener un efecto paralizador en la industria”.

La propuesta, que generó una feroz oposición por parte de empresas emergentes, gigantes tecnológicos y varios miembros demócratas de la Cámara de Representantes, podría haber dañado a la industria local al establecer requisitos rígidos, dijo Newsom.

El plan alternativo

Newsom anunció el domingo que el estado se asociaría con varios expertos de la industria, incluido el pionero de la IA Fei-Fei Li, para desarrollar barreras de protección en torno a modelos de IA potentes. Li se opuso a la propuesta de seguridad de la IA.

La medida, destinada a reducir los riesgos potenciales creados por la IA, habría requerido que las empresas probaran sus modelos y revelaran públicamente sus protocolos de seguridad para evitar que los modelos fueran manipulados para, por ejemplo, destruir la red eléctrica del estado o ayudar a construir armas químicas.

Los expertos dicen que esos escenarios podrían ser posibles en el futuro a medida que la industria siga avanzando rápidamente. También habría brindado protección a los trabajadores para que denunciaran irregularidades.

El autor del proyecto de ley, el senador estatal demócrata Scott Weiner, calificó el veto como “un revés para todos los que creen en la supervisión de las grandes corporaciones que toman decisiones críticas que afectan la seguridad y el bienestar del público y el futuro del planeta”.

“Las empresas que desarrollan sistemas avanzados de inteligencia artificial reconocen que los riesgos que estos modelos presentan para el público son reales y aumentan rápidamente. Si bien los grandes laboratorios de inteligencia artificial han asumido compromisos admirables para monitorear y mitigar estos riesgos, la verdad es que los compromisos voluntarios de la industria no son exigibles y rara vez funcionan bien para el público”, dijo Wiener en un comunicado el domingo.

Wiener dijo que el debate en torno al proyecto de ley ha hecho avanzar drásticamente la cuestión de la seguridad de la IA y que seguiría insistiendo en ese punto.

La legislación se encuentra entre una serie de proyectos de ley aprobados por la Legislatura este año para regular la inteligencia artificial, luchar contra las falsificaciones profundas y proteger a los trabajadores. Los legisladores estatales dijeron que California debe tomar medidas este año, citando las duras lecciones que aprendieron al no controlar a las empresas de redes sociales cuando podrían haber tenido una oportunidad.

¿Qué contenía el proyecto de ley sobre inteligencia artificial en California?

Los defensores de la medida, incluidos Elon Musk y Anthropic, dijeron que la propuesta podría haber inyectado algunos niveles de transparencia y responsabilidad en torno a los modelos de IA a gran escala, ya que los desarrolladores y expertos dicen que todavía no tienen una comprensión completa de cómo se comportan los modelos de IA y por qué.

El proyecto de ley se centra en los sistemas que requieren un alto nivel de potencia informática y más de 100 millones de dólares (90 millones de euros) para su construcción. Ningún modelo actual de IA ha alcanzado ese umbral, pero algunos expertos afirman que eso podría cambiar en el próximo año.

“Esto se debe al aumento masivo de las inversiones dentro de la industria”, dijo Daniel Kokotajlo, un ex investigador de OpenAI que renunció en abril debido a lo que consideró una indiferencia de la empresa hacia los riesgos de la IA.

“Es una cantidad de poder enorme para que una empresa privada la controle sin rendir cuentas, y también es increíblemente riesgoso”.

Estados Unidos ya está por detrás de Europa en la regulación de la IA para limitar los riesgos. La propuesta de California no era tan amplia como las regulaciones europeas, pero habría sido un buen primer paso para establecer barreras en torno a esta tecnología en rápido crecimiento que está generando preocupaciones sobre la pérdida de empleos, la desinformación, las invasiones de la privacidad y el sesgo de automatización, dijeron los partidarios.

Varias empresas líderes de inteligencia artificial acordaron el año pasado voluntariamente cumplir con las salvaguardas establecidas por la Casa Blanca, como probar y compartir información sobre sus modelos. El proyecto de ley de California habría obligado a los desarrolladores de inteligencia artificial a cumplir requisitos similares a esos compromisos, dijeron los partidarios de la medida.

Pero los críticos, incluida la ex presidenta de la Cámara de Representantes de Estados Unidos Nancy Pelosi, argumentaron que el proyecto de ley “mataría a la tecnología de California” y sofocaría la innovación. Habría disuadido a los desarrolladores de IA de invertir en modelos grandes o compartir software de código abierto, dijeron.

La decisión de Newsom de vetar el proyecto de ley marca otra victoria en California para las grandes empresas tecnológicas y los desarrolladores de IA, muchos de los cuales pasaron el año pasado presionando junto con la Cámara de Comercio de California para convencer al gobernador y a los legisladores de que no avancen en las regulaciones de IA.

Otras dos propuestas radicales de inteligencia artificial, que también enfrentaron una creciente oposición de la industria tecnológica y otros, fracasaron antes de la fecha límite legislativa el mes pasado.

Los proyectos de ley habrían requerido que los desarrolladores de IA etiquetaran el contenido generado por IA y prohibieran la discriminación en las herramientas de IA utilizadas para tomar decisiones laborales.

“No va a desaparecer”

El gobernador dijo a principios de este verano que quería proteger el estatus de California como líder mundial en IA, y señaló que 32 de las 50 principales empresas de IA del mundo están ubicadas en el estado.

Ha promocionado a California como uno de los primeros en adoptar esta tecnología, ya que el estado pronto podría implementar herramientas de inteligencia artificial generativa para abordar la congestión de las carreteras, brindar orientación fiscal y agilizar los programas para personas sin hogar.

El estado también anunció el mes pasado una asociación voluntaria con el gigante de la inteligencia artificial Nvidia para ayudar a capacitar a estudiantes, profesores universitarios, desarrolladores y científicos de datos. California también está considerando nuevas reglas contra la discriminación por inteligencia artificial en las prácticas de contratación.

Pero incluso con el veto de Newsom, la propuesta de seguridad de California está inspirando a los legisladores de otros estados a adoptar medidas similares, dijo Tatiana Rice, subdirectora del Future of Privacy Forum, una organización sin fines de lucro que trabaja con legisladores en propuestas de tecnología y privacidad.

“Es posible que copien el texto o hagan algo similar en la próxima sesión legislativa”, dijo Rice. “Así que no va a desaparecer”.

RELATED ARTICLES

Most Popular