Siete importantes compañías de inteligencia artificial acordaron un puñado de mejores prácticas de la industria, un primer paso hacia una regulación más significativa, anunció la Casa Blanca el jueves.

Las empresas (Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI) acordaron principios que incluyen seguridad, transparencia con el público y pruebas internas de sus productos antes de presentarlos al público.

En una llamada con los periodistas el miércoles por la noche antes del anuncio, un funcionario de la Casa Blanca, que pidió no ser identificado como parte de los términos de la llamada, dijo que el presidente Joe Biden eventualmente firmará una orden ejecutiva que regulará más la IA, aunque los funcionarios aún están trabajando en los detalles.

“La Casa Blanca está desarrollando activamente una acción ejecutiva para regular el uso de la IA por parte del presidente”, dijo el funcionario. «Es una prioridad para el presidente».

Los altos ejecutivos de las empresas afectadas también se reunirán con la Casa Blanca el viernes, incluido el presidente de Microsoft, Brad Smith, el presidente de Google y Global Business Alphabet, Kent Walker, el director ejecutivo de Amazon Web Services, Adam Selipsky, el presidente de Global Business Meta, Nick Clegg, el presidente de OpenAI, Greg Brockman, el director ejecutivo de Anthropic, Dario Amodei, y el director ejecutivo de Inflection AI, Mustafa Suleyman.

Cada una de las siete compañías acordó contratar expertos independientes para probar sus sistemas en busca de vulnerabilidades y compartir la información que encuentren entre sí, con gobiernos e investigadores, dijo el funcionario. También acordaron desarrollar los llamados mecanismos de «marca de agua» para ayudar a los usuarios a identificar cuándo el contenido que ven o escuchan es generado por IA.

Los compromisos son voluntarios y no vinculantes.

Gary Marcus, uno de los principales críticos de AI, dijo que las promesas son importantes, pero señaló que no requieren que las empresas de AI digan qué datos usan para entrenar sus modelos.

«Creo que es un gran primer paso y no va lo suficientemente lejos», dijo Marcus. “En primer lugar porque es voluntario. En segundo lugar, una de las cosas más importantes que necesitamos aquí es saber qué datos se usan para entrenar los modelos, y ese no es uno de ellos.

«El equipo rojo es excelente. Que las empresas compartan información es excelente. Un acuerdo de marca de agua es excelente. Todos estos son buenos pasos. Pero hasta que tengamos una transparencia real en torno a los datos, no hemos terminado», agregó.

Los sistemas de IA generativa como ChatGPT de OpenAI causaron revuelo a fines del año pasado, lo que generó un enjambre de nuevos usuarios y dejó al gobierno de EE. UU. luchando por encontrar un rol adecuado. En mayo, el CEO de OpenAI, Sam Altman, cortejó a los miembros del Congreso y les pidió que regularan la industria. En junio, Biden voló a San Francisco para reunirse con ejecutivos de algunas de las empresas de Silicon Valley que lideran la IA en Estados Unidos.

El funcionario de la Casa Blanca dijo que el enfoque del acuerdo es crear transparencia que permita a los expertos examinar mejor los sistemas de IA.

«Con lo que las empresas se comprometen es con un análisis independiente realizado por expertos en el campo y un régimen más amplio y multifacético para garantizar que este análisis sea creíble y confiable», dijo el funcionario. «Y también se comprometen, de manera más amplia, a comprometerse con la academia y la sociedad civil, los Estados Unidos y otros gobiernos para establecer las mejores prácticas para salvaguardar esos sistemas y luego adherirse a esas prácticas».