vicepresidente kamala harris reunirá el jueves a los directores ejecutivos de cuatro importantes empresas que desarrollan inteligencia artificial a medida que la administración Biden implementa un conjunto de iniciativas diseñadas para garantizar la rápida evolución de la tecnología mejorar la vida sin poner en peligro los derechos y la seguridad de las personas.

La administración demócrata planea anunciar una inversión de $140 millones para crear siete nuevos institutos de investigación de IA, dijeron funcionarios de la administración a los periodistas durante una vista previa del esfuerzo.

Además, se espera que la Oficina de Administración y Presupuesto de la Casa Blanca publique una guía en los próximos meses sobre cómo las agencias federales pueden usar las herramientas de IA. También habrá un compromiso independiente de los principales desarrolladores de IA para participar en una evaluación pública de sus sistemas en agosto en la convención de hackers DEF CON en Las Vegas.

Harris y los funcionarios de la administración planean el jueves discutir los riesgos que ven en el desarrollo actual de la IA con los directores ejecutivos de Alphabet, Anthropic, Microsoft y OpenAI. El mensaje de los líderes gubernamentales a las empresas es que tienen un papel que desempeñar en la reducción del riesgo y pueden trabajar con el gobierno.

Las autoridades del Reino Unido también están analizando los riesgos asociados con la IA. El regulador británico de la competencia ha anunciado su apertura una revisión del mercado de IAcentrándose en la tecnología detrás de chatbots como ChatGPT, que fue desarrollado por OpenAI.

Presidente Joe Biden señaló el mes pasado que la IA puede ayudar a combatir las enfermedades y el cambio climático, pero también podría dañar la seguridad nacional y perturbar la economía de manera desestabilizadora.

El lanzamiento del chatbot ChatGPT este año ha llevado a un mayor debate sobre la IA y el papel del gobierno con el tecnología. Debido a que la IA puede generar escritura similar a la humana e imágenes falsas, existen preocupaciones éticas y sociales.

OpenAI ha mantenido en secreto los datos sobre los que se entrenaron sus sistemas de IA. Esto hace que sea difícil para las personas ajenas a la empresa entender por qué su ChatGPT produce respuestas parciales o falsas a las solicitudes o para abordar inquietudes sobre el robo de obras protegidas por derechos de autor.

Las empresas preocupadas por ser responsables de algo en sus datos de capacitación también podrían no tener el incentivo para rastrearlo adecuadamente, dijo Margaret Mitchell, científica en jefe de ética en la empresa de inteligencia artificial Hugging Face.

«Creo que podría no ser posible para OpenAI desglosar todos sus datos de capacitación a un nivel de detalle que sería realmente útil en términos de algunas de las preocupaciones sobre el consentimiento, la privacidad y la concesión de licencias», dijo Mitchell en una entrevista en Martes. «Por lo que sé de la cultura tecnológica, simplemente no sucede».

Teóricamente, al menos, algún tipo de ley de divulgación podría obligar a los proveedores de IA a abrir sus sistemas a un escrutinio más detallado por parte de terceros. Pero con los sistemas de IA basados ​​en modelos anteriores, no será fácil para las empresas ofrecer una mayor transparencia después del hecho.

“Creo que realmente dependerá de los gobiernos si eso significa tirar todo el trabajo que han hecho o no”, dijo Mitchell. “Claro que me imagino que al menos en Estados Unidos, las decisiones se inclinarán a favor de las empresas y apoyarán el hecho de que esto ya se hizo. Tendría ramificaciones tan masivas si todas estas empresas básicamente tuvieran que deshacerse de todo ese trabajo y comenzar de nuevo.