Las autoridades de todo el mundo están carrera para hacer reglas para la inteligencia artificialincluso en la Unión Europea, donde el proyecto de ley vio un punto de inflexión el jueves.

Una comisión del Parlamento Europeo ha votado a favor de reforzar la histórica propuesta legislativa a medida que avanza hacia su adopción, como parte de un un año de esfuerzos de Bruselas para erigir barandillas para la inteligencia artificial. Estos esfuerzos se han vuelto más urgentes a medida que los rápidos avances en chatbots como ChatGPT resaltan los beneficios que la tecnología emergente puede brindar y los nuevos peligros que plantea.

Aquí hay una descripción general de la ley de inteligencia artificial de la UE:

¿Cómo funcionan las reglas?

ley de IA, ofrecido por primera vez en 2021, regirá cualquier producto o servicio que utilice un sistema de inteligencia artificial. La ley clasificará los sistemas de IA según cuatro niveles de riesgo, desde mínimo hasta inaceptable. Las aplicaciones más riesgosas enfrentarán requisitos más estrictos, que incluyen ser más transparentes y usar datos precisos. Piense en ello como un «sistema de gestión de riesgos para la IA», dijo Johann Laux, experto del Instituto de Internet de Oxford.

¿Cuáles son los riesgos?

Uno de los principales objetivos de la UE es protegerse contra cualquier amenaza para la salud y la seguridad de la IA y proteger los derechos y valores fundamentales.

Eso significa que algunos usos de la IA están absolutamente prohibidos, como los sistemas de «calificación social» que juzgan a las personas en función de su comportamiento. También está prohibida la IA que explota a las personas vulnerables, incluidos los niños, o utiliza la manipulación subliminal que puede provocar daños, como un juguete interactivo parlante que fomenta un comportamiento peligroso.

Los legisladores reforzaron la propuesta al votar para prohibir las herramientas policiales predictivas, que analizan datos para predecir dónde ocurrirán los delitos y quién los cometerá. También aprobaron una prohibición amplia del reconocimiento facial remoto, excepto por algunas excepciones de aplicación de la ley, como la prevención de una amenaza terrorista específica. La tecnología escanea a los transeúntes y usa inteligencia artificial para comparar sus rostros con una base de datos.

El objetivo es «evitar una sociedad controlada basada en IA», dijo a los periodistas el miércoles Brando Benifei, el legislador italiano que ayudó a liderar los esfuerzos de IA del Parlamento Europeo. «Creemos que estas tecnologías podrían usarse en lugar de bien también para mal, y consideramos que los riesgos son demasiado altos».

Los sistemas de IA que se utilizan en categorías de alto riesgo como el empleo y la educación, que afectarían el curso de la vida de una persona, se enfrentan a requisitos estrictos como la transparencia con los usuarios y la implementación de medidas de evaluación y mitigación de riesgos.

El brazo ejecutivo de la UE dice que la mayoría de los sistemas de IA, como los videojuegos o los filtros de correo no deseado, entran en la categoría de riesgo bajo o nulo.

¿Qué hay de ChatGPT?

La pantalla de ChatGPT en un teléfono inteligente.Gabby Jones/Bloomberg vía Getty Images

La propuesta original de 108 páginas apenas mencionaba los chatbots, simplemente requería que estuvieran etiquetados para que los usuarios sepan que están interactuando con una máquina. Luego, los negociadores agregaron disposiciones para cubrir la IA de propósito general como ChatGPT, sometiéndolos a algunos de los mismos requisitos que los sistemas de alto riesgo.

Una adición clave es el requisito de documentar minuciosamente cualquier material protegido por derechos de autor utilizado para enseñar a los sistemas de IA cómo generar texto, imágenes, video o música que parece trabajo humano. Esto les permitiría a los creadores de contenido saber si sus publicaciones de blog, libros electrónicos, artículos científicos o canciones pop se han utilizado para entrenar algoritmos que impulsan sistemas como ChatGPT. Entonces podrían decidir si su trabajo fue copiado y buscar reparación.

¿Por qué son tan importantes las normas de la UE?

La Unión Europea no es un actor importante en el desarrollo de la IA avanzada. Este papel lo juegan Estados Unidos y China. Pero Bruselas a menudo juega un papel pionero con regulaciones que tienden a convertirse en estándares globales de facto.

«Los europeos son, globalmente hablando, bastante ricos y hay muchos de ellos», por lo que las empresas y organizaciones a menudo deciden que el mero tamaño del mercado único del bloque con 450 millones de consumidores facilita el cumplimiento en lugar de desarrollar diferentes productos para diferentes regiones, dijo Laux.

Pero no se trata sólo de tomar medidas enérgicas. Al establecer reglas comunes para la IA, Bruselas también está tratando de hacer crecer el mercado generando confianza en los usuarios, dijo Laux.

“La idea detrás de esto es que si puedes hacer que las personas confíen en la IA y las aplicaciones, también las usarán más”, dijo Laux. «Y cuando lo usen más, desbloquearán el potencial económico y social de la IA».

¿Qué pasa si rompes las reglas?

Las infracciones darán lugar a multas de hasta 30 millones de euros (33 millones de dólares) o el 6 % de los ingresos mundiales anuales de una empresa, que, en el caso de empresas tecnológicas como Google y Microsoft, podrían ascender a miles de millones.

¿Y después?

Podrían pasar años antes de que las reglas entren en vigencia. Los legisladores de la Unión Europea ahora deben votar el proyecto de ley en una sesión plenaria a mediados de junio.

Luego pasa a negociaciones tripartitas que involucran a los 27 estados miembros del bloque, el parlamento y la Comisión Ejecutiva, donde podría enfrentar más cambios a medida que se pelean por los detalles. Se espera la aprobación final para finales de año, o principios de 2024 a más tardar, seguido de un período de gracia para que las empresas y organizaciones se adapten, a menudo alrededor de dos años.