Alicia Troncoso Lora, nacida en Carmona (Sevilla) hace 48 años, lleva recibiendo reconocimientos desde el final de su formación universitaria, que transcurrió por Sevilla, Nueva York y California. Catedrática de Lenguajes y Sistemas Informáticos de la Universidad Pablo de Olavide, es ahora presidenta de la Asociación Española de Inteligencia Artificial (AEPIA). Defiende que esta herramienta tiene que ser entendida como “un proyecto de país” que incluya, además de la visión tecnológica, una perspectiva social, humanística, jurídica y ética. “Es imprescindible”, asegura.

Pregunta. Una definición básica de la inteligencia artificial (IA) hace referencia a sistemas y programas con capacidades propias de los humanos. ¿Nos sustituirán?

Respuesta. Es un miedo que todo el mundo tiene en su interior viendo los avances de la inteligencia artificial. Pero sustituir a una persona es complicado porque una persona tiene muchísimas cualidades que, hoy en día, no pueden tener las máquinas. No existen máquinas con sentido común. Que nos sustituyan está muy lejos, porque la inteligencia artificial que está avanzando ahora mismo es específica, es decir, que se construyen algoritmos y máquinas que aprenden para desempeñar unas tareas concretas. Si la tarea cambia, necesitas otra máquina u otro algoritmo, mientras que una persona, por sí sola, es multitarea, lo hace todo porque la inteligencia humana es generalista. Sí van a ejecutar determinadas tareas que hacen las personas.

A la máquina hay que decirle qué es el bien y el mal. Ella no lo sabe. Por sí sola no puede distinguir

P. ¿Pero podrán distinguir el bien del mal?

R. Una máquina hará lo que nosotros diseñemos. A la máquina hay que decirle qué es el bien y el mal. Ella no lo sabe. Por sí sola no puede distinguir, pero sí está en la ética de todo el sector —investigadores, desarrolladores, empresas y gobiernos—que esa inteligencia artificial se diseñe cumpliendo unos determinados requisitos para que luego no nos veamos envueltos en problemas relacionados con la ética.

P. ¿Cuáles?

R. Hay muchos y están relacionados con la justicia y la transparencia. Los sistemas inteligentes van a tomar decisiones o ayudar a tomarlas. Por ejemplo, se pueden emplear para conceder créditos y hay que garantizar que actúe sin sesgos, porque ya se ha visto algunos sistemas que actúan de forma discriminatoria. Los sistemas inteligentes deben garantizar la equidad, que no haya ningún tipo de sesgo ni discriminación. Es un gran desafío relacionado con la justicia. El otro, y sobre el que hay mucha investigación ahora mismo, es la transparencia: si van a tomar decisiones que afectan a las personas, tenemos que saber cómo funcionan. Si no conceden un crédito, que se pueda saber el porqué.

P. La inteligencia artificial ha pasado de ser una disciplina para expertos a convertirse en una herramienta que usan incluso los escolares, como ChatGPT. ¿Es beneficiosa?

R. Se están empezando a ver grandes beneficios y se verán mucho más. Hay aplicaciones para neuroprótesis que permiten distinguir colores a personas que llevaban 12 años sin ver o para permitir la movilidad de un brazo articulado solo con el pensamiento o para activar neuronas a partir de un recuerdo, que se relaciona con el alzhéimer. En un futuro no muy lejano, pueden ayudar en muchos problemas de salud.

La materia prima de la inteligencia artificial son los datos y en este sentido hay riesgos de seguridad y de privacidad. También tiene impacto laboral. Por eso es tan importante una regulación

P. El caso de Almendralejo, donde unos adolescentes recrearon desnudos de compañeras con inteligencia artificial, demuestra que hay riesgos.

R. Hay muchos riesgos y los vemos cada día. La materia prima de la inteligencia artificial son los datos y en este sentido hay riesgos de seguridad y de privacidad. También tiene impacto laboral. Por eso es tan importante una regulación.

P. Los algoritmos deciden el precio de un pasaje, nuestras relaciones sociales, nuestras compras… ¿La inteligencia artificial se ha colado en nuestras vidas sin que nos demos cuenta?

R. Estamos rodeados de inteligencia artificial y la tenemos tan interiorizada que no la distinguimos, no somos conscientes o no le damos importancia. ¿Cuántos años hace que usamos Google Maps? Esta aplicación es inteligencia artificial. Las aspiradoras inteligentes tienes los planos de tu casa. La publicidad que me llega es distinta a la que le llega a otra persona. Todo eso tiene inteligencia artificial y, por supuesto, está condicionando nuestros hábitos de consumo, nuestro ocio, muchos aspectos de la vida social de cada persona.

Estamos rodeados de inteligencia artificial y la tenemos tan interiorizada que no la distinguimos, no somos conscientes o no le damos importancia

P. ¿Hacia dónde vamos?

R. Creo que ahora se está abogando por una inteligencia artificial verde. La IA también consume energía y también está contribuyendo a este cambio climático. Ahora mismo hay iniciativas muy potentes para que la inteligencia artificial sea verde y que el consumo de energía de esos algoritmos que todas las grandes plataformas tienen debajo, como Google o Meta, sea el menor posible. También, debido a la próxima regulación, se trabaja en una inteligencia artificial diseñada y centrada en la persona, para evitar todos esos daños colaterales. Se está avanzando sobre la productividad en el campo… La inteligencia artificial es como todo: bien usada, puede aportarnos beneficios. Pero, para usarla bien, también se necesita formación en valores y una ética para saber qué es lo que está bien y qué es lo que está mal.

P. Por lo tanto, como ha dicho, es necesaria la regulación.

R. Es muy necesaria. Ahora mismo ya hay una propuesta de reglamento de la inteligencia artificial en la UE que clasifica las herramientas según el impacto sea alto, medio o bajo. En función de eso, habrá unos requisitos definidos para las herramientas de inteligencia artificial. Este marco general irá avanzando para que incluyan todos los casos que se pueden dar.

La legislación siempre es lenta mientras la tecnología es todo lo contrario

P. ¿Llega tarde?

R. La tecnología avanza muy rápido y el derecho y la legislación, son lentos porque las leyes tienen mucho impacto y tiene que pasar por diferentes organismos y someterse a discusión para garantizar que verdaderamente cumple su fin y no supone un perjuicio para las personas. La legislación siempre es lenta mientras la tecnología es todo lo contrario.

P. Algunos directivos de empresas tecnológicas e intelectuales abogaron por parar hasta tener un marco consensuado. ¿Es necesario?

R. Esa petición, firmada por muchos directivos de grandes empresas que se dedican a la inteligencia artificial, surgió cuando explosionó ChatGPT. Hay muchos intereses cruzados en esas empresas. Cuando Google o Meta han sacado un producto de inteligencia artificial al mercado no se preocupaban por el daño que podía hacer esa inteligencia artificial. Se han preocupado cuando ha surgido ChatGPT porque lo ha sacado otra empresa que no es la suya. En esa petición hay muchos intereses contrapuestos y hay que ponerla un poco en cuarentena. La inteligencia artificial no debe parar, pero sí debe avanzar conforme a una regulación, a unas pautas, a una ética, para asegurar que está centrada en las personas y se usa para su beneficio.

Puedes seguir a EL PAÍS Tecnología en Facebook y X o apuntarte aquí para recibir nuestra newsletter semanal.

Suscríbete para seguir leyendo

Lee sin límites

_