Muchos de los nombres más importantes de la inteligencia artificial han firmado una breve declaración advirtiendo que su tecnología podría significar el fin de la raza humana.

Publicada el martes, la declaración completa dice: «Mitigar el riesgo de extinción de la IA debería ser una prioridad global junto con otros riesgos para toda la sociedad, como las pandemias y la guerra nuclear».

La declaración se publicó en el sitio web del Center for AI Safety, una organización sin fines de lucro con sede en San Francisco. Está firmado por casi 400 personas, incluidos algunos de los nombres más importantes en el campo: Sam Altman, director ejecutivo de OpenAI, la compañía detrás de ChatGPT, así como altos ejecutivos de IA de Google y Microsoft y 200 académicos.

La declaración es la última de una serie de campanas de alarma lanzadas por expertos en IA, pero también una que ha provocado un creciente rechazo contra el enfoque en lo que algunos ven como el daño hipotético sobrevalorado de la IA.

Meredith Whittaker, presidenta de la aplicación de mensajería encriptada Signal y asesora principal del AI Now Institute, un grupo sin fines de lucro dedicado a las prácticas éticas de IA, se burló de la declaración ya que los líderes tecnológicos prometieron demasiado su producto.

Clement Delangue, cofundador y director ejecutivo de la empresa de IA Hugging Face, tuiteó una foto de una versión editada de la declaración que reemplaza «AGI» por IA.

AGI significa inteligencia general artificial, que es una forma teórica de IA que es tan capaz o más capaz que los humanos.

La declaración se produce dos meses después de que un grupo diferente de líderes en inteligencia artificial y tecnología, incluido el propietario de Tesla, Elon Musk, el cofundador de Apple, Steve Wozniak, y el científico en jefe de IBM, Grady Booch, firmaron una petición para pedir una «pausa» en todos los proyectos a gran escala. AI. investigación abierta al público. Ninguno de ellos ha firmado todavía la nueva declaración, y tal ruptura no se ha producido.

Altman, quien ha pedido repetidamente la regulación de la IA, cautivó al Congreso a principios de este mes. Organizó una cena privada con docenas de miembros de la Cámara y fue objeto de una audiencia extrajudicial en el Senado, donde se convirtió en el raro ejecutivo de tecnología del que disfrutaban ambas partes.

Los llamados de regulación de Altman han tenido sus límites. La semana pasada dijo que OpenAI podría salir de la Unión Europea si la IA se volviera «sobrerregulada».

Si bien la Casa Blanca ha anunciado planes para abordar la IA, no hay indicios de que Estados Unidos tenga planes inminentes para la regulación a gran escala de la industria.

Gary Marcus, uno de los principales críticos de la IA y profesor emérito de psicología y ciencias neuronales en la Universidad de Nueva York, dijo que si bien las amenazas potenciales de la IA son muy reales, es una distracción preocuparse solo por el peor de los casos hipotéticos.

“La extinción literal es solo un riesgo posible, que aún no se comprende por completo, y hay muchos otros riesgos relacionados con la IA que también merecen nuestra atención”, dijo.

Algunos expertos en tecnología han dicho que los usos más mundanos e inmediatos de la IA representan una mayor amenaza para la humanidad. El presidente de Microsoft, Brad Smith, dice que los deepfakes y la posibilidad de que se utilicen para desinformar le pertenecen mayores preocupaciones en tecnología

La semana pasada los mercados sumergido brevemente después de que una imagen falsa, aparentemente generada por IA, de una explosión cerca del Pentágono se volviera viral en Twitter.