Docenas de expertos en inteligencia artificial (IA), incluidos los directores ejecutivos de OpenAI, Google DeepMind y Anthropic, firmaron recientemente una declaración abierta publicada por el Centro para la Seguridad de la IA (CAIS).
Acabamos de publicar un comunicado:
«Mitigar el riesgo de extinción de la IA debe ser una prioridad mundial, junto con otros riesgos a escala social, como las pandemias y la guerra nuclear».
Los firmantes incluyen Hinton, Bengio, Altman, Hassabis, Song, etc. https://t.co/N9f6hs4bpa
(1/6)
— Dan Hendrycks (@DanHendrycks) 30 de mayo de 2023
La declaración contiene una sola oración:
«Mitigar el riesgo de extinción de la IA debe ser una prioridad mundial, junto con otros riesgos a escala social, como las pandemias y la guerra nuclear».
Los signatarios del documento incluyen un verdadero quién es quién de las luminarias de AI, incluido el “Padrino” de AI, Geoffrey Hinton; Universidad de California, Stuart Russell de Berkeley; y Lex Fridman del Instituto Tecnológico de Massachusetts. El músico Grimes también es signatario, incluido en la categoría de «otras figuras notables».
Relacionado: Músico Grimes dispuesto a ‘compartir el 50% de las regalías’ con música generada por IA
Si bien la declaración puede parecer inocua en la superficie, el mensaje subyacente es algo controvertido en la comunidad de IA.
Un número aparentemente creciente de expertos cree que las tecnologías actuales pueden o conducirán inevitablemente al surgimiento o desarrollo de un sistema de IA capaz de representar una amenaza existencial para la especie humana.
Sus opiniones, sin embargo, son contradichas por un contingente de especialistas con opiniones diametralmente opuestas. Yann LeCun, científico jefe de IA de meta, por ejemplo, ha señalado en varias ocasiones que no cree necesariamente que la IA se volverá incontrolable.
La IA sobrehumana no está ni cerca de la parte superior de la lista de riesgos existenciales.
En gran parte porque aún no existe.
Hasta que tengamos un diseño básico para la IA a nivel canino (y mucho menos a nivel humano), discutir cómo hacerla segura es prematuro. https://t.co/ClkZxfofV9
— Yann LeCun (@ylecun) 30 de mayo de 2023
Para él y otros que no están de acuerdo con la retórica de la “extinción”, como Andrew Ng, cofundador de Google Brain y exjefe científico de Baidu, la IA no es el problema, es la respuesta.
En el otro lado del argumento, expertos como Hinton y el CEO de Conjecture, Connor Leahy, creen que la IA a nivel humano es inevitable y, como tal, el momento de actuar es ahora.
Los jefes de todos los principales laboratorios de IA firmaron esta carta reconociendo explícitamente el riesgo de extinción de AGI.
¡Un increíble paso adelante, felicitaciones a Dan por su increíble trabajo al armar esto y gracias a todos los firmantes por hacer su parte para un futuro mejor! https://t.co/KDkqWvdJcH
—Connor Leahy (@NPCollapse) 30 de mayo de 2023
Sin embargo, no está claro qué acciones piden los firmantes de la declaración. Los directores ejecutivos y/o jefes de IA de casi todas las principales empresas de IA, así como científicos de renombre de todo el mundo académico, se encuentran entre los que firmaron, lo que deja en claro que la intención no es detener el desarrollo de estos sistemas potencialmente peligrosos.
A principios de este mes, el CEO de OpenAI, Sam Altman, uno de los firmantes de la declaración antes mencionada, hizo su primera aparición ante el Congreso durante una audiencia en el Senado para discutir la regulación de la IA. Su testimonio llegó a los titulares después de que pasó la mayor parte instando a los legisladores a regular su industria.
Worldcoin de Altman, un proyecto que combina la criptomoneda y la prueba de personalidad, también apareció recientemente en los medios después de recaudar $ 115 millones en fondos de la Serie C, lo que elevó su financiación total después de tres rondas a $ 240 millones.