Pausar los desarrollos de inteligencia artificial no es suficiente, necesitamos frenarlos por completo. El título con evidente tono de advertencia encabeza un artículo firmado en la revista Time por Eliezer Yudkowsky, responsable del Machine Intelligence Research Institute (MIRI) que estudia los avances en IA hace más de dos décadas.
La referencia de Yudkowsky es a la carta que la semana rubricaron personalidades de la industria tecnológica, entre ellos Elon Musk, exigiendo un parate de seis meses en el desarrollo de los sistemas de IA por los riesgos asociados a esos avances, ahora manifiestos en el despliegue de ChatGPT de OpenAI.
En la petición, el grupo de especialistas instó a establecer una moratoria hasta que se establezcan procedimientos seguros, nuevas autoridades reguladoras, vigilancia de los desarrollos, técnicas que ayuden a distinguir entre lo real y lo artificial, e instituciones capaces de hacer frente a la “dramática perturbación económica y política que causará la IA”.
De acuerdo a Yudkowsky, pausar los desarrollos en el área es un paso necesario, aunque no suficiente.
3 datos sobre Eliezer Yudkowsky
- Nacido en 1979, es reconocido por ser un defensor de la inteligencia artificial amigable.
- Realiza investigaciones en el área desde comienzos de siglo, cuando fundo la organización sin fines de lucro MIRI.
- Además de su foco en los desarrollos y alcances de la IA, es autor de varias obras de ciencia ficción.
Yudkowsky: “No estamos preparados para sobrevivir a una superinteligencia”
En el artículo publicado en Time, el especialista plantea que la carta de los expertos para frenar por seis meses los desarrollos en IA es “demasiado poco” para enfrentar la amenaza que plantean estas tecnologías.
“No podemos calcular por adelantado qué ocurrirá y cuándo, y actualmente parece posible imaginar que un laboratorio de investigación pueda cruzar líneas críticas sin enterarse”, escribió. Según el líder de la organización MIRI, a este ritmo aparecerá un sistema de IA que no haga lo que los humanos deseen y no le importen los seres vivos. “Sería como si el siglo XI intentará batallar contra el siglo XXI”, graficó.
“No estamos preparados. No estamos en el camino de estar significativamente más preparados a corto plazo. Si seguimos así todos moriremos, incluyendo a niños que no eligieron esto y que no hicieron nada malo”, remató Yudkowsky.
El líder de OpenAI, creador de ChatGPT, también lanzó advertencias
“En los últimos meses hemos visto cómo los laboratorios de IA se han lanzado a una carrera descontrolada para desarrollar y desplegar cerebros digitales cada vez más potentes que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera fiable”, se lee en la carta antes mencionada, firmada por Elon Musk y Steve Wozniak, entre otros referentes de la industria.
Sam Altman, director de OpenAI, la organización de la que emerge ChatGPT, reconoció recientemente que tiene “un poco de miedo” de que su creación se utilice para “desinformación a gran escala o ciberataques” y señaló que precisan tiempo para adaptarse. Naturalmente, no apoyó la suspensión de los desarrollos.
Antes, había escrito en un tuit con consideraciones en esa misma dirección: “Habrá momentos aterradores a medida que avancemos (…) y perturbaciones significativas, pero las ventajas pueden ser tan asombrosas que bien merece la pena superar los grandes retos para llegar hasta allí”.
“Tenemos que tener cuidado. Creo que la gente debería estar feliz con el hecho de que estemos un poco aterrorizados con esto”, había comentado Altman en una entrevista con ABC News.
Conforme crecen los encantos y los riesgos vinculados a estos avances, OpenAI promete transitar el camino a paso seguro y con responsabilidad, alineándose con los valores humanos.