Geoffrey Hinton fue uno de los pioneros de la inteligencia artificial. En 2012, Hinton y dos de sus estudiantes de posgrado de la Universidad de Toronto crearon una tecnología que se convirtió en la base intelectual de los sistemas de IA que las empresas más grandes del sector tecnológico consideran clave para su futuro.
Sin embargo, el lunes se unió de manera oficial a un creciente coro de críticos que afirman que esas empresas están corriendo hacia el peligro con su agresiva campaña para crear productos basados en la IA generativa, la tecnología que impulsa chatbots populares como ChatGPT.
Hinton contó que había renunciado a su puesto en Google, donde trabajó durante más de una década y se convirtió en una de las voces más respetadas en este campo, a fin de poder hablar libremente sobre los riesgos de la IA. Una parte de él, afirmó, lamenta ahora el trabajo de su vida.
“Me consuelo con la excusa habitual: si yo no lo hubiera hecho, habría sido alguien más”, dijo Hinton durante una larga entrevista la semana pasada en el comedor de su casa de Toronto, a poca distancia del lugar donde él y sus estudiantes hicieron su gran avance.
El paso de Hinton de pionero de la IA a profeta pesimista marca un momento extraordinario para la industria tecnológica, quizá en su punto de inflexión más importante en décadas. Los líderes del sector creen que los sistemas nuevos de IA podrían ser tan importantes como el lanzamiento del navegador web a principios de la década de 1990 y podrían implicar avances en ámbitos que van desde la investigación de fármacos hasta la educación.
Sin embargo, muchas personas del sector temen que estén liberando algo peligroso. La IA generativa ya puede ser una herramienta para la desinformación. Pronto, podría ser un riesgo para el empleo. En algún momento, dicen los más preocupados por la tecnología, podría ser un riesgo para la humanidad.
“Es difícil evitar que los malos la utilicen para cosas malas”, expresó Hinton.
Después de que la empresa emergente OpenAI de San Francisco lanzó una nueva versión de ChatGPT en marzo, más de mil líderes tecnológicos e investigadores firmaron una carta abierta en la que pedían una moratoria de seis meses en el desarrollo de nuevos sistemas porque las tecnologías de IA plantean “profundos riesgos para la sociedad y la humanidad”.
Varios días después, 19 líderes actuales y antiguos de la Asociación para el Avance de la Inteligencia Artificial, una sociedad académica con 40 años de antigüedad, publicaron su propia carta con el fin de advertir sobre los riesgos de la IA. En ese grupo figuraba Eric Horvitz, director científico de Microsoft, la empresa que ha desplegado la tecnología de OpenAI en una amplia gama de productos, incluyendo su motor de búsqueda Bing.
Hinton, a menudo llamado “el padrino de la IA”, no firmó ninguna de esas cartas y dijo que no quería criticar de manera pública a Google o a otras empresas hasta que hubiera dejado su trabajo. El mes pasado notificó a la empresa que dimitía y el jueves habló por teléfono con Sundar Pichai, director ejecutivo de la empresa matriz de Google, Alphabet. Se negó a comentar públicamente los detalles de su conversación con Pichai.
El científico jefe de Google, Jeff Dean, afirmó mediante un comunicado: “Seguimos comprometidos con un enfoque responsable de la IA. Aprendemos continuamente para comprender los riesgos emergentes al tiempo que innovamos con audacia”.
Hinton, británico expatriado de 75 años, es un académico de toda la vida cuya carrera se vio impulsada por convicciones personales sobre el desarrollo y el uso de la IA. En 1972, como estudiante de posgrado en la Universidad de Edimburgo, Hinton adoptó una idea llamada red neuronal. Una red neuronal es un sistema matemático que aprende habilidades analizando datos. En aquella época, pocos investigadores creían en la idea. Pero se convirtió en el trabajo de su vida.
En la década de 1980, Hinton era profesor de informática en la Universidad Carnegie Mellon, pero abandonó esa institución para irse a Canadá porque dijo que era reacio a aceptar financiamiento del Pentágono. En esa época, la mayor parte de la investigación sobre IA en Estados Unidos estaba financiada por el Departamento de Defensa. Hinton se opone de manera profunda al uso de la IA en el campo de batalla, lo que él califica como “soldados robot”.
En 2012, Hinton y dos de sus estudiantes en Toronto, Ilya Sutskever y Alex Krishevsky, construyeron una red neuronal que podía analizar miles de fotografías y enseñarse a identificar objetos comunes, como flores, perros y autos.
Google invirtió 44 millones de dólares para adquirir la empresa creada por Hinton y sus dos estudiantes. Además, su sistema condujo a la creación de tecnologías cada vez más potentes, incluyendo nuevos chatbots como ChatGPT y Google Bard. Sutskever pasó a ser científico jefe de OpenAI. En 2018, Hinton y otros dos antiguos colaboradores recibieron el Premio Turing, a menudo llamado “el Premio Nobel de la informática”, por su trabajo en redes neuronales.
Más o menos al mismo tiempo, Google, OpenAI y otras empresas comenzaron a construir redes neuronales que aprendían de enormes cantidades de texto digital. Hinton pensaba que era una forma muy potente de que las máquinas entendieran y generaran lenguaje, pero inferior a la forma en que lo hacían los humanos.
El año pasado, cuando Google y OpenAI crearon sistemas que utilizaban cantidades mucho más grandes de datos, su perspectiva cambió. Seguía creyendo que los sistemas eran inferiores al cerebro humano en algunos aspectos, pero pensaba que estaban eclipsando la inteligencia humana en otros. “Quizá lo que ocurre en estos sistemas es en realidad mucho mejor que lo que ocurre en el cerebro”, supuso.
A medida que las empresas mejoran sus sistemas de IA, él cree que se vuelven cada vez más peligrosos. “Recordemos cómo era hace cinco años y veamos cómo es ahora”, dijo sobre la tecnología de IA. “Tomemos esa diferencia y pensemos en lo que podría pasar más adelante. Eso da miedo”.
Hasta el año pasado, aseguró, Google actuó como un “supervisor apropiado” de la tecnología, al tener cuidado de no lanzar algo que pudiera generar daños. Pero ahora que Microsoft impulsó su motor de búsqueda Bing con un chatbot —lo que desafía el negocio principal de Google—, Google está compitiendo para implementar el mismo tipo de tecnología. Los gigantes tecnológicos están atrapados en una competencia que podría ser imposible de detener, dijo Hinton.
Su preocupación inmediata es que internet se llenará de fotos, videos y textos falsos, y una persona promedio “ya no podrá saber qué es verdad”.
También le preocupa que, con el tiempo, las tecnologías de la IA revolucionarán el mercado laboral. Hoy en día, los chatbots como ChatGPT tienden a complementar a los trabajadores humanos, pero podrían remplazar a los asistentes legales, asistentes personales, traductores y otras ocupaciones que manejan tareas más cotidianas. “Elimina el trabajo pesado”, dijo. “Pero es posible que nos quite más que eso”.
En los próximos años, le preocupa que las versiones futuras de la tecnología sean una amenaza para la humanidad porque a menudo aprenden un comportamiento inesperado de la gran cantidad de datos que analizan. Esto puede convertirse en un problema, aseguró, si las personas y las empresas permiten que los sistemas de IA no solo generen su propio código de computadora, sino que también lo ejecuten por su cuenta. Y teme el día en que las armas en verdad autónomas —esos robots asesinos— se hagan realidad.
“Algunas personas creían en la idea de que estas cosas realmente podrían volverse más inteligentes que los humanos”, dijo. “Pero la mayoría de la gente pensaba que eso estaba muy lejos de pasar. Y yo pensé que estaba muy lejos. Pensé que faltaban entre 30 y 50 años o incluso más. Obviamente, ya no pienso así”.
Muchos otros expertos, incluidos muchos de sus estudiantes y colegas, dicen que esta amenaza es hipotética. Pero Hinton cree que la competencia entre Google y Microsoft y otras empresas se convertirá en una carrera global que no se detendrá sin algún tipo de regulación a nivel mundial.
Pero eso puede ser imposible, dijo. A diferencia de las armas nucleares, aseguró, no hay forma de saber si las empresas o los países están trabajando en la tecnología en secreto. La mejor esperanza es que los principales científicos del mundo colaboren en formas de controlar la tecnología. “Creo que hasta que hayan entendido si pueden controlarlo, no deben desarrollar más esto”, dijo.
Hinton dijo que, cuando la gente solía preguntarle cómo podía trabajar en una tecnología que posiblemente era peligrosa, parafraseaba a Robert Oppenheimer, que dirigió las iniciativas de Estados Unidos para construir la bomba atómica: “Cuando ves algo que es técnicamente grandioso, sigues adelante y lo llevas a cabo”.