En una carta publicada en el sitio futureoflife.org, Elon Musk y cientos de expertos mundiales, firmaron el miércoles un llamado a hacer una pausa de mínimo 6 meses en la investigación sobre inteligencia artificial (IA) que fueran más potentes que ChatGPT 4, el modelo de OpenAI que fue lanzado este mes.
Su advertencia se debe a lo que llamaron "grandes riesgos para la humanidad", y por eso piden una 'moratoria' hasta que se establezcan sistemas de seguridad con nuevas autoridades reguladoras.
Paradójicamente Elon Musk, quien generalmente brega para que el estado no se involucre en "temas entre privados", esta vez se sumó con su firma a un documento que reclama la urgente injerencia de los gobiernos para regular el método de entrenamiento de la Inteligencia Artificial, a riesgo de producir lo que llaman el "efecto caja negra", es decir avanzar sobre un modelo de desarrollo de un final desconocido para la humanidad tal y como hoy existe sobre la faz de la tierra.
La carta la firman además del dueño de Twitter, Space X, y Tesla, Elon Musk, otras personalidades que expresaron sus temores sobre una IA incontrolable que supere a los humanos, entre los que se hallan el historiador Yuval Noah Hariri, directivos de Microsoft y Google, justamente dos de las empresas que están involucradas en esta creación.
'Teslarati" es una empresa de medios multiplataforma con sede en California y una editorial de noticias de Tesla, SpaceX y contenido de compañías afiliadas a Elon Musk. Alli se publicó también la carta que pide frenar por 6 meses el desarrollo de la Inteligencia Artificial
La pregunta que fluye instantáneamente es:
¿Realmente quieren detener el avance del desarrollo por 6 meses porque la humanidad está en riesgo, o es quizás que no quieren competencia nueva en este (potencialmente) multimillonario mercado emergente?
¿Se parece en algo a la carrera armamentista y la aprobación internacional de poseer armas nucleares para ciertos países, y condenarla para otros?
"UN POCO DE MIEDO"
El director de Open AI, que diseñó ChatGPT, Sam Altman, ha reconocido tener “un poco de miedo” de que su creación se utilice para “desinformación a gran escala o ciberataques”. Y recientemente, Altman declaró en ABCNews: “La empresa necesita tiempo para adaptarse”.
“En los últimos meses hemos visto cómo los laboratorios de IA se han lanzado a una carrera descontrolada para desarrollar y desplegar cerebros digitales cada vez más potentes que nadie, ni siquiera sus creadores, pueden entender, predecir o controlar de manera fiable”, afirman los expertos.
“¿Debemos permitir a las máquinas inundar nuestros canales de información con propaganda y mentiras? ¿Debemos automatizar todos los trabajos, incluidos los gratificantes? (...) ¿Debemos arriesgarnos a perder el control de nuestra civilización? Estas decisiones no deben delegarse en líderes tecnológicos no electos”, concluyeron.