La carta publicada por la organización sin fines de lucro Future of Life Institute y firmada por más de mil personas, entre ellas Musk, piden una pausa en el desarrollo de inteligente artificial avanzada, hasta que desarrollen y apliquen protocolos de seguridad
ESTADOS UNIDOS.- Elon Musk y un grupo de expertos en inteligencia artificial pidieron una pausa de seis meses en el entrenamiento de sistemas más potentes que el recién lanzado GPT.4 de OpenAI, según afirmaron en una carta abierta, en la que aluden a riesgos potenciales para la humanidad.
La carta publicada por la organización sin fines de lucro Future of Life Institute y firmada por más de mil personas, entre ellas Musk, piden una pausa en el desarrollo de inteligente artificial avanzada, hasta que desarrollen y apliquen protocolos de seguridad.
Los potentes sistemas de IA solo deberían desarrollarse cuando estemos seguros de que sus efectos serán positivos y sus riesgos controlables", afirma la carta.
La carta también fue firmada por el director ejecutivo de Stability AI, Emad Mostaque, investigadores de DeepMind, propiedad de Alphabet, así como los pesos pesados de la inteligencia artificial Yoshua Bengio y Sturart Russell.
La carta también detalla los riesgos potenciales para la sociedad y la civilización que presentan los sistemas de IA competitivos con humanos en forma de trastornos económicos y políticos, y pide a los desarrolladores que colaboren con los responsables en materia de gobernanza y autoridades reguladoras.
El documento llega después de que Europol, la fuerza policial de la UE, se uniera el lunes a un coro de entidades que han expresado preocupaciones éticas y legales sobre la IA avanzada como ChatGPT, y advierten sobre el posible uso indebido del sistema en intentos de "phishing", desinformación y ciberdelincuencia. Musk, cuyo fabricante de automóviles Tesla está utilizando la IA para un sistema de piloto automático, ha manifestado abiertamente su preocupación por esta tecnología.
Desde su lanzamiento el año pasado, ChatGPT de OpenAI, respaldada por Microsoft, ha llevado a sus competidores a acelerar el desarrollo de grandes modelos lingüísticos similares y a las empresas a integrar modelos generativos de IA en sus productos.
Sam Altman, director ejecutivo de OpenAI, no ha firmado la carta, según dijo a Reuters un portavoz de Future of Life. OpenAI no respondió inmediatamente a una petición de comentarios enviada por Reuters.
"La carta no es perfecta, pero la intención es la correcta: tenemos que frenar hasta que entendamos mejor las ramificaciones", dijo Gary Marcus, un profesor emérito de la Universidad de Nueva York que firmó la carta.
"Pueden causar graves daños... los grandes actores son cada vez más reservados sobre lo que hacen, lo que dificulta que la sociedad se defienda contra cualquier daño que pueda materializarse", añadió.