El magnate Elon Musk, el cofundador de Apple Steve Wozniak y el historiador Yuval N. Harari destacan entre el millar de firmantes de una carta abierta
El fundador de Apple y otras figuras clave de la industria informática
proponen pausar durante seis meses el entrenamiento de modelos de IA más
potentes que el GPT-4, a la espera de mejores mecanismos de seguridad.
En una carta abierta dirigida a todos los laboratorios de IA,
firmada, entre otros, por el fundador de Apple, Steve Wozniak, el director
general de Stability AI, Emad Mostaque, Elon Musk, Yuval Noah Harari, se hace
un llamamiento a la industria para que frene el desarrollo de modelos de IA.
La carta, redactada por la organización
no gubernamental Future of Life Institute, ha sido firmada al momento de
publicación de este artículo por 1.123 personas. La lista incluye a
personalidades internacionales de la IA como Yoshua Bengio, profesor de la
Universidad de Montreal, y Stuart Russel, profesor y director del Centro de
Sistemas Inteligentes de Berkely, así como a investigadores de numerosos
países.
– “No deberían desarrollarse sistemas de
IA de gran potencia hasta que estemos seguros de que los efectos serán
positivos y de que los riesgos son manejables”, dice la carta.
Después de que OpenAI lanzara su ChatGPT
al público el pasado otoño, muchos han advertido contra posibles usos
perjudiciales, como en la ciberdelincuencia, el phishing y la desinformación.
Aun así, el lanzamiento desencadenó una auténtica carrera armamentística en la
industria. Los gigantes tecnológicos compiten por ser los primeros con los
modelos más potentes.
La tecnología podría provocar cambios
significativos en la historia de la humanidad, argumentan los autores.
– ¿Debemos dejar que las máquinas
inunden nuestros canales de información con propaganda y falsedades? ¿Deberíamos
automatizar todos los trabajos, incluidos los que nos gusta hacer? ¿Deberíamos
desarrollar mentes no humanas que con el tiempo puedan superarnos, ser más
inteligentes que nosotros y hacernos redundantes? ¿Deberíamos arriesgarnos a
perder el control de nuestra civilización?, pregunta retóricamente la carta.
Este tipo de interrogantes no deben
delegarse en líderes no elegidos, afirma el Future and Life Institute.
– “Hemos llegado a un punto en el que
debemos detenernos y obtener una evaluación independiente de hacia dónde nos
dirigimos”, afirman.
– Por lo tanto, instamos a todos los
laboratorios de IA a que suspendan inmediatamente, durante al menos seis meses,
el entrenamiento de sistemas de IA más potentes que el GPT-4. Esta pausa debe
ser pública y verificable e incluir a todas las partes interesadas clave”, dice
la carta. La pausa debe utilizarse para desarrollar y aplicar un conjunto de
mecanismos de seguridad comunes supervisados por expertos independientes. Al
mismo tiempo, los desarrolladores deben colaborar con los políticos y los
burócratas para acelerar el proceso normativo, afirman Wozniak y otros.
Firmantes
hispanohablantes de la petición (al 29.03.2023, 13:25 UTC)
Carles
Sierra, Director
Instituto de Investigación en Inteligencia Artificial, IIIA-CSIC; Presidente de
la Asociación Europea de IA, EurAI., Profesor de Investigación del CSIC, EurAI
Fellow.
Ramón
López De Mantaras,
Instituto de Investigación en Inteligencia Artificial, Profesor de
Investigación, Premio Robert S. Engelmore Memorial de la AAAI, EurAI Fellow,
Premio Nacional de Investigación en Matemáticas del Gobierno de España.
Nayat
Sanchez-Pi, Inria
Chile, CEO, Inria Chile.
Ricardo
Baeza-Yates,
Northeastern University, Director de Investigación, EAI, ACM & IEEE Fellow,
Premios Nacionales en Chile y España
Helena
Matute,
Universidad de Deusto, España, Catedrática de Psicología.
Joan
Manuel del Pozo Alvarez,
España, Prof. de Filosofía, Exministro de Educación y Universidades.
Juan-Antonio
Fernández-Madrigal,
Universidad de Málaga (España), Catedrático de Robótica, Sistemas en Tiempo
Real y Control por Ordenador; investigador en Robótica Cognitiva.