Jean
Palou Egoaguirre Mercurio | Chile | GDA
Todo este artículo
periodístico podría haber sido redactado en apenas unos segundos por una
inteligencia artificial (IA). Incluso la ilustración que lo acompaña pudo haber
sido creada autónomamente por una herramienta digital que, en base a algoritmos
y a una enorme base de datos, interpretó —e incluso aplicó cierto criterio
artístico— las instrucciones de un usuario humano. O no. (Le damos la garantía
de tanto el artículo como la ilustración son creaciones humanas).
La rápida y sorprendente consolidación este 2023 de
ChatGPT (siglas en inglés de Chat Generative Pre-Trained Transformer), una
plataforma de IA desarrollada por OpenIA, así como la irrupción de otras IA
generativas como DALL-E, Bard, AlphaCode o Midjourney, por nombrar solo
algunas, han difuminado de cierto modo las barreras entre el factor humano y
las máquinas. Se podrá debatir en términos filosóficos qué significa eso, pero
en la práctica se ha instalado la idea de que la evolución de la tecnología
computacional ha llegado este año a un punto de no retorno, en el que muchas de
las tareas que hasta ahora eran exclusivas del hombre —como aquellas que
implicaban la creatividad o la reflexión— ya las pueden ejecutar sistemas
informáticos cada vez más desarrollados.
Se trata de una revolución imparable, que recién está
dando sus primeros pasos firmes luego de años de investigación en machine
learning. Un hito clave ha sido ChatGPT, que en apenas unas semanas desde su
lanzamiento se convirtió en la aplicación de internet de más rápida adopción,
con más de 100 millones de usuarios semanales, una cifra que Facebook solo alcanzó
después de cuatro años. El modelo de lenguaje ha demostrado en sus distintas
versiones una impresionante fluidez y naturalidad en las conversaciones,
responde a preguntas de casi cualquier tema —compitiendo con Google, el gran
titán de la web—, resume libros completos en apenas unos caracteres, traduce y
transcribe con precisión. También escribe poemas o redacta prosa con el estilo
de grandes autores de la literatura, inventa chistes, da indicaciones médicas,
resuelve problemas matemáticos complejos, escribe códigos de programación e
incluso se atreve a dar consejos amorosos.
Sus múltiples usos han transformado en tiempo récord
áreas como la educación, que enfrenta el desafío de detectar los ensayos de
estudiantes redactados por IA. En la industria editorial, hoy ya se encuentran
en Amazon varios libros con la autoría o coautoría de ChatGPT. Y por supuesto,
ha generado múltiples polémicas, como el caso de un juez que utilizó el
criterio del chatbot para dictar un fallo judicial, el congresista que le
encargó un discurso político o el de personas que le han pedido ayuda para
realizar hackeos o traficar drogas, lo que ha obligado a reforzar la llamada
“matriz ética” del sistema.
Un
“trabajo en progreso”
El lanzamiento de
ChatGPT, además, ha acelerado la carrera por la inteligencia artificial, con
actores como Google, Meta y Apple que no quieren perder el paso, y ha superado
con creces el momentum de otras tecnologías “de futuro”, como el metaverso o
las criptomonedas, que no se sabe si finalmente despegarán. Y con un impacto
potencial que, sostienen los expertos, podría marcar un cambio de era.
“Su impacto actual no es ni de lejos el que tuvo la
imprenta o internet, pero la IA terminará siendo mucho más impactante. En ese
sentido sí, es bueno pensar en ChatGPT como un hito en esta autopista: muestra
lo lejos que hemos llegado, pero no es el destino final”, dice el filósofo y
experto en IA Nick Bostrom, director del Oxford Future of Humanity Institute.
Esa misma idea de que recién se trata de un “trabajo en
progreso” la comparte Sam Altman, presidente ejecutivo de OpenIA y uno de los
principales impulsores del proyecto ChatGPT. “Es increíblemente limitado, pero
lo suficientemente bueno en ciertas cosas como para crear una impresión
engañosa de grandeza. En estos momentos es un error confiar en él para algo
importante. Se trata de una vista previa del progreso. Tenemos mucho trabajo
por delante”, dijo sobre su producto estrella.
Genio precoz, como varios
techie de Silicon Valley que como él ya desarmaban sus Mac a los 8 años y luego
abandonaban Stanford para lanzar sus propios emprendimientos tecnológicos,
Altman se ha convertido a sus 38 años en el rostro más visible de la revolución
IA. Su exitosa carrera al mando de Y Combinator, una influyente incubadora de
startups que invirtió en innovaciones como Airbnb y DropBox, le dio el
prestigio y los contactos para ir más lejos.
Junto a Elon Musk —quien luego rompió lazos y se
saldría de la compañía— e inversionistas como Peter Thiel, impulsor de PayPal y
Facebook, en 2015 cofundó OpenIA, pero pensada como un laboratorio científico
sin fines de lucro y la misión de “hacer avanzar la inteligencia digital de la
manera que tenga más probabilidades de beneficiar a la humanidad en su
conjunto”. Actualmente la firma tiene el fuerte apoyo económico de Microsoft,
que este año invirtió unos US$ 10.000 millones, y su valor de mercado se estima
en unos US$ 80.000 millones, pero el propio CEO sigue sin cobrar un peso.
¿Jobs
u Oppenheimer?
La visión rupturista de
Altman es comparada a menudo con la de Bill Gates y con la de Steve Jobs. Pero
él —quien suele hablar de la posibilidad real del Apocalipsis, e incluso tiene
un búnker de sobrevivencia en su rancho en California— prefiere emparentar su
trabajo en inteligencia artificial con el Proyecto Manhattan, que dirigió el
científico Robert Oppenheimer para fabricar la primera bomba atómica. Como el
propio empresario recuerda, ambos nacieron el mismo día. Y sus avances tienen
el potencial de cambiar el mundo, tanto para bien como para mal: “O
esclavizamos a la inteligencia artificial o nos esclavizará a nosotros”, ha
advertido, en tono profético.
Altman no esconde los
peligros de la IA. En una audiencia en el Capitolio, destacó que si bien podría
resolver “los mayores desafíos de la humanidad, como el cambio climático y la
cura del cáncer”, también puede ir en sentido contrario: “Creo que si esta
tecnología va mal, puede ir muy mal, y queremos ser claros en eso”, dijo ante
la audiencia, donde no se mostró a la defensiva —como otros líderes de firmas
tecnológicas o redes sociales— y planteó la necesidad de plantear regulaciones
en su desarrollo a nivel global, tal como se hizo en el pasado con “las armas
nucleares”. También ha defendido una introducción progresiva de la tecnología,
al reconocer que, en cuestiones como la masiva eliminación de empleos o su
posible uso militar, “la IA remodelará la sociedad tal como la conocemos”.
La
frontera está a la vista
El rol de Altman, sin
embargo, es materia de debate, especialmente después de que en noviembre la
junta de OpenIA lo removiera del cargo de director ejecutivo, argumentando que
“no fue consistentemente sincero en sus comunicaciones”. En medio de
especulaciones —se habló de un riesgoso proyecto secreto que fue más allá de lo
permitido—, y luego de una amenaza de renuncia masiva de gran parte de su
equipo, entre ellos otro cofundador de la compañía, Greg Brockman, fue
restituido en su puesto solo unos días después.
“La contribución de Altman a la IA no es tecnológica, per se. La tecnología central detrás de ChatGPT —el modelo transformador— fue desarrollado por Google en 2017. La principal contribución de Altman ha sido la ejecución. Su postura por una innovación de productos rápida y continua hizo que OpenAI pasara de ser un laboratorio de investigación a una empresa de tecnología de consumo. Por eso también es controvertido.
La ética de ‘moverse rápido y romper cosas’ en
Silicon Valley es noble, pero podría decirse que es inapropiada en el contexto
de la misión de OpenAI de construir Inteligencia Artificial General”, explica
Samuel Hammond, experto de la Foundation for American Innovation, al advertir
sobre los riesgos de avanzar desde la llamada Inteligencia artificial estrecha
(Artificial Narrow Intelligence, ANI), en la que los sistemas realizan
operaciones repetitivas programadas por sus creados, a la Inteligencia
Artificial General (Artificial General Intelligence, AGI), cuando las máquinas
adquieren capacidades cognitivas humanas. “Con AGI, lanzar un producto mínimo
viable podría resultar inseguro. Es el tipo de tecnología que tal vez solo
tengamos una oportunidad de hacer bien: la primera vez”, señala.
Nick Bostrom coincide que
los avances de ChatGPT han ido acelerando esta carrera, y que la frontera está
ahora a la vista: “Desde el comienzo de la revolución del aprendizaje profundo,
alrededor de 2012 o 2014, el desarrollo de la IA ha sido muy rápido. Ahora
estamos en un punto en el que ya no podemos descartar que tengamos AGI dentro
de unos años. Eso no significa que sucederá dentro de este plazo, pero no
estamos en condiciones de estar seguros de que no sucederá. Es posible que solo
estemos a un buen truco de eso, o posiblemente a una mayor ampliación de las
arquitecturas del modelo actual”, afirma.
“Los grandes modelos de
lenguaje muestran las primeras chispas de inteligencia general, pero son solo
un paso intermedio en el camino hacia una verdadera AGI: un sistema que puede
igualar o superar la inteligencia humana en cualquier tarea. La llegada de la
AGI será tan importante como la imprenta, si no mucho más. También llegará
antes de lo que muchos esperan: probablemente en esta década. Pronto podría
seguir la superinteligencia”, considera Hammond, al hablar de la siguiente
etapa de desarrollo: la Artificial Superintelligence (ASI), el punto en el que
la inteligencia sintética supere a la humana, lo que muchos expertos —entre
ellos el fallecido físico Stephen Hawking— temen podría representar una amenaza
para nuestra propia existencia. “De ahora en adelante, cada año implicará
muchos hitos dramáticos, pero en retrospectiva, todo encajará en una tendencia
exponencial. Como punto de inflexión tecnológica, esta puede ser la década o
las dos décadas más importantes de la historia de la humanidad”.