La inteligencia artificial (IA) ha evolucionado hacia una fase autónoma
conocida como "agentic", caracterizada por su capacidad de actuar sin
intervención humana, adaptarse a entornos cambiantes y aprender por sí misma.
Este avance tecnológico permite a la IA colaborar con terceros, mejorar
procesos productivos y resolver problemas complejos, lo cual representa un
salto hacia aplicaciones más autónomas y versátiles. Sin embargo, este nuevo
nivel de independencia plantea importantes retos en cuanto a ética, seguridad y
transparencia.
Los expertos en tecnología y ética consultados por EFE enfatizan la
importancia de regular esta evolución, definiendo con claridad lo que se debe y
no se debe hacer. Subrayan que es fundamental establecer un marco de
responsabilidad en el uso de la IA, de modo que su desarrollo esté siempre
alineado con los valores humanos y el progreso social y económico.
Empresas como Nvidia y Accenture han comenzado a posicionarse en esta
"nueva era" tecnológica, uniendo esfuerzos para crear equipos
especializados que implementen la IA agentic en sectores clave. En el ámbito
empresarial, Celonis ha lanzado la herramienta "AgentC", diseñada
para comprender y optimizar el funcionamiento interno de las empresas, una
muestra de cómo estos agentes inteligentes pueden aportar valor en la
eficiencia organizacional.
Juan Ignacio Rouyet, presidente de We The Humans, destacó el potencial
de la IA agentic para tomar decisiones en tiempo real y ejecutar acciones sin
secuencia programada. Sin embargo, advierte sobre la necesidad de poner límites
para evitar que la tecnología actúe de manera descontrolada. Según Rouyet, es
crucial que esta evolución esté acompañada de una supervisión humana constante
para evitar que la IA sobrepase los principios éticos.
Alberto García Arrieta, responsable de Data e IA en Accenture España,
enfatiza que esta nueva IA es una herramienta para potenciar las capacidades
humanas, y no reemplazarlas. Subraya la necesidad de preservar la inteligencia
emocional y la experiencia en la toma de decisiones, asegurando que estos
sistemas estén enmarcados en una regulación que promueva la equidad, la
transparencia y la responsabilidad en su uso.
En un contexto donde la IA agentic puede supervisar pacientes, gestionar
riesgos en tiempo real o incluso actuar como ciberpolicía incansable, el reto
de los desarrolladores es crear algoritmos que rindan cuentas y reflejen
valores humanos. Aunque algunos países podrían optar por enfoques más
permisivos, en Europa ya se promueve una regulación estricta para mantener
siempre una conexión entre el desarrollo de la IA y los principios éticos de la
sociedad.