La señal fue clara y disruptiva: la inteligencia artificial ya no solo responde, ahora actúa. Este sutil pero profundo cambio de paradigma está transformando el tablero estratégico de las organizaciones. La conversación ya no gira en torno a qué tan inteligente es un chatbot, sino a qué sucede cuando un agente tiene permisos para ejecutar tareas reales en el corazón operativo de una empresa.
Recientemente, el mundo tecnológico observó la meteórica propagación de OpenClaw —inicialmente Clawdbot—, un agente de código abierto que superó decenas de miles de adopciones en apenas días. No fue solo un hito técnico, sino un aviso para la alta dirección: la IA ha salido de la caja de cristal de la “asistencia” para entrar en el terreno de la “ejecución”.
Para el mundo de los negocios, esto no es una anécdota. En muchas grandes organizaciones que experimentan con IA agéntica, los pilotos avanzan con agilidad, pero la integración suele frenarse en seco cuando entran en juego la gobernanza, la seguridad y la trazabilidad. Lo que comienza como curiosidad tecnológica se convierte rápidamente en una pregunta de supervivencia para el comité ejecutivo:
¿Qué ocurre cuando la IA deja de estar al margen del trabajo para integrarse en él?
El paso del “asistente” al “actor”
La diferencia es vital. Mientras que los chatbots tradicionales operan en la periferia resumiendo documentos o respondiendo consultas, los agentes de IA pueden iniciar acciones, actualizar sistemas y activar flujos de trabajo con consecuencias operativas reales. Gartner predice que para 2026, el 40 % de las aplicaciones empresariales incluirán agentes específicos, un salto masivo desde el escaso 5 % que vemos hoy.
Sin embargo, lo que parece sencillo en una demostración es complejo en la práctica. Casos como OpenClaw han dejado en evidencia que introducir agentes con autonomía en entornos con sistemas heredados y marcos regulatorios estrictos abre nuevos riesgos de ciberseguridad. Los accesos se amplían, las credenciales se reutilizan entre sistemas y aumenta la superficie para fraude, uso indebido de datos y acciones no autorizadas. En este contexto, los límites de seguridad y los derechos de decisión se tornan ambiguos cuando los resultados emergen de una colaboración híbrida entre humanos y máquinas.
Economía y talento: El reto del liderazgo
La lógica económica sigue siendo poderosa. El World Economic Forum estima que la adopción de IA en América Latina podría elevar la productividad anual hasta en un 2,3 %. No obstante, esta promesa choca con una realidad presupuestaria tensa: el consumo de IA generativa es variable y, a menudo, imprevisible. Según Bain & Company, los presupuestos de IA ya promedian los USD10M anuales, duplicándose en apenas doce meses.
El mayor impacto, sin embargo, se siente en el diseño organizativo.
A medida que los agentes asumen la ejecución, los roles humanos se desplazan hacia la supervisión y el juicio. No es un problema tecnológico, es un reto de liderazgo. El 63 % de los empleadores identifica la brecha de habilidades como la principal barrera para esta transformación de cara al 2030.
Cinco preguntas para la Alta Dirección
Antes de escalar, los líderes deben confrontar cinco interrogantes críticas:
-
Valor: ¿En qué procesos centrales pueden los agentes de IA generar impacto medible sin comprometer la seguridad, la continuidad operativa ni el cumplimiento regulatorio?
-
Responsabilidad: Cuando un sistema de IA actúa de forma autónoma, ¿quién es responsable de las decisiones, los accesos y los incidentes de seguridad que puedan producirse?
-
Integridad: ¿Nuestra infraestructura de tecnología, datos e identidad es lo suficientemente sólida para controlar accesos y detectar comportamientos anómalos a medida que aumenta la autonomía?
-
Escalabilidad: A medida que el uso se amplía, ¿cómo evolucionan no solo los costes de IA, sino también los costes de ciberseguridad, monitoreo, y respuesta a incidentes?
-
Talento y modelo operativo: ¿Estamos preparados para dirigir una fuerza laboral híbrida de personas y agentes de IA con responsabilidades claras en seguridad y gobierno?
El paso hacia la IA como colaborador ya no es teórico, avanza a velocidad exponencial.
Quien decida postergar esta conversación estratégica podría descubrir, demasiado tarde, que los agentes de IA ya llegaron a su organización sin pedir permiso.
Marcelo De Santis es consultor aliado en C-Suite Technology de Orange Group y asesor estratégico en transformación con IA y liderazgo. Es autor y conferencista, CEO de The Ascent y creador de The Tech Series, una plataforma de conversaciones con líderes que exploran cómo la innovación se conecta con lo humano.
Referencias
-
Gartner. (2025, 26 de agosto). Gartner predicts 40% of enterprise apps will feature task-specific AI agents by 2026, https://www.gartner.com/en/newsroom/press-releases/2025-08-26-gartner-predicts-40-percent-of-enterprise-apps-will-feature-task-specific-ai-agents-by-2026-up-from-less-than-5-percent-in-2025
-
Bain & Company. (2025). Survey: Generative AI’s uptake is unprecedented despite roadblocks, https://www.bain.com/insights/survey-generative-ai-uptake-is-unprecedented-despite-roadblocks/
-
World Economic Forum. (2026, January 20). Latin America lags in unlocking AI value. Here’s a roadmap to accelerate progress, https://www.weforum.org/stories/2026/01/latin-america-lags-unlocking-ai-value-roadmap-accelerate-progress/
-
World Economic Forum. (2025, 7 de enero). The Future of Jobs Report 2025 (digest): Skill gaps as barrier to transformation, https://www.weforum.org/publications/the-future-of-jobs-report-2025/digest/
-
TechCrunch. (2026, 27 de enero). Everything you need to know about viral personal AI assistant Clawdbot, now Moltbot, https://techcrunch.com/2026/01/27/everything-you-need-to-know-about-viral-personal-ai-assistant-clawdbot-now-moltbot/
La señal fue clara y disruptiva: la inteligencia artificial ya no solo responde, ahora actúa. Este sutil pero profundo cambio de paradigma está transformando el tablero estratégico de las organizaciones. La conversación ya no gira en torno a qué tan inteligente es un chatbot, sino a qué sucede cuando un agente tiene permisos para ejecutar tareas reales en el corazón operativo de una empresa.
Recientemente, el mundo tecnológico observó la meteórica propagación de OpenClaw —inicialmente Clawdbot—, un agente de código abierto que superó decenas de miles de adopciones en apenas días. No fue solo un hito técnico, sino un aviso para la alta dirección: la IA ha salido de la caja de cristal de la “asistencia” para entrar en el terreno de la “ejecución”.
Para el mundo de los negocios, esto no es una anécdota. En muchas grandes organizaciones que experimentan con IA agéntica, los pilotos avanzan con agilidad, pero la integración suele frenarse en seco cuando entran en juego la gobernanza, la seguridad y la trazabilidad. Lo que comienza como curiosidad tecnológica se convierte rápidamente en una pregunta de supervivencia para el comité ejecutivo:
¿Qué ocurre cuando la IA deja de estar al margen del trabajo para integrarse en él?
El paso del “asistente” al “actor”
La diferencia es vital. Mientras que los chatbots tradicionales operan en la periferia resumiendo documentos o respondiendo consultas, los agentes de IA pueden iniciar acciones, actualizar sistemas y activar flujos de trabajo con consecuencias operativas reales. Gartner predice que para 2026, el 40 % de las aplicaciones empresariales incluirán agentes específicos, un salto masivo desde el escaso 5 % que vemos hoy.
Sin embargo, lo que parece sencillo en una demostración es complejo en la práctica. Casos como OpenClaw han dejado en evidencia que introducir agentes con autonomía en entornos con sistemas heredados y marcos regulatorios estrictos abre nuevos riesgos de ciberseguridad. Los accesos se amplían, las credenciales se reutilizan entre sistemas y aumenta la superficie para fraude, uso indebido de datos y acciones no autorizadas. En este contexto, los límites de seguridad y los derechos de decisión se tornan ambiguos cuando los resultados emergen de una colaboración híbrida entre humanos y máquinas.
Economía y talento: El reto del liderazgo
La lógica económica sigue siendo poderosa. El World Economic Forum estima que la adopción de IA en América Latina podría elevar la productividad anual hasta en un 2,3 %. No obstante, esta promesa choca con una realidad presupuestaria tensa: el consumo de IA generativa es variable y, a menudo, imprevisible. Según Bain & Company, los presupuestos de IA ya promedian los USD10M anuales, duplicándose en apenas doce meses.
El mayor impacto, sin embargo, se siente en el diseño organizativo.
A medida que los agentes asumen la ejecución, los roles humanos se desplazan hacia la supervisión y el juicio. No es un problema tecnológico, es un reto de liderazgo. El 63 % de los empleadores identifica la brecha de habilidades como la principal barrera para esta transformación de cara al 2030.
Cinco preguntas para la Alta Dirección
Antes de escalar, los líderes deben confrontar cinco interrogantes críticas:
-
Valor: ¿En qué procesos centrales pueden los agentes de IA generar impacto medible sin comprometer la seguridad, la continuidad operativa ni el cumplimiento regulatorio?
-
Responsabilidad: Cuando un sistema de IA actúa de forma autónoma, ¿quién es responsable de las decisiones, los accesos y los incidentes de seguridad que puedan producirse?
-
Integridad: ¿Nuestra infraestructura de tecnología, datos e identidad es lo suficientemente sólida para controlar accesos y detectar comportamientos anómalos a medida que aumenta la autonomía?
-
Escalabilidad: A medida que el uso se amplía, ¿cómo evolucionan no solo los costes de IA, sino también los costes de ciberseguridad, monitoreo, y respuesta a incidentes?
-
Talento y modelo operativo: ¿Estamos preparados para dirigir una fuerza laboral híbrida de personas y agentes de IA con responsabilidades claras en seguridad y gobierno?
El paso hacia la IA como colaborador ya no es teórico, avanza a velocidad exponencial.
Quien decida postergar esta conversación estratégica podría descubrir, demasiado tarde, que los agentes de IA ya llegaron a su organización sin pedir permiso.
Marcelo De Santis es consultor aliado en C-Suite Technology de Orange Group y asesor estratégico en transformación con IA y liderazgo. Es autor y conferencista, CEO de The Ascent y creador de The Tech Series, una plataforma de conversaciones con líderes que exploran cómo la innovación se conecta con lo humano.
Referencias
-
Gartner. (2025, 26 de agosto). Gartner predicts 40% of enterprise apps will feature task-specific AI agents by 2026, https://www.gartner.com/en/newsroom/press-releases/2025-08-26-gartner-predicts-40-percent-of-enterprise-apps-will-feature-task-specific-ai-agents-by-2026-up-from-less-than-5-percent-in-2025
-
Bain & Company. (2025). Survey: Generative AI’s uptake is unprecedented despite roadblocks, https://www.bain.com/insights/survey-generative-ai-uptake-is-unprecedented-despite-roadblocks/
-
World Economic Forum. (2026, January 20). Latin America lags in unlocking AI value. Here’s a roadmap to accelerate progress, https://www.weforum.org/stories/2026/01/latin-america-lags-unlocking-ai-value-roadmap-accelerate-progress/
-
World Economic Forum. (2025, 7 de enero). The Future of Jobs Report 2025 (digest): Skill gaps as barrier to transformation, https://www.weforum.org/publications/the-future-of-jobs-report-2025/digest/
-
TechCrunch. (2026, 27 de enero). Everything you need to know about viral personal AI assistant Clawdbot, now Moltbot, https://techcrunch.com/2026/01/27/everything-you-need-to-know-about-viral-personal-ai-assistant-clawdbot-now-moltbot/