Martes técnico:Por qué la orquestación es clave para una implementación eficaz de agentes de IA
¿Nuevo en la orquestación agente? Empieza aquí .
Seamos realistas:los agentes de IA no son fáciles de crear ni implementar. Pero una vez integrados, el impacto es increíble. Me encanta escuchar a clientes de UiPath como Ainara Etxeandia Sagasti, jefa de servicios digitales de Lantik, que "combina RPA, IA generativa y tecnología agente [para hacer] que los servicios públicos sean más accesibles, eficientes y centrados en los ciudadanos que nunca". Ya se han creado más de 10.000 agentes de IA en UiPath Platform™. Los agentes pueden transformar la eficiencia y la rentabilidad de los procesos, pero necesitan una fuerte orquestación y ayuda de la automatización y de los humanos involucrados.
En esta publicación de blog, cubriré los puntos débiles más comunes al crear, probar o implementar agentes de IA a escala. También explicaré cómo un enfoque orquestado, basado en una agencia controlada y la interoperabilidad, puede mitigarlos.
1. Rendimiento y confiabilidad de los agentes
Los desarrolladores y usuarios frecuentemente citan la falta de confiabilidad de los agentes de IA como una barrera para la producción. Los modelos de lenguajes grandes (LLM) hacen que los agentes sean flexibles y adaptables, pero esto también genera resultados inconsistentes. Esto puede frustrar el desarrollo y las pruebas. Como lo expresó un ingeniero:"Mis agentes a veces funcionan perfectamente y luego fallan por completo en entradas similares. Necesitamos mejores formas de simular casos extremos y reproducir fallas de manera consistente... monitorear la "desviación" del agente a lo largo del tiempo es un verdadero dolor de cabeza".
Otro desafío son las alucinaciones (agentes que inventan hechos o información de herramientas) que pueden detener los procesos. Un usuario que crea flujos de trabajo de IA compartió:"Los mayores puntos débiles que encontramos son la repetibilidad y las alucinaciones... asegurando que para consultas iguales o similares los agentes de LLM no se descarrilen y alucinen entradas a otras herramientas". Esta imprevisibilidad necesita pruebas y validaciones exhaustivas, pero las herramientas de prueba de agentes aún no están maduras. Cuando se producen errores, puede ser difícil diagnosticarlos debido al razonamiento opaco del modelo. Esto hace que los equipos sean extremadamente cautelosos con los cambios:"Somos muy cautelosos con los cambios del sistema en este momento porque nos ha quemado al decirle al agente que no haga algo y luego comienza a comportarse de manera extraña... tantas veces".
El rendimiento de los modelos de IA subyacentes es otro problema. Los modelos grandes pueden consumir muchos recursos o ser lentos, mientras que los modelos más pequeños pueden no funcionar tan bien. Encontrar el equilibrio adecuado es un desafío.
La falta de resultados consistentes y confiables hace que sea difícil confiar a los agentes de IA tareas de misión crítica o de cara al cliente sin amplias salvaguardias. En la práctica, lograr una alta confiabilidad a menudo requiere simplificar el comportamiento de los agentes, introducir restricciones estrictas o recurrir a alternativas (como la intervención humana constante). Sin embargo, estas medidas tienden a comprometer la autonomía, la eficiencia y, por tanto, la utilidad de los agentes en escenarios empresariales de valor añadido.
2. Agencia controlada y ser humano al tanto
Si bien los agentes de IA pueden automatizar tareas complejas, los desarrolladores consideran que la supervisión y la colaboración humanas son esenciales, y lograr el equilibrio adecuado es difícil. La autonomía total a menudo no es práctica porque los agentes pueden cometer errores o tomar decisiones poco claras. Las empresas necesitan controlar el grado de agencia, que puede aumentar con el tiempo a medida que los agentes se vuelven más precisos y confiables.
Un enfoque común es mantener a un "humano informado" para ciertas aprobaciones o para manejar casos extremos, pero esto puede ralentizar los procesos si no está bien orquestado. Luego, se llama a un “humano informado” para ciertas aprobaciones, decisiones críticas y para manejar excepciones. Un ingeniero de inteligencia artificial señaló que restringir a los agentes e involucrar a los humanos conduce a mejores resultados:“Los LLM fuertemente restringidos y con supervisión humana pueden lograr buenos resultados para tareas de complejidad media… Agentes [completamente] autónomos y de propósito general [a escala]” aún no son realistas.
Por otro lado, si la IA está demasiado controlada o requiere una verificación constante, no genera retorno de la inversión. A veces, un agente puede interrumpir los flujos de trabajo o generar más esfuerzo del que ahorra. Por ejemplo, un desarrollador explicó cómo codificar Copilot interrumpió la productividad al forzar correcciones manuales:"Empieza algo pero no logra terminarlo... Tengo que desviar mi atención para verificar y cerrar las etiquetas, paréntesis, etc. Interrumpe mi flujo y me ralentiza".
El desafío es diseñar flujos de trabajo híbridos en los que los agentes se encarguen del trabajo pero lo traspasen sin problemas a los humanos para que tomen decisiones, sin crear fricciones adicionales.
3. Preocupaciones sobre costos y retorno de la inversión
El retorno de la inversión de los agentes de IA es una preocupación recurrente, especialmente a medida que aumenta el uso. Las API de modelos de lenguaje grandes (y la infraestructura para ejecutarlas) pueden resultar costosas. Los equipos se preocupan por los aumentos de costos si los agentes no están optimizados. Un usuario afirmó que los agentes actuales son “demasiado caros” para lo que logran. El retorno de la inversión puede ser difícil de medir cuando la confiabilidad es baja. Si un agente solo tiene éxito una parte del tiempo, el costo de sus fallas (y las correcciones manuales) puede superar los beneficios.
Las empresas están intentando controlar los costos mediante métodos como optimizaciones de modelos y políticas de uso. Un usuario describió la implementación del almacenamiento en caché para reducir las llamadas repetidas y la obtención cuidadosa de datos de alta calidad para mejorar la eficiencia de la producción. Otros se centran en elegir el modelo adecuado para el trabajo:"Me encantaría un marco donde pudiera tener mi mensaje... ejecutarlo en todos los modelos diferentes, [y] encontrar el mejor y el más barato. En este momento mi agente de IA utiliza más de 200 plantillas de mensaje, y probarlas y volver a probarlas todas es costoso". En última instancia, la ingeniería rápida y la experimentación con modelos generan costos reales.
Los modelos de precios de los proveedores (por token, por llamada, etc.) también influyen. Por ejemplo, usar GPT-4 para todo puede ser excesivo, pero usar un modelo más barato podría reducir la calidad. Los equipos deben lograr un equilibrio para justificar el retorno de la inversión. Además, la gerencia podría cuestionar el valor comercial de los proyectos de agentes si requieren un gasto continuo significativo en servicios de inteligencia artificial en la nube o infraestructura especializada. Sin beneficios claros (ya sea en términos de aumento de ingresos o ahorro de costos gracias a la automatización), la inversión puede ser difícil de defender. Por lo tanto, la optimización de costos y la demostración del retorno de la inversión son una prioridad:los equipos quieren "obtener el mejor rendimiento por mi inversión" con agentes de IA mezclando y combinando modelos mientras se centran en casos de uso de alto valor.
4. Preocupaciones sobre gobernanza, seguridad y privacidad
Las organizaciones deben hacer cumplir las pautas éticas, de seguridad y de cumplimiento de los agentes de IA, pero es más fácil decirlo que hacerlo. La privacidad de los datos es una de las principales preocupaciones:muchas empresas prohíben o restringen los servicios de inteligencia artificial en la nube hasta que estén seguras de que no se filtrarán datos confidenciales. Un desarrollador compartió que su lugar de trabajo prohíbe herramientas como ChatGPT debido a riesgos de propiedad intelectual:"No. Se considera un riesgo demasiado grande para la propiedad intelectual, [por temor] a que pueda filtrar nuestros secretos o violar los derechos de autor de otra persona". Cuando utilizan API de IA de terceros, los profesionales se preocupan de que los datos de los clientes se envíen inadvertidamente a esos servicios.
La seguridad es otra cuestión:los agentes autónomos plantean un riesgo si no se protegen adecuadamente. Hay informes de equipos que agregan protecciones adicionales a las plataformas de agentes; por ejemplo, "tuvimos que agregar [una] capa de seguridad encima... [y] usar el almacenamiento en caché (Redis) para optimizar costos" al implementar un agente de generación de leads. Las soluciones listas para usar a menudo carecen de controles de seguridad o gestión de costos de nivel empresarial, y las empresas deben reforzar su propia gobernanza. Además, garantizar que los agentes cumplan con las regulaciones (GDPR, HIPAA, etc.) y sigan las políticas organizacionales es difícil si los marcos de los agentes no brindan mecanismos para la supervisión.
Estas preocupaciones hacen que las partes interesadas sean cautelosas:quieren que los agentes de IA sean poderosos, pero transparentes y controlados “con protocolos neutrales y universalmente aceptados en lugar de sistemas propietarios” que oculten cómo se utilizan los datos. En resumen, sin funciones de gobernanza sólidas (registros de auditoría, controles de permisos, anulación humana, etc.), muchas organizaciones se topan con un muro en la implementación más amplia de agentes.
5. Dificultades de implementación y escalamiento
Pasar un agente de IA de la prueba de concepto a la producción puede presentar una serie de problemas. Los usuarios informan que lo que funciona en una demostración controlada a menudo tiene problemas con la escala, el volumen y la complejidad del mundo real. Las preocupaciones comunes incluyen la latencia y el rendimiento (los agentes impulsados por LLM pueden ser demasiado lentos para aplicaciones de mucho tráfico o en tiempo real) y la sobrecarga operativa que implica ejecutar el sistema de manera confiable. Como lo expresó Adrian Krebs, cofundador y director ejecutivo de Kadoa:"No importa si estás usando [un] marco de orquestación si el problema subyacente es que los agentes de IA [son] demasiado lentos, demasiado caros y demasiado poco confiables". Los equipos a menudo necesitan rediseñar para lograr eficiencia (usando almacenamiento en caché, intercambiando modelos o simplificando la lógica del agente) solo para cumplir con los requisitos de rendimiento.
También existe el desafío de implementar en todos los entornos (nube, local, dispositivos perimetrales) manteniendo la coherencia. En entornos empresariales, no todos los departamentos querrán utilizar las mismas herramientas, lo que dificulta la implementación estandarizada. Las cuestiones de escalamiento operativo, como el monitoreo, el registro y la actualización de agentes en el campo, también están poco desarrolladas. Un usuario de Reddit señaló que incluso la depuración básica puede ser "una pesadilla... los registros de errores suelen ser crípticos y no tienen una guía clara para la solución de problemas". Esto sólo se vuelve más difícil cuando se despliegan muchos agentes. Todo esto puede ralentizar la adopción de agentes. Incluso los principales proveedores han admitido que los clientes “recién están comenzando” y que todavía están surgiendo resultados significativos a escala.
6. Complejidades de la orquestación multiagente
Crear sistemas en los que colaboren varios agentes de IA es complicado. Los desarrolladores luchan por coordinar las funciones de los agentes, gestionar el estado compartido y evitar que los agentes se queden atrapados en bucles o entren en conflicto entre sí. Incluso con marcos de orquestación, un paso en falso en la producción de un agente puede descarrilar todo un flujo de trabajo. Como afirmó un desarrollador:"La gente simplemente está experimentando. La falta de confiabilidad sigue siendo un problema importante:cualquier descarrilamiento en el proceso de generación autorregresivo puede ser fatal para un agente". Otros enfatizan la dificultad de crear flujos de trabajo resilientes o de autocuración; por ejemplo, agregar lógica para reintentar pasos fallidos o intervención humana.
Estos desafíos de orquestación significan que los equipos a menudo terminan solucionando un problema solo para que aparezcan otros:"A veces incluso se siente como golpear a un topo. Soluciona un problema con un poco de ingeniería rápida y luego crea tres más".
7. Desafíos de compatibilidad e integración de modelos
Ningún agente de IA domina el mercado por sí solo. Las organizaciones pueden usar OpenAI un día, cambiar a un modelo de código abierto al día siguiente e integrar varias herramientas de terceros. Pero la compatibilidad y la integración fluida son un desafío importante. La integración de herramientas y modelos a menudo requiere adaptadores personalizados o código de pegamento. Por ejemplo, conectar un agente a una base de datos propietaria o a una API interna puede implicar un esfuerzo significativo si el marco no se diseñó teniendo eso en mente. Los desarrolladores argumentan que muchos marcos son "pesados" y vienen con suposiciones que no se ajustan a todos los casos de uso:"Desafortunadamente, muchos de estos marcos son bastante pesados si solo necesitas lo básico".
Por el contrario, volverse "agnóstico del marco" a menudo significa escribir una gran cantidad de texto estándar desde cero. Los usuarios quieren evitar reinventar la rueda sin quedarse atrapados. Un desarrollador describió decidirse por una biblioteca más flexible específicamente para maximizar la compatibilidad:"Lo intenté mucho... Finalmente me conformé con usar [Instructor], porque podía cambiar rápidamente entre LLM (tanto locales/OS como propietarios) y podía tener la misma entrada/salida estructurada en todas partes". Esto destaca la necesidad de agentes que permitan un fácil intercambio de modelos o servicios de IA para satisfacer las necesidades cambiantes.
Otra necesidad común es integrar agentes con flujos de trabajo y pilas de software existentes. La falta de interfaces estándar significa que cada nuevo agente podría requerir un nuevo esfuerzo de integración. Como se señaló, la falta de ejemplos y la configuración avanzada pueden dificultar esto. Además, los problemas de compatibilidad surgen cuando una actualización de un componente (por ejemplo, un cambio en la API de LLM) rompe la lógica del agente, algo que los equipos deben gestionar activamente. En resumen, los profesionales quieren interoperabilidad plug-and-play:agentes de IA que se conecten con varios modelos, fuentes de datos y sistemas sin una ingeniería personalizada extensa.
8. Problemas de interoperabilidad y dependencia de proveedores
Los modelos y marcos de IA están cambiando rápidamente. Muchos equipos quieren lo mejor de su clase y les preocupa que elegir la solución de agente de IA de un solo proveedor pueda volverlos inflexibles en el futuro. Hay una explosión de marcos de agentes, cada uno con sus propias API y consideraciones. Un desarrollador lo comparó con la moda de los frameworks JavaScript:"En unos meses probablemente tengamos nuestra versión de la 'aplicación TODO en 100 frameworks web JS diferentes'... Incluso entenderlos todos es una tarea enorme".
Comprometerse con un ecosistema puede significar una flexibilidad limitada. Ciertas bibliotecas prefieren proveedores específicos. Por ejemplo, un usuario frustrado advirtió que su elección de marco "principalmente se rompe", destacando cómo algunas herramientas lo bloquean implícitamente en modelos o servicios particulares. El riesgo es construir alrededor de la visión de un proveedor y luego encontrarse "atrapado, dependiendo de sus actualizaciones, precios y políticas, sin ninguna alternativa viable". La interoperabilidad también es una preocupación para la integración de agentes en pilas de software existentes. Los desarrolladores a menudo no encuentran "ejemplos claros" para conectar a los agentes con los idiomas y servicios en la nube que ya utilizan, lo que dificulta la adopción de estas herramientas en equipos diversos.
Oportunidades con orquestación agente
Muchos de estos desafíos apuntan a la necesidad de soluciones de orquestación agente que sean flexibles, interoperables y centradas en el ser humano. La orquestación agente gestiona, asigna tareas y responsabilidades de forma eficaz entre personas, robots y agentes de IA en función de sus capacidades, lo que garantiza que las operaciones sean fluidas, eficientes y alineadas con los resultados estratégicos de la empresa.
Una capa de orquestación que integre eficazmente agentes de IA confiables, automatización determinista y aportaciones humanas ofrece varias ventajas:
-
Confiabilidad mejorada a través de respaldos deterministas:el estado final ideal del enfoque orquestado es la agencia controlada, lo que permite una eficiencia óptima sin una intervención manual excesiva. Esto depende de la orquestación de agentes de IA especializados que están cuidadosamente restringidos en los procesos mediante herramientas de nivel empresarial, robots deterministas y un nivel cómodo de revisión humana. Al combinar agentes de IA con reglas o scripts de automatización deterministas, una capa de orquestación garantiza que siempre haya una ruta alternativa. Por ejemplo, si la salida de un agente de IA no alcanza un cierto umbral de precisión, una regla predefinida podría manejar ese caso (o al menos marcarlo). Este enfoque híbrido aprovecha la creatividad de la IA, pero dentro de límites de seguridad. Con el tiempo, una plataforma de orquestación podría incluso aprender qué agente es más confiable para cada tarea (mediante el monitoreo de resultados) y enrutar las tareas en consecuencia, optimizando así las tasas de éxito. El efecto neto es una mayor confiabilidad general del flujo de trabajo en comparación con un único agente de caja negra. Como señaló un desarrollador, “[agentes] estrictamente restringidos con supervisión humana” y procesos bien definidos pueden producir buenos resultados confiables, exactamente lo que permite la orquestación.
-
Integración humana en el circuito:un beneficio clave de una capa de orquestación bien diseñada es la facilidad para tejer puntos de control humanos. Por ejemplo, la capa de orquestación se puede configurar para pausar y solicitar la aprobación humana si la confianza de un agente es baja o su decisión tiene mucho en juego. Esto proporciona la "red de seguridad" necesaria para implementar agentes en flujos de trabajo críticos. En lugar de codificar la supervisión humana por separado para cada agente, la plataforma común puede ofrecer una interfaz consistente para escalar a los humanos e incluso aprender de las correcciones humanas a lo largo del tiempo. Esta alineación de los flujos de trabajo de IA + humanos ayuda a aprovechar la velocidad de la IA cuando sea apropiado, pero siempre con un respaldo humano para garantizar la confiabilidad y la confianza.
-
Gobernanza y seguridad centralizadas:una capa de orquestación independiente del proveedor puede imponer la seguridad y el cumplimiento de manera uniforme en todas las actividades de IA. Puede servir como una puerta de enlace que monitorea qué datos se envían a cada agente, elimina o anonimiza información confidencial y registra todas las decisiones de los agentes con fines de auditoría. Esto aborda las preocupaciones de gobernanza al brindar a las organizaciones un único punto de control:por ejemplo, los administradores podrían configurar qué modelos de IA pueden manejar ciertos datos o exigir que ciertas consultas siempre sean manejadas por un modelo local debido a las políticas de privacidad. Un sistema de este tipo también podría integrarse con la gestión de identidades y accesos (IAM) para un control basado en roles sobre las acciones de los agentes. Las políticas (como límites de tarifas o presupuestos de costos) podrían aplicarse globalmente. Todas estas capacidades significan que las empresas pueden adoptar agentes de IA con más confianza, sabiendo que hay una capa de supervisión para evitar fugas de datos no deseadas o comportamientos deshonestos.
-
Interoperabilidad y evitación de bloqueos:una capa de orquestación neutral permite a los equipos conectar diferentes modelos o servicios de IA según sea necesario, sin estar atados al ecosistema de un proveedor. Esto mitiga el miedo de tener que reconstruir todo si cambia de proveedor. Como defendió un ingeniero, el objetivo es que los usuarios finales "no tengan que preocuparse por la dependencia del proveedor... garantizar que los sistemas de IA funcionen sin problemas en todas las plataformas en lugar de atrapar a los usuarios dentro del ecosistema de un único proveedor". Al hablar un "lenguaje común" con múltiples backends de IA (OpenAI, Anthropic, modelos de código abierto, etc.), una capa de orquestación garantiza que siempre puedas elegir la mejor herramienta para el trabajo y pivotar cuando la tecnología o los precios cambien.
-
Coordinación y especialización de múltiples agentes:una plataforma de orquestación puede gestionar un equipo de agentes, cada uno de ellos especializado en una subtarea, y coordinar sus interacciones de forma determinista. Esto reduce la complejidad para el profesional:la capa de orquestación puede manejar el enrutamiento de tareas, la gestión del estado y la recuperación de errores entre agentes. En lugar de que un agente monolítico lo intente todo (y a menudo falle de manera impredecible), puede tener agentes más simples enfocados en roles específicos, con la capa de orquestación vinculándolos. Una configuración de este tipo también puede incluir automatización basada en reglas o componentes de software tradicionales para tareas que no requieren IA, garantizando que la IA sólo se utilice donde agregue valor. El resultado es un sistema más sólido en el que, si un componente falla o produce resultados inciertos, la plataforma de orquestación puede detectarlo (por ejemplo, mediante validaciones, reintentos o alternativas).
-
Optimización de costos y flexibilidad de recursos:una plataforma independiente del proveedor puede elegir dinámicamente entre diferentes modelos o rutas para minimizar los costos y al mismo tiempo satisfacer las necesidades de rendimiento. Por ejemplo, podría utilizar un modelo local más económico para consultas simples y llamar a una API más costosa solo para casos complejos, de manera transparente para el usuario final. También puede procesar solicitudes por lotes, almacenar en caché los resultados o ajustar la frecuencia de ejecución del agente. Un equipo informó haber hecho esto manualmente (agregando almacenamiento en caché y usando un modelo más económico para ciertas tareas); una plataforma de orquestación inteligente podría manejar tales optimizaciones automáticamente. Además, al no estar vinculadas a un solo proveedor, las organizaciones pueden aprovechar la competencia de precios, cambiando a un servicio más rentable si uno aumenta los precios. Esta flexibilidad mejora el ROI, ya que la orquestación garantiza que se utilicen los recursos de la manera más eficiente (el modelo "mejor y más barato" para cada trabajo, según lo deseen los usuarios).
Lea "La guía definitiva para la orquestación agente".
En resumen, una capa de orquestación agente probada y confiable aborda directamente muchos puntos débiles:
-
Ofrece agencia controlada al mejorar la confiabilidad del agente sin comprometer la autonomía o la utilidad
-
Combina IA con humanos y robots para obtener mejores resultados
-
Resume la complejidad de múltiples agentes en un marco manejable
-
Evita las limitaciones de un solo proveedor
-
Proporciona la gobernanza necesaria para la implementación a escala empresarial
Al aprender de las luchas del mundo real (problemas de repetibilidad, dolores de cabeza de integración, temores de seguridad, sobrecostos), una solución de este tipo puede permitir a los profesionales aprovechar los agentes de IA con mucha menos fricción y riesgo. El resultado es un ecosistema de agentes de IA que es más confiable, adaptable y alineado con las necesidades comerciales, lo que permite a los equipos concentrarse en resolver problemas en lugar de luchar contra la infraestructura.
A continuación:
Sistema de control de automatización
- Garantía de seguridad y eficacia en la infusión de líquidos para procedimientos médicos
- Tesla detiene la producción del Modelo 3 por segunda vez
- Cómo la Industria 4.0 está cambiando el mercado laboral
- Universal Robots lanza el kit de recolección de contenedores ActiNav para el cuidado de máquinas
- El mercado de software RPA creció un 63,1 % en 2018, según Gartner
- Siemens anuncia una inversión de 681 millones de dólares en Berlín para desarrollar Siemens City 2.0
- 'Inteligencia artificial de las cosas', el análisis perimetral crea armonía en Gebhardt
- Los diez mejores consejos para resolver el rompecabezas de la productividad con la automatización
- Methods completa la adquisición de Koch
- Metrohm 2060 RISE:espectroscopia Raman en línea en tiempo real para control avanzado de procesos
- Epson presentará las últimas soluciones robóticas en ATX West