31 C
Colombia
viernes, julio 4, 2025

No dejes que la exageración sobre los agentes de IA se adelanten a la realidad


Comencemos con el término “agente” en sí. En este momento, se le está abofeteando en todo, desde scripts simples hasta sofisticados flujos de trabajo de IA. No hay una definición compartida, lo que deja mucho espacio para que las empresas comercialicen la automatización básica como algo mucho más avanzado. Ese tipo de “lavado de agentes” no solo confunde a los clientes; Invita a la decepción. No necesariamente necesitamos un estándar rígido, pero necesitamos expectativas más claras sobre lo que se supone que deben hacer estos sistemas, cuán autónomos operan y qué tan confiablemente funcionan.

Y la fiabilidad es el próximo gran desafío. La mayoría de los agentes de hoy están impulsados ​​por modelos de idiomas grandes (LLM), que generan respuestas probabilísticas. Estos sistemas son poderosos, pero también son impredecibles. Pueden inventar las cosas, salir de la pista o fallar de maneras sutiles, especialmente cuando se les pide que completen tareas de varios pasos, que atraigan herramientas externas y encadenen las respuestas de LLM. Un ejemplo reciente: los usuarios de Cursor, un standard asistente de programación de IA, un agente de soporte automatizado les dijo que no podían usar el software program en más de un dispositivo. Hubo quejas generalizadas e informes de usuarios que cancelaron sus suscripciones. Pero resultó La política no existía. La IA lo había inventado.

En la configuración empresarial, este tipo de error podría crear un daño inmenso. Necesitamos dejar de tratar los LLM como productos independientes y comenzar a construir sistemas completos a su alrededor, sistemas que explican la incertidumbre, monitorear los resultados, administrar los costos y capas en barandillas para obtener seguridad y precisión. Estas medidas pueden ayudar a garantizar que la salida se adhiera a los requisitos expresados ​​por el usuario, obedece las políticas de la Compañía con respecto al acceso a la información, respeta los problemas de privacidad, and so on. Algunas compañías, incluida AI21 (que cofundé y que ha recibido fondos de Google), ya se están moviendo en esa dirección, envolviendo modelos de lenguaje en arquitecturas más deliberadas y estructuradas. Nuestro último lanzamiento, Maestro, está diseñado para la confiabilidad empresarial, que combina LLM con datos de la compañía, información pública y otras herramientas para garantizar resultados confiables.

Aún así, incluso el agente más inteligente no será útil en el vacío. Para que el modelo de agente funcione, los diferentes agentes deben cooperar (reservar su viaje, verificar el clima, presentar su informe de gastos) sin una supervisión humana constante. Ahí es donde entra en el protocolo A2A de Google. Está destinado a ser un lenguaje common que permite a los agentes compartir lo que pueden hacer y dividir las tareas. En principio, es una gran thought.

En la práctica, A2A todavía se queda corto. Outline cómo los agentes hablan entre sí, pero no lo que realmente significan. Si un agente cube que puede proporcionar “condiciones de viento”, otro tiene que adivinar si eso es útil para evaluar el clima en una ruta de vuelo. Sin un vocabulario o contexto compartido, la coordinación se vuelve frágil. Hemos visto este problema antes en la computación distribuida. Resolverlo a escala está lejos de ser trivial.

Related Articles

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Latest Articles