Ampliando Modelos de Lenguaje Grandes con Amazon SageMaker AI Usando el Protocolo de Contexto del Modelo

Elena Digital López

Las organizaciones que implementan agentes y sistemas basados en agentes a menudo enfrentan desafíos significativos, como la implementación de múltiples herramientas, la invocación de funciones y la orquestación de flujos de trabajo. Un agente utiliza una llamada a funciones para invocar una herramienta externa, como una API o una base de datos, para realizar acciones específicas o recuperar información que no posee internamente. Esta integración de herramientas dentro del agente puede complicar el escalado y la reutilización de herramientas a través de la empresa. Por lo tanto, los clientes que buscan desplegar agentes a gran escala necesitan una manera consistente de integrar estas herramientas, ya sean internas o externas, independientemente del marco de orquestación que estén utilizando.

En este contexto, el Protocolo de Contexto del Modelo (MCP) se propone estandarizar la manera en que se utilizan estos canales, agentes, herramientas y datos de los clientes. Esto se traduce en una experiencia más fluida y eficiente para los clientes, en comparación con el tratamiento de sistemas o agentes fragmentados. Al simplificar y estandarizar la integración de herramientas, los clientes que desarrollan agentes pueden concentrarse en qué herramientas utilizar y cómo emplearlas, en lugar de gastar tiempo construyendo código de integración personalizado.

Para implementar el MCP, se requiere una infraestructura escalable para albergar los servidores, así como una infraestructura capaz de hostear el modelo de lenguaje grande (LLM), que actuará con las herramientas implementadas por el servidor MCP. Amazon SageMaker AI ofrece la posibilidad de alojar LLMs sin preocuparse por el escalado o la gestión de tareas pesadas no diferenciadas. Además, los servidores MCP pueden ser alojados en el entorno computacional de elección de AWS, como Amazon EC2, Amazon ECS, Amazon EKS y AWS Lambda.

En este sentido, el MCP destaca como un avance significativo frente a las arquitecturas de microservicios tradicionales. Los microservicios, aunque ofrecen más modularidad, requieren a menudo integraciones separadas y complejas para cada servicio. Por otro lado, el MCP proporciona una interfaz de comunicación bidireccional en tiempo real, lo que permite a los sistemas de IA conectarse fácilmente a herramientas externas, servicios API y fuentes de datos, lo cual es ideal para aplicaciones de IA que necesitan acceso modular y fiable a múltiples recursos.

Dentro de las opciones para implementar servidores MCP, se encuentran FastAPI y FastMCP. FastMCP es ideal para prototipos rápidos y escenarios donde la velocidad de desarrollo es prioritaria, mientras que FastAPI ofrece flexibilidad y un control más granular adecuado para flujos de trabajo más complejos.

Con esta arquitectura, las organizaciones pueden optimizar sus procesos de integración de IA, minimizando la necesidad de integraciones personalizadas y obstáculos de mantenimiento. La capacidad de conectar modelos de forma segura a sistemas críticos de la organización se vuelve cada vez más valiosa, lo que permite transformar el procesamiento de préstamos, agilizar operaciones y obtener perspectivas comerciales más profundas. A medida que la IA evoluciona, el MCP y el uso de SageMaker AI crean una base flexible para futuras innovaciones en IA.
vía: AWS machine learning blog

Scroll al inicio