Si estás construyendo agentes de verdad que planean, llaman APIs, consultan datos y entregan resultados verificables, vas a querer dos cosas: un estándar para exponer herramientas y datos, y una plataforma para orquestarlos en producción. Ahí entran MCP (Model Context Protocol) y Azure AI Foundry. MCP estandariza cómo un agente descubre y usa tools y resources; Foundry te da runtime, seguridad, monitoreo y el pegamento enterprise para evaluar, versionar y desplegar.
Pensá al agente de IA como a un burro de carga digital: vos le ponés la carga (tareas y objetivos), le marcás el rumbo (políticas y límites) y él avanza paso a paso, sin cansarse, hasta llegar. Así como el burro atraviesa sendas con piedras y pendientes, el agente recorre entornos con APIs, bases, archivos y la web, lidiando con “terreno” irregular como errores, latencias o permisos.
El arriero sos vos. Elegís qué carga vale la pena, definís el itinerario, decidís cuándo frenar y hasta dónde ir. En IA eso se traduce en fijar metas claras, configurar herramientas y encender las riendas de seguridad (guardrails, revisión humana, auditoría). Sin arriero no hay viaje sensato: un burro puede moverse, pero lo guía la intención; un agente puede accionar, pero lo encuadra tu objetivo.
¿Qué es MCP y por qué te conviene? Pensalo como un USB-C para agentes: escribís un servidor MCP que publica tools (acciones) y resources (datos/contexto) y cualquier cliente compatible (tu runtime de agente) los descubre y usa sin acoplarse a implementaciones propietarias. Hay SDKs (incluido Python) y conceptos listos: tools, resources, prompts, structured output y transports (stdio/SSE/HTTP). Esto baja fricción y te permite cambiar o sumar herramientas sin romper el agente.
¿Por qué montar tus agentes en Azure AI Foundry? Porque te da un lugar unificado para probar prompts, conectar herramientas/datos, versionar, evaluar calidad, aplicar Content Safety y desplegar como endpoint con monitoreo (Application Insights) y control de acceso (Managed Identity/Entra ID). Además, con Prompt Flow orquestás y testeás pipelines de agente punta a punta, combinando nodos LLM, Python y herramientas prehechas, con evaluaciones reproducibles antes de producción.
Abajo tenés un ejemplo mínimo que muestra el patrón fundamental: el modelo decide si necesita una función (tool), tu código la ejecuta y luego el modelo compone la respuesta final. Es el esqueleto de un agente.
import os
from openai import AzureOpenAI
endpoint = "https://jose-mxlero102-eastus2.cognitiveservices.azure.com/"
model_name = "gpt-5-mini"
deployment = "gpt-5-mini"
subscription_key = "8tlvJ99BIACHYHv6XJ3w3AAcOGujdGd"
api_version = "2024-12-01-preview"
client = AzureOpenAI(
api_version=api_version,
azure_endpoint=endpoint,
api_key=subscription_key,
)
response = client.chat.completions.create(
messages=[
{
"role": "system",
"content": "You are a helpful assistant.",
},
{
"role": "user",
"content": "I am going to Paris, what should I see?",
},
{
"role": "assistant",
"content": "Paris, the capital of France, is known for its stunning architecture, art museums, historical landmarks, and romantic atmosphere. Here are some of the top attractions to see in Paris:\n \n 1. The Eiffel Tower: The iconic Eiffel Tower is one of the most recognizable landmarks in the world and offers breathtaking views of the city.\n 2. The Louvre Museum: The Louvre is one of the world's largest and most famous museums, housing an impressive collection of art and artifacts, including the Mona Lisa.\n 3. Notre-Dame Cathedral: This beautiful cathedral is one of the most famous landmarks in Paris and is known for its Gothic architecture and stunning stained glass windows.\n \n These are just a few of the many attractions that Paris has to offer. With so much to see and do, it's no wonder that Paris is one of the most popular tourist destinations in the world.",
},
{
"role": "user",
"content": "What is so great about #1?",
}
],
max_completion_tokens=16384,
model=deployment
)
print(response.choices[0].message.content)

Llevarlo a producción (lo que yo haría primero):
Convertí este script en un Prompt Flow (nodo LLM + nodo Python tool + evaluación offline), medí groundedness y calidad antes de exponerlo a usuarios. Si tu cliente/IDE soporta MCP, exponé tus Azure Functions/APIs como tools MCP (schemas claros, permisos por tool y timeouts). Sumá RAG con Azure AI Search (“On Your Data”) para que el agente responda con tus documentos, con citaciones y trazabilidad. Y, clave: usá Managed Identity/Entra ID en lugar de API keys cuando puedas, activá Content Safety y registrá cada acción del agente para auditoría y mejora continua.
En conclusión: el símil del burro ayuda a no idealizar. Un burro no inventa rutas nuevas; un agente sí puede planificar alternativas, simular pasos, verificar y corregirse. Pero si el mapa está mal o la instrucción es confusa, ambos se pierden. Por eso, dale al agente objetivos medibles, datos confiables y guardrails. Vos sos el arriero; Azure AI Foundry es el sendero señalizado; MCP son las herraduras estándar; la memoria son las alforjas; las tools son el equipo para cruzar ríos y montañas. El buen viaje sale de la combinación entre dirección, equipamiento y cuidado del camino.