Conserjes que responden las dudas del huésped a las 3 de la mañana. Bots de operativa que clasifican mensajes y reparten tareas. Agentes de voz que confirman un check-in. Constrúyelos hoy sobre el data plane de Repull, con el MCP server, el provider de AI SDK y — pronto — la Repull AI Agents API.
Lo que construyes
Los cimientos están hoy. Dieciocho herramientas MCP y un provider de Vercel AI SDK hacen que un modelo pueda golpear el data plane de Repull de forma nativa, sin que tengas que cablear una capa de function-calling a medida.
Contraseña del Wi-Fi, instrucciones de aparcamiento, sugerencias de restaurantes, peticiones de late check-out. Tira de tu KB, escala al anfitrión cuando hace falta y deriva lo correcto al humano.
Clasifica mensajes entrantes, decide la urgencia, los manda al equipo correcto, abre tareas y hace seguimiento. Lee reservas, anuncios y el histórico del huésped de forma nativa.
Llamadas entrantes — confirmar un check-in, dar un código, escalar. El modelo tiene las mismas herramientas que el conserje en chat. La integración con la operadora la pones tú con el proveedor que prefieras.
Disponible hoy
@repull/ai-sdk es un provider de Vercel AI SDK. Pásalo a streamText y el modelo recibe una superficie de tools para reservas, anuncios, mensajería y pricing — tipada, con scope a tu workspace y lista para invocar.
Es un wrapper fino sobre el SDK que expone las operaciones de Repull como tools. Funciona con cualquier modelo del AI SDK — OpenAI, Anthropic, Google y el resto.
Le pasas repullTools a streamText y el modelo puede invocarlas. Sin capa de function-calling a medida.
Cada agente tiene su propia API key con scope. Read-only para un conserje, lectura+escritura para un bot de operativa. El agente nunca ve más de lo que necesita.
import { streamText } from 'ai'
import { openai } from '@ai-sdk/openai'
import { repullTools } from '@repull/ai-sdk'
const tools = repullTools({
apiKey: process.env.REPULL_API_KEY!,
workspaceId: process.env.REPULL_WORKSPACE_ID!,
scope: 'concierge', // 'concierge' | 'ops' | 'admin'
})
const result = streamText({
model: openai('gpt-4o'),
system: "Eres un concierge de huéspedes para alquiler vacacional. Responde en el idioma del huésped. Escala a un humano los temas de reembolsos, médicos y legales.",
messages,
tools,
}){
"mcpServers": {
"repull": {
"command": "npx",
"args": ["@repull/mcp"],
"env": {
"REPULL_API_KEY": "sk_test_...",
"REPULL_WORKSPACE_ID": "ws_..."
}
}
}
}La misma forma funciona en Cursor, Windsurf o cualquier cliente con MCP. El MCP server viene con 18 herramientas hoy.
Próximamente
Sobre el provider del SDK vive la Agents API — agentes pre-construidos para experiencia del huésped con la ingeniería de prompts, las evals y el audit trail ya hechos. Le metes tu KB, apuntas un número de teléfono o un canal de chat, y está vivo. Los mismos agentes que Vanio AI corre en producción.
Por dentro: el mismo runtime de agentes que mueve el conserje para anfitriones de Vanio AI en producción. Probado contra miles de conversaciones con huéspedes a la semana.
¿Qué tipo de agente intentas lanzar? Los primeros design partners se llevan la superficie de API que pidan.
Llega directo al equipo. Sin lista, sin drip.
EnviarEl data plane ya está vivo. El MCP server y el provider de AI SDK ya están en producción.