Agentes IA · Cimientos vivos, Agents API próximamente

Agentes que de verdad
hacen el trabajo.

Conserjes que responden las dudas del huésped a las 3 de la mañana. Bots de operativa que clasifican mensajes y reparten tareas. Agentes de voz que confirman un check-in. Constrúyelos hoy sobre el data plane de Repull, con el MCP server, el provider de AI SDK y — pronto — la Repull AI Agents API.

Lo que construyes

Agentes que leen, escriben y deciden.

Los cimientos están hoy. Dieciocho herramientas MCP y un provider de Vercel AI SDK hacen que un modelo pueda golpear el data plane de Repull de forma nativa, sin que tengas que cablear una capa de function-calling a medida.

Conserje del huésped

Contraseña del Wi-Fi, instrucciones de aparcamiento, sugerencias de restaurantes, peticiones de late check-out. Tira de tu KB, escala al anfitrión cuando hace falta y deriva lo correcto al humano.

Bot de operativa

Clasifica mensajes entrantes, decide la urgencia, los manda al equipo correcto, abre tareas y hace seguimiento. Lee reservas, anuncios y el histórico del huésped de forma nativa.

Agente de voz

Llamadas entrantes — confirmar un check-in, dar un código, escalar. El modelo tiene las mismas herramientas que el conserje en chat. La integración con la operadora la pones tú con el proveedor que prefieras.

Disponible hoy

Conecta Repull a cualquier chat con AI SDK.

@repull/ai-sdk es un provider de Vercel AI SDK. Pásalo a streamText y el modelo recibe una superficie de tools para reservas, anuncios, mensajería y pricing — tipada, con scope a tu workspace y lista para invocar.

  1. 1

    Instala el provider

    Es un wrapper fino sobre el SDK que expone las operaciones de Repull como tools. Funciona con cualquier modelo del AI SDK — OpenAI, Anthropic, Google y el resto.

  2. 2

    Mételo en tu chat

    Le pasas repullTools a streamText y el modelo puede invocarlas. Sin capa de function-calling a medida.

  3. 3

    Scope de keys por agente

    Cada agente tiene su propia API key con scope. Read-only para un conserje, lectura+escritura para un bot de operativa. El agente nunca ve más de lo que necesita.

agent.ts · ts
import { streamText } from 'ai'
import { openai } from '@ai-sdk/openai'
import { repullTools } from '@repull/ai-sdk'

const tools = repullTools({
  apiKey: process.env.REPULL_API_KEY!,
  workspaceId: process.env.REPULL_WORKSPACE_ID!,
  scope: 'concierge', // 'concierge' | 'ops' | 'admin'
})

const result = streamText({
  model: openai('gpt-4o'),
  system: "Eres un concierge de huéspedes para alquiler vacacional. Responde en el idioma del huésped. Escala a un humano los temas de reembolsos, médicos y legales.",
  messages,
  tools,
})
claude_desktop_config.json · json
{
  "mcpServers": {
    "repull": {
      "command": "npx",
      "args": ["@repull/mcp"],
      "env": {
        "REPULL_API_KEY": "sk_test_...",
        "REPULL_WORKSPACE_ID": "ws_..."
      }
    }
  }
}

La misma forma funciona en Cursor, Windsurf o cualquier cliente con MCP. El MCP server viene con 18 herramientas hoy.

Próximamente

La Repull AI Agents API.

Sobre el provider del SDK vive la Agents API — agentes pre-construidos para experiencia del huésped con la ingeniería de prompts, las evals y el audit trail ya hechos. Le metes tu KB, apuntas un número de teléfono o un canal de chat, y está vivo. Los mismos agentes que Vanio AI corre en producción.

  • Agente de conserjería para el huésped — chat + voz
  • Agente de triaje de operativa — enrutado de mensajes entrantes
  • Copiloto de pricing — explica la recomendación
  • Responder de reseñas — borradores en cada nueva reseña
  • Agentes a medida — tu prompt, nuestras tools y evals

Por dentro: el mismo runtime de agentes que mueve el conserje para anfitriones de Vanio AI en producción. Probado contra miles de conversaciones con huéspedes a la semana.

Apúntate a la lista de design partners de Agents API

¿Qué tipo de agente intentas lanzar? Los primeros design partners se llevan la superficie de API que pidan.

Llega directo al equipo. Sin lista, sin drip.

Enviar

Construye el agente hoy.

El data plane ya está vivo. El MCP server y el provider de AI SDK ya están en producción.