Concierges que respondem a hóspedes às 3 da manhã. Bots de operações que triam mensagens e despacham tarefas. Agentes de voz que confirmam um check-in. Constrói-os em cima do data plane do Repull hoje, com o MCP server, o provider AI SDK e — em breve — a Repull AI Agents API.
O que constróis
As fundações já estão no sítio. Dezoito ferramentas MCP e um provider Vercel AI SDK significam que um modelo consegue chegar ao data plane do Repull nativamente, sem teres de montar uma camada de function-calling à mão.
Password do Wi-Fi, instruções de estacionamento, sugestões de restaurantes, pedidos de late check-out. Puxa da tua KB, recorre ao host quando preciso, escala o que tem mesmo de escalar.
Tria mensagens de entrada, classifica urgência, despacha para a equipa certa, abre tarefas, faz follow-up. Lê reservas, listings e histórico de hóspede nativamente.
Chamadas de entrada — confirma um check-in, dá um código, escala. O modelo tem as mesmas ferramentas que o concierge de chat. A integração com a operadora fica do lado do teu provider escolhido.
Disponível hoje
@repull/ai-sdk é um provider Vercel AI SDK. Passa-o ao streamText e o modelo ganha uma superfície de ferramentas para reservas, listings, mensagens e pricing — tipadas, com scope ao teu workspace, prontas a chamar.
É um wrapper fino à volta do SDK que expõe as operações do Repull como ferramentas. Funciona com qualquer modelo do AI SDK — OpenAI, Anthropic, Google, os outros.
Passa repullTools ao streamText e o modelo pode chamá-las. Sem camada custom de function-calling.
Cada agente recebe a sua própria API key com scope. Read-only para um concierge, read+write para um bot de ops. O agente nunca vê mais do que precisa.
import { streamText } from 'ai'
import { openai } from '@ai-sdk/openai'
import { repullTools } from '@repull/ai-sdk'
const tools = repullTools({
apiKey: process.env.REPULL_API_KEY!,
workspaceId: process.env.REPULL_WORKSPACE_ID!,
scope: 'concierge', // 'concierge' | 'ops' | 'admin'
})
const result = streamText({
model: openai('gpt-4o'),
system: "És um concierge de hóspedes para alojamento local. Responde na língua do hóspede. Escala para um humano os reembolsos, temas médicos e jurídicos.",
messages,
tools,
}){
"mcpServers": {
"repull": {
"command": "npx",
"args": ["@repull/mcp"],
"env": {
"REPULL_API_KEY": "sk_test_...",
"REPULL_WORKSPACE_ID": "ws_..."
}
}
}
}A mesma forma funciona em Cursor, Windsurf ou qualquer cliente compatível com MCP. O MCP server vem com 18 ferramentas hoje.
A chegar
Por cima do provider do SDK fica a Agents API — agentes pré-construídos de guest experience com o prompt engineering, evals e audit trail já feitos. Mete a tua KB, aponta um número de telefone ou canal de chat e está live. Os mesmos agentes que o Vanio AI corre em produção.
Por trás dos bastidores: o mesmo runtime de agentes que dá energia ao concierge para hosts do Vanio AI em produção. Testado contra milhares de conversas com hóspedes por semana.
Que tipo de agente é que estás a tentar lançar? Os primeiros design partners ficam com a API que pedirem.
Vai direto para a equipa. Sem mailing list, sem drip.
EnviarO data plane já está live. O MCP server e o provider AI SDK já estão a ser usados.