Concierge che rispondono alle domande degli ospiti alle 3 di notte. Bot di operations che smistano i messaggi e assegnano i task. Voice agent che confermano un check-in. Costruiscili sul data plane di Repull oggi, con l'MCP server, il provider AI SDK e — presto — la Repull AI Agents API.
Cosa puoi costruirci
Le fondamenta ci sono già. Diciotto tool MCP e un provider Vercel AI SDK fanno sì che un modello tocchi nativamente il data plane di Repull, senza che tu cabli un layer di function calling custom.
Password Wi-Fi, indicazioni per il parcheggio, suggerimenti sui ristoranti, gestione delle richieste di late check-out. Pesca dalla tua KB, si appoggia all'host se non sa, escalation per le cose giuste.
Smista i messaggi in arrivo, classifica l'urgenza, dispatcha al team giusto, apre task, fa follow-up. Legge prenotazioni, annunci e storia dell'ospite in modo nativo.
Chiamate in entrata — confermano un check-in, danno un codice, fanno escalation. Il modello ha gli stessi tool del concierge in chat. L'integrazione col carrier la gestisce il provider che scegli tu.
Disponibile oggi
@repull/ai-sdk è un provider per il Vercel AI SDK. Lo passi a streamText e il modello riceve una superficie di tool per prenotazioni, annunci, messaggistica e pricing — tipizzata, ristretta al tuo workspace, pronta da chiamare.
È un wrapper sottile sopra l'SDK che espone le operazioni Repull come tool. Funziona con qualunque modello dell'AI SDK — OpenAI, Anthropic, Google e gli altri.
Passi repullTools a streamText e il modello può chiamarli. Niente layer di function calling custom.
Ogni agente ha la sua API key con scope. Read-only per un concierge, read+write per un ops bot. L'agente non vede mai più di quanto gli serve.
import { streamText } from 'ai'
import { openai } from '@ai-sdk/openai'
import { repullTools } from '@repull/ai-sdk'
const tools = repullTools({
apiKey: process.env.REPULL_API_KEY!,
workspaceId: process.env.REPULL_WORKSPACE_ID!,
scope: 'concierge', // 'concierge' | 'ops' | 'admin'
})
const result = streamText({
model: openai('gpt-4o'),
system: "Sei un concierge per ospiti di case vacanza. Rispondi nella lingua dell'ospite. Escala a un umano i temi di rimborsi, medici e legali.",
messages,
tools,
}){
"mcpServers": {
"repull": {
"command": "npx",
"args": ["@repull/mcp"],
"env": {
"REPULL_API_KEY": "sk_test_...",
"REPULL_WORKSPACE_ID": "ws_..."
}
}
}
}Stessa forma in Cursor, Windsurf o qualunque client MCP-aware. L'MCP server ha 18 tool disponibili oggi.
In arrivo
Sopra il provider AI SDK arriva l'Agents API — agenti pre-costruiti per l'esperienza ospite, con prompt engineering, eval e audit trail già fatti. Ci metti la tua KB, punti un numero di telefono o un canale chat, è live. Gli stessi agenti che Vanio AI fa girare in produzione.
Dietro le quinte: lo stesso agent runtime che fa girare in produzione il concierge host-facing di Vanio AI. Testato contro migliaia di conversazioni con ospiti a settimana.
Che tipo di agente vuoi spedire? I primi design partner ottengono la superficie API che chiedono.
Va dritto al team. Niente liste, niente drip.
InviaIl data plane è già live. L'MCP server e il provider AI SDK stanno già spedendo.