Des conciergeries qui répondent aux questions des voyageurs à 3h du matin. Des bots ops qui trient les messages et déclenchent les tâches. Des agents vocaux qui confirment un check-in. Construis-les sur le data plane Repull dès aujourd'hui, avec le serveur MCP, le provider AI SDK et — bientôt — l'API Repull AI Agents.
Ce que tu construis
Les fondations sont en place aujourd'hui. Dix-huit outils MCP et un provider Vercel AI SDK : un modèle peut taper le data plane Repull nativement, sans que tu câbles une couche function-calling custom.
Mot de passe Wi-Fi, instructions de parking, suggestions de restos, demandes de late check-out. Tire de ta KB, retombe sur l'hôte, escalade ce qu'il faut escalader.
Trie les messages entrants, classifie l'urgence, dispatch vers la bonne équipe, ouvre des tâches, relance. Lit réservations, annonces et historique voyageur nativement.
Appels entrants — confirmer un check-in, donner un code, escalader. Le modèle a les mêmes outils que la conciergerie chat. L'intégration carrier reste à ton fournisseur de choix.
Dispo aujourd'hui
@repull/ai-sdk est un provider Vercel AI SDK. Passe-le à streamText et le modèle récupère une surface d'outils pour réservations, annonces, messagerie et pricing — typés, scopés à ton workspace, prêts à appeler.
C'est un wrapper léger autour du SDK qui expose les opérations Repull comme des outils. Compatible avec tous les modèles AI SDK — OpenAI, Anthropic, Google, le reste.
Passe repullTools à streamText et le modèle peut les appeler. Pas de couche function-calling custom.
Chaque agent a sa propre clé API scopée. Lecture seule pour une conciergerie, lecture+écriture pour un bot ops. L'agent ne voit jamais plus que ce dont il a besoin.
import { streamText } from 'ai'
import { openai } from '@ai-sdk/openai'
import { repullTools } from '@repull/ai-sdk'
const tools = repullTools({
apiKey: process.env.REPULL_API_KEY!,
workspaceId: process.env.REPULL_WORKSPACE_ID!,
scope: 'concierge', // 'concierge' | 'ops' | 'admin'
})
const result = streamText({
model: openai('gpt-4o'),
system: "Tu es un concierge pour des voyageurs en location de vacances. Réponds dans la langue du voyageur. Escalade vers un humain pour les remboursements, le médical et le juridique.",
messages,
tools,
}){
"mcpServers": {
"repull": {
"command": "npx",
"args": ["@repull/mcp"],
"env": {
"REPULL_API_KEY": "sk_test_...",
"REPULL_WORKSPACE_ID": "ws_..."
}
}
}
}La même forme marche dans Cursor, Windsurf, ou n'importe quel client compatible MCP. Le serveur MCP est livré avec 18 outils aujourd'hui.
Bientôt
Au-dessus du provider SDK se pose l'API Agents — des agents d'expérience voyageur pré-construits, avec le prompt engineering, les évals et l'audit trail déjà faits. Branche ta KB, pointe un numéro de téléphone ou un canal de chat, c'est en ligne. Les mêmes agents que Vanio AI fait tourner en prod.
Sous le capot : le même runtime d'agents qui fait tourner la conciergerie côté hôte de Vanio AI en prod. Testé contre des milliers de conversations voyageur par semaine.
Quel genre d'agent essaies-tu d'expédier ? Les premiers design partners obtiennent la surface d'API qu'ils demandent.
Va direct à l'équipe. Pas de liste, pas de drip.
EnvoyerLe data plane est déjà live. Le serveur MCP et le provider AI SDK sont déjà en prod.