Concierges, die um 3 Uhr morgens Gäste-Fragen beantworten. Ops-Bots, die Nachrichten triagen und Tasks dispatchen. Voice-Agents, die Check-ins bestätigen. Bau sie heute auf Repulls Daten-Plane — mit MCP-Server, AI-SDK-Provider und bald der Repull AI Agents API.
Was du baust
Die Foundations stehen heute. 18 MCP-Tools und ein Vercel-AI-SDK-Provider — ein Modell trifft Repulls Daten-Plane nativ, ohne dass du eine eigene Function-Calling-Schicht baust.
Wi-Fi-Passwort, Parkanweisungen, Restaurant-Tipps, Late-Check-out-Anfragen. Zieht aus deiner KB, fällt auf den Host zurück, eskaliert das Richtige.
Triagiert eingehende Nachrichten, klassifiziert Dringlichkeit, dispatcht ans richtige Team, öffnet Tasks, hakt nach. Liest Reservierungen, Listings und Gäste-Historie nativ.
Eingehende Anrufe — Check-in bestätigen, Code geben, eskalieren. Das Modell hat dieselben Tools wie der Chat-Concierge. Carrier-Integration übernimmt dein Anbieter der Wahl.
Heute verfügbar
@repull/ai-sdk ist ein Vercel-AI-SDK-Provider. Reich es an streamText — und das Modell bekommt eine Tool-Surface für Reservierungen, Listings, Messaging und Pricing. Typisiert, scoped auf deinen Workspace, bereit zum Aufruf.
Dünner Wrapper um das SDK, der Repull-Operationen als Tools exponiert. Funktioniert mit jedem AI-SDK-Modell — OpenAI, Anthropic, Google, der Rest.
repullTools an streamText übergeben — und das Modell kann sie aufrufen. Keine eigene Function-Calling-Schicht.
Jeder Agent bekommt seinen eigenen scoped API-Key. Read-only für einen Concierge, Read+Write für einen Ops-Bot. Der Agent sieht nie mehr als nötig.
import { streamText } from 'ai'
import { openai } from '@ai-sdk/openai'
import { repullTools } from '@repull/ai-sdk'
const tools = repullTools({
apiKey: process.env.REPULL_API_KEY!,
workspaceId: process.env.REPULL_WORKSPACE_ID!,
scope: 'concierge', // 'concierge' | 'ops' | 'admin'
})
const result = streamText({
model: openai('gpt-4o'),
system: "Du bist ein Gäste-Concierge für Ferienwohnungen. Antworte in der Sprache des Gastes. Eskaliere Erstattungen, medizinische und juristische Themen an einen Menschen.",
messages,
tools,
}){
"mcpServers": {
"repull": {
"command": "npx",
"args": ["@repull/mcp"],
"env": {
"REPULL_API_KEY": "sk_test_...",
"REPULL_WORKSPACE_ID": "ws_..."
}
}
}
}Dieselbe Form funktioniert in Cursor, Windsurf oder jedem MCP-fähigen Client. Der MCP-Server kommt heute mit 18 Tools.
Kommt
Über dem SDK-Provider sitzt die Agents API — vorgebaute Guest-Experience-Agents, mit Prompt-Engineering, Evals und Audit-Trail bereits erledigt. KB einlegen, Telefonnummer oder Chat-Channel anhängen — live. Dieselben Agents, die Vanio AI in Production fährt.
Hinter den Kulissen: dieselbe Agent-Runtime, die Vanio AIs Host-Concierge in Production trägt. Getestet gegen tausende Gäste-Konversationen pro Woche.
Was für einen Agent willst du shippen? Die ersten Design-Partner bekommen die API-Surface, die sie brauchen.
Geht direkt ans Team. Keine Liste, kein Drip.
SendenDie Daten-Plane ist live. MCP-Server und AI-SDK-Provider sind shipping.