Concierge odpowiadający na pytania gości o 3 w nocy. Boty operacyjne triażujące wiadomości i rozdzielające zadania. Agent głosowy potwierdzający meldunek. Buduj je na warstwie danych Repulla już dziś, z MCP serverem, providerem AI SDK i — niedługo — Repull AI Agents API.
Co zbudujesz
Fundamenty są już położone. Osiemnaście narzędzi MCP i provider Vercel AI SDK oznaczają, że model uderza w warstwę danych Repulla natywnie, bez stawiania własnej warstwy function-calling.
Hasło Wi-Fi, instrukcje parkowania, polecane restauracje, prośby o późne wymeldowanie. Wciąga z twojej KB, w razie potrzeby pyta hosta, eskaluje to, co trzeba.
Triażuje wchodzące wiadomości, klasyfikuje pilność, rozdziela do właściwego zespołu, otwiera zadania, follow-upuje. Czyta rezerwacje, listingi i historię gości natywnie.
Połączenia przychodzące — potwierdzenie meldunku, podanie kodu, eskalacja. Model ma te same narzędzia co czatowy concierge. Integrację z operatorem ogarnia twój provider.
Dostępne dziś
@repull/ai-sdk to provider Vercel AI SDK. Przekaż go do streamText, a model dostaje surface narzędzi do rezerwacji, listingów, messagingu i pricingu — typed, scope'owany do twojego workspace'a, gotowy do wywołania.
Cienki wrapper na SDK, który wystawia operacje Repulla jako tools. Działa z każdym modelem AI SDK — OpenAI, Anthropic, Google, reszta.
Przekaż repullTools do streamText i model może z nich korzystać. Bez customowej warstwy function-calling.
Każdy agent dostaje własny scope'owany klucz API. Read-only dla concierge'a, read+write dla bota operacyjnego. Agent nigdy nie widzi więcej, niż potrzebuje.
import { streamText } from 'ai'
import { openai } from '@ai-sdk/openai'
import { repullTools } from '@repull/ai-sdk'
const tools = repullTools({
apiKey: process.env.REPULL_API_KEY!,
workspaceId: process.env.REPULL_WORKSPACE_ID!,
scope: 'concierge', // 'concierge' | 'ops' | 'admin'
})
const result = streamText({
model: openai('gpt-4o'),
system: "Jesteś concierge'em dla gości najmu krótkoterminowego. Odpowiadaj w języku gościa. Eskaluj do człowieka tematy zwrotów, medyczne i prawne.",
messages,
tools,
}){
"mcpServers": {
"repull": {
"command": "npx",
"args": ["@repull/mcp"],
"env": {
"REPULL_API_KEY": "sk_test_...",
"REPULL_WORKSPACE_ID": "ws_..."
}
}
}
}Ten sam kształt działa w Cursorze, Windsurfie i każdym kliencie znającym MCP. MCP server jedzie dziś z 18 narzędziami.
Wkrótce
Nad providerem SDK siedzi Agents API — gotowe agenty do obsługi gości z prompt engineeringiem, evalami i audit trailem już ogarniętymi. Wrzucasz swoją KB, wskazujesz numer telefonu albo kanał czatowy i działa. Te same agenty, które Vanio AI puszcza na produkcji.
Pod spodem: ten sam runtime agentowy, który napędza concierge'a Vanio AI dla hostów na produkcji. Sprawdzony na tysiącach rozmów z gośćmi tygodniowo.
Jakiego rodzaju agenta chcesz wypuścić? Najwcześniejsi design partnerzy dostają takie API, jakie sami zaproponują.
Idzie prosto do zespołu. Bez listy mailingowej, bez dripa.
WyślijWarstwa danych już jest live. MCP server i provider AI SDK już się shipują.