AI-Agents · Foundations live, Agents API kommt

Agents, die wirklich
arbeiten.

Concierges, die um 3 Uhr morgens Gäste-Fragen beantworten. Ops-Bots, die Nachrichten triagen und Tasks dispatchen. Voice-Agents, die Check-ins bestätigen. Bau sie heute auf Repulls Daten-Plane — mit MCP-Server, AI-SDK-Provider und bald der Repull AI Agents API.

Was du baust

Agents, die lesen, schreiben und entscheiden.

Die Foundations stehen heute. 18 MCP-Tools und ein Vercel-AI-SDK-Provider — ein Modell trifft Repulls Daten-Plane nativ, ohne dass du eine eigene Function-Calling-Schicht baust.

Guest-Concierge

Wi-Fi-Passwort, Parkanweisungen, Restaurant-Tipps, Late-Check-out-Anfragen. Zieht aus deiner KB, fällt auf den Host zurück, eskaliert das Richtige.

Ops-Bot

Triagiert eingehende Nachrichten, klassifiziert Dringlichkeit, dispatcht ans richtige Team, öffnet Tasks, hakt nach. Liest Reservierungen, Listings und Gäste-Historie nativ.

Voice-Agent

Eingehende Anrufe — Check-in bestätigen, Code geben, eskalieren. Das Modell hat dieselben Tools wie der Chat-Concierge. Carrier-Integration übernimmt dein Anbieter der Wahl.

Heute verfügbar

Repull in jeden AI-SDK-Chat einstecken.

@repull/ai-sdk ist ein Vercel-AI-SDK-Provider. Reich es an streamText — und das Modell bekommt eine Tool-Surface für Reservierungen, Listings, Messaging und Pricing. Typisiert, scoped auf deinen Workspace, bereit zum Aufruf.

  1. 1

    Provider installieren

    Dünner Wrapper um das SDK, der Repull-Operationen als Tools exponiert. Funktioniert mit jedem AI-SDK-Modell — OpenAI, Anthropic, Google, der Rest.

  2. 2

    In den Chat reinschieben

    repullTools an streamText übergeben — und das Modell kann sie aufrufen. Keine eigene Function-Calling-Schicht.

  3. 3

    Keys pro Agent scopen

    Jeder Agent bekommt seinen eigenen scoped API-Key. Read-only für einen Concierge, Read+Write für einen Ops-Bot. Der Agent sieht nie mehr als nötig.

agent.ts · ts
import { streamText } from 'ai'
import { openai } from '@ai-sdk/openai'
import { repullTools } from '@repull/ai-sdk'

const tools = repullTools({
  apiKey: process.env.REPULL_API_KEY!,
  workspaceId: process.env.REPULL_WORKSPACE_ID!,
  scope: 'concierge', // 'concierge' | 'ops' | 'admin'
})

const result = streamText({
  model: openai('gpt-4o'),
  system: "Du bist ein Gäste-Concierge für Ferienwohnungen. Antworte in der Sprache des Gastes. Eskaliere Erstattungen, medizinische und juristische Themen an einen Menschen.",
  messages,
  tools,
})
claude_desktop_config.json · json
{
  "mcpServers": {
    "repull": {
      "command": "npx",
      "args": ["@repull/mcp"],
      "env": {
        "REPULL_API_KEY": "sk_test_...",
        "REPULL_WORKSPACE_ID": "ws_..."
      }
    }
  }
}

Dieselbe Form funktioniert in Cursor, Windsurf oder jedem MCP-fähigen Client. Der MCP-Server kommt heute mit 18 Tools.

Kommt

Die Repull AI Agents API.

Über dem SDK-Provider sitzt die Agents API — vorgebaute Guest-Experience-Agents, mit Prompt-Engineering, Evals und Audit-Trail bereits erledigt. KB einlegen, Telefonnummer oder Chat-Channel anhängen — live. Dieselben Agents, die Vanio AI in Production fährt.

  • Guest-Concierge-Agent — Chat + Voice
  • Ops-Triage-Agent — Routing eingehender Nachrichten
  • Pricing-Copilot — erklärt die Empfehlung
  • Review-Responder — Entwurf bei jedem neuen Review
  • Custom Agents — dein Prompt, unsere Tools und Evals

Hinter den Kulissen: dieselbe Agent-Runtime, die Vanio AIs Host-Concierge in Production trägt. Getestet gegen tausende Gäste-Konversationen pro Woche.

Auf die Agents-API-Design-Liste

Was für einen Agent willst du shippen? Die ersten Design-Partner bekommen die API-Surface, die sie brauchen.

Geht direkt ans Team. Keine Liste, kein Drip.

Senden

Bau den Agent heute.

Die Daten-Plane ist live. MCP-Server und AI-SDK-Provider sind shipping.