Agenty AI · Fundamenty live, Agents API w drodze

Agenty, które naprawdę
robią robotę.

Concierge odpowiadający na pytania gości o 3 w nocy. Boty operacyjne triażujące wiadomości i rozdzielające zadania. Agent głosowy potwierdzający meldunek. Buduj je na warstwie danych Repulla już dziś, z MCP serverem, providerem AI SDK i — niedługo — Repull AI Agents API.

Co zbudujesz

Agenty, które czytają, piszą i decydują.

Fundamenty są już położone. Osiemnaście narzędzi MCP i provider Vercel AI SDK oznaczają, że model uderza w warstwę danych Repulla natywnie, bez stawiania własnej warstwy function-calling.

Concierge dla gości

Hasło Wi-Fi, instrukcje parkowania, polecane restauracje, prośby o późne wymeldowanie. Wciąga z twojej KB, w razie potrzeby pyta hosta, eskaluje to, co trzeba.

Bot operacyjny

Triażuje wchodzące wiadomości, klasyfikuje pilność, rozdziela do właściwego zespołu, otwiera zadania, follow-upuje. Czyta rezerwacje, listingi i historię gości natywnie.

Agent głosowy

Połączenia przychodzące — potwierdzenie meldunku, podanie kodu, eskalacja. Model ma te same narzędzia co czatowy concierge. Integrację z operatorem ogarnia twój provider.

Dostępne dziś

Wepnij Repulla w dowolnego AI SDK chata.

@repull/ai-sdk to provider Vercel AI SDK. Przekaż go do streamText, a model dostaje surface narzędzi do rezerwacji, listingów, messagingu i pricingu — typed, scope'owany do twojego workspace'a, gotowy do wywołania.

  1. 1

    Zainstaluj providera

    Cienki wrapper na SDK, który wystawia operacje Repulla jako tools. Działa z każdym modelem AI SDK — OpenAI, Anthropic, Google, reszta.

  2. 2

    Wrzuć go do swojego czata

    Przekaż repullTools do streamText i model może z nich korzystać. Bez customowej warstwy function-calling.

  3. 3

    Scope kluczy per agent

    Każdy agent dostaje własny scope'owany klucz API. Read-only dla concierge'a, read+write dla bota operacyjnego. Agent nigdy nie widzi więcej, niż potrzebuje.

agent.ts · ts
import { streamText } from 'ai'
import { openai } from '@ai-sdk/openai'
import { repullTools } from '@repull/ai-sdk'

const tools = repullTools({
  apiKey: process.env.REPULL_API_KEY!,
  workspaceId: process.env.REPULL_WORKSPACE_ID!,
  scope: 'concierge', // 'concierge' | 'ops' | 'admin'
})

const result = streamText({
  model: openai('gpt-4o'),
  system: "Jesteś concierge'em dla gości najmu krótkoterminowego. Odpowiadaj w języku gościa. Eskaluj do człowieka tematy zwrotów, medyczne i prawne.",
  messages,
  tools,
})
claude_desktop_config.json · json
{
  "mcpServers": {
    "repull": {
      "command": "npx",
      "args": ["@repull/mcp"],
      "env": {
        "REPULL_API_KEY": "sk_test_...",
        "REPULL_WORKSPACE_ID": "ws_..."
      }
    }
  }
}

Ten sam kształt działa w Cursorze, Windsurfie i każdym kliencie znającym MCP. MCP server jedzie dziś z 18 narzędziami.

Wkrótce

Repull AI Agents API.

Nad providerem SDK siedzi Agents API — gotowe agenty do obsługi gości z prompt engineeringiem, evalami i audit trailem już ogarniętymi. Wrzucasz swoją KB, wskazujesz numer telefonu albo kanał czatowy i działa. Te same agenty, które Vanio AI puszcza na produkcji.

  • Concierge dla gości — czat + voice
  • Agent triażu operacyjnego — routing wiadomości przychodzących
  • Pricing copilot — wyjaśnia rekomendację
  • Review responder — pisze drafty pod każdą nową recenzję
  • Customowe agenty — twój prompt, nasze tools i evale

Pod spodem: ten sam runtime agentowy, który napędza concierge'a Vanio AI dla hostów na produkcji. Sprawdzony na tysiącach rozmów z gośćmi tygodniowo.

Zapisz się na listę design partnerów Agents API

Jakiego rodzaju agenta chcesz wypuścić? Najwcześniejsi design partnerzy dostają takie API, jakie sami zaproponują.

Idzie prosto do zespołu. Bez listy mailingowej, bez dripa.

Wyślij

Zbuduj agenta już dziś.

Warstwa danych już jest live. MCP server i provider AI SDK już się shipują.