Agenti AI · Fondamenta live, Agents API in arrivo

Agenti che fanno davvero
il lavoro.

Concierge che rispondono alle domande degli ospiti alle 3 di notte. Bot di operations che smistano i messaggi e assegnano i task. Voice agent che confermano un check-in. Costruiscili sul data plane di Repull oggi, con l'MCP server, il provider AI SDK e — presto — la Repull AI Agents API.

Cosa puoi costruirci

Agenti che leggono, scrivono e decidono.

Le fondamenta ci sono già. Diciotto tool MCP e un provider Vercel AI SDK fanno sì che un modello tocchi nativamente il data plane di Repull, senza che tu cabli un layer di function calling custom.

Concierge ospite

Password Wi-Fi, indicazioni per il parcheggio, suggerimenti sui ristoranti, gestione delle richieste di late check-out. Pesca dalla tua KB, si appoggia all'host se non sa, escalation per le cose giuste.

Bot operations

Smista i messaggi in arrivo, classifica l'urgenza, dispatcha al team giusto, apre task, fa follow-up. Legge prenotazioni, annunci e storia dell'ospite in modo nativo.

Agente vocale

Chiamate in entrata — confermano un check-in, danno un codice, fanno escalation. Il modello ha gli stessi tool del concierge in chat. L'integrazione col carrier la gestisce il provider che scegli tu.

Disponibile oggi

Collega Repull a qualunque chat su AI SDK.

@repull/ai-sdk è un provider per il Vercel AI SDK. Lo passi a streamText e il modello riceve una superficie di tool per prenotazioni, annunci, messaggistica e pricing — tipizzata, ristretta al tuo workspace, pronta da chiamare.

  1. 1

    Installa il provider

    È un wrapper sottile sopra l'SDK che espone le operazioni Repull come tool. Funziona con qualunque modello dell'AI SDK — OpenAI, Anthropic, Google e gli altri.

  2. 2

    Mettilo nella tua chat

    Passi repullTools a streamText e il modello può chiamarli. Niente layer di function calling custom.

  3. 3

    API key con scope per ogni agente

    Ogni agente ha la sua API key con scope. Read-only per un concierge, read+write per un ops bot. L'agente non vede mai più di quanto gli serve.

agent.ts · ts
import { streamText } from 'ai'
import { openai } from '@ai-sdk/openai'
import { repullTools } from '@repull/ai-sdk'

const tools = repullTools({
  apiKey: process.env.REPULL_API_KEY!,
  workspaceId: process.env.REPULL_WORKSPACE_ID!,
  scope: 'concierge', // 'concierge' | 'ops' | 'admin'
})

const result = streamText({
  model: openai('gpt-4o'),
  system: "Sei un concierge per ospiti di case vacanza. Rispondi nella lingua dell'ospite. Escala a un umano i temi di rimborsi, medici e legali.",
  messages,
  tools,
})
claude_desktop_config.json · json
{
  "mcpServers": {
    "repull": {
      "command": "npx",
      "args": ["@repull/mcp"],
      "env": {
        "REPULL_API_KEY": "sk_test_...",
        "REPULL_WORKSPACE_ID": "ws_..."
      }
    }
  }
}

Stessa forma in Cursor, Windsurf o qualunque client MCP-aware. L'MCP server ha 18 tool disponibili oggi.

In arrivo

La Repull AI Agents API.

Sopra il provider AI SDK arriva l'Agents API — agenti pre-costruiti per l'esperienza ospite, con prompt engineering, eval e audit trail già fatti. Ci metti la tua KB, punti un numero di telefono o un canale chat, è live. Gli stessi agenti che Vanio AI fa girare in produzione.

  • Agente concierge ospite — chat + voce
  • Agente di triage operations — routing dei messaggi in entrata
  • Copilot di pricing — spiega la raccomandazione
  • Risponditore recensioni — bozze su ogni nuova review
  • Agenti custom — il tuo prompt, i nostri tool ed eval

Dietro le quinte: lo stesso agent runtime che fa girare in produzione il concierge host-facing di Vanio AI. Testato contro migliaia di conversazioni con ospiti a settimana.

Entra nella design list dell'Agents API

Che tipo di agente vuoi spedire? I primi design partner ottengono la superficie API che chiedono.

Va dritto al team. Niente liste, niente drip.

Invia

Costruisci l'agente oggi.

Il data plane è già live. L'MCP server e il provider AI SDK stanno già spedendo.