Agentes AI · Fundações live, Agents API a chegar

Agentes que fazem mesmo
o trabalho.

Concierges que respondem a hóspedes às 3 da manhã. Bots de operações que triam mensagens e despacham tarefas. Agentes de voz que confirmam um check-in. Constrói-os em cima do data plane do Repull hoje, com o MCP server, o provider AI SDK e — em breve — a Repull AI Agents API.

O que constróis

Agentes que leem, escrevem e decidem.

As fundações já estão no sítio. Dezoito ferramentas MCP e um provider Vercel AI SDK significam que um modelo consegue chegar ao data plane do Repull nativamente, sem teres de montar uma camada de function-calling à mão.

Concierge de hóspedes

Password do Wi-Fi, instruções de estacionamento, sugestões de restaurantes, pedidos de late check-out. Puxa da tua KB, recorre ao host quando preciso, escala o que tem mesmo de escalar.

Bot de operações

Tria mensagens de entrada, classifica urgência, despacha para a equipa certa, abre tarefas, faz follow-up. Lê reservas, listings e histórico de hóspede nativamente.

Agente de voz

Chamadas de entrada — confirma um check-in, dá um código, escala. O modelo tem as mesmas ferramentas que o concierge de chat. A integração com a operadora fica do lado do teu provider escolhido.

Disponível hoje

Liga o Repull a qualquer chat AI SDK.

@repull/ai-sdk é um provider Vercel AI SDK. Passa-o ao streamText e o modelo ganha uma superfície de ferramentas para reservas, listings, mensagens e pricing — tipadas, com scope ao teu workspace, prontas a chamar.

  1. 1

    Instala o provider

    É um wrapper fino à volta do SDK que expõe as operações do Repull como ferramentas. Funciona com qualquer modelo do AI SDK — OpenAI, Anthropic, Google, os outros.

  2. 2

    Mete-o no teu chat

    Passa repullTools ao streamText e o modelo pode chamá-las. Sem camada custom de function-calling.

  3. 3

    API keys com scope por agente

    Cada agente recebe a sua própria API key com scope. Read-only para um concierge, read+write para um bot de ops. O agente nunca vê mais do que precisa.

agent.ts · ts
import { streamText } from 'ai'
import { openai } from '@ai-sdk/openai'
import { repullTools } from '@repull/ai-sdk'

const tools = repullTools({
  apiKey: process.env.REPULL_API_KEY!,
  workspaceId: process.env.REPULL_WORKSPACE_ID!,
  scope: 'concierge', // 'concierge' | 'ops' | 'admin'
})

const result = streamText({
  model: openai('gpt-4o'),
  system: "És um concierge de hóspedes para alojamento local. Responde na língua do hóspede. Escala para um humano os reembolsos, temas médicos e jurídicos.",
  messages,
  tools,
})
claude_desktop_config.json · json
{
  "mcpServers": {
    "repull": {
      "command": "npx",
      "args": ["@repull/mcp"],
      "env": {
        "REPULL_API_KEY": "sk_test_...",
        "REPULL_WORKSPACE_ID": "ws_..."
      }
    }
  }
}

A mesma forma funciona em Cursor, Windsurf ou qualquer cliente compatível com MCP. O MCP server vem com 18 ferramentas hoje.

A chegar

A Repull AI Agents API.

Por cima do provider do SDK fica a Agents API — agentes pré-construídos de guest experience com o prompt engineering, evals e audit trail já feitos. Mete a tua KB, aponta um número de telefone ou canal de chat e está live. Os mesmos agentes que o Vanio AI corre em produção.

  • Agente concierge de hóspedes — chat + voz
  • Agente de triagem de ops — encaminhamento de mensagens de entrada
  • Copiloto de pricing — explica a recomendação
  • Respondedor de reviews — escreve um draft em cada review nova
  • Agentes à medida — o teu prompt, as nossas ferramentas e evals

Por trás dos bastidores: o mesmo runtime de agentes que dá energia ao concierge para hosts do Vanio AI em produção. Testado contra milhares de conversas com hóspedes por semana.

Entrar na lista de design da Agents API

Que tipo de agente é que estás a tentar lançar? Os primeiros design partners ficam com a API que pedirem.

Vai direto para a equipa. Sem mailing list, sem drip.

Enviar

Constrói o agente hoje.

O data plane já está live. O MCP server e o provider AI SDK já estão a ser usados.