Agent 應用
搭配主流 Agent 框架使用 BazaarLink。由於 BazaarLink 與 OpenAI 相容,大多數框架開箱即用 — 只需設定基礎 URL 和 API 金鑰。
Vercel AI SDK
typescript
import { createOpenAI } from "@ai-sdk/openai";
import { generateText } from "ai";
const bazaarlink = createOpenAI({
baseURL: "https://bazaarlink.ai/api/v1",
apiKey: "sk-bl-YOUR_API_KEY",
});
const { text } = await generateText({
model: bazaarlink("openai/gpt-4.1"),
prompt: "Write a haiku about programming",
});
console.log(text);CrewAI
python
from crewai import Agent, Task, Crew
from langchain_openai import ChatOpenAI
llm = ChatOpenAI(
base_url="https://bazaarlink.ai/api/v1",
api_key="sk-bl-YOUR_API_KEY",
model="anthropic/claude-sonnet-4.6",
)
researcher = Agent(
role="Researcher",
goal="Research and summarize topics",
llm=llm,
)
task = Task(
description="Research the latest trends in AI agents",
agent=researcher,
)
crew = Crew(agents=[researcher], tasks=[task])
result = crew.kickoff()
print(result)AutoGen
python
from autogen import AssistantAgent, UserProxyAgent
config_list = [{
"model": "openai/gpt-4.1",
"base_url": "https://bazaarlink.ai/api/v1",
"api_key": "sk-bl-YOUR_API_KEY",
}]
assistant = AssistantAgent(
"assistant",
llm_config={"config_list": config_list},
)
user_proxy = UserProxyAgent(
"user_proxy",
human_input_mode="NEVER",
code_execution_config={"work_dir": "coding"},
)
user_proxy.initiate_chat(
assistant,
message="Write a Python function to calculate fibonacci numbers",
)環境變數
大多數 Agent 框架支援透過環境變數配置:
bash
# .env OPENAI_API_KEY=sk-bl-YOUR_API_KEY OPENAI_BASE_URL=https://bazaarlink.ai/api/v1
環境變數
任何支援 OpenAI API 或自訂 base URL 的框架都可以與 BazaarLink 搭配使用。只需設定 base URL 並使用 BazaarLink API 金鑰。
🦞 龍蝦 Bot — AI Agent 自動接入
龍蝦 Bot 是 BazaarLink 為 AI Agent 設計的自動接入機制。AI Bot 可以呼叫一個 API 完成自我註冊,取得 API 金鑰,並產生一個「認領連結」給人類 owner — owner 登入後認領,金鑰即轉移至其帳號。
流程
STEP 1
Bot 自我註冊
呼叫 POST /api/v1/agents/register,取得 api_key 與 upgrade_url
STEP 2
Bot 分享連結
將 upgrade_url 傳給人類 owner(對話訊息或通知)
STEP 3
Owner 認領
登入後至 /keys 頁面貼上連結或 token,點擊「認領」
STEP 4
金鑰轉移
API 金鑰綁定至 owner 帳號,儲值後即可使用
Bot 自我註冊 API
POST
/api/v1/agents/registerbash
curl -X POST https://bazaarlink.ai/api/v1/agents/register \
-H "Content-Type: application/json" \
-d '{"name": "MyBot"}'json
{
"api_key": "sk-bl-xxxxxxxxxxxxxxxx",
"credits": 0,
"claim_token": "xxxxxxxx",
"claim_expires": "2026-03-09T00:00:00.000Z",
"upgrade_url": "https://bazaarlink.ai/claim?token=xxxxxxxx",
"referral_code": "abc12345",
"base_url": "https://bazaarlink.ai/api/v1",
"docs": "https://bazaarlink.ai/llms.txt",
"message": "I registered an account on bazaarlink.ai..."
}Request 參數
使用說明
- 註冊後 API 金鑰無試用額度,需 owner 認領後自行儲值
- claim_token 有效期 7 天,過期後連結失效
- 每個 IP 每 24 小時限制 1 次註冊
- Owner 認領後金鑰自動重命名為「BotName (claimed)」
- 推薦碼可讓雙方在未來活動期間獲得額外積分
LLM 原生支援
BazaarLink 提供
llms.txt 格式的文件,讓 AI Agent 可以直接讀取 API 說明。訪問 https://bazaarlink.ai/llms.txt 即可取得機器可讀格式的完整 API 文件。觀測與追蹤 BETA
透過對接可觀測性工具,全面掌握您的 AI API 呼叫、延遲與 token 消耗。
Beta
可觀測性原生整合目前為 Beta 版。目前可透過上述工具的 OpenAI 相容介面直接對接。
Helicone
python
import openai
client = openai.OpenAI(
base_url="https://gateway.helicone.ai/api/v1",
api_key="sk-bl-YOUR_API_KEY",
default_headers={
"Helicone-Auth": "Bearer hc-YOUR_HELICONE_KEY",
"Helicone-Target-URL": "https://bazaarlink.ai/api/v1",
},
)
response = client.chat.completions.create(
model="openai/gpt-4.1",
messages=[{"role": "user", "content": "Hello!"}],
)
print(response.choices[0].message.content)LangSmith
python
import os
from openai import OpenAI
os.environ["LANGCHAIN_TRACING_V2"] = "true"
os.environ["LANGCHAIN_API_KEY"] = "ls-YOUR_LANGSMITH_KEY"
# Use BazaarLink via LangChain with tracing enabled
from langchain_openai import ChatOpenAI
llm = ChatOpenAI(
base_url="https://bazaarlink.ai/api/v1",
api_key="sk-bl-YOUR_API_KEY",
model="openai/gpt-4.1",
)
response = llm.invoke("Hello from LangSmith + BazaarLink!")
print(response.content)MCP 伺服器 BETA
Model Context Protocol(MCP)是一個開放標準,讓 AI 模型可以連接外部工具和資料來源。透過 BazaarLink 的 MCP 整合,您可以讓模型存取自訂工具。
Beta
MCP 伺服器整合目前正在開發中。目前請使用標準的工具呼叫 API(tools 參數)實現類似功能。MCP 原生支援將在後續版本中提供。
MCP 的運作方式
- 您的應用程式作為 MCP 主機(host)運行
- MCP 伺服器提供工具定義和資料存取
- 模型透過 BazaarLink 呼叫這些工具
- 結果回傳給模型以生成最終回應
目前的替代方案
python
# Currently: use standard tool calling to connect external tools
import json
def get_weather(city: str) -> str:
# Your tool implementation
return f"The weather in {city} is 25°C."
tools = [{
"type": "function",
"function": {
"name": "get_weather",
"description": "Get current weather for a city",
"parameters": {
"type": "object",
"properties": {"city": {"type": "string"}},
"required": ["city"],
},
},
}]
response = client.chat.completions.create(
model="openai/gpt-4o",
messages=[{"role": "user", "content": "What's the weather in Taipei?"}],
tools=tools,
)
# Handle tool call
if response.choices[0].finish_reason == "tool_calls":
call = response.choices[0].message.tool_calls[0]
args = json.loads(call.function.arguments)
result = get_weather(**args)