NexAU 提供一系列开箱即用的强大功能
工具的定义与实现解耦,支持 YAML 定义工具,支持 Claude Skills, 内置文件操作、Web 搜索、Shell 执行等 20+ 工具。
原生支持 OpenAI / Anthropic / Azure,兼容所有 OpenAI Chat Completions API 的提供商, 事件流式处理。
支持主代理 + 子代理协作模式,代理之间可以互相调用、传递上下文, 适用于复杂任务分解。
集成 Langfuse 追踪,实时监控 prompt、工具调用、子代理进展, 支持 Pydantic model 输出解析。
支持 HTTP (FastAPI)、WebSocket、gRPC、Stdio 等多种传输协议, 轻松集成到任意后端系统。
支持 Model Context Protocol,可与外部工具无缝集成, 支持技能系统(Skills),兼容 Claude Skills 格式。
5 分钟创建一个智能代码代理
使用 pip (推荐) 或 uv 安装框架:
pip install nexau或从 GitHub Release 安装最新版本:
pip install git+https://github.com/nex-agi/NexAU.git@v0.4.0创建 .env 文件,配置你的 LLM 提供商:
LLM_MODEL="gpt-4o"
LLM_BASE_URL="https://api.openai.com/v1"
LLM_API_KEY="sk-..."使用 YAML 定义你的代理配置:
# code_agent.yaml
name: code_agent
max_context_tokens: 100000
system_prompt: "你是一个专业开发者助手。"
llm_config:
model: "{{ LLM_MODEL }}"
base_url: "{{ LLM_BASE_URL }}"
api_key: "{{ LLM_API_KEY }}"
api_type: "openai_chat_completion"使用 CLI 一键启动:
./run-agent code_agent.yaml或使用 Python API 创建并在代码中调用:
from nexau import Agent, AgentConfig
agent = Agent(config=AgentConfig(
name="my_agent",
max_context_tokens=100000,
system_prompt="你是代码代理",
llm_config=LLMConfig(
model="gpt-4o",
base_url="https://api.openai.com/v1",
api_key="sk-...",
),
))
print(agent.run("帮我写一个 Python 脚本"))模块化设计,易于扩展和维护
工具接口通过 YAML 定义,清晰简洁
同一工具可以有多个实现绑定
工具自动注入到 Agent 上下文
原生支持 OpenAI / Anthropic / Azure
支持 SSE 事件流,实时处理响应
支持 Pydantic model 输出解析
NexAU 适用于多种智能代理应用场景
推荐使用 code_agent 示例,支持全栈开发辅助,
内置文件操作、搜索、代码生成等功能。
使用 deep_research 示例,支持多级搜索、
信息验证和完整的文档生成。
使用 nexau_building_team 示例,
多个专家代理协作完成复杂任务。
使用 mcp 示例,集成外部 MCP 服务,
扩展代理能力。
自定义 Agent 配置,构建任何类型的智能应用, 从客服到数据分析。
通过 HTTP Transport 将 Agent 部署为 API 服务, 使用 FastAPI 轻松发布。
查看更多示例代码 →
完整的环境变量参考
LLM_API_KEY
是敏感密钥,请通过环境变量或密钥管理服务传入,不要硬编码到代码中。