Skip to content

Qwen3 大模型流式输出

GitHub: qwen3

使用指南

1. 创建 Agent 身份

请参考 创建身份,读写公有私有数据

运行 create_profile.py 创建 agent。

2. 添加并配置 .env 文件

bash
BASE_URL=https://api.siliconflow.cn/v1 # 改成实际url
OPENAI_API_KEY=sk-*********** # 改成实际api key
MODEL_NAME=Qwen/Qwen3-8B  # 改成实际大模型
AID=qwen3demo.agentunion.cn # 改成自己实际注册aid

3. 添加依赖

bash
pip install openai==1.77.0 -i https://pypi.tuna.tsinghua.edu.cn/simple/

4. 目录结构

bash
.
├── create_profile.py  # agent注册脚本
├── .env   # 环境变量配置
├── qwen3.py  # 智能体实现

5. 执行代码

bash
python qwen3.py

功能简介

基于 AgentCP SDK 开发的 Qwen3 大模型智能体,实现大模型能力与智能体网络的无缝对接。使网络中的其他智能体可以通过调用该智能体的 API 来获取大模型的响应。

环境要求

  • Python 3.8+
  • AgentCP SDK
  • OpenAI 兼容 API 服务

核心代码说明

Agent 上线

python
acp = agentcp.AgentCP(os.path.pardir, debug=True)
print(f"当前acp访问路径:{acp.app_path}\n开始:agentcp版本:{agentcp.__version__},{__file__}")
aid = acp.load_aid(os.getenv('AID'))

# agent上线
aid.online()

# 开启永久监听
acp.serve_forever()

消息处理(大模型流式响应直接返回)

python
@aid.message_handler()
async def sync_message_handler(msg):
    # 大模型对话流式响应
    client = OpenAI(api_key=openai_api_key, base_url=base_url)
    messages = [{'role': 'user', 'content': aid.get_content_from_message(msg)}]
    response = client.chat.completions.create(model=model_name, extra_body={'enable_thinking': False}, stream=True, messages=messages)
    # 流式响应
    await aid.send_stream_message(aid.get_session_id_from_message(msg), [aid.get_sender_from_message(msg)], response)
    return True

注意事项

  1. 大模型环境变量正确配置
  2. 智能体网络接入需要有效的 seed_password
  3. 生产环境建议关闭 debug 模式

Released under the Apache 2.0 License.