开源模型中的 Function Call 方案深度剖析

宁睿  论坛元老 | 2025-3-18 23:47:00 | 显示全部楼层 | 阅读模式
打印 上一主题 下一主题

主题 1039|帖子 1039|积分 3127

在本文中,我们梳理了开源模型 Function Calling 能力的相关信息,包括采用的 chat template,function call 训练方案等。涉及模型 LlaMa 3.1, Mistral Large 2,glm-4-9b-chat,Qwen 2。
  
Llama 3.1

对话协议(Chat Protocal)

Llama 3.1 中采用了以下 special tokens 来辅助多轮对话和工具的调用。。


  • <|begin_of_text|>: 指定 prompt 的开始
  • <|end_of_text|>: 模型将制止生成更多的tokens。此token仅由根本模型生成。
  • <|start_header_id|> 和 <|end_header_id|>: 这些tokens封闭特定消息的脚色。大概的脚色包括: [system, user, assistant, and ipython]
  • <|eom_id|>: end of message。表示消息结束,提示模型接下来大概需要调用工具。这用于模型与任何可用工具之间的多步调交互。当在系统提示中使用Environment: ipython指令时,大概如果模型调用内置工具时,会发出此token。
  • <|eot_id|>: End of turn。表示模型已经确定它已完成与用户消息的互动,有两种情况会使用:

    • 在模型与用户之间的直接互动结束时
    • 在模型与任何可用工具之间的多次互动结束时

  • <|python_tag|>: 是模型响应中用来表示工具调用的特别标签。
在对话过程中,llama 3.1 支持了 4 中脚色:
[system, assistant, user, ipython] 其中 ipython 的脚色与 gpt 中的 tool 类似,用来标记调用 tool 后生成的结果。
Tool Call Template 样式

根据 Llama 的这个技能报告 来看,llama 3 工具调用能力,是在 post training 的时间加上去的。大致的使用 tool 流程和 GPT 的 tool call 差不多,如下:


样式1:Json based tool calling
以下用一个例子展示 llama 3.1 tool call 时间的格式,假设用户与agent有了以下对话:
  1. tool_call = {"name": "get_current_temperature", "arguments": {"location": "Paris, France"}}
  2. messages = [
  3.   {"role": "system", "content": "You are a bot that responds to weather queries."},
  4.   {"role": "user", "content": "Hey, what's the temperature in Paris right now?"},
  5.   {"role": "assistant", "tool_calls": [{"type": "function", "function": tool_call}]},
  6.   {"role": "tool", "name": "get_current_temperature", "content": "22.0"}
  7. ]
复制代码
那么使用 huggingface 提供的 function call 示例举行计算:
  1. model_path = "/home/kevin/models/Meta-Llama-3.1-70B-Instruct"
  2. tokenizer = AutoTokenizer.from_pretrained(model_path, trust_remote_code=True)
  3. inputs = tokenizer.apply_chat_template(messages,
  4.                                        tools=[get_current_temperature],
  5.                                        add_generation_prompt=True,
  6.                                        tokenize=False,
  7.                                        tools_in_user_message=False)
复制代码
可以得到 inputs 为:
  1. <|begin_of_text|><|start_header_id|>system<|end_header_id|>
  2. Environment: ipython
  3. Cutting Knowledge Date: December 2023
  4. Today Date: 26 Jul 2024
  5. You have access to the following functions. To call a function, please respond with JSON for a function call.Respond in the format {"name": function name, "parameters": dictionary of argument name and its value}.Do not use variables.
  6. {
  7.     "type": "function",
  8.     "function": {
  9.         "name": "get_current_temperature",
  10.         "description": "Get the current temperature at a location.",
  11.         "parameters": {
  12.             "type": "object",
  13.             "properties": {
  14.                 "location": {
  15.                     "type": "string",
  16.                     "description": "The location to get the temperature for, in the format "City, Country""
  17.                 }
  18.             },
  19.             "required": [
  20.                 "location"
  21.             ]
  22.         },
  23.         "return": {
  24.             "type": "number",
  25.             "description": "The current temperature at the specified location in the specified units, as a float."
  26.         }
  27.     }
  28. }
  29. You are a bot that responds to weather queries.<|eot_id|>
  30. <|start_header_id|>user<|end_header_id|>
  31. Hey, what's the temperature in Paris right now?<|eot_id|>
  32. <|start_header_id|>assistant<|end_header_id|>
  33. {"name": "get_current_temperature", "parameters": {"location": "Paris, France"}}<|eot_id|>
  34. <|start_header_id|>ipython<|end_header_id|>
  35. "22.0"<|eot_id|>
  36. <|start_header_id|>assistant<|end_header_id|>
复制代码
关注点:


  • 为了方便阅读,以上 prompt 中添加了一些换行符。
  • llama 3.1 70B instruct 提供的模板中,可以选择将 function 信息放在用户的输入中,大概放在 system prompt 中。
  • 工具调用结果通过 <|start_header_id|>ipython<|end_header_id|> 标记。
  • 在 llama 3.1 的官方文档中还记录了一种 User-defined Custom tool calling 的方法,但是没有在 llama3.1 70B instruct 的 jinja chat template 中找到对应的功能,大概官方还没更新 jinja template?
更详细的多轮对话 prompt 可以参考 llama 3.1-70b-instruct 的 jinja chat template。
样式2:Built in Python based tool calling
官方自带支持 brave_search, wolfram_alpha, 和 code interpreter 三种工具,使用这三种工具时,tokenizer 的处理方式与 json based tool calling 不太一样。详细是要在 system prompt 中加上:
  1. Environment: ipython
  2. Tools: brave_search, wolfram_alpha
复制代码
同时模型要调用工具时,会生成 <|python_tag|>wolfram_alpha.call(query="solve x^3 - 4x^2 + 6x - 24 = 0")<|eom_id|> 类似的样式,而非原先的 json 格式:
  1. <|begin_of_text|><|start_header_id|>system<|end_header_id|>​Environment: ipython
  2. Tools: brave_search, wolfram_alpha​Cutting Knowledge Date: December 2023Today Date: 23 Jul 2024​You are a helpful assistant.<|eot_id|><|start_header_id|>user<|end_header_id|>​​Can you help me solve this equation: x^3 - 4x^2 + 6x - 24 = 0<|eot_id|><|start_header_id|>assistant<|end_header_id|>​<|python_tag|>wolfram_alpha.call(query="solve x^3 - 4x^2 + 6x - 24 = 0")<|eom_id|><|start_header_id|>ipython<|end_header_id|>​{"queryresult": {"success": true, "inputstring": "solve x^3 - 4x^2 + 6x - 24 = 0", "pods": [{"title": "Input interpretation", "subpods": [{"title": "", "plaintext": "solve x^3 - 4 x^2 + 6 x - 24 = 0"}]}, {"title": "Results", "primary": true, "subpods": [{"title": "", "plaintext": "x = 4"}, {"title": "", "plaintext": "x = \u00b1 (i sqrt(6))"}]}, ... ]}}<|eot_id|><|start_header_id|>assistant<|end_header_id|>  
复制代码
工具调用相关的训练

The Llama 3 Herd of Models 中提到工具调用是在 post training 部分加上去的,包括了多组的 SFT + DPO 训练。

SFT 相关训练
Learning rate 1e-5,训练 9K steps。SFT 的训练集中,有 21.9% 的数据是用于推理和工具使用的:


数据
参考 llama 3 herd of model 中对 SFT Tool 数据集的形貌:


  • 标注员只对 assistant 信息举行排名打分(通常模型对当前问题的推理能力越强,打分越高),不对tool message 举行排名打分。
  • 不采用 rejection sampling,因为 llama 团队没有在后期的 tool 测评中观察到它带来的收益。
为了加快标注过程,llama 团队首先通过在之前的Llama 3 checkpoint 生成的合成数据上举行微调来引导基本的工具使用能力。因此,标注员需要举行的编辑较少。同样地,随着Llama 3 在训练过程中逐渐改进,llama 徐徐复杂化人类标注协议:从标注单轮 tool use 的对话数据开始,徐徐过渡到标注对话中包含了 tool use 的数据,末了到标注对话中包含了多步 tool use 以及数据分析的训练数据。
llama 团队采用了以下方法来构造 Synthetic Tool datasets
single-step tool use 数据
参考上文中提到的标注方案,llama 团队先构造了该数据集,并对模型举行单论 tool use 训练。构造步调:

  • 通过 few-shot,用模型生成用户 prompt。该 prompt 必须涉及到调用 1 个 llama 的焦点工具(core tools)。
  • 通过 few-shot,和 step 1 中的 prompt,生成对应的 tool call 答复(包括调用工具名称,对应参数)。
  • 执行 step 2 中的工具和参数,得到对应的 tool output。
  • 让模型基于 用户prompt,tool call,tool output,生成最终复兴。
因此整个数据集包括了:system prompt, user prompt, tool call, tool output 和 final answer。在得到数据集后,llama 还过滤了约 30% 的数据集,以去除无法执行工具或有其他格式问题的数据。
根据 llama 报告中介绍 core tools 包括 brave_search, wolfram_alpha, and code interpreter 等 python 对象。
Multi-step tool use 数据:
Multi-step 与 single step 的 tool use 数据生成方式相似:

  • 通过 few-shot,用模型生成用户 prompt。该 prompt 必须是一个需要使用多个 tool 来得到答案的任务(这些 tool 不一定得从 core tool 中选)。
  • 基于 step 1 的 prompt,让 llama 3 生成包含了推理步调和对应 tool call 信息的数据,详细可以看下图:


File uploads 数据:
File Uploads 数据参考下图训练数据示例。prompt 都是基于某个文件举行提问,问题包括总结,查找 bug,优化某个部分,数据分析等操纵。


除别的,llama 在 system prompt 中举行了调试,让模型能够只在激活了 tool call 的情况下去调用共外部工具。
llama 团队采用了以下方法来构造 Zero-shot tool use data (与 function calling 类似)


  • Single, nested, and parallel function calling: 个人明白是 llama 基于 the Stack 的开源数据举行筛选/修改,构造了 function call 信息,而后用 llama 3 基于 function call 信息,生成对应的用户 query。
  • Multi-turn function calling: 采用了 API-Bank: A Comprehensive Benchmark for Tool-Augmented LLMs 中的方法生成数据。Llama 采用了 5 个 agent 如下图:

    • 第一个 agent 用于生成差异的范畴,如医疗保险,健身等。
    • 第二个 agent,根据范畴数据,生成潜在的 API。值得注意的是,在这一阶段,为了确保模拟 API 的真实性,我们在署理输入中加入了来自公共 API 的示例。
    • 第三个 agent 从模拟 API 中随机选择一个或多个 API。别的,它还选择了我们计划原则中概述的一种能力。然后使用这些信息创建一个匹配所选能力的 query 问题,这个 query 问题可以通过调用所选 API 来完成答复。
    • 第四个 agent 将范畴、API、能力和 query 作为输入。这个agent 需要通过模拟的方式调用选择的 API,然后根据API 结果生成 response。
    • 末了,我们引入了第五个 agent,作为测试者。该agent自动验证生成的数据是否符合我们的计划原则(现实上它丢弃了 35% 的实例)

所有的 agent 都是通过简单的 prompt + llama 3 实现。


DPO 相关训练
Llama 发现 PPO 没有 DPO 好,于是只用了 DPO,preference data 中,有 5.89% 是和 reasoning 还有 tool 相关的。


效果
Llama 的工具调用能力还是不错的:


其他
更多关于 llama 3.1 tool 和 reasoning 的细节,推荐检察 The Llama 3 Herd of Models。


Mistral Large 2

Mistral Large 也是采用了额外的 special token 来辅助 function call 的处理。
比如对于以下对话内容:
  1. messages = [
  2.     {"role": "user", "content": "What's the weather like in Paris?"},
  3.     {"role": "assistant", "content": "","tool_calls": [
  4.         {"type": "function","id":'D681PevKs',"function":
  5.             {"name": "get_current_weather", "arguments": {"location": "Paris, France", "format": "celsius"}}
  6.             }]},
  7.     {"role":"tool", "name":"get_current_weather", "content":"20", "tool_call_id":'D681PevKs'}
  8.     ]
复制代码
经过 mistral large 2 的 tokenizer 处理:
  1. def get_current_weather(location: str, format: str):
  2.     """
  3.     Get the current weather
  4.     Args:
  5.         location: The city and state, e.g. San Francisco, CA
  6.         format: The temperature unit to use. Infer this from the users location. (choices: ["celsius", "fahrenheit"])
  7.     """
  8.     pass
  9. model_path = "/home/kevin/models/Mistral-Large-Instruct-2407"
  10. tokenizer = AutoTokenizer.from_pretrained(model_path,
  11.                                           
  12.                                           trust_remote_code=True,
  13.                                           )
  14. inputs = tokenizer.apply_chat_template(messages,
  15.                                        tokenize=False,
  16.                                        tools = [get_current_weather],
  17.                                        add_generation_prompt=True)
复制代码
输入 input 如下:
  1. <s>[AVAILABLE_TOOLS] [
  2. {
  3.     "type": "function",
  4.     "function": {
  5.         "name": "get_current_weather",
  6.         "description": "Get the current weather",
  7.         "parameters": {
  8.             "type": "object",
  9.             "properties": {
  10.                 "location": {
  11.                     "type": "string",
  12.                     "description": "The city and state, e.g. San Francisco, CA"
  13.                 },
  14.                 "format": {
  15.                     "type": "string",
  16.                     "enum": [
  17.                         "celsius",
  18.                         "fahrenheit"
  19.                     ],
  20.                     "description": "The temperature unit to use. Infer this from the users location."
  21.                 }
  22.             },
  23.             "required": [
  24.                 "location",
  25.                 "format"
  26.             ]
  27.         }
  28.     }
  29. }
  30. ]
  31. [/AVAILABLE_TOOLS]
  32. [INST] What's the weather like in Paris?[/INST]
  33. [TOOL_CALLS]
  34. [
  35.     {
  36.         "name": "get_current_weather",
  37.         "arguments": {
  38.             "location": "Paris, France",
  39.             "format": "celsius"
  40.         },
  41.         "id": "D681PevKs"
  42.     }
  43. ]
  44. </s>
  45. [TOOL_RESULTS] {"content": 20, "call_id": "D681PevKs"}[/TOOL_RESULTS]
复制代码
关注点:


  • 为了方便展示观看,以上 inputs 举行了必要的格式化。
  • function 的信息是统一放在了system prompt 的地方。
  • 用了 [TOOL_CALLS], [TOOL_RESULTS] 等额外 token 来辅助 function calling。
详细的 mistral large 2 Chat Template 如下:



GLM-4-9b-chat

GLM 中的特别 token 有:
  1. ["<|endoftext|>", "[MASK]", "[gMASK]", "[sMASK]", "<sop>", "<eop>", "<|system|>",
  2.                                "<|user|>", "<|assistant|>", "<|observation|>", "<|begin_of_image|>", "<|end_of_image|>",
  3.                                "<|begin_of_video|>", "<|end_of_video|>"]
复制代码
其中 <|observation|> 用来标记工具的执行结果。
GLM 使用的 chat template 如下:
  1. [gMASK]<sop>{% for item in messages %}{% if item['tools'] is defined %}<|system|>
  2. 你是一个名为 GLM-4 的人工智能助手。你是基于智谱AI训练的语言模型 GLM-4 模型开发的,你的任务是针对用户的问题和要求提供适当的答复和支持。
  3. # 可用工具{% set tools = item['tools'] %}{% for tool in tools %}{% if tool['type'] == 'function' %}
  4. ## {{ tool['function']['name'] }}
  5. {{ tool['function'] | tojson(indent=4) }}
  6. 在调用上述函数时,请使用 Json 格式表示调用的参数。{% elif tool['type'] == 'python' %}
  7. ## python
  8. 当你向 `python` 发送包含 Python 代码的消息时,该代码将会在一个有状态的 Jupyter notebook 环境中执行。
  9. `python` 返回代码执行的输出,或在执行 60 秒后返回超时。
  10. `/mnt/data` 将会持久化存储你的文件。在此会话中,`python` 无法访问互联网。不要使用 `python` 进行任何网络请求或者在线 API 调用,这些在线内容的访问将不会成功。{% elif tool['type'] == 'simple_browser' %}
  11. ## simple_browser
  12. 你可以使用 `simple_browser` 工具。该工具支持以下函数:
  13. `search(query: str, recency_days: int)`:使用搜索引擎进行查询并显示结果,可以使用 `recency_days` 参数控制搜索内容的时效性。
  14. `mclick(ids: list[int])`:获取一系列指定 id 的页面内容。每次调用时,须选择3-10个页面。选择多个角度的页面,同时尽可能选择可信任的信息来源。考虑到部分页面是无法加载的,你也可以多打开一些可能有用的页面而不用担心内容过多。
  15. `open_url(url: str)`:打开指定的 URL。
  16. 使用 `【{引用 id}†{引用文本}】` 来引用内容。
  17. 操作步骤:1. 使用 `search` 来获得信息列表; 2. 使用 `mclick` 来获取指定 ID 页面的内容; 3. 根据获得的内容进行回复。在回复中应当引用信息来源。
  18. 如果用户提供了 URL,也可以用 `open_url` 直接打开页面。
  19. 如果初次搜索结果没有找到合适的信息,也可以再次使用 `search` 进行搜索。{% elif tool['type'] == 'cogview' %}
  20. ## cogview
  21. 如果用户的请求中包含了对图像的描述,你可以使用 `cogview` 来生成图像并展示给用户。你需要向 `cogview` 发送图像描述,规则:
  22. - 发送给 `cogview` 的消息必须使用英语。用户的中文描述必须完全翻译为英语。
  23. - 应当尽可能详细地描述图像生成的需求,需求描述约 100 英文单词。
  24. - 保持用户原始描述的意图。不要虚构内容或者没见过的人物。
  25. - 如无特殊说明,所在地为中国,持有中国立场并遵循中国社会主义价值观。{% endif %}{% endfor %}{% endif %}{% if item['content'] %}<|{{ item['role'] }}|>{{ item['metadata'] }}
  26. {{ item['content'] }}{% endif %}{% endfor %}{% if add_generation_prompt %}<|assistant|>{% endif %}
复制代码
通过以下对话内容举行示例:
  1. messages = [
  2.     {
  3.       "role": "system",
  4.       "content": "",
  5.       "tools": [
  6.         {
  7.           "type": "function",
  8.           "function": {
  9.             "name": "get_recommended_books",
  10.             "description": "Get recommended books based on user's interests",
  11.             "parameters": {
  12.               "type": "object",
  13.               "properties": {
  14.                 "interests": {
  15.                   "type": "array",
  16.                   "items": {
  17.                     "type": "string"
  18.                   },
  19.                   "description": "The interests to recommend books for"
  20.                 }
  21.               },
  22.               "required": [
  23.                 "interests"
  24.               ]
  25.             }
  26.           }
  27.         }
  28.       ]
  29.     },
  30.     {
  31.       "role": "user",
  32.       "content": "Hi, I am looking for some book recommendations. I am interested in history and science fiction."
  33.     },
  34.     {
  35.       "role": "assistant",
  36.       "content": "{"name": "get_recommended_books", "arguments": {"interests": ["history", "science fiction"]}}"
  37.     },
  38.     {
  39.       "role": "observation",
  40.       "content": "{"books": ["Sapiens: A Brief History of Humankind by Yuval Noah Harari", "A Brief History of Time by Stephen Hawking", "Dune by Frank Herbert", "The Martian by Andy Weir"]}"
  41.     },
  42.     {
  43.       "role": "assistant",
  44.       "content": "Based on your interests in history and science fiction, I would recommend the following books: "Sapiens: A Brief History of Humankind" by Yuval Noah Harari, "A Brief History of Time" by Stephen Hawking, "Dune" by Frank Herbert, and "The Martian" by Andy Weir."
  45.     }
  46.   ]
复制代码
那么,对应的 input 就会是:
  1. tokenizer = AutoTokenizer.from_pretrained("/home/kevin/models/glm-4-9b-chat", trust_remote_code=True)
  2. inputs = tokenizer.apply_chat_template(messages,
  3.                                        tokenize=False)
  4. # inputs =
  5. """
  6. [gMASK]<sop><|system|>
  7. 你是一个名为 GLM-4 的人工智能助手。你是基于智谱AI训练的语言模型 GLM-4 模型开发的,你的任务是针对用户的问题和要求提供适当的答复和支持。
  8. # 可用工具
  9. ## get_recommended_books
  10. {
  11.     "name": "get_recommended_books",
  12.     "description": "Get recommended books based on user's interests",
  13.     "parameters": {
  14.         "type": "object",
  15.         "properties": {
  16.             "interests": {
  17.                 "type": "array",
  18.                 "items": {
  19.                     "type": "string"
  20.                 },
  21.                 "description": "The interests to recommend books for"
  22.             }
  23.         },
  24.         "required": [
  25.             "interests"
  26.         ]
  27.     }
  28. }
  29. 在调用上述函数时,请使用 Json 格式表示调用的参数。<|user|>
  30. Hi, I am looking for some book recommendations. I am interested in history and science fiction.<|assistant|>
  31. {"name": "get_recommended_books", "arguments": {"interests": ["history", "science fiction"]}}<|observation|>
  32. {"books": ["Sapiens: A Brief History of Humankind by Yuval Noah Harari", "A Brief History of Time by Stephen Hawking", "Dune by Frank Herbert", "The Martian by Andy Weir"]}<|assistant|>
  33. Based on your interests in history and science fiction, I would recommend the following books: "Sapiens: A Brief History of Humankind" by Yuval Noah Harari, "A Brief History of Time" by Stephen Hawking, "Dune" by Frank Herbert, and "The Martian" by Andy Weir.
  34. """
复制代码
效果如下
GLM function call 能力(Berkeley function-calling leaderboard):


其他
GLM 公开的信息还是挺少的,官方 github 及 官方技能报告 都没有找到一些 function call 训练细节。

Qwen 2

Qwen2 instruct 的 chat template 如下:
  1. {% for message in messages %}{% if loop.first and messages[0]['role'] != 'system' %}{{ '<|im_start|>system
  2. You are a helpful assistant.<|im_end|>
  3. ' }}{% endif %}{{'<|im_start|>' + message['role'] + '
  4. ' + message['content'] + '<|im_end|>' + '
  5. '}}{% endfor %}{% if add_generation_prompt %}{{ '<|im_start|>assistant
  6. ' }}{% endif %}
复制代码
可以看到,chat template 中是没有 tool 相关的 special token 的。因此 Qwen 2 的 function calling 功能需要依靠 Qwen-Agent 来实现。参考 Qwen-Agent 的 BaseFnCallModel 实现(github link),当用 Qwen2 官方示例的 function call 方式时,function 的信息会被添加到 system prompt 中:
  1. def _prepend_fncall_system(
  2.         self,
  3.         messages: List[Message],
  4.         functions: List[Dict],
  5.         lang: Literal['en', 'zh'],
  6.         parallel_function_calls: bool = False,
  7.     ) -> List[Message]:
  8.         tool_desc_template = FN_CALL_TEMPLATE[lang + ('_parallel' if parallel_function_calls else '')]
  9.         tool_descs = '\n\n'.join(get_function_description(function, lang=lang) for function in functions)
  10.         tool_names = ','.join(function.get('name', function.get('name_for_model', '')) for function in functions)
  11.         tool_system = tool_desc_template.format(tool_descs=tool_descs, tool_names=tool_names)
  12.         assert messages[0].role == SYSTEM
  13.         messages = copy.deepcopy(messages[:1]) + messages[1:]
  14.         if isinstance(messages[0].content, str):
  15.             messages[0].content += '\n\n' + tool_system
  16.         else:
  17.             messages[0].content.append(ContentItem(text='\n\n' + tool_system))
  18.         return messages
复制代码
添加 function call 的模板有中文和英文模板,也有并行调用和非并行调用模板,详细可以在 Qwen-Agent 代码中检察,以下是一个中文模板示例:
  1. """# 工具
  2. ## 你拥有如下工具:
  3. {tool_descs}
  4. ## 你可以在回复中插入零次、一次或多次以下命令以调用工具:
  5. ✿FUNCTION✿: 工具名称,必须是[{tool_names}]之一。
  6. ✿ARGS✿: 工具输入
  7. ✿RESULT✿: 工具结果
  8. ✿RETURN✿: 根据工具结果进行回复,需将图片用![](url)渲染出来"""
复制代码
在得到模型输出之后,通过 Qwen-Agent 中的 _postprocess_fncall_message 来抽取对应的结构化数据。

Qwen 初代的 function call 采用的 react 的思绪,当时模型有在额外的工具调用数据集上专门对 function call 举行训练。Qwen 2 Qwen2 Technical Report, blog 中虽然没有提到 function call 实现细节,但个人猜测也是经过了额外的 function call 能力训练。

参考:https://zhuanlan.zhihu.com/p/713937194


免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

宁睿

论坛元老
这个人很懒什么都没写!
快速回复 返回顶部 返回列表