GraphLLM支持一些推理引擎和很多模型。发起的组合是使用llama.cpp与Qwen2.5。llama.cpp服务器得到了完全支持,其他引擎具有有限的功能。GraphLLM广泛使用了高级功能,如语法、助手响应预填充和使用原始提示。一些引擎和API提供者只支持这些功能的子集。
GraphLLM是一个强大的工具,可以资助你在大型语言模型的资助下处理复杂的数据任务。如果你对这个项目感爱好,可以访问其GitHub页面了解更多信息:
GraphLLM: A graph based framework to process data through a LLM or multiple LLMs.