ToB企服应用市场:ToB评测及商务社交产业平台

标题: GraphLLM:基于图的框架,通过大型语言模型处理数据 [打印本页]

作者: 欢乐狗    时间: 2024-11-5 10:19
标题: GraphLLM:基于图的框架,通过大型语言模型处理数据
GraphLLM是一个创新的框架,它答应用户通过一个或多个大型语言模型(LLM)来处理数据。这个框架不仅提供了一个强大的署理,可以或许实验网络搜刮和运行Python代码,还提供了一套工具来抓取网页数据,并将其重新格式化为对LLM更友好的格式。

GraphLLM的特点

GraphLLM提供了以下一系列特点:

GraphLLM的GUI

GraphLLM的GUI受到了ComfyUI的启发,前端界面相似,但后端完全差别,因此项目之间的节点不兼容。这是因为开发者希望提供更高级的功能和对复杂图的支持。GraphLLM GUI的一些特点包括:

示例

GraphLLM提供了一个示例图,用于天生Python代码并用它来解决标题。比方,一个署理可以或许回复类似于“给我总结一下Hacker News首页上最有可能与语言模型相干的文章”的标题。
限制

GraphLLM主要与llama70b和qwen 32b举行测试,使用llama.cpp服务器作为后端。该框架正在积极开发中,可能会有庞大变化。
安装和运行

要快速设置GraphLLM,你须要运行以下命令来下载和启动:
bash
  1. pip3 install selenium readabilipy html2text pdfminer.six justpy
  2. git clone https://github.com/matteoserva/GraphLLM.git
  3. cd GraphLLM
复制代码
然后在另一个终端启动llama.cpp服务器:
bash
  1. GGML_CUDA_ENABLE_UNIFIED_MEMORY=1 CUDA_VISIBLE_DEVICES=0,1 ./llama-server -ngl 99 -t 6 -c 32768 --host 0.0.0.0  -m Qwen2.5-32B-Instruct-Q5_K_M.gguf --override-kv tokenizer.ggml.add_bos_token=bool:false -sp -fa -ctk q8_0 -ctv q8_0
复制代码
你可以在终端中运行以下命令来启动服务器:
bash
  1. python3 server.py
复制代码
然后,你可以在浏览器中打开 http://localhost:8008/ 来访问。
要直接运行一个图,你可以使用以下命令:
bash
  1. python3 exec.py examples/graph_summarize.txt test/wikipedia_summary.txt
复制代码
在examples文件夹中有更多的示例,你也可以从Web GUI中打开更多示例。
后端支持

GraphLLM支持一些推理引擎和很多模型。发起的组合是使用llama.cpp与Qwen2.5。llama.cpp服务器得到了完全支持,其他引擎具有有限的功能。GraphLLM广泛使用了高级功能,如语法、助手响应预填充和使用原始提示。一些引擎和API提供者只支持这些功能的子集。
GraphLLM是一个强大的工具,可以资助你在大型语言模型的资助下处理复杂的数据任务。如果你对这个项目感爱好,可以访问其GitHub页面了解更多信息:
GraphLLM: A graph based framework to process data through a LLM or multiple LLMs.

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。




欢迎光临 ToB企服应用市场:ToB评测及商务社交产业平台 (https://dis.qidao123.com/) Powered by Discuz! X3.4