Llama-2-Open-Source-LLM-CPU-Inference 使用教程

八卦阵  金牌会员 | 2024-8-29 19:31:41 | 来自手机 | 显示全部楼层 | 阅读模式
打印 上一主题 下一主题

主题 520|帖子 520|积分 1560

Llama-2-Open-Source-LLM-CPU-Inference 使用教程

  Llama-2-Open-Source-LLM-CPU-InferenceRunning Llama 2 and other Open-Source LLMs on CPU Inference Locally for Document Q&A项目地址:https://gitcode.com/gh_mirrors/ll/Llama-2-Open-Source-LLM-CPU-Inference
项目介绍

Llama-2-Open-Source-LLM-CPU-Inference 是一个开源项目,旨在资助用户在本地CPU上运行Llama 2和其他开源大型语言模型(LLMs)进行文档问答。该项目通过使用量化技术,使得在CPU上运行LLMs成为可能,从而淘汰了对第三方商业LLM提供商的依赖,特别是在数据隐私和合规性方面有特别需求的企业情况中。
项目快速启动

情况准备


  • 克隆项目堆栈
    1. git clone https://github.com/kennethleungty/Llama-2-Open-Source-LLM-CPU-Inference.git
    2. cd Llama-2-Open-Source-LLM-CPU-Inference
    复制代码
  • 安装依赖
    1. pip install -r requirements.txt
    复制代码
  • 配置模型 下载所需的LLama 2模型文件并放置在models目录下。
运行示例

  1. from transformers import LlamaForQuestionAnswering, LlamaTokenizer
  2. # 加载模型和分词器
  3. model_path = "models/llama-2-7b-chat.ggmlv3.q8_0.bin"
  4. tokenizer = LlamaTokenizer.from_pretrained(model_path)
  5. model = LlamaForQuestionAnswering.from_pretrained(model_path)
  6. # 示例输入
  7. question = "什么是开源大型语言模型?"
  8. context = "开源大型语言模型(LLMs)是一种可以通过公开源代码访问和修改的人工智能模型,广泛应用于自然语言处理任务中。"
  9. # 编码输入
  10. inputs = tokenizer(question, context, return_tensors='pt')
  11. # 获取答案
  12. outputs = model(**inputs)
  13. answer_start = torch.argmax(outputs.start_logits)
  14. answer_end = torch.argmax(outputs.end_logits) + 1
  15. answer = tokenizer.convert_tokens_to_string(tokenizer.convert_ids_to_tokens(inputs.input_ids[0][answer_start:answer_end]))
  16. print(f"答案: {answer}")
复制代码
应用案例和最佳实践

应用案例


  • 企业内部文档问答体系:使用Llama 2模型构建一个内部文档问答体系,资助员工快速获取所需信息,进步工作服从。
  • 教育范畴的智能助教:在教育范畴,可以使用该模型构建智能助教体系,资助学生解答学术问题,提供学习辅导。
最佳实践


  • 模型量化:使用量化技术淘汰模型大小和盘算需求,使得在CPU上运行更加高效。
  • 数据隐私保护:在处理敏感数据时,确保模型和数据存储在本地,避免数据泄漏风险。
典型生态项目


  • LangChain:一个用于构建语言模型应用的框架,可以与Llama 2模型结合使用,提供更丰富的功能和更好的集成体验。
  • GGML:一个用于机器学习的库,支持高效的模型量化和推理,是运行Llama 2模型的关键组件之一。
通过以上步骤和示例,您可以快速上手并应用Llama-2-Open-Source-LLM-CPU-Inference项目,构建本身的文档问答体系。
  Llama-2-Open-Source-LLM-CPU-InferenceRunning Llama 2 and other Open-Source LLMs on CPU Inference Locally for Document Q&A项目地址:https://gitcode.com/gh_mirrors/ll/Llama-2-Open-Source-LLM-CPU-Inference

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

八卦阵

金牌会员
这个人很懒什么都没写!

标签云

快速回复 返回顶部 返回列表