【丹摩智算实战】手把手教你Llama 3.1 8B摆设:开启天然语言处理新篇章 ...

打印 上一主题 下一主题

主题 1873|帖子 1873|积分 5619

前言

在天然语言处理(NLP)领域,大模型(LLM)的发展日新月异,为各种应用场景带来了亘古未有的能力。近日,Meta公司公布推出了其最新的开源模型——Llama 3.1,这一消息在行业内引起了广泛关注。本文将详细介绍Llama 3.1的配景、特点、摆设流程以及使用实例,资助读者深入相识并把握这一强盛的NLP工具。

  
Llama 3.1概述

大模型(LLM)是指基于深度学习算法举行训练的天然语言处理模型,它们不但在天然语言明白和生成方面表现出色,还广泛应用于机器视觉、多模态处理和科学盘算等领域。随着“百模大战”的愈演愈烈,开源LLM如雨后春笋般涌现,其中包罗国外的LLaMA、Alpaca以及国内的ChatGLM、BaiChuan、InternLM等。这些模型支持用户当地摆设和私域微调,为每一个想要构建独特大模型的开辟者提供了可能。
2024年7月23日,Meta公司公布了迄今为止最强盛的开源模型Llama 3.1,并同时发布了405B、70B和8B三个版本的模型。其中,Llama 3.1 405B模型支持上下文长度为128K Tokens,在基于15万亿个Tokens、凌驾1.6万个H100 GPU上举行训练,是Meta有史以来训练规模最大的一次。尽管我们此次主要关注8B版本的摆设与使用,但其背后的技术力气和应用潜力不容忽视。
Llama 3.1 8B摆设流程

创建实例

摆设Llama 3.1 8B模型的第一步是创建一个符合的GPU云实例。以下是在Ubuntu 22.04情况下,使用Python 3.12、CUDA 12.1和PyTorch 2.4.0的基本步调:

  • 选择实例配置:在GPU云实例页面选择付费类型(如按量付费或包月套餐),并配置GPU数目和型号。推荐配置为NVIDIA GeForce RTX 4090,其拥有60GB内存和24GB显存(满足Llama 3.1 8B至少16G显存的需求)。


  • 配置数据硬盘:每个实例默认附带50GB数据硬盘,可根据需要扩容至60GB。
  • 选择镜像:选择安装了PyTorch 2.4.0的基础镜像,以快速启动情况。


  • 创建密钥对:创建并生存密钥对,以便后续通过SSH登录实例。

登录实例

实例创建成功后,可以通过多种方式登录,包罗JupyterLab和SSH。SSH登录需要用户名、远程主机域名或IP、端标语以及登录暗码或密钥。

摆设Llama 3.1


  • 创建Conda情况:使用conda创建Python 3.12的新情况,并激活该情况。
  • 安装依靠:安装Langchain、Streamlit、Transformers和Accelerate等依靠库。
  • 下载模型:通过内网高速下载Llama-3.1-8B-Instruct模型,并解压缩。
使用教程

摆设完成后,可以开始使用Llama 3.1 8B模型举行天然语言处理使命。以下是一个简单的聊天机器人示例:

  • 编写Python脚本:创建<font style="color:rgb(5, 7, 59);">llamaBot.py</font>文件,并编写代码加载模型、处理用户输入和生成相应。
  • 启动Streamlit服务:在终端中运行下令启动Streamlit服务,确保服务地址指定为0.0.0.0,以便通过浏览器访问。
[code]from transformers import AutoTokenizer, AutoModelForCausalLM
import torch
import streamlit as st

# 创建一个标题和一个副标题
st.title("

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

尚未崩坏

论坛元老
这个人很懒什么都没写!
快速回复 返回顶部 返回列表