IT评测·应用市场-qidao123.com技术社区
标题:
【丹摩智算实战】手把手教你Llama 3.1 8B摆设:开启天然语言处理新篇章
[打印本页]
作者:
尚未崩坏
时间:
2024-9-29 04:59
标题:
【丹摩智算实战】手把手教你Llama 3.1 8B摆设:开启天然语言处理新篇章
前言
在天然语言处理(NLP)领域,大模型(LLM)的发展日新月异,为各种应用场景带来了亘古未有的能力。近日,Meta公司公布推出了其最新的开源模型——Llama 3.1,这一消息在行业内引起了广泛关注。本文将详细介绍Llama 3.1的配景、特点、摆设流程以及使用实例,资助读者深入相识并把握这一强盛的NLP工具。
Llama 3.1概述
大模型(LLM)是指基于深度学习算法举行训练的天然语言处理模型,它们不但在天然语言明白和生成方面表现出色,还广泛应用于机器视觉、多模态处理和科学盘算等领域。随着“百模大战”的愈演愈烈,开源LLM如雨后春笋般涌现,其中包罗国外的LLaMA、Alpaca以及国内的ChatGLM、BaiChuan、InternLM等。这些模型支持用户当地摆设和私域微调,为每一个想要构建独特大模型的开辟者提供了可能。
2024年7月23日,Meta公司公布了迄今为止最强盛的开源模型Llama 3.1,并同时发布了405B、70B和8B三个版本的模型。其中,Llama 3.1 405B模型支持上下文长度为128K Tokens,在基于15万亿个Tokens、凌驾1.6万个H100 GPU上举行训练,是Meta有史以来训练规模最大的一次。尽管我们此次主要关注8B版本的摆设与使用,但其背后的技术力气和应用潜力不容忽视。
Llama 3.1 8B摆设流程
创建实例
摆设Llama 3.1 8B模型的第一步是创建一个符合的GPU云实例。以下是在Ubuntu 22.04情况下,使用Python 3.12、CUDA 12.1和PyTorch 2.4.0的基本步调:
选择实例配置
:在GPU云实例页面选择付费类型(如按量付费或包月套餐),并配置GPU数目和型号。推荐配置为NVIDIA GeForce RTX 4090,其拥有60GB内存和24GB显存(满足Llama 3.1 8B至少16G显存的需求)。
配置数据硬盘
:每个实例默认附带50GB数据硬盘,可根据需要扩容至60GB。
选择镜像
:选择安装了PyTorch 2.4.0的基础镜像,以快速启动情况。
创建密钥对
:创建并生存密钥对,以便后续通过SSH登录实例。
登录实例
实例创建成功后,可以通过多种方式登录,包罗JupyterLab和SSH。SSH登录需要用户名、远程主机域名或IP、端标语以及登录暗码或密钥。
摆设Llama 3.1
创建Conda情况
:使用conda创建Python 3.12的新情况,并激活该情况。
安装依靠
:安装Langchain、Streamlit、Transformers和Accelerate等依靠库。
下载模型
:通过内网高速下载Llama-3.1-8B-Instruct模型,并解压缩。
使用教程
摆设完成后,可以开始使用Llama 3.1 8B模型举行天然语言处理使命。以下是一个简单的聊天机器人示例:
编写Python脚本
:创建<font style="color:rgb(5, 7, 59);">llamaBot.py</font>文件,并编写代码加载模型、处理用户输入和生成相应。
启动Streamlit服务
:在终端中运行下令启动Streamlit服务,确保服务地址指定为0.0.0.0,以便通过浏览器访问。
[code]from transformers import AutoTokenizer, AutoModelForCausalLM
import torch
import streamlit as st
# 创建一个标题和一个副标题
st.title("
欢迎光临 IT评测·应用市场-qidao123.com技术社区 (https://dis.qidao123.com/)
Powered by Discuz! X3.4