前言:
对于gpt_academic使用的过程记载
本次使用:WINDOWS;QWEN;python
github网站:(安装过程对应网站也有详细说明,本文章旨在在对本人操纵过程做一个简单记载,以便参考)GitHub - binary-husky/gpt_academic: 为GPT/GLM等LLM大语言模子提供实用化交互接口,特殊优化论文阅读/润色/写作体验,模块化设计,支持自定义快捷按钮&函数插件,支持Python和C++等项目分析&自译解功能,PDF/LaTex论文翻译&总结功能,支持并行问询多种LLM模子,支持chatglm3等本地模子。接入通义千问, deepseekcoder, 讯飞星火, 文心一言, llama2, rwkv, claude2, moss等。
具体过程:
1. 在GITHUB上下载安装包
网站:Release Version 3.75 & Win/Mac一键安装包 · binary-husky/gpt_academic · GitHub
2.安装对应python环境
本次安装对应环境名:GPT(对应YOUNAME)
- conda create -n YOUNAME python=3.11.9
- conda activate YOUNAME
- python -m pip install -r requirements.txt
复制代码 此中,requirments.txt在github的下载内容中
3.调解config.py
需要调解的有三处,对应文件中写的很详细了
1. API_KEY
2.网络署理所在
3.对应使用的模子
以下做详细解释:
4.运行:
在对应python环境下运行main.py
对应知识点
1.API获取与配置:(介绍阿里云的API申请流程)
阿里云API获取教程网站:如何获取通义千问API的KEY_模子服务灵积(DashScope)-阿里云帮助中央 (aliyun.com)
步调一:开通开通DashScope灵积模子服务
步调二:获取API-KEY(我开通的是‘qwen-vl-chat-v1 模子’),记住自己的API:sk-****
只需要完成到申请乐成API即可
注:qwen-vl-chat-v1 模子当前计费为‘限时免费’,免费额度是‘自开通DashScope开始180天内,有1000000tokens的免费使用额度’
tokens:模子API调用时按照输入、输出token数目分别举行计费:对于中文文本来说,千问模子的1个token均匀对应1.5-1.8个汉字;对于英文文本来说,1个token通常对应一个单词或词根。
2.网络署理所在等信息获取:(此处使用Clash)
按照如下操纵,找到对应配位置文件:*****.yml文件
对应内容中找到如下信息:
- mixed-port: 7890
- bind-address: '*'
复制代码 对应信息意思是:
1.mixed-port: 7890 表示 Clash 在端口 7890 上同时监听 HTTP 和 SOCKS5 署理哀求(但具体是否解析 DNS(即 socks5h 中的 h)通常取决于客户端的配置)
2.bind-address: '*' 这个设置说明 Clash 正在监听全部可用的网络接口。在大多数个人使用环境下,这意味着署理服务可以在本地所在 127.0.0.1上访问
注:127.0.0.1 是一个特殊的 IP 所在,通常被称为“localhost”所在或环回(loopback)所在。它是一种尺度的用于指向运行当前网络操纵的本地盘算机的方式。这个所在只能从同一台盘算机访问,用于网络应用开发和测试以及体系配置。
总结config.py需要更改的信息:
- 1.API_KEY = "sk-****************************"
- 2.USE_PROXY = True
- proxies = {
- # [协议]:// [地址] :[端口]
- "http": "http://127.0.0.1:7890", # 再例如 "http": "http://127.0.0.1:7890",
- }
- 3.LLM_MODEL = "qwen-max"
复制代码
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。 |