前言:
对于gpt_academic使用的过程记录
本次使用:WINDOWS;QWEN;python
github网站:(安装过程对应网站也有详细说明,本文章旨在在对本人操作过程做一个简单记录,以便参考)GitHub - binary-husky/gpt_academic: 为GPT/GLM等LLM大语言模型提供实用化交互接口,特别优化论文阅读/润色/写作体验,模块化设计,支持自定义快捷按钮&函数插件,支持Python和C++等项目剖析&自译解功能,PDF/LaTex论文翻译&总结功能,支持并行问询多种LLM模型,支持chatglm3等本地模型。接入通义千问, deepseekcoder, 讯飞星火, 文心一言, llama2, rwkv, claude2, moss等。
具体过程:
1. 在GITHUB上下载安装包
网站:Release Version 3.75 & Win/Mac一键安装包 · binary-husky/gpt_academic · GitHub
2.安装对应python环境
本次安装对应环境名:GPT(对应YOUNAME)
conda create -n YOUNAME python=3.11.9
conda activate YOUNAME
python -m pip install -r requirements.txt
其中,requirments.txt在github的下载内容中
3.调整config.py
需要调整的有三处,对应文件中写的很详细了
1. API_KEY
2.网络代理地址
3.对应使用的模型
以下做详细解释:
4.运行:
在对应python环境下运行main.py
对应知识点
1.API获取与配置:(介绍阿里云的API申请流程)
阿里云API获取教程网站:如何获取通义千问API的KEY_模型服务灵积(DashScope)-阿里云帮助中心 (aliyun.com)
步骤一:开通开通DashScope灵积模型服务
步骤二:获取API-KEY(我开通的是‘qwen-vl-chat-v1 模型’),记住自己的API:sk-****
只需要完成到申请成功API即可
注:qwen-vl-chat-v1 模型当前计费为‘限时免费’,免费额度是‘自开通DashScope开始180天内,有1000000tokens的免费使用额度’
tokens:模型API调用时按照输入、输出token数量分别进行计费:对于中文文本来说,千问模型的1个token平均对应1.5-1.8个汉字;对于英文文本来说,1个token通常对应一个单词或词根。
2.网络代理地址等信息获取:(此处使用Clash)
按照如下操作,找到对应配位置文件:*****.yml文件
对应内容中找到如下信息:
mixed-port: 7890
bind-address: '*'
对应信息意思是:
表示 Clash 在端口 7890 上同时监听 HTTP 和 SOCKS5 代理请求(但具体是否解析 DNS(即mixed-port: 7890
中的socks5h
)通常取决于客户端的配置)h
2.bind-address: '*'
这个设置说明 Clash 正在监听所有可用的网络接口。在大多数个人使用情况下,这意味着代理服务可以在本地地址
127.0.0.1
上访问
注:
127.0.0.1
是一个特殊的 IP 地址,通常被称为“localhost”地址或环回(loopback)地址。它是一种标准的用于指向运行当前网络操作的本地计算机的方式。这个地址只能从同一台计算机访问,用于网络应用开发和测试以及系统配置。
总结config.py需要更改的信息:
1.API_KEY = "sk-****************************"
2.USE_PROXY = True
proxies = {
# [协议]:// [地址] :[端口]
"http": "http://127.0.0.1:7890", # 再例如 "http": "http://127.0.0.1:7890",
}
3.LLM_MODEL = "qwen-max"
版权归原作者 Somnr1521 所有, 如有侵权,请联系我们删除。