“GPT 学术优化”(GPT Academic)是一个专注于自然语言处理和生成的开源项目,旨在利用GPT模型来优化学术领域的任务。为GPT/GLM等LLM大语言模型提供实用化交互接口,特别优化论文阅读/润色/写作体验,模块化设计,支持自定义快捷按钮&函数插件,支持Python和C++等项目剖析&自译解功能,PDF/LaTex论文翻译&总结功能,支持并行问询多种LLM模型,支持chatglm3等本地模型。接入通义千问, deepseekcoder, 讯飞星火, 文心一言, llama2, rwkv, claude2, moss等。
“GPT 学术优化”(GPT Academic)该项目可能涵盖以下几个主要方面:
- 学术写作和编辑:- 提供工具和模型来帮助生成学术论文、摘要、文献综述等。通过微调模型,GPT Academic可以生成符合特定学术风格和格式的文本。
- 自动化文献综述:- 使用GPT模型来自动生成或补充文献综述,这对研究人员来说是一个省时的工具。
- 数据集和训练:- 该项目可能包括针对学术领域的数据集,用于微调和训练GPT模型,以提高其在处理学术文本时的准确性和相关性。
- 学术问答系统:- 开发基于GPT的问答系统,可以回答学术领域的特定问题,如数学、物理、历史等。
- 文本分类和主题分析:- 使用GPT模型来对学术论文进行分类或主题分析,帮助研究人员更好地组织和理解文献。
新界面(修改
config.py
中的LAYOUT选项即可实现“左右布局”和“上下布局”的切换)所有按钮都通过读取functional.py动态生成,可随意加自定义功能,解放剪贴板
润色/纠错
如果输出包含公式,会以tex形式和渲染形式同时显示,方便复制和阅读
懒得看项目代码?直接把整个工程炫ChatGPT嘴里
多种大语言模型混合调用(ChatGLM + OpenAI-GPT3.5 + GPT4)
安装方法I:直接运行 (Windows, Linux or MacOS)
- 下载项目
git clone --depth=1 https://github.com/binary-husky/gpt_academic.gitcd gpt_academic
- 配置API_KEY等变量在
config.py
中,配置API KEY等变量。特殊网络环境设置方法、Wiki-项目配置说明。「 程序会优先检查是否存在名为config_private.py
的私密配置文件,并用其中的配置覆盖config.py
的同名配置。如您能理解以上读取逻辑,我们强烈建议您在config.py
同路径下创建一个名为config_private.py
的新配置文件,并使用config_private.py
配置项目,从而确保自动更新时不会丢失配置 」。「 支持通过环境变量
配置项目,环境变量的书写格式参考docker-compose.yml
文件或者我们的Wiki页面。配置读取优先级:环境变量
>config_private.py
>config.py
」。 - 安装依赖
# (选择I: 如熟悉python, python推荐版本 3.9 ~ 3.11)备注:使用官方pip源或者阿里pip源, 临时换源方法:python -m pip install -r requirements.txt -i https://mirrors.aliyun.com/pypi/simple/python -m pip install -r requirements.txt# (选择II: 使用Anaconda)步骤也是类似的 (https://www.bilibili.com/video/BV1rc411W7Dr):conda create -n gptac_venv python=3.11 # 创建anaconda环境conda activate gptac_venv # 激活anaconda环境python -m pip install -r requirements.txt # 这个步骤和pip安装一样的步骤
如果需要支持清华ChatGLM2/复旦MOSS/RWKV作为后端,请点击展开此处
- 运行
python main.py
安装方法II:使用Docker
宝塔面板 Docker 一键安装:轻松部署 GPTAcademic 打造私有GPT学术应用https://blog.csdn.net/iduiui997/article/details/140675065
- 部署项目的全部能力(这个是包含cuda和latex的大型镜像。但如果您网速慢、硬盘小,则不推荐该方法部署完整项目)
# 修改docker-compose.yml,保留方案0并删除其他方案。然后运行:docker-compose up
- 仅ChatGPT + GLM4 + 文心一言+spark等在线模型(推荐大多数人选择)
# 修改docker-compose.yml,保留方案1并删除其他方案。然后运行:docker-compose up
P.S. 如果需要依赖Latex的插件功能,请见Wiki。另外,您也可以直接使用方案4或者方案0获取Latex功能。
- ChatGPT + GLM3 + MOSS + LLAMA2 + 通义千问(需要熟悉Nvidia Docker运行时)
# 修改docker-compose.yml,保留方案2并删除其他方案。然后运行:docker-compose up
安装方法III:其他部署方法
- Windows一键运行脚本。 完全不熟悉python环境的Windows用户可以下载Release中发布的一键运行脚本安装无本地模型的版本。脚本贡献来源:oobabooga。
- 使用第三方API、Azure等、文心一言、星火等,见Wiki页面
- 云服务器远程部署避坑指南。 请访问云服务器远程部署wiki
- 在其他平台部署&二级网址部署- 使用Sealos一键部署。- 使用WSL2(Windows Subsystem for Linux 子系统)。请访问部署wiki-2- 如何在二级网址(如
http://localhost/subpath
)下运行。请访问FastAPI运行说明
项目地址:GitHub - binary-husky/gpt_academic: 为GPT/GLM等LLM大语言模型提供实用化交互接口,特别优化论文阅读/润色/写作体验,模块化设计,支持自定义快捷按钮&函数插件,支持Python和C++等项目剖析&自译解功能,PDF/LaTex论文翻译&总结功能,支持并行问询多种LLM模型,支持chatglm3等本地模型。接入通义千问, deepseekcoder, 讯飞星火, 文心一言, llama2, rwkv, claude2, moss等。为GPT/GLM等LLM大语言模型提供实用化交互接口,特别优化论文阅读/润色/写作体验,模块化设计,支持自定义快捷按钮&函数插件,支持Python和C++等项目剖析&自译解功能,PDF/LaTex论文翻译&总结功能,支持并行问询多种LLM模型,支持chatglm3等本地模型。接入通义千问, deepseekcoder, 讯飞星火, 文心一言, llama2, rwkv, claude2, moss等。 - binary-husky/gpt_academichttps://github.com/binary-husky/gpt_academic?tab=readme-ov-file
版权归原作者 技术程序猿华锋 所有, 如有侵权,请联系我们删除。