使用GPT-4生成训练数据微调GPT-3.5 RAG管道
我们现在可以使用GPT-4生成训练数据,然后用更便宜的API(gpt-3.5 turbo)来进行微调,从而获得更准确的模型,并且更便宜。
是否在业务中使用大语言模型?
但LLM究竟是什么,它们如何使你的企业受益?它只是一种炒作,还是会长期存在?
Prompt、RAG、微调还是重新训练?选择正确的生成式 AI 的方法指南
Prompt、RAG、微调还是重新训练?选择正确的生成式 AI 的方法指南
微调llama2模型教程:创建自己的Python代码生成器
本文将演示如何使用PEFT、QLoRa和Huggingface对新的lama-2进行微调,生成自己的代码生成器。所以本文将重点展示如何定制自己的llama2,进行快速训练,以完成特定任务。
使用GGML和LangChain在CPU上运行量化的llama2
Meta AI 在本周二发布了最新一代开源大模型 Llama 2。对比于今年 2 月发布的 Llama 1,训练所用的 token 翻了一倍,已经达到了 2 万亿,对于使用大模型最重要的上下文长度限制,Llama 2 也翻了一倍。在本文,我们将紧跟趋势介绍如何在本地CPU推理上运行量化版本的开源Ll
Prompt、RAG、微调还是重新训练?如何选择正确的生成式AI的使用方法
生成式人工智能正在快速发展,许多人正在尝试使用这项技术来解决他们的业务问题。本文将试图根据一些常见的可量化指标,为选择正确的生成式人工智能方法提供建议。
【AI实战】开源大语言模型LLMs汇总
开源大语言模型LLM汇总
2023年发布的25个开源大型语言模型总结
本文总结了当前可用的开源llm的全部(几乎全部)列表,以及有关其许可选项和源代码存储库的信息,希望对你有所帮助
LLM-Blender:大语言模型也可以进行集成学习
LLM-Blender是一个集成框架,可以通过利用多个开源大型语言模型(llm)的不同优势来获得始终如一的卓越性能。
【AI实战】训练一个自己的ChatGPT
使用 Alpaca-LoRA 来训练一个自己的 ChatGPT
开源教育对话大模型 EduChat
教育是一项对人类身心发展产生影响的社会实践活动,旨在从内在激发人们固有或潜在的素质。因此,我们必须坚持以人为本的教育理念,重点关注个性化、引导式和身心全面发展。EduChat 是华东师范大学计算机科学与技术学院的EduNLP 团队开发的开源教育对话大模型。该项目主要研究以预训练大模型为基底的教育对话
使用Llama.cpp在CPU上快速的运行LLM
大型语言模型(llm)正变得越来越流行,但是它需要很多的资源,尤其时GPU。在这篇文章中,我们将介绍如何使用Python中的llama.cpp库在高性能的cpu上运行llm。
LLM-Client一个轻量级的LLM集成工具
我这里又发现了一个刚刚发布不久的集成工具LLM-Client就出现了,本文将深入研究LLM -client和LangChain的特性、优势和注意事项。
PromptBench:大型语言模型的对抗性基准测试
PromptBench是微软研究人员设计的一个用于测量大型语言模型(llm)对对抗性提示鲁棒性的基准测试。这个的工具是理解LLM的重要一步,随着这些模型在各种应用中越来越普遍,这个主题也变得越来越重要。
Video-LLaMa:利用多模态增强对视频内容理解
本文将重点介绍称为video - llama的多模态框架。Video-LLaMA旨在使LLM能够理解视频中的视觉和听觉内容。
开源大型语言模型(llm)总结
大型语言模型(LLM)是人工智能领域中的一个重要研究方向,在ChatGPT之后,它经历了快速的发展。
如何从宏观层面构建优秀的大语言模型
本文介绍核心内容为如何从宏观层面构建优秀的大语言模型,希望对学习和使用ChatGPT的同学们有所帮助。文章目录1. 常见误区2. 两个关键定律 2.1 定律一 2.2 定律二3. 预训练、指令微调和强化学习之间的关系4. 大模型的核心能力5. 如何在指令微调上取得较好的效果
大模型训练数据多样性的重要性
本文介绍核心内容为大模型训练数据多样性的重要性,希望对学习大模型的同学们有所帮助。文章目录1. 引言2. 摘要3. 结果4. 讨论
AutoGPT也有Web UI了
AutoGPT是一个开源的实验性应用程序,代表了完全自治的GPT-4的示例,作为决策助手,它可以在没有人为干预的情况下实现目标。通过接入互联网来信息收集的使用pinecone将数据存储到本地可以访问GPT-4或GPT-3.5的API。