视频生成领域的发展概述:从多级扩散到LLM
在这篇文章中,我们将整理视频生成在最近几年是发展概况,模型的架构是如何发展的,以及现在面临的突出问题。
使用UMAP降维可视化RAG嵌入
在本文中,我们使用LangChain构建RAG应用,并在2D中可视化嵌入,分析查询和文档片段之间的关系和接近度。
从模型到前端,你应该知道的LLM生态系统指南
本文通过介绍这个生态系统的核心组成部分,来详细整理LLM的发展。
MoE-LLaVA:具有高效缩放和多模态专业知识的大型视觉语言模型
MoE-LLaVA利用了“专家混合”策略融合视觉和语言数据,实现对多媒体内容的复杂理解和交互。
使用Mamba和Qdrant数据库实现RAG的代码示例
我们今天来研究一下RAG、Mamba和Qdrant的协同工作,它们的有效组合保证了效率和可扩展性。
深入解析 Mistral AI 的 Mixtral 8x7B 开源MoE大模型
Mixtral 8X7B是Mistral AI公司在大语言模型领域的一次重大突破。它采用了一种名为"专家混合"(MoE)的架构,这种架构由8个专家组成,每个专家组有7个亿参数。这种高效的架构使得Mixtral能够在多个领域表现出色,具有出色的处理能力。Mistra l对持续优化的坚定承诺,将确保Mi
大语言模型的三种主要架构 Decoder-Only、Encoder-Only、Encoder-Decoder
f基于 Transformer 模型以非灰色显示:decoder-only 模型在蓝色分支,encoder-only 模型在粉色分支,encoder-decoder 模型在绿色分支。模型在时间线上的垂直位置表示它们的发布日期。开源模型由实心方块表示,而闭源模型由空心方块表示。右下角的堆积条形图显示了
12个RAG常见痛点及解决方案
这里使用“痛点”而不是“失败点”,主要是因为我们总结的问题都有相应的建议解决方案。
UniMS-RAG:用于个性化对话的统一多源RAG框架
UniMS-RAG统一了计划、检索和阅读任务的训练过程,并将它们集成到一个综合框架中。
Langchain中改进RAG能力的3种常用的扩展查询方法
有多种方法可以提高检索增强生成(RAG)的能力,其中一种方法称为查询扩展。我们这里主要介绍在Langchain中常用的3种方法
论文推荐:大语言模型在金融领域的应用调查
这篇论文总结了现有LLM在金融领域的应用现状,推荐和金融相关或者有兴趣的朋友都看看
使用mergekit 合并大型语言模型
在本文中我们将介绍各种合并算法,研究如何实现它们,并深入研究它们的工作原理。还将使用mergekit工具合并Mistral、WizardMath和CodeLlama模型。
Mistral AI vs. Meta:顶级开源LLM比较
本文将比较Mistral 7B vs Llama 2 7B and Mixtral 8x7B vs Llama 2 70B
通过4个任务比较LangChain和LlamaIndex
LlamaIndex和LangChain是构建LLM应用程序的两个框架。LlamaIndex专注于RAG用例,LangChain得到了更广泛的应用。
针对特定领域较小的语言模型是否与较大的模型同样有效?
作者全面分析了微调大语言模型(llm)及其在金融情绪分析中的零样本和少样本的能力。
RAG中的3个高级检索技巧
本文将探讨三种有效的技术来增强基于rag的应用程序中的文档检索,通过结合这些技术,可以检索与用户查询密切匹配的更相关的文档,从而生成更好的答案。
4种通过LLM进行文本知识图谱的构建方法对比介绍
本文将介绍和比较使用LLM转换非结构化文本的四种方法,这些方法在不同的场景中都可能会用到。
使用SPIN技术对LLM进行自我博弈微调训练
SPIN从AlphaGo Zero和AlphaZero等游戏中成功的自我对弈机制中汲取灵感。它能够使LLM参与自我游戏的能力。
RoSA: 一种新的大模型参数高效微调方法
随着语言模型不断扩展到前所未有的规模,对下游任务的所有参数进行微调变得非常昂贵,PEFT方法已成为自然语言处理领域的研究热点。PEFT方法将微调限制在一小部分参数中,以很小的计算成本实现自然语言理解任务的最先进性能。
使用Mixtral-offloading在消费级硬件上运行Mixtral-8x7B
在本文中,将解释Mixtral-offloading的工作过程,使用这个框架可以节省内存并保持良好的推理速度,我们将看到如何在消费者硬件上运行Mixtral-8x7B,并对其推理速度进行基准测试。