NLP之transformer:transformer-explainer的简介、安装和使用方法、案例应用之详细攻略
NLP之transformer:transformer-explainer的简介、安装和使用方法、案例应用之详细攻略目录相关论文transformer-explainer的简介transformer-explainer的安装和使用方法transformer-explainer的案例应用相关论文《T
ModelGPT——释放大型语言模型的潜力,实现定制化AI模型生成
大模型在满足用户多样化和特定需求方面还有很多有待探索的空间,浙江大学计算机科学与技术学院的研究团队提出了ModelGPT,这是一个新颖的框架,能够根据用户提供的数据或任务描述生成特别定制的AI模型。相较于传统LLMs,ModelGPT大幅减少了训练和部署所需的资源,提供高达270倍的速度提升。
大语言模型的Scaling Law:如何随着模型大小、训练数据和计算资源的增加而扩展
语言模型的规模化法则为这些强大的人工智能系统的发展和优化提供了关键洞察。正如我们所探讨的,模型大小、训练数据和计算资源之间的关系遵循可预测的幂律模式。平衡规模化:Chinchilla 的发现强调了同时对模型大小和训练数据进行等比例规模化以达到最佳性能的重要性。这挑战了之前仅增加模型大小的重点。资源分
Datawhale-AI 夏令营 自然语言处理实战营 总结(Task01-Task02)
③构建词汇表,根据英文和中文数据的词汇内容,增加索引的内容,对于一些陌生的词汇,我们给予其“未知”的标签。缺点:通过代码实操发现,在翻译领域的BLEU评价指标基本得分很低,直接原因是翻译出来的语句较生硬,基本都是通过映射方式,语句块之间没有任何的逻辑联系。由于模型仅仅只是确定翻译的某个数学关系,而翻
论文分享|ACL2024主会|RAG相关论文简读
ACL2024主会的RAG/检索方向26篇论文简读
人工智能大模型之开源大语言模型汇总(国内外开源项目模型汇总)
Large Language Model (LLM) 即大规模语言模型,是一种基于深度学习的自然语言处理模型,它能够学习到自然语言的语法和语义,从而可以生成人类可读的文本。所谓"语言模型",就是只用来处理语言文字(或者符号体系)的 AI 模型,发现其中的规律,可以根据提示 (prompt),自动生成
AI推介-多模态视觉语言模型VLMs论文速览(arXiv方向):2024.07.01-2024.07.05
我们提出了 InternLM-XComposer-2.5 (IXC-2.5),它是一种支持长语境输入和输出的多功能大视野语言模型。IXC-2.5 在各种文本图像理解和合成应用中表现出色,只需 7B LLM 后端就能实现 GPT-4V 级别的能力。它以 24K 交错图像-文本上下文进行训练,可通过 R
2024-06-08 问AI: 大语言模型中,思维链CoT是什么?
在大语言模型(Large Language Models, LLMs)的背景下,思维链(Chain-of-Thought,简称CoT)是一种方法论,旨在提高模型在执行复杂推理、问题解决和决策任务时的能力和透明度。综上所述,思维链CoT在大语言模型中的应用不仅提高了模型处理复杂问题时的推理能力和准确性
【AI大模型】LangChain框架:示例选择器与输出解析器携手,编织NLP高效精准之网
本文将聚焦于LangChain框架中的两大璀璨明珠——示例选择器和输出解析器,深入探讨它们如何与Prompt精妙结合,共同编织出提升NLP任务效率与准确性的精密网络。示例选择器通过提供精心挑选的示例来增强Prompt,有效引导大型语言模型(LLM)生成更加符合预期的高质量输出。而输出解析器则负责将L
大语言模型应用--AI工程化落地
当我们谈论大型语言模型时,我们指的是一种能够以类似人类语言的方式”说话”的软件。这些模型非常惊人–它们能够获取上下文并生成不仅连贯而且感觉像是来自真实人类的回复这些语言模型通过分析大量的文本数据并学习语言使用的模式来工作。它们利用这些模式生成的文本几乎无法与人类所说或写的内容区分开来如果您曾与虚拟助
极客时间:使用Autogen Builder和本地LLM(Microsoft Phi3模型)在Mac上创建本地AI代理
每周跟踪AI热点新闻动向和震撼发展 想要探索生成式人工智能的前沿进展吗?订阅我们的简报,深入解析最新的技术突破、实际应用案例和未来的趋势。与全球数同行一同,从行业内部的深度分析和实用指南中受益。不要错过这个机会,成为AI领域的领跑者。点击订阅,与未来同行!订阅:https://rengongzhin
AI推介-多模态视觉语言模型VLMs论文速览(arXiv方向):2024.06.25-2024.07.01
虽然大型语言模型(LLM)中文本嵌入的压缩表示取得了重大进展,但大型多模态模型(LMM)中视觉标记的压缩在很大程度上仍是一个被忽视的领域。在这项工作中,我们介绍了有关视觉标记冗余分析和这些模型中高效训练的研究。我们的初步实验表明,在测试阶段通过简单的平均池化消除多达 70% 的视觉标记,只会导致在
【人工智能】NLP入门指南:自然语言处理基础全解析
在数字化时代,自然语言处理(NLP)已成为人机交互的桥梁。本文将引导读者从基础到应用,全面了解NLP技术。首先,我们将探索NLP的两大支柱:自然语言理解(NLU)和自然语言生成(NLG),理解它们如何分别让机器理解与生成人类语言。接着,文章将深入中文文本的分词技术,特别是jieba分词的使用。进一步
Datawhale AI 夏令营 机器翻译Task
机器翻译技术的发展反映了人工智能技术的进步。从最初的基于规则的方法,到统计方法,再到如今的深度学习方法,每一步都在朝着更智能、更高效的方向迈进。在实际应用中,我们需要根据具体任务选择合适的方法,并结合最新的研究成果,不断优化翻译效果。在参与比赛和实际项目时,理论知识与实践操作的结合尤为重要。通过动手
AI的欺骗游戏:揭示多模态大型语言模型的易受骗性
人工智能咨询培训老师叶梓 转载标明出处多模态大型语言模型(MLLMs)在处理包含欺骗性信息的提示时容易生成幻觉式响应。尤其是在生成长响应时,仍然是一个未被充分研究的问题。来自 Apple 公司的研究团队提出了MAD-Bench,一个包含850个测试样本的精心策划的基准测试,这些样本分为六类,包括不存
ChatBI开源实现: 基于SuperSonic的AI+BI的产品设计
主角的精湛演技提升了作品的艺术高度,而工程化的精妙则稳固了作品的坚实基础。合理评估手中的筹码,保持积极的心态,在牌局明朗之际,我们仍将坚守在牌桌上,才有资格争取最后的胜利。企业级特性完善:安全(可扩展的4A、原生支持多层级细粒度的数据权限)、准确(基于语义模型-headerless bi理念的设计,
【人工智能】自然语言处理(NLP)的突破,关注NLP在机器翻译、情感分析、聊天机器人等方面的最新研究成果和应用案例。
自然语言处理(NLP)作为人工智能的一个重要分支,近年来取得了显著的突破,特别在机器翻译、情感分析、聊天机器人等领域取得了显著的研究成果和广泛的应用。以下是对这些领域最新研究成果和应用案例的概述,并附带相应的代码实例。
人工智能——大语言模型
一千行代码实现一个完整的可训练和推理的60亿参数的大语言模型,去魅人工智能,去魅大语言模型。本文重在介绍机器学习和大语言模型的基本原理。在科学研究上,机器学习和大语言模型的每一个环节都可以优化研究。如何提升训练的效率,降低训练过程中的过拟合是大语言模型的关键,Transformer的出现为大语言模型
AI推介-多模态视觉语言模型VLMs论文速览(arXiv方向):2024.06.01-2024.06.05
大型视觉语言模型(VLM)可以学习丰富的图像-文本联合表征,从而在相关的下游任务中表现出色。然而,它们未能展示出对物体的定量理解,也缺乏良好的计数感知表征。本文对 “教CLIP数到十”(Paiss等人,2023年)进行了可重复性研究,该研究提出了一种微调CLIP模型(Radford等人,2021年)