ModelGPT——释放大型语言模型的潜力,实现定制化AI模型生成
大模型在满足用户多样化和特定需求方面还有很多有待探索的空间,浙江大学计算机科学与技术学院的研究团队提出了ModelGPT,这是一个新颖的框架,能够根据用户提供的数据或任务描述生成特别定制的AI模型。相较于传统LLMs,ModelGPT大幅减少了训练和部署所需的资源,提供高达270倍的速度提升。
大语言模型的Scaling Law:如何随着模型大小、训练数据和计算资源的增加而扩展
语言模型的规模化法则为这些强大的人工智能系统的发展和优化提供了关键洞察。正如我们所探讨的,模型大小、训练数据和计算资源之间的关系遵循可预测的幂律模式。平衡规模化:Chinchilla 的发现强调了同时对模型大小和训练数据进行等比例规模化以达到最佳性能的重要性。这挑战了之前仅增加模型大小的重点。资源分
顶级10大AI测试工具
使用人工智能进行应用测试是一种新的有前景的方法,它可以减少测试准备和执行的时间,提高软件质量,并预测可能的问题。利用本文描述的AI测试自动化工具,在测试过程中应用AI以改进工作。
Datawhale-AI 夏令营 自然语言处理实战营 总结(Task01-Task02)
③构建词汇表,根据英文和中文数据的词汇内容,增加索引的内容,对于一些陌生的词汇,我们给予其“未知”的标签。缺点:通过代码实操发现,在翻译领域的BLEU评价指标基本得分很低,直接原因是翻译出来的语句较生硬,基本都是通过映射方式,语句块之间没有任何的逻辑联系。由于模型仅仅只是确定翻译的某个数学关系,而翻
为什么现在的LLM都是Decoder only的架构?
总而言之,decoder-only 在参数量不太大时就更具有更强的zero-shot性能、更匹配主流的自监督训练范式;而在大参数量的加持下,具有了涌现能力后、可以匹敌encoder-decoder做finetuning的效果;在In Context的环境下、又能更好地做few-shot任务。deco
论文分享|ACL2024主会|RAG相关论文简读
ACL2024主会的RAG/检索方向26篇论文简读
开源模型应用落地-LangChain高阶-智能体探究-创建agent(四)
学习如何使用initialize_agent或create_json_chat_agen t创建agent
开源模型应用落地-qwen1.5-7b-chat与sglang实现推理加速的正确姿势(二)
优化sglang参数,让它跑得更快更顺畅
开源模型应用落地-qwen2-7b-instruct-LoRA微调-LLaMA-Factory(五)
使用LLaMA-Factory高效微调qwen2-7b-instruct
人工智能大模型之开源大语言模型汇总(国内外开源项目模型汇总)
Large Language Model (LLM) 即大规模语言模型,是一种基于深度学习的自然语言处理模型,它能够学习到自然语言的语法和语义,从而可以生成人类可读的文本。所谓"语言模型",就是只用来处理语言文字(或者符号体系)的 AI 模型,发现其中的规律,可以根据提示 (prompt),自动生成
2024 NVIDIA开发者社区夏令营环境配置指南(Win & Mac)
2024 NVIDIA开发者社区夏令营环境配置指南(Win & Mac)
开源模型应用落地-chatglm3-6b模型小试-入门篇(三)
在linux环境下,使用transformer设置模型参数/System Prompt/历史对话
AI推介-多模态视觉语言模型VLMs论文速览(arXiv方向):2024.07.01-2024.07.05
我们提出了 InternLM-XComposer-2.5 (IXC-2.5),它是一种支持长语境输入和输出的多功能大视野语言模型。IXC-2.5 在各种文本图像理解和合成应用中表现出色,只需 7B LLM 后端就能实现 GPT-4V 级别的能力。它以 24K 交错图像-文本上下文进行训练,可通过 R
【大模型系列篇】本地问答系统-部署Ollama、Open WebUI
部署本地大模型,结合Ollama、Open WebUI以及本地RAG(Retrieval-Augmented Generation)可以为用户提供一个强大的本地知识库和交互式对话系统。
开源模型应用落地-chatglm3-6b模型小试-入门篇(一)
在windows环境下,使用transformer调用ChatGLM3-6b模型
2024-06-08 问AI: 大语言模型中,思维链CoT是什么?
在大语言模型(Large Language Models, LLMs)的背景下,思维链(Chain-of-Thought,简称CoT)是一种方法论,旨在提高模型在执行复杂推理、问题解决和决策任务时的能力和透明度。综上所述,思维链CoT在大语言模型中的应用不仅提高了模型处理复杂问题时的推理能力和准确性
【AI大模型】LangChain框架:示例选择器与输出解析器携手,编织NLP高效精准之网
本文将聚焦于LangChain框架中的两大璀璨明珠——示例选择器和输出解析器,深入探讨它们如何与Prompt精妙结合,共同编织出提升NLP任务效率与准确性的精密网络。示例选择器通过提供精心挑选的示例来增强Prompt,有效引导大型语言模型(LLM)生成更加符合预期的高质量输出。而输出解析器则负责将L
大语言模型应用--AI工程化落地
当我们谈论大型语言模型时,我们指的是一种能够以类似人类语言的方式”说话”的软件。这些模型非常惊人–它们能够获取上下文并生成不仅连贯而且感觉像是来自真实人类的回复这些语言模型通过分析大量的文本数据并学习语言使用的模式来工作。它们利用这些模式生成的文本几乎无法与人类所说或写的内容区分开来如果您曾与虚拟助
极客时间:使用Autogen Builder和本地LLM(Microsoft Phi3模型)在Mac上创建本地AI代理
每周跟踪AI热点新闻动向和震撼发展 想要探索生成式人工智能的前沿进展吗?订阅我们的简报,深入解析最新的技术突破、实际应用案例和未来的趋势。与全球数同行一同,从行业内部的深度分析和实用指南中受益。不要错过这个机会,成为AI领域的领跑者。点击订阅,与未来同行!订阅:https://rengongzhin