【AI大语言模型应用】使用Ollama搭建本地大语言模型
简单介绍什么是Ollama这玩意儿其实就是一个能够帮你快速启动并运行大语言模型的平台。你可以类比于Java中的Springboot+maven这个ollama是用go语言编写的,我对go语言了解不深,所以更细节的平台实现需要各位自行学习。目前这个ollama支持 windows、linux、maco
闯关训练三:Git 基础知识
git学习
奇异值分解(SVD)关键概念以及物理意义
Q: 为什么需要低秩近似A:为了减少计算消耗,提高效率。Q:什么是“低秩近似”?A:低秩近似(low-rank approximation)是一种通过保留矩阵中最重要的特征分量,来减少矩阵维度和复杂度的方法。
新书推荐:《智人之上:AI时代的信息网络简史》——尤瓦尔·赫拉利的深刻哲学警示
随着人工智能(AI)的快速发展,越来越多的学者、科学家和哲学家开始反思AI带来的潜在威胁与机遇。以色列著名历史学家尤瓦尔·赫拉利(Yuval Noah Harari),以其广受欢迎的简史三部曲《人类简史》《未来简史》和《今日简史》闻名全球。他的新作《智人之上:从石器时代到AI时代的信息网络简史》在2
浅谈人工智能与大模型
随着科技的飞速发展,人工智能(Artificial Intelligence,简称AI)已经成为了我们生活中不可或缺的一部分。人工智能是指通过计算机程序或机器来模拟、扩展和增强人类的智能行为。而大模型通常是指那些规模庞大、参数众多的机器学习模型,它们能够处理复杂任务,并在学习过程中表现出卓越的性能。
掌控移动安全:深入解析MDM与MAM
MDM是一种集中管理移动设备的技术,它通过设备接口以及整合多平台的通信协议,达到管控Android、iOS、Windows、Linux等操作系统的手机、平板、电脑等设备的目的。MDM通过设备层面的控制,确保了设备安全性和合规性,而MAM则专注于应用层面,保护企业数据不被泄露。例如,MDM可以确保只有
开源模型应用落地-Qwen2.5-7B-Instruct与vllm实现推理加速的正确姿势(一)
Qwen2.5-7B-Instruct集成vllm,流式输出
【LLM】在PAI-DSW上使用 vLLM + Open-WebUI 部署Qwen2.5
最近在玩LLM,听闻PAI-DSW有三个月免费试用,试了一下感觉还不错,就是有一些学习成本。刚通过vllm+open-webui成功部署了Qwen2.5-7B-Instruct,也是摸索了一段时间,记录一下以便需要使用同样方案的朋友们节省时间,迅速上手。简便起见,本文所有安装均使用pip工具,不使用
AI工具FastGPT和RagFlow对比选型
FastGPT和RagFlow在AI工具领域各有千秋,在选择时应根据自身的需求和场景特点进行综合考虑。如果需要快速构建知识库和生成文本回答,FastGPT是一个不错的选择;而如果需要处理复杂格式的非结构化数据并追求更精准、更可信的问答结果,RagFlow则更具优势。
如何在本地电脑搭建一个GPT4free并实现远程与大语言模型进行AI交互
本篇文章介绍如何在本地部署开源GPT4free,并且结合Cpolar内网穿透工具实现公网远程访问本地AI聊天服务。54.8k Star,国外一位大神xtekky最近开源了一个名叫GPT4free的项目,可以让我们免费使用几十个主流大模型。GPT4Free是一个由开发者Xtekky在GitHub上发布
开源模型应用落地-LangChain实用小技巧-使用CacheBackedEmbeddings组件(九)
使用CacheBackedEmbeddings组件提升处理效率和数据可靠性
预训练(Pre-training),人工智能领域的预训练是什么——AI教程
预训练是指在一个大规模的通用数据集上对模型进行初步训练,使其能够学习到丰富的特征表示。这个过程通常在没有监督(即没有明确的标签)的情况下进行,称为无监督预训练。经过预训练的模型可以捕捉到数据中的模式和结构,从而在后续的特定任务(如分类、回归等)中更有效地进行微调(fine-tuning)。
零基础5分钟上手亚马逊云科技-NLP文字理解AI服务
Amazon Comprehend 是亚马逊云科技提供的一项自然语言处理 (NLP) 服务,旨在帮助用户从非结构化文本中提取有价值的见解和信息。借助机器学习技术,Comprehend 可以自动识别文本中的实体、关键短语、情感、语言等,帮助企业轻松分析客户反馈、社交媒体内容、文章等各种文本数据。Com
AI与自然语言处理(NLP):中秋诗词生成
通过精心设计的Prompt,AI可以生成多种风格的中秋诗词,无论是古典诗、现代诗,还是特定情感或场景下的诗歌,NLP技术都能够帮助我们体验中秋诗词的美感。
人工智能-自然语言处理(NLP)
自动摘要旨在从大量文本中提取关键信息,生成简洁的摘要。抽取式摘要:从原文中抽取重要句子或段落,构建摘要。这种方法通常基于统计特征,如句子的词频或位置。生成式摘要:使用生成模型(如Seq2Seq或Transformer)从头生成摘要。生成式方法能够生成更加自然的语言,但也更具挑战性。以下是一个使用#
开源模型应用落地-qwen2-7b-instruct-LoRA微调-ms-swift-单机单卡-V100(十二)
使用ms-swift高效微调qwen2-7b-instruct
【AI大模型】LLM主流开源大模型介绍
随着ChatGPT迅速火爆,引发了大模型的时代变革,国内外各大公司也快速跟进生成式AI市场,近百款大模型发布及应用。目前,市面上已经开源了各种类型的大语言模型,本章节我们主要介绍其中的三大类...
开源模型应用落地-qwen2-7b-instruct-LoRA微调&合并-ms-swift-单机单卡-V100(十三)
使用ms-swift合并微调后的模型权重
【AI大模型】ChatGPT模型原理介绍(下)
2020年5月, OpenAI发布了GPT-3, 同时发表了论文“Language Models are Few-Shot Learner”《小样本学习者的语言模型》.通过论文题目可以看出:GPT-3 不再去追求那种极致的不需要任何样本就可以表现很好的模型,而是考虑像人类的学习方式那样,仅仅使用极少
ChatGLM系列模型
ChatGLM系列算法是清华大学研发的一个开源的、支持中英双语的对话语言模型,基于General Language Model(GLM)架构。采用了和ChatGPT相似的技术,针对中文问答和对话进行了优化。因此在了解对应算法之前需要对GLM架构进行相应的了解。GLM是一个基于自回归的空白填充目标的通