AI大神 Sebastian Raschka 发布新书《从零开始构建大语言模型》

书的地址:https://livebook.manning.com/book/build-a-large-language-model-from-scratch/这本书用清晰的文字、图表和示例解释每个阶段,从最初的设计和创建,到采用通用语料库进行预训练,一直到针对特定任务进行微调。配套的代码:htt

【AI大语言模型应用】使用Ollama搭建本地大语言模型

简单介绍什么是Ollama这玩意儿其实就是一个能够帮你快速启动并运行大语言模型的平台。你可以类比于Java中的Springboot+maven这个ollama是用go语言编写的,我对go语言了解不深,所以更细节的平台实现需要各位自行学习。目前这个ollama支持 windows、linux、maco

奇异值分解(SVD)关键概念以及物理意义

Q: 为什么需要低秩近似A:为了减少计算消耗,提高效率。Q:什么是“低秩近似”?A:低秩近似(low-rank approximation)是一种通过保留矩阵中最重要的特征分量,来减少矩阵维度和复杂度的方法。

新书推荐:《智人之上:AI时代的信息网络简史》——尤瓦尔·赫拉利的深刻哲学警示

随着人工智能(AI)的快速发展,越来越多的学者、科学家和哲学家开始反思AI带来的潜在威胁与机遇。以色列著名历史学家尤瓦尔·赫拉利(Yuval Noah Harari),以其广受欢迎的简史三部曲《人类简史》《未来简史》和《今日简史》闻名全球。他的新作《智人之上:从石器时代到AI时代的信息网络简史》在2

浅谈人工智能与大模型

随着科技的飞速发展,人工智能(Artificial Intelligence,简称AI)已经成为了我们生活中不可或缺的一部分。人工智能是指通过计算机程序或机器来模拟、扩展和增强人类的智能行为。而大模型通常是指那些规模庞大、参数众多的机器学习模型,它们能够处理复杂任务,并在学习过程中表现出卓越的性能。

AI工具FastGPT和RagFlow对比选型

FastGPT和RagFlow在AI工具领域各有千秋,在选择时应根据自身的需求和场景特点进行综合考虑。如果需要快速构建知识库和生成文本回答,FastGPT是一个不错的选择;而如果需要处理复杂格式的非结构化数据并追求更精准、更可信的问答结果,RagFlow则更具优势。

如何在本地电脑搭建一个GPT4free并实现远程与大语言模型进行AI交互

本篇文章介绍如何在本地部署开源GPT4free,并且结合Cpolar内网穿透工具实现公网远程访问本地AI聊天服务。54.8k Star,国外一位大神xtekky最近开源了一个名叫GPT4free的项目,可以让我们免费使用几十个主流大模型。GPT4Free是一个由开发者Xtekky在GitHub上发布

预训练(Pre-training),人工智能领域的预训练是什么——AI教程

预训练是指在一个大规模的通用数据集上对模型进行初步训练,使其能够学习到丰富的特征表示。这个过程通常在没有监督(即没有明确的标签)的情况下进行,称为无监督预训练。经过预训练的模型可以捕捉到数据中的模式和结构,从而在后续的特定任务(如分类、回归等)中更有效地进行微调(fine-tuning)。

零基础5分钟上手亚马逊云科技-NLP文字理解AI服务

Amazon Comprehend 是亚马逊云科技提供的一项自然语言处理 (NLP) 服务,旨在帮助用户从非结构化文本中提取有价值的见解和信息。借助机器学习技术,Comprehend 可以自动识别文本中的实体、关键短语、情感、语言等,帮助企业轻松分析客户反馈、社交媒体内容、文章等各种文本数据。Com

AI与自然语言处理(NLP):中秋诗词生成

通过精心设计的Prompt,AI可以生成多种风格的中秋诗词,无论是古典诗、现代诗,还是特定情感或场景下的诗歌,NLP技术都能够帮助我们体验中秋诗词的美感。

人工智能-自然语言处理(NLP)

自动摘要旨在从大量文本中提取关键信息,生成简洁的摘要。抽取式摘要:从原文中抽取重要句子或段落,构建摘要。这种方法通常基于统计特征,如句子的词频或位置。生成式摘要:使用生成模型(如Seq2Seq或Transformer)从头生成摘要。生成式方法能够生成更加自然的语言,但也更具挑战性。以下是一个使用#

【AI大模型】LLM主流开源大模型介绍

随着ChatGPT迅速火爆,引发了大模型的时代变革,国内外各大公司也快速跟进生成式AI市场,近百款大模型发布及应用。目前,市面上已经开源了各种类型的大语言模型,本章节我们主要介绍其中的三大类...

【AI大模型】ChatGPT模型原理介绍(下)

2020年5月, OpenAI发布了GPT-3, 同时发表了论文“Language Models are Few-Shot Learner”《小样本学习者的语言模型》.通过论文题目可以看出:GPT-3 不再去追求那种极致的不需要任何样本就可以表现很好的模型,而是考虑像人类的学习方式那样,仅仅使用极少

ChatGLM系列模型

ChatGLM系列算法是清华大学研发的一个开源的、支持中英双语的对话语言模型,基于General Language Model(GLM)架构。采用了和ChatGPT相似的技术,针对中文问答和对话进行了优化。因此在了解对应算法之前需要对GLM架构进行相应的了解。GLM是一个基于自回归的空白填充目标的通

生物研究新范式!AI语言模型在生物研究中的应用

尽管生物学从根本上依赖于物理实体(蛋白质、基因和细胞)的特性,但我们对该领域的理解是通过科学论文、教科书、网页等以自然语言记录的。因此,人们越来越有兴趣使用自然语言模型,让生物学研究人员可以轻松访问这些书面资源中包含的大量生物学信息。此外,自然语言模型可以通过来自其他模态(例如图像或基因序列)的数据

多模态大模型中的幻觉问题及其解决方案

人工智能咨询培训老师叶梓 转载标明出处多模态大模型在实际应用中面临着一个普遍的挑战——幻觉问题(hallucination),主要表现为模型在接收到用户提供的图像和提示时,可能会产生与图像内容不符的描述,例如错误地识别颜色、数量或位置等。这种误判可能对实际应用造成严重影响,如在自动驾驶场景中,错误的

大模型参数规模扩大是趋势

大模型参数规模扩大是趋势,参数规模迈向万亿级。

AI大模型原理(通俗易懂版)——大语言模型

AI大模型原理——大语言模型

从“数字毕业生“到“AI领航员“:大语言模型的成长之路

在人工智能的浩瀚宇宙中,大语言模型就像是刚刚走出校门的"数字毕业生"。它们虽然已经吸收了海量的知识,但还需要经历一段特殊的"培训期",才能真正成为能够为人类社会服务的"AI领航员"。让我们一起探索这个神奇的蜕变过程,看看这些数字巨人是如何从懵懂无知到智慧过人的。

向李宏毅学深度学习(进阶)#task01#Datawhale X 李宏毅苹果书 AI夏令营

根据基于李宏毅老师机器学习课程编著的《深度学习详解》一书,结合自己的思考,阐释了深度学习中全局最优值、局部极值、鞍点等关键概念,以及批量(banch)和动量法