【AI知识点】词嵌入(Word Embedding)

词嵌入(Word Embedding)是自然语言处理(NLP)中的一种技术,用于将词语或短语映射为具有固定维度的实数向量。这些向量(嵌入向量)能够捕捉词语之间的语义相似性,即将语义相近的词映射到向量空间中距离较近的位置,而语义相异的词会被映射到较远的位置。词嵌入是文本表示学习的核心,广泛应用于文本分

【AI大模型】大型语言模型LLM基础概览:技术原理、发展历程与未来展望

大语言模型 (英文:Large Language Model,缩写LLM) 是一种人工智能模型, 旨在理解和生成人类语言. 大语言模型可以处理多种自然语言任务,如文本分类、问答、翻译、对话等等.

天工AI:统一像素级视觉LLM发布

如何构建一个统一的像素级视觉大语言模型(LLM),以理解和执行多种视觉任务?论文提出了VITRON,一个统一的像素级视觉LLM,通过引入混合指令传递方法和跨任务协同模块,支持从视觉理解到视觉生成、从低层次到高层次的一系列视觉任务。

【LLM论文日更】LongReward:利用人工智能反馈改进长上下文大语言模型

未来的工作将致力于训练更小的长上下文奖励模型,探索更长序列和更大规模模型的长上下文对齐。总体而言,LongReward方法不仅显著提高了长上下文LLMs的性能,还增强了其遵循短指令的能力,并且可以与标准的短上下文DPO结合使用,不会影响各自方法的性能。:将LongReward与离线RL算法DPO结合

Nature新晋子刊!一年直升1区TOP,IF还在蹭蹭涨!赶紧抓住扩刊红利期

而言当然是低很多,但是预计明年IF值能破10分,现在有扩刊趋势,各位同领域的学者们可考虑一下这本潜力新刊!此刊作为Nature旗下的新晋期刊,在影响力和排名上表现良好,影响因子8.1分,属于地球科学1区Top期刊。《通讯地球与环境》创办于2020年,是Nature旗下的新晋期刊,位于中科院1区Top

2区TOP审稿“超亲民”!平均5天就上线!硕博友刊不是吹的~

的理论贡献,包括但不限于:架构、学习方法、网络动态分析、学习理论、计算学习理论、模糊逻辑、遗传算法、信息论、机器学习、神经生物学和模式识别的跨学科主题。期刊自2015年突破1000篇后,就“刹不住车”,曾一度直线上升到1800+后,本以为会持续扩刊,可是后续经过积极地调整,最近一年的发文量又回归了。

个性化大语言模型:PPlug——让AI更懂你

在当今数字化转型的时代,大型语言模型(LLMs)已经成为了不可或缺的工具,它们在自然语言理解、生成和推理方面展现了非凡的能力。然而,这些模型普遍采用的是“一刀切”的方式,即对于相同的输入给予所有用户相似的响应。这种方式虽然能够满足大多数情况下的需求,但在需要根据个人偏好定制内容的情境下就显得力不从心

AI大语言模型进阶应用及模型优化、本地化部署、从0-1搭建、智能体构建技术

在过去几年中,人工智能领域的发展迅猛,尤其是大语言模型的应用,为各行各业带来了前所未有的创新与突破。从ChatGPT-3.5的推出到GPT Store的上线,再到最新的多模态交互ChatGPT-4o,OpenAI不断引领科技潮流,推动AI生态系统的构建。深入理解和掌握大语言模型的前言技术,涵盖了提示

为什么说AI颠覆了用户场景?

AIGC时代,所有软件都有机会重塑一遍

ChatGPT-4o丨AI大语言模型优化、本地化部署、从0-1搭建、智能体构建、多模态、时间序列、目标检测及语义分割

ChatGPT-4o丨AI大语言模型优化、本地化部署、从0-1搭建、智能体构建、多模态、时间序列、目标检测及语义分割

人工智能-大语言模型-微调技术-LoRA及背后原理简介

大语言模型的微调技术LoRA及成功背后原理分析文章。

AI智能聊天问答系统源码+AI绘画系统+图文搭建部署教程,文生图图生图,TTS语音识别输入,AI智能体,文档分析

SparkAi创作系统是一款基于ChatGPT和Midjourney开发的智能问答与绘画平台,旨在为B端和C端用户提供一站式AI解决方案。系统集成了AI大模型问答、AI绘画、专业级AI视频生成、文档分析、多模态图像理解、TTS语音合成与语音识别、AI换脸等功能。支持AI智能体应用(包括GPTs和Pr

AI大神 Sebastian Raschka 发布新书《从零开始构建大语言模型》

书的地址:https://livebook.manning.com/book/build-a-large-language-model-from-scratch/这本书用清晰的文字、图表和示例解释每个阶段,从最初的设计和创建,到采用通用语料库进行预训练,一直到针对特定任务进行微调。配套的代码:htt

【AI大语言模型应用】使用Ollama搭建本地大语言模型

简单介绍什么是Ollama这玩意儿其实就是一个能够帮你快速启动并运行大语言模型的平台。你可以类比于Java中的Springboot+maven这个ollama是用go语言编写的,我对go语言了解不深,所以更细节的平台实现需要各位自行学习。目前这个ollama支持 windows、linux、maco

奇异值分解(SVD)关键概念以及物理意义

Q: 为什么需要低秩近似A:为了减少计算消耗,提高效率。Q:什么是“低秩近似”?A:低秩近似(low-rank approximation)是一种通过保留矩阵中最重要的特征分量,来减少矩阵维度和复杂度的方法。

新书推荐:《智人之上:AI时代的信息网络简史》——尤瓦尔·赫拉利的深刻哲学警示

随着人工智能(AI)的快速发展,越来越多的学者、科学家和哲学家开始反思AI带来的潜在威胁与机遇。以色列著名历史学家尤瓦尔·赫拉利(Yuval Noah Harari),以其广受欢迎的简史三部曲《人类简史》《未来简史》和《今日简史》闻名全球。他的新作《智人之上:从石器时代到AI时代的信息网络简史》在2

浅谈人工智能与大模型

随着科技的飞速发展,人工智能(Artificial Intelligence,简称AI)已经成为了我们生活中不可或缺的一部分。人工智能是指通过计算机程序或机器来模拟、扩展和增强人类的智能行为。而大模型通常是指那些规模庞大、参数众多的机器学习模型,它们能够处理复杂任务,并在学习过程中表现出卓越的性能。

AI工具FastGPT和RagFlow对比选型

FastGPT和RagFlow在AI工具领域各有千秋,在选择时应根据自身的需求和场景特点进行综合考虑。如果需要快速构建知识库和生成文本回答,FastGPT是一个不错的选择;而如果需要处理复杂格式的非结构化数据并追求更精准、更可信的问答结果,RagFlow则更具优势。

如何在本地电脑搭建一个GPT4free并实现远程与大语言模型进行AI交互

本篇文章介绍如何在本地部署开源GPT4free,并且结合Cpolar内网穿透工具实现公网远程访问本地AI聊天服务。54.8k Star,国外一位大神xtekky最近开源了一个名叫GPT4free的项目,可以让我们免费使用几十个主流大模型。GPT4Free是一个由开发者Xtekky在GitHub上发布

预训练(Pre-training),人工智能领域的预训练是什么——AI教程

预训练是指在一个大规模的通用数据集上对模型进行初步训练,使其能够学习到丰富的特征表示。这个过程通常在没有监督(即没有明确的标签)的情况下进行,称为无监督预训练。经过预训练的模型可以捕捉到数据中的模式和结构,从而在后续的特定任务(如分类、回归等)中更有效地进行微调(fine-tuning)。