开源模型应用落地-qwen模型小试-Zero/One/Few Shot-进阶篇(九)
理解何为Zero-Shot/One-Shot/Few-Shot,以及如何正确使用
AI推介-多模态视觉语言模型VLMs论文速览(arXiv方向):2024.06.25-2024.07.01
虽然大型语言模型(LLM)中文本嵌入的压缩表示取得了重大进展,但大型多模态模型(LMM)中视觉标记的压缩在很大程度上仍是一个被忽视的领域。在这项工作中,我们介绍了有关视觉标记冗余分析和这些模型中高效训练的研究。我们的初步实验表明,在测试阶段通过简单的平均池化消除多达 70% 的视觉标记,只会导致在
【人工智能】NLP入门指南:自然语言处理基础全解析
在数字化时代,自然语言处理(NLP)已成为人机交互的桥梁。本文将引导读者从基础到应用,全面了解NLP技术。首先,我们将探索NLP的两大支柱:自然语言理解(NLU)和自然语言生成(NLG),理解它们如何分别让机器理解与生成人类语言。接着,文章将深入中文文本的分词技术,特别是jieba分词的使用。进一步
Datawhale AI 夏令营 机器翻译Task
机器翻译技术的发展反映了人工智能技术的进步。从最初的基于规则的方法,到统计方法,再到如今的深度学习方法,每一步都在朝着更智能、更高效的方向迈进。在实际应用中,我们需要根据具体任务选择合适的方法,并结合最新的研究成果,不断优化翻译效果。在参与比赛和实际项目时,理论知识与实践操作的结合尤为重要。通过动手
AI的欺骗游戏:揭示多模态大型语言模型的易受骗性
人工智能咨询培训老师叶梓 转载标明出处多模态大型语言模型(MLLMs)在处理包含欺骗性信息的提示时容易生成幻觉式响应。尤其是在生成长响应时,仍然是一个未被充分研究的问题。来自 Apple 公司的研究团队提出了MAD-Bench,一个包含850个测试样本的精心策划的基准测试,这些样本分为六类,包括不存
【自然语言处理系列】手动安装和测试Spacy中en_core_web_sm模型的详细教程
本教程旨在为自然语言处理(NLP)初学者提供一个详细的指南,用于手动安装流行的NLP库Spacy及其英语模型en_core_web_sm。文章将逐步指导您如何安装Spacy库、查看其版本,确定并下载适合的en_core_web_sm模型版本,以及如何正确安装并测试这些组件确保它们正常工作。完成本教程
开源模型应用落地-Yi模型小试-开源模型 vs 闭源模型(四)
测试零一万物的闭源模型,并与其开源模型进行比较
ChatBI开源实现: 基于SuperSonic的AI+BI的产品设计
主角的精湛演技提升了作品的艺术高度,而工程化的精妙则稳固了作品的坚实基础。合理评估手中的筹码,保持积极的心态,在牌局明朗之际,我们仍将坚守在牌桌上,才有资格争取最后的胜利。企业级特性完善:安全(可扩展的4A、原生支持多层级细粒度的数据权限)、准确(基于语义模型-headerless bi理念的设计,
【人工智能】自然语言处理(NLP)的突破,关注NLP在机器翻译、情感分析、聊天机器人等方面的最新研究成果和应用案例。
自然语言处理(NLP)作为人工智能的一个重要分支,近年来取得了显著的突破,特别在机器翻译、情感分析、聊天机器人等领域取得了显著的研究成果和广泛的应用。以下是对这些领域最新研究成果和应用案例的概述,并附带相应的代码实例。
自然语言处理NLP--LDA面试题
LDA(Latent Dirichlet Allocation)是一种生成概率模型,用于发现文档集合中潜在的主题分布。它假设每个文档由若干个主题生成,每个主题由一组词生成,通过贝叶斯推断方法估计文档中主题的分布以及主题中词的分布。
大语言模型-基础及拓展应用
基础模型(transformer)组合模型(bert、gpt)句子向量(simcse)文档解析(openpaser、fitz)
NLP篇5:自然语言处理预训练
例如,在文本分类任务中,可以使用 Word2Vec 预训练的词向量来初始化模型的词嵌入层,然后在特定数据集上进行训练以适应具体的分类任务。Word2Vec 旨在从大量的文本数据中学习词的向量表示。通过训练,它能够捕捉词与词之间的语义关系,并将词映射到低维向量空间中。这些学习到的词向量可以被看作是一种
人工智能——大语言模型
一千行代码实现一个完整的可训练和推理的60亿参数的大语言模型,去魅人工智能,去魅大语言模型。本文重在介绍机器学习和大语言模型的基本原理。在科学研究上,机器学习和大语言模型的每一个环节都可以优化研究。如何提升训练的效率,降低训练过程中的过拟合是大语言模型的关键,Transformer的出现为大语言模型
AI推介-多模态视觉语言模型VLMs论文速览(arXiv方向):2024.06.01-2024.06.05
大型视觉语言模型(VLM)可以学习丰富的图像-文本联合表征,从而在相关的下游任务中表现出色。然而,它们未能展示出对物体的定量理解,也缺乏良好的计数感知表征。本文对 “教CLIP数到十”(Paiss等人,2023年)进行了可重复性研究,该研究提出了一种微调CLIP模型(Radford等人,2021年)
人工智能时代的创作革命:AIGC引领内容生成新浪潮
aigc的介绍及应用
【ACM出版】2024人工智能与自然语言处理国际学术会议(AINLP 2024,7月19-21)
【ACM出版】2024人工智能与自然语言处理国际学术会议(AINLP 2024)2024 International Conference on Artificial Intelligence and Natural Language Processing
【Text2SQL】Spider 数据集
模型将被在不同的复杂 SQL、复杂数据库、复杂 domains 上被测试,要求模型能够对 question 理解语义,并对新的数据库有泛化能力。任务不评估模型生成 value 的能力,因为这个 benchmark 侧重评估预测出正确的 SQL 结构和 columns,数据集中也被排除了需要常识推理和
免费国产AI大语言模型API接口[20240626]
本文介绍我们搜集到的国内所有人工智能大语言模型的免费API接口,包括完全免费以及限时免费等方式。
ChatTTS:AI语音克隆,火遍Github
对话式TTS: ChatTTS针对对话式任务进行了特别的优化,实现了流畅自然的声音合成效果,并支持多说话人模式。在当今的语音合成技术中,ChatTTS凭借其在韵律处理上的卓越性能,已经走在了许多其他开源TTS模型的前面。在这个需要大量互动和讲解的环境下,一个自然流畅的语音系统能极大地提升观众的购物体
AI智能体研发之路-工程篇(五):大模型推理服务框架LocalAI一键部署
本文列出了排坑后的Local-AI安装教程,及Local-AI前端,个人感觉,比如很友好,特别是对境内服务器开发者,建议还是看前两篇文章,选择Xinference和Ollama吧。