极客时间:使用Autogen Builder和本地LLM(Microsoft Phi3模型)在Mac上创建本地AI代理
每周跟踪AI热点新闻动向和震撼发展 想要探索生成式人工智能的前沿进展吗?订阅我们的简报,深入解析最新的技术突破、实际应用案例和未来的趋势。与全球数同行一同,从行业内部的深度分析和实用指南中受益。不要错过这个机会,成为AI领域的领跑者。点击订阅,与未来同行!订阅:https://rengongzhin
开源模型应用落地-qwen模型小试-Zero/One/Few Shot-进阶篇(九)
理解何为Zero-Shot/One-Shot/Few-Shot,以及如何正确使用
人工智能:大语言模型提示注入攻击安全风险分析报告下载
大语言模型提示注入攻击安全风险分析报告下载
【开源加速中】纳尼?闭源大模型竟然开源了,Mistral AI再开源 Mistral Large 大模型
就在昨天,Meta发布了 Llama 3.1 之后的不久,Mistral AI 正式宣布发布新一代旗舰机型 Mistral Large 2。与前代产品相比,Mistral Large 2 在代码生成、数学和推理方面的能力大大增强。它还提供了更强大的多语言支持和高级函数调用功能。但不仅如此,在HF上居
全面认识AI Agent:从感知到行动的智能体架构指南 | MeoAI
本文深入探讨了AI Agent的核心技术和架构,揭示了智能体如何在复杂环境中实现自主交互。从基础的感知机制到高级的规划策略,再到记忆系统的构建和工具的使用,文章全面覆盖了AI Agent的关键组成部分。特别地,我们讨论了大型语言模型(LLM)在智能体决策过程中的应用,以及它如何增强智能体的自然语言处
AI推介-多模态视觉语言模型VLMs论文速览(arXiv方向):2024.06.25-2024.07.01
虽然大型语言模型(LLM)中文本嵌入的压缩表示取得了重大进展,但大型多模态模型(LMM)中视觉标记的压缩在很大程度上仍是一个被忽视的领域。在这项工作中,我们介绍了有关视觉标记冗余分析和这些模型中高效训练的研究。我们的初步实验表明,在测试阶段通过简单的平均池化消除多达 70% 的视觉标记,只会导致在
Linux:ollama+Dify大模型本地化部署打造个人知识库 (2)
Dify介绍:Dify 是一款开源的大语言模型(LLM)应用开发平台。它融合了后端即服务(Backend as Service)和 LLMOps 的理念,使开发者可以快速搭建生产级的生成式 AI 应用。即使是非技术人员,也能参与到 AI 应用的定义和数据运营过程中。
Mooncake:LLM服务的KVCache为中心分解架构
24年6月AI公司月之暗面的技术报告“Mooncake: A KVCache-centric Disaggregated Architecture for LLM Serving”。
AI大模型需要什么样的数据?
ThePile由上文提到的ArXiv、WebText、Wikipedia等在内的22个不同的高质量数据集组成,包括已经建立的自然语言处理数据集和几个新引入的数据集。例如,大型语言模型的最新进展依赖于更高质量、更丰富的训练数据集:与GPT-2相比,GPT-3对模型架构只进行了微小的修改,但花费精力收集
引领未来的智能革命:深度解析【人工智能】前沿技术与应用
人工智能的基础理论与前沿技术,包括深度学习、人脸识别、语音识别、自动驾驶、生成对抗网络(GANs)、强化学习、无监督学习和人工大脑等领域。通过丰富的代码案例和应用实例,展示了AI技术在各行业中的广泛应用和未来发展潜力,旨在引领读者深入了解和掌握引领未来的智能革命。
开源大语言模型部署(GLM-4、Qwen2)
在本地运行大模型,需要先保证自己有足够的资源。大模型一般运行在GPU上,这里以GLM-4-9B和Qwen2-7B为例来说明其硬件要求情况。
AI的欺骗游戏:揭示多模态大型语言模型的易受骗性
人工智能咨询培训老师叶梓 转载标明出处多模态大型语言模型(MLLMs)在处理包含欺骗性信息的提示时容易生成幻觉式响应。尤其是在生成长响应时,仍然是一个未被充分研究的问题。来自 Apple 公司的研究团队提出了MAD-Bench,一个包含850个测试样本的精心策划的基准测试,这些样本分为六类,包括不存
开源模型应用落地-Yi模型小试-开源模型 vs 闭源模型(四)
测试零一万物的闭源模型,并与其开源模型进行比较
开源模型应用落地-Yi模型小试-Yi-1.5-9B-Chat-16K-入门篇(一)
使用transformer调用01-ai/Yi-1.5-9B-Chat-16K
服务器Ubuntu22.04系统下 ollama的详细部署安装和搭配open_webui使用
服务器Ubuntu22.04系统下 ollama的详细部署安装和搭配open_webui使用
如何用Python调用智谱AI的API
智谱AI大模型以GLM(General Language Model)系列为核心,由清华大学、北京智源人工智能研究院等顶尖机构联合研发。这些模型通过自回归填空任务进行预训练,并采用Transformer架构,能够在各种自然语言理解和生成任务上进行微调,展现出强大的语言处理能力。其中,GLM-130B
快手可图大模型Kolors全面开源——一个更懂中文的文生图大模型
快手可图大模型Kolors全面开源!支持中英文双语,文本输入最高可至256字符,具备英文和中文文字生成能力,生成效果比肩Midjourney-v6水平!
大语言模型系列-Transformer
Transformer模型的核心思想是利用自注意力机制来捕捉输入序列中的长距离依赖关系,从而有效地处理序列数据。它摒弃了传统的循环神经网络(RNN)和卷积神经网络(CNN)结构,通过编码器-解码器架构实现了并行化计算,大大提高了训练效率。
大语言模型-基础及拓展应用
基础模型(transformer)组合模型(bert、gpt)句子向量(simcse)文档解析(openpaser、fitz)
人工智能——大语言模型
一千行代码实现一个完整的可训练和推理的60亿参数的大语言模型,去魅人工智能,去魅大语言模型。本文重在介绍机器学习和大语言模型的基本原理。在科学研究上,机器学习和大语言模型的每一个环节都可以优化研究。如何提升训练的效率,降低训练过程中的过拟合是大语言模型的关键,Transformer的出现为大语言模型