AI大模型需要什么样的数据?
ThePile由上文提到的ArXiv、WebText、Wikipedia等在内的22个不同的高质量数据集组成,包括已经建立的自然语言处理数据集和几个新引入的数据集。例如,大型语言模型的最新进展依赖于更高质量、更丰富的训练数据集:与GPT-2相比,GPT-3对模型架构只进行了微小的修改,但花费精力收集
引领未来的智能革命:深度解析【人工智能】前沿技术与应用
人工智能的基础理论与前沿技术,包括深度学习、人脸识别、语音识别、自动驾驶、生成对抗网络(GANs)、强化学习、无监督学习和人工大脑等领域。通过丰富的代码案例和应用实例,展示了AI技术在各行业中的广泛应用和未来发展潜力,旨在引领读者深入了解和掌握引领未来的智能革命。
开源大语言模型部署(GLM-4、Qwen2)
在本地运行大模型,需要先保证自己有足够的资源。大模型一般运行在GPU上,这里以GLM-4-9B和Qwen2-7B为例来说明其硬件要求情况。
AI的欺骗游戏:揭示多模态大型语言模型的易受骗性
人工智能咨询培训老师叶梓 转载标明出处多模态大型语言模型(MLLMs)在处理包含欺骗性信息的提示时容易生成幻觉式响应。尤其是在生成长响应时,仍然是一个未被充分研究的问题。来自 Apple 公司的研究团队提出了MAD-Bench,一个包含850个测试样本的精心策划的基准测试,这些样本分为六类,包括不存
开源模型应用落地-Yi模型小试-开源模型 vs 闭源模型(四)
测试零一万物的闭源模型,并与其开源模型进行比较
开源模型应用落地-Yi模型小试-Yi-1.5-9B-Chat-16K-入门篇(一)
使用transformer调用01-ai/Yi-1.5-9B-Chat-16K
服务器Ubuntu22.04系统下 ollama的详细部署安装和搭配open_webui使用
服务器Ubuntu22.04系统下 ollama的详细部署安装和搭配open_webui使用
如何用Python调用智谱AI的API
智谱AI大模型以GLM(General Language Model)系列为核心,由清华大学、北京智源人工智能研究院等顶尖机构联合研发。这些模型通过自回归填空任务进行预训练,并采用Transformer架构,能够在各种自然语言理解和生成任务上进行微调,展现出强大的语言处理能力。其中,GLM-130B
快手可图大模型Kolors全面开源——一个更懂中文的文生图大模型
快手可图大模型Kolors全面开源!支持中英文双语,文本输入最高可至256字符,具备英文和中文文字生成能力,生成效果比肩Midjourney-v6水平!
大语言模型系列-Transformer
Transformer模型的核心思想是利用自注意力机制来捕捉输入序列中的长距离依赖关系,从而有效地处理序列数据。它摒弃了传统的循环神经网络(RNN)和卷积神经网络(CNN)结构,通过编码器-解码器架构实现了并行化计算,大大提高了训练效率。
大语言模型-基础及拓展应用
基础模型(transformer)组合模型(bert、gpt)句子向量(simcse)文档解析(openpaser、fitz)
人工智能——大语言模型
一千行代码实现一个完整的可训练和推理的60亿参数的大语言模型,去魅人工智能,去魅大语言模型。本文重在介绍机器学习和大语言模型的基本原理。在科学研究上,机器学习和大语言模型的每一个环节都可以优化研究。如何提升训练的效率,降低训练过程中的过拟合是大语言模型的关键,Transformer的出现为大语言模型
AI推介-多模态视觉语言模型VLMs论文速览(arXiv方向):2024.06.01-2024.06.05
大型视觉语言模型(VLM)可以学习丰富的图像-文本联合表征,从而在相关的下游任务中表现出色。然而,它们未能展示出对物体的定量理解,也缺乏良好的计数感知表征。本文对 “教CLIP数到十”(Paiss等人,2023年)进行了可重复性研究,该研究提出了一种微调CLIP模型(Radford等人,2021年)
lua脚本在redis的实战案例
Lua脚本在Redis中提供了强大的功能,它允许你执行原子性的复杂操作,从而提高Redis的性能和安全性。以下是一些关于如何在Redis中使用Lua脚本的基本知识
text-generation-webui在linux服务器上的部署和运行(保姆教程/踩坑记录)
本篇将以部署CodeLLama-7b模型为例,手把手记录该webui的部署实践过程。
开源模型应用落地-FastAPI-助力模型交互-进阶篇-中间件(四)
学习FastAPI中高级中间件的相关内容
开源模型应用落地-FastAPI-助力模型交互-进阶篇-Request&Dataclasses(三)
如何在FastAPI中直接使用Request对象和如何使用数据类Dataclasses
解析 Ferret-UI:多模态大模型在移动用户界面理解中的应用
移动应用的爆炸性增长,用户界面(UI)的设计越来越复杂,功能也越来越丰富。但现有的多模态大模型(MLLMs)在理解用户界面时存在局限,尤其是在处理具有特定分辨率和包含众多小型对象(如图标、文本)的移动 UI 屏幕时。这些模型通常难以准确识别和操作界面上的特定元素,也难以执行基于自然语言指令的复杂任务
【李宏毅-生成式 AI】Spring 2024, HW5:LLM Fine-tuning 实验记录
李宏毅生成式 AI 课程的 Lab Homework 5 实验的笔记
免费国产AI大语言模型API接口[20240626]
本文介绍我们搜集到的国内所有人工智能大语言模型的免费API接口,包括完全免费以及限时免费等方式。