【人工智能】大模型之编码器基础知识
序列数据输入:编码器接收输入序列数据,并将其存储在内存中。自注意力机制:编码器使用自注意力机制来提取序列中的信息,以使模型能够更好地理解序列中的不同部分。编码器输出:编码器通过将输入序列和其对应的输出向量相减来实现对序列数据的预测。编码器是神经网络中的一个重要组件,它的主要作用是将输入序列数据编码成
【目标检测】Grounding DINO:开集目标检测器(CVPR2023)
Grounding DINO,一种开集目标检测方案,将基于Transformer的检测器DINO与真值预训练相结合。开集检测关键是引入自然语言至闭集检测器,用于open world的检测。Grounding DINO将检测器分为三个阶段的紧密融合方案,包括。可实现对新颖类别进行检测,特定属性目标识别
【AI人工智能】如何使用Keras和TensorFlow来训练大型深度学习模型
Keras和TensorFlow都使用了动态图(Dynamic Graph)作为模型的表示。动态图允许模型在运行时进行修改,并且可以在编译时进行优化。Keras和TensorFlow都使用了神经网络模型的压缩和优化技术。例如,Keras的Transformer模型采用了一些针对压缩和优化的技术,例如
从传统的图像压缩到基于深度学习的图像压缩
早期的图像压缩方法直接利用熵编码减少图像的编码冗余来实现压缩,例如,霍夫曼(Huffman)编码,算术编码,上下文自适应二进制算术编码。在20世纪 60年代后期基于图像变换的压缩方法被提出,这种压缩方法即将图像从空间域转换至频率域在频率域进行编码。变换编码中用到的变换方法主要包括傅里叶变换,Hada
【代码复现】Windows10复现nerf-pytorch
本文主要介绍了nerf-pytorch在win10下复现的方法。
【人工智能】大模型(LLM)与人类大脑的结构及运行机制的关系
随着计算机科学的发展,我们渐渐地拥有了能力让人工智能系统处理更复杂的任务。在过去几十年中,人工智能的上限一直在不断提高。特别是,在计算机处理自然语言这个领域,人工智能已经取得了显著的成果。这方面的许多研究都关注于理解和模仿人类大脑的结构和机制,以提高人工智能的性能。LLM作为当今一种重要的人工智能表
【基础篇001】⼤模型理论基础——初探大模型:起源与发展《AI 大模型应用开发实战指南》
实战五:基于知识库的销售顾问 Sales-Consultant。实战三:使用 LangChain 重新实现智能翻译助手。实战二:动⼿开发第⼀个 ChatGPT Plugin。在 ChatGPT 聊天中实现 PDF ⽂件上传。实战一:基于 ChatGPT 开发智能翻译助⼿。实战四:手把手带你实现网红项
【人工智能的数学基础】多目标优化的帕累托最优(Pareto Optimality)
寻找多目标优化问题的帕累托最优解.多目标优化是指同时优化多个相关任务的目标,Ltotali∑nwiLi。为使得每个任务在训练时都获得有益的提升,需要合理的设置任务权重wi,使得每一次更新时目标损失函数L1L2⋯Ln都下降或保持不变。对于参数θ∗,若该参数任意变化都会导致某个目标的损失
【人工智能】LLM 大型语言模型和 Transformer 架构简介
然而,传统的机器学习模型,例如神经网络,并不能天生理解输入的顺序。通过将位置编码纳入 Transformer 架构,GPT 可以更有效地理解句子中单词的顺序,并生成语法正确且语义有意义的输出。但是,模型只能理解数字,不能理解文本,因此需要将这些输入转换为称为“输入嵌入”的数字格式。作为初创公司的首席
Ubuntu20.04LTS安装CUDA并支持多版本切换
由于我工作站(Ubuntu 20.04 LTS)的英伟达驱动版本为520.61.05,从上图可以看出,我最高可以安装的CUDA版本为11.8.x。(注:CUDA 12.0.x和CUDA 12.1.x都要求英伟达驱动版本大于等于525.60.13,因此我的520.61.05不符合,所以我最高只能安装C
【人工智能概论】 K折交叉验证
K折交叉验证
使用QLoRA对Llama 2进行微调的详细笔记
本文是一个良好的开端,因为可以把我们在这里学到的大部分东西应用到微调任何LLM的任务中。
【人工智能的数学基础】函数的光滑化(Smoothing)
综上所述,需要对非光滑函数进行光滑近似的方法。本文首先对函数的光滑化进行定义,并介绍几种对函数进行光滑化的方法。光滑函数(smooth function)是指在其定义域内无穷阶数连续可导的函数。函数的光滑化是指对于一个非光滑函数fff,寻找一个光滑函数fμf_{\mu}fμ,使得fμf_{\mu}
Stability AI发布基于稳定扩散的音频生成模型Stable Audio
Stability AI的Stable Audio AI模型标志着人工智能驱动的听觉创造力的重大飞跃。它为音乐和声音爱好者打开了新的视野。在未来还会提供进一步增强模型、数据集和训练技术的体系结构,发布基于Stable Audio的开源模型,并将提供必要的代码,以方便定制音频内容生成模型的训练。
ChatGPT可以取代搜索引擎吗?
ChatGPT对于一些简单的问题,可以完美的完成任务。但是我让它写一篇完整的文章,看看它能否代替我进行写作地的时候,我确定它不能完全取代人类。
【DL】2023年你应该知道的 10 大深度学习算法
它们是训练有素的神经网络,可将数据从输入层复制到输出层。它们具有相同数量的输入和输出层,但可能有多个隐藏层,可用于构建语音识别、图像识别和机器翻译软件。无论您是初学者还是专业人士,这三大深度学习算法都将帮助您解决与深度学习相关的复杂问题:CNN 或卷积神经网络、LSTM 或长短期记忆网络和 RNN
Anaconda安装教程
Anaconda安装教程
Torch中常见插值方式及各自的优缺点
插值指的是利用已知数据去预测未知数据,图像插值则是给定一个像素点,根据它周围像素点的信息来对该像素点的值进行预测。当我们调整图片尺寸或者对图片变形的时候常会用到图片插值。常见的插值算法可以**分为两类**:**自适应和非自适应**。 自适应的方法可以根据插值的内容来改变(尖锐的边缘或者是平滑的纹理)
Yolov5改进: Yolov5-FasterNet网络推理加速
FasterNet是CVPR 2023 新出来的网络,主要用来加速网络推理实现轻量化。作者重新审视了现有的操作符,特别是DWConv的计算速度——FLOPS。作者发现导致低FLOPS问题的主要原因是频繁的内存访问。然后,作者提出了PConv作为一种竞争性替代方案,它减少了计算冗余以及内存访问的数量。
免费部署一个开源大模型 MOSS
MOSS 的公开无异于宣告与百度对话模型的“正面竞争”,这场人工智能的“决战”注定轰动一时。未来几个月, ChatGPT 式对话产品将在中国大行其道,而 MOSS 和“文心一言”的 PK 则成为行业和公众最关心的话题。这场竞赛的结果,将对中国在人工智能领域的地位产生重大影响。人工智能时代的创新,正在