深度解析:什么是Diffusion Model?

©PaperWeekly 原创 ·作者 |鬼谷子引言在上一篇基于流的深度生成模型中详解介绍了有关流的生成模型理论和方法。目前为止,基于 GAN 生成模型,基于 VAE 的生成模型,以及基于 flow 的生成模型它们都可以生成较高质量的样本,但每种方法都有其局限性。GAN 在对抗训练过程中会出现模式崩

神经网络Python实现(9行代码)

神经网络由输入层、输出层和之间若干层(一层或多层)隐含层构成,每一层可以有若干个节点。层与层之间节点的连接状态通过权重来体现。这9行代码就是把上图的1~4组数据作为训练集进行模型训练,不断地更新权重使其输出更接近训练集中给出的输出标签(标准答案),然后将最后一组数据当做测试集来检测模型的准确度,它最

分享本周所学——人工智能语音识别模型CTC、RNN-T、LAS详解

本人是一名人工智能初学者,最近一周学了一下AI语音识别的原理和三种比较早期的语音识别的人工智能模型,就想把自己学到的这些东西都分享给大家,一方面想用浅显易懂的语言让大家对这几个模型有所了解,另一方面也想让大家能够避免我所遇到的一些问题。然后因为我也只是一名小白,所以有错误的地方还希望大佬们多多指正。

运用VGG16神经网络进行花朵识别

把数据集的照片进行处理得到向量,花种类名称写入文件class_indices.json中,确定batch_size = 8,运用模型进行训练,反向传播计算梯度,不断更新权重,最终计算损失函数,保存损失最小的模型权重,到vgg16Net.pth文件中。根据vgg16模型建立,在model.py文件中实

MobileNet系列论文

传统CNN,内存需求量大、运算量大,导致无法在移动设备以及嵌入式设备上运行。MobileNet是Google团队在2017年提出,专注于移动端或者嵌入式设备中的轻量级CNN网络。相比于传统的CNN,在准确率下幅度下降的前提下大大减少了模型参数与运算量。(相比于VGG16准确率下降了0.9%,但模型参

【综述】一文读懂卷积神经网络(CNN)

卷积神经网络是多层感知机(MLP)的变种,由生物学家休博尔和维瑟尔在早期关于猫视觉皮层的研究发展而来,视觉皮层的细胞存在一个复杂的构造,这些细胞对视觉输入空间的子区域非常敏感,称之为感受野。CNN由纽约大学的Yann Lecun于1998年提出(LeNet-5),其本质是一个多层感知机,成功的原因在

时间序列数据预测结果为一条直线原因总结

时间序列数据预测结果为一条直线原因总结

ResNet网络 残差块的作用

ResNet简单介绍 ResNet是15年提出的经典网络了。在ResNet提出之前,人们发现当模型层数提升到一定程度后,再增加层数就不再能提升模型效果了——这就导致深度学习网络看似出现了瓶颈,通过增加层数来提升效果的方式似乎已经到头了。ResNet解决了这一问题。 ResNet的核心思想就是引入了残

pytorch获得模型的参数量和模型的大小

pytorch获得模型的参数量和模型的大小

小波神经网络(WNN)的实现(Python,附源码及数据集)

本文对小波神经网络(WNN)的理论基础及建模步骤进行介绍,之后使用Python实现基于WNN的数据预测,通俗易懂,适合新手学习,附源码及实验数据集。

so-vits-svc3.0 中文详细安装、训练、推理使用教程

so-vits-svc 中文详细安装、训练、推理使用步骤

Transformer在计算机视觉中的应用-VIT、TNT模型

Transformer在计算机视觉中的应用-VIT算法

反向传播神经网络(BPNN)的实现(Python,附源码及数据集)

本文对反向传播神经网络(BPNN)的理论基础进行介绍,之后使用Python实现基于BPNN的数据预测,通俗易懂,适合新手学习,附源码及实验数据集。

RF模型(随机森林模型)详解

入门小菜鸟,希望像做笔记记录自己学的东西,也希望能帮助到同样入门的人,更希望大佬们帮忙纠错啦~侵权立删。一、RF简介RF模型属于集成学习中的bagging流派1、集成学习简介集成学习分为2派:(1)boosting:它组合多个弱学习器形成一个强学习器,且各个弱学习器之间有依赖关系。(2)baggin

经典神经网络论文超详细解读(七)——SENet(注意力机制)学习笔记(翻译+精读+代码复现)

SENet论文(《Squeeze-and-Excitation Networks》)超详细解读。翻译+总结。文末有代码复现

异构图神经网络 RGCN、RGAT、HAN、GNN-FILM + PyG实现

RGCN、RGAT、GNN-FILM代码替换十分简单,训练代码完全不用动,只要改模型代码即可,完全可以三者都尝试效果,HAN慎用,效果太吃matapath的设置,训练时间还长,不值得。

详解Inception结构:从Inception v1到Xception

详细介绍了GoogLeNet中Inception模块网络结构的发展历程,包括了Inception v1,Inception v2,Inception v3,Inception v4,Xception结构及特点。

ConvLSTM时空预测实战代码详解

ConvLSTM代码复现

【动手深度学习-笔记】注意力机制(四)自注意力、交叉注意力和位置编码

像这样的,查询、键和值来自同一组输入的注意力机制,被称为自注意力(self-attention)或者内部注意力(intra-attention)。总而言之,卷积神经网络和自注意力都拥有并行计算的优势,而且自注意力的最大路径长度最短。DETR中,为了保留特征的空间信息,没有将二维数据平铺为一维,而是分