Pytorch—模型微调(fine-tune)

对于不同的层可以设置不同的学习率,一般情况下建议,对于使用的原始数据做初始化的层设置的学习率要小于(一般可设置小于10倍)初始化的学习率,这样保证对于已经初始化的数据不会扭曲的过快,而使用初始化学习率的新层可以快速的收敛。

深度学习(PyTorch)——flatten函数的用法及其与reshape函数的区别

深度学习(PyTorch)——flatten函数的用法及其与reshape函数的区别

狂肝两万字带你用pytorch搞深度学习!!!

深度学习基础知识和各种网络结构实战...一文带你用pytorch搞深度学习!!!深度学习前言一、tensor的数据类型1.1 torch.FloatTensor1.2 torch.IntTensor1.3 torch.randn1.4 torch.range1.5 torch.zeros/ones/

一行代码加速Pytorch推理速度6倍

PyTorch 有一个名为 PyTorch Hub 的模型存储库,它是常见模型的高质量实现的来源。我们可以从那里获得在 ImageNet 上预训练的 ResNet-50 模型。在本教程中,我们介绍了使用 Torch-TensorRT 为 ResNet-50 模型编译 TorchScript 模型的完

(pytorch进阶之路)IDDPM之diffusion实现

DM beat GANs作者改进了DDPM模型,提出了三个改进点,目的是提高在生成图像上的对数似然第一个改进点方差改成了可学习的,预测方差线性加权的权重第二个改进点将噪声方案的线性变化变成了非线性变换。

在GPU上运行pytorch程序(指定单/多显卡)

在GPU上运行pytorch程序(指定单/多显卡)

Pytorch训练模型损失Loss为Nan或者无穷大(INF)原因

常见原因-1一般来说,出现NaN有以下几种情况:相信很多人都遇到过训练一个deep model的过程中,loss突然变成了NaN。在这里对这个问题做一个总结:1.如果在迭代的100轮以内,出现NaN,一般情况下的原因是因为你的学习率过高,需要降低学习率。可以不断降低学习率直至不出现NaN为止,一般来

使用MobileViT替换YOLOv5主干网络

相比较于其他的transformer变体,MobileViT这篇文章给出的改动技巧很简单高效,它解决的ViT中因为像素摊平操作导致的位置信息损失问题,将卷积的局部信息提取优势和自注意力机制的全局信息提取能力结合起来,并且根据论文描述具有高度轻量化+极快的推理速度,具体的大佬们自己去读读,本菜鸡好久之

图像中的注意力机制详解(SEBlock | ECABlock | CBAM)

图像中的注意力机制详解注意力机制目前主要有通道注意力机制和空间注意力机制两种一、 前言我们知道,输入一张图片,神经网络会提取图像特征,每一层都有不同大小的特征图。如图1所示,展示了 VGG网络在提取图像特征时特征图的大小变化。图1 VGG网络特征结构图其中,特征图常见的矩阵形状为[C,H,W]{[C

图像超分辨率重建(pytorch)

本文在原论文的基础上进行了代码补充,并提供了整个流程的代码运行方法以完成图像超分辨率工作。

pytorch 多GPU并行训练代码讲解

pytorch 多GPU并行训练介绍,参考我之前的博客:pytorch中使用多GPU并行训练。本文主要针对代码部分进行讲解。1. 首先判断有没有可用的GPU,如果没有的话,这边会报错提醒,因为我们的脚本对针对多GPU训练的场景的。2. 初始化各进程环境。

【损失函数:3】感知损失:Perceptual Loss、总变分损失(TV Loss)(附Pytorch实现)

提出感知损失的概念,用于实时超分辨任务和风格迁移任务,后来也被应用于更多的领域,在图像去雾方向也有不少工作使用到了感知损失,所以这里就细看一下感知损失具体是什么,该如何构造(说个题外话:我之前做实验,用VGG提取特征构造感知损失狂爆内存,然后直接放弃了,都怪设备太垃圾啊!!!)。

SENet代码复现+超详细注释(PyTorch)

SENet代码复现(PyTorch),每一行都有超详细注释,新手小白都能看懂,亲测可运行

从0到1实现GCN——最详细的代码实现

从0到1的GCN代码实现。详细介绍了基于GCN公式的代码实现,以及更加简单高效的基于Pytorch Geometric(PyG)的GCN的代码实现。帮助小白快速入手GCN!!!

PyTorch深度学习实战 | 自然语言处理与强化学习

PyTorch是当前主流深度学习框架之一,其设计追求最少的封装、最直观的设计,其简洁优美的特性使得PyTorch代码更易理解,对新手非常友好。本文主要介绍深度学习领域中自然语言处理与强化学习部分。

Pytorch DataLoader中的num_workers (选择最合适的num_workers值)

Pytorch DataLoader中的num_workers (选择最合适的num_workers值)

pytorch模型保存与加载总结

pytorch模型保存与加载方式、打包保存tar、多卡训练遇到的问题、torch.jit、加载预训练模型、保存模型再加载精度损失

LSTM实现时间序列预测(PyTorch版)

为了训练数据,首先定义LSTM模型,然后再定义对应的损失函数,由于我们这里是风速预测,显然是个回归问题,所以采用回归问题常用的MESLoss(),如果可以的话,可以自定义损失函数,针对自己的项目需求定义对应的损失函数。对于优化器来讲,使用的也是目前常用的Adam优化器,对于新手来讲也可以多多尝试其它

DCGAN理论讲解及代码实现

DCGAN也叫深度卷积生成对抗网络,DCGAN就是将CNN与GAN结合在一起,生成模型和判别模型都运用了深度卷积神经网络的生成对抗网络。DCGAN将GAN与CNN相结合,奠定了之后几乎所有GAN的基本网络架构。DCGAN极大地提升了原始GAN训练的稳定性以及生成结果的质量...

【pytorch】有关nn.EMBEDDING的简单介绍

假设有一本字典,就一共只有10单词,每个单词有5个字母组成。每一页上只写一个单词,所以这10页纸上分别写了这10个单词。内如如下,我们假定这本字典叫, 这里的10和5即上面介绍的含义,10个单词,每个单词5个字母;现在我要查看第2页和第3页(从0开始),那么我会得到 [s,m,a,l,l], [w,