【Pytorch深度学习实战】(10)生成对抗网络(GAN)

第一步我们训练D,D是希望V(G, D)越大越好,所以是加上梯度(ascending)。第二步训练G时,V(G, D)越小越好,所以是减去梯度(descending)。假设我们有两个网络,G(Generator)和D(Discriminator)。G可以生成足以“以假乱真”的图片G(z)。对于D来说

【目标检测】YOLO v5 吸烟行为识别检测

基于YOLO v5 的吸烟目标检测,制作吸烟数据集,训练模型,Windows界面,输出结果,效果较好!mAP值0.8,解决横向项目,毕设,工厂实际需求。

联邦学习开山之作代码解读与收获

详细阅读FL代码

YOLOv7 Backbone| 原文源码详解

YOLOv7Backbone原文源码解读

扩散模型的Prompt指南:如何编写一个明确提示

Prompt(提示)是扩散模型生成图像的内容来源,构建好的提示是每一个Stable Diffusion用户需要解决的第一步。本文总结所有关于提示的内容,这样可以让你生成更准确,更好的图像

computers & security投稿教程

3、需要上传这四个文件,Cover Letter:即是写给编辑的信,发表sci论文需要撰写cover letter(投稿附言),主要是写关于稿件的说明,可以理解为是推荐自己的稿件,是展现科研成果的绝佳时刻,让期刊的编辑对论文有一个好的印象。Biographical Sketch:小传,对作者的介绍,

快速制作自己的VOC语义分割数据集

PASCAL VOC2012是语义分割任务极为重要的官方数据集,大量优秀的语义分割模型都会刷一下这个数据集,因此我们在使用别人的开源代码时,如果能将自己的数据集整理成官方数据集的格式,则可快速验证模型性能,减少自身工作量。

YOLOv5 CPU和GPU环境搭建(道路识别)

YOLOv5 CPU和GPU环境搭建(道路识别)

Pytorch中loss.backward()和torch.autograd.grad的使用和区别(通俗易懂)

Pytorch中loss.backward()和torch.autograd.grad的使用和区别(通俗易懂)

手把手教你百度飞桨PP-YOLOE部署到瑞芯微RK3588

手把手教你百度飞桨PP-YOLOE部署到瑞芯微RK3588

运用VGG16神经网络进行花朵识别

把数据集的照片进行处理得到向量,花种类名称写入文件class_indices.json中,确定batch_size = 8,运用模型进行训练,反向传播计算梯度,不断更新权重,最终计算损失函数,保存损失最小的模型权重,到vgg16Net.pth文件中。根据vgg16模型建立,在model.py文件中实

训练NeRF模型的几个建议

如何快速训练处一个理想效果的NeRF, instant-ngp给了一些提示

【记录】torch.nn.CrossEntropyLoss报错及解决

不然softmax无法计算,及model的output channel = class number。假设传入torch.nn.CrossEntropyLoss的参数为。根据官网文档,如果直接使用class进行分类,pred的维度应该是。注意在网络输出的channel中加入。,label的维度应该是

【实战篇】是时候彻底弄懂BERT模型了(收藏)

如何弄懂BERT模型,当然是理论+实战了。本文就告诉大家如何实战BERT模型。

深度学习之concatenate和elementwise操作(二)

一、深度学习里面的element-wise特征相乘和相加到底有什么区别?很多深度学习模型在设计时,中间特征在分支处理后,然后可能会采用element-wise相乘或相加,不知道这个乘和加的细微区别?答:相加的两个tensor通常都是具有特征意义的tensor,相乘的话,一般来说,其中一个tensor

GELU激活函数

GELU激活函数简介

AI画图 Disco-diffusion 本地搭建测试

Disco Diffusion图像生成网络,输入文字输出美图。

Torchtext快速入门(一)——Vocab

深入解读torchtext.vocab.Vocab

(Note)优化器Adam的学习率设置

从统计的角度看,Adam的自适应原理也是根据统计对梯度进行修正,但依然离不开前面设置的学习率。如果学习率设置的过大,则会导致模型发散,造成收敛较慢或陷入局部最小值点,因为过大的学习率会在优化过程中跳过最优解或次优解。同时神经网络的损失函数基本不是凸函数,而梯度下降法这些优化方法主要针对的是凸函数,所