【Pytorch深度学习实战】(10)生成对抗网络(GAN)
第一步我们训练D,D是希望V(G, D)越大越好,所以是加上梯度(ascending)。第二步训练G时,V(G, D)越小越好,所以是减去梯度(descending)。假设我们有两个网络,G(Generator)和D(Discriminator)。G可以生成足以“以假乱真”的图片G(z)。对于D来说
【目标检测】YOLO v5 吸烟行为识别检测
基于YOLO v5 的吸烟目标检测,制作吸烟数据集,训练模型,Windows界面,输出结果,效果较好!mAP值0.8,解决横向项目,毕设,工厂实际需求。
联邦学习开山之作代码解读与收获
详细阅读FL代码
YOLOv7 Backbone| 原文源码详解
YOLOv7Backbone原文源码解读
扩散模型的Prompt指南:如何编写一个明确提示
Prompt(提示)是扩散模型生成图像的内容来源,构建好的提示是每一个Stable Diffusion用户需要解决的第一步。本文总结所有关于提示的内容,这样可以让你生成更准确,更好的图像
computers & security投稿教程
3、需要上传这四个文件,Cover Letter:即是写给编辑的信,发表sci论文需要撰写cover letter(投稿附言),主要是写关于稿件的说明,可以理解为是推荐自己的稿件,是展现科研成果的绝佳时刻,让期刊的编辑对论文有一个好的印象。Biographical Sketch:小传,对作者的介绍,
快速制作自己的VOC语义分割数据集
PASCAL VOC2012是语义分割任务极为重要的官方数据集,大量优秀的语义分割模型都会刷一下这个数据集,因此我们在使用别人的开源代码时,如果能将自己的数据集整理成官方数据集的格式,则可快速验证模型性能,减少自身工作量。
YOLOv5 CPU和GPU环境搭建(道路识别)
YOLOv5 CPU和GPU环境搭建(道路识别)
Pytorch中loss.backward()和torch.autograd.grad的使用和区别(通俗易懂)
Pytorch中loss.backward()和torch.autograd.grad的使用和区别(通俗易懂)
手把手教你百度飞桨PP-YOLOE部署到瑞芯微RK3588
手把手教你百度飞桨PP-YOLOE部署到瑞芯微RK3588
运用VGG16神经网络进行花朵识别
把数据集的照片进行处理得到向量,花种类名称写入文件class_indices.json中,确定batch_size = 8,运用模型进行训练,反向传播计算梯度,不断更新权重,最终计算损失函数,保存损失最小的模型权重,到vgg16Net.pth文件中。根据vgg16模型建立,在model.py文件中实
训练NeRF模型的几个建议
如何快速训练处一个理想效果的NeRF, instant-ngp给了一些提示
【记录】torch.nn.CrossEntropyLoss报错及解决
不然softmax无法计算,及model的output channel = class number。假设传入torch.nn.CrossEntropyLoss的参数为。根据官网文档,如果直接使用class进行分类,pred的维度应该是。注意在网络输出的channel中加入。,label的维度应该是
【实战篇】是时候彻底弄懂BERT模型了(收藏)
如何弄懂BERT模型,当然是理论+实战了。本文就告诉大家如何实战BERT模型。
深度学习之concatenate和elementwise操作(二)
一、深度学习里面的element-wise特征相乘和相加到底有什么区别?很多深度学习模型在设计时,中间特征在分支处理后,然后可能会采用element-wise相乘或相加,不知道这个乘和加的细微区别?答:相加的两个tensor通常都是具有特征意义的tensor,相乘的话,一般来说,其中一个tensor
手把手教你进行安全帽的佩戴检测(附数据集+代码演示+实验结果)
一起来进行安全帽的佩戴检测
GELU激活函数
GELU激活函数简介
AI画图 Disco-diffusion 本地搭建测试
Disco Diffusion图像生成网络,输入文字输出美图。
Torchtext快速入门(一)——Vocab
深入解读torchtext.vocab.Vocab
(Note)优化器Adam的学习率设置
从统计的角度看,Adam的自适应原理也是根据统计对梯度进行修正,但依然离不开前面设置的学习率。如果学习率设置的过大,则会导致模型发散,造成收敛较慢或陷入局部最小值点,因为过大的学习率会在优化过程中跳过最优解或次优解。同时神经网络的损失函数基本不是凸函数,而梯度下降法这些优化方法主要针对的是凸函数,所