A5000 VS 3090,谁更强?

3090的单精度性能高于A5000,但在半精度和混合精度训练中,A5000的性价比又不输3090,甚至更为突出。

【torch.nn.Parameter 】参数相关的介绍和使用

是继承自的子类,其主要作用是作为中的可训练参数使用。它与的区别就是会自动被认为是的可训练参数,即加入到这个迭代器中去。具体格式如下:其中 为待传入的 , 默认为 True。事实上, 中提供的模块中的参数均是 类,例如:参数构造可以看作是一个类型转换函数,将一个不可训练的类型 转换成可以训练的类

【Pytorch深度学习实战】(11)变分自动编码器(VAE)

而变分自编码器便是用“取值的概率分布”代替原先的单值来描述对特征的观察的模型,如下图的右边部分所示,经过变分自编码器的编码,每张图片的微笑特征不再是自编码器中的单值而是一个概率分布。另一个根据生成的隐变量变分概率分布,还原生成原始数据的近似概率分布,称为生成网络。在上面的模型中,经过反复训练,我们的

tensorRT部署实战——yolov5

yolov5的onnx简化到trt推理

如何利用DGL官方库中的rgcn链接预测代码跑自己的数据集(如何在DGL库的链接预测数据集模块定义自己的数据集类)

如何利用DGL官方库中的rgcn链接预测代码跑自己的数据集(如何在DGL库的链接预测数据集模块定义自己的数据集类)

SE(Squeeze and Excitation)模块的理解以及代码实现

SEBlock并非一个完整的网络,而且一个子结构,可以嵌在其他分类或检测模型中。SEBlock的核心思想是通过网络根据loss去学习特征权重,使得有效的featuremap权重更大,无效或效果小的featuremap权重更小的方式去训练模型已达到更好的结果。当然,SEblock嵌在原有的一些分类网络

机器人抓取系列——CBAM注意力机制

注意力机制

【项目问答】YOLOv5

Yolov5官方代码中,给出的目标检测网络中一共有4个版本,分别是Yolov5s、Yolov5m、Yolov5l、Yolov5x四个模型。Yolov5s网络是Yolov5系列中深度最小,特征图的宽度最小的网络。后面的3种都是在此基础上不断加深,不断加宽。网络结构:1、模型参数配置:【YOLOV5-5

Depthwise 卷积 ,Pointwise 卷积与普通卷积的区别

1 普通卷积原理:普通卷积是,一个卷积核与input的所有通道都进行卷积,然后不同通道相同位置卷积后的结果再相加,如下图所示,:⾸先,每个通道内对应位置元素相乘再相加,最后计算所有通道的总和作为最终结果。卷积核的Channel通道数等于Input输⼊的通道数,Output输出的通道数等于卷积核的个数

【阅读笔记】多任务学习之MMoE(含代码实现)

本文作为自己阅读论文后的总结和思考,不涉及论文翻译和模型解读,适合大家阅读完论文后交流想法,文末含MMoE的Pytorch实现及Synthetic Data的生成代码。

度量学习——总结

传统方法User guide: contents — metric-learn 0.6.2 documentation深度学习基于深度学习的度量学习方法大都由两个部分组成:特征提取模块和距离度量模块。距离度量模块的任务是使同一类样本间的距离更靠近,而不同类样本间的距离更远离。这一模块更多的实现方法是

yolox改进--添加Coordinate Attention模块(CVPR2021)

yolox改进--添加Coordinate Attention模块。Coordinate Attention Module,同SE、CBAM等模块一样,作为即插即用的注意力机制,在yolov5、yolox等轻量级网络中有着重要的作用。本文介绍的CAM+yolox在我的数据集上,mAP比不添加的时候提

【参赛作品93】openGauss-An Autonomous Database【PVLDB论文阅读分享】

本文基于openGauss在VLDB2021上最新发表的论文《openGauss: An Autonomous Database System》,从学术的角度来探究openGauss如何基于各种AI技术构建一个智能的自治数据库系统。论文作者是清华大学李国良教授,他同时也是openGauss的总架构师

[总结] 半监督学习方法: 一致性正则化(Consistency Regularization)

基于平滑假设和聚类假设, 具有不同标签的数据点在低密度区域分离, 并且相似的数据点具有相似的输出. 那么, 如果对一个未标记的数据应用实际的扰动, 其预测结果不应该发生显著变化, 也就是输出具有一致性.

【深度学习】Pytorch实现CIFAR10图像分类任务测试集准确率达95%

文章目录前言CIFAR10简介Backbone选择训练+测试训练环境及超参设置完整代码部分测试结果完整工程文件Reference前言分享一下本人去年入门深度学习时,在CIFAR10数据集上做的图像分类任务,使用了多个主流的backbone网络,希望可以为同样想入门深度学习的同志们,提供一个方便上手、

YOLO,VOC数据集标注格式

YOLO,VOC数据集标注格式

fast-rcnn详解

FastR-CNN算法及训练过程R-CNN显著提升了目标检测算法的性能,但因为计算过于复杂,耗时很长,所以在实际的应用系统中,大都无法使用。经过分析可知,R-CNN的复杂性主要来自两个方面:一是需要针对大量的候选框分别进行计算;二是特征提取之后的分类器训练和位置回归,是几个独立步骤分别进行的。在训练

递归门控卷积HorNet(gn_conv)阅读笔记

HorNet: Efficient High-Order Spatial Interactions with Recursive Gated Convolutions ECCV2022程序视觉 Transformers 的最新进展在基于点积 self-attention 的新空间建模机制驱动的各种

长时间预测模型DLinear、NLinear模型(论文解读)

2022年8月时间序列任务SOTA模型DLinear、NLinear模型论文解读

什么是神经网络?

什么是神经网络