使用Pytorch进行多卡训练
当一块GPU不够用时,我们就需要使用多卡进行并行训练。其中多卡并行可分为数据并行和模型并行。具体区别如下图所示: 由于模型并行比较少用,这里只对数据并行进行记录。对于pytorch,有两种方式可以进行数据并行:数据并行(DataParallel, DP)和分布式数据并行(Distributed
Torch 模型 onnx 文件的导出和调用
OpenNeuralNetworkExchange(ONNX,开放神经网络交换)格式,是一个用于表示深度学习模型的标准,可使模型在不同框架之间进行转移Torch所定义的模型为动态图,其前向传播是由类方法定义和实现的但是Python代码的效率是比较底下的,试想把动态图转化为静态图,模型的推理速度应当有
SORT与DeepSORT简介
DeepSORT作为一个成熟多目标跟踪算法在很多应用中得到使用。本文对多目标跟踪算法SORT与DeepSORT做简要介绍。
【比赛记录】国电投-光伏电站人工智能运维大数据处理分析比赛
深度学习与Xgbost在光伏电站人工智能运维大数据处理分析中的应用
CVPR 2023 | 旷视研究院入选论文亮点解读
近日,CVPR 2023 论文接收结果出炉。近年来,CVPR 的投稿数量持续增加,今年收到有效投稿 9155 篇,和 CVPR 2022 相比增加 12%,创历史新高。最终,大会收录论文 2360 篇,接收率为 25.78 %。本次,旷视研究院有 13 篇论文入选,涵盖3D 目标检测、多目标跟踪、模
Transformer简介
transformer模型简介,包括编码器(encoder)、解码器(decoder)、训练以及模型训练中的tips。
语义分割基础讲解
(比如像素0对应的是(0,0,0)黑色,像素1对应的是(127,0,0)深红色,像素255对应的是(224,224,129))。Labelme是一款非常老的标注工具,使用起来非常简单,就是靠你人工一个个点去标,将我们的目标慢慢的框出来。这个标注工具,基于百度提供的预训练模型,这些模型在一些非常大的数
deeplab v3+ 源码详解
deeplab v3+默认使用voc数据集和cityspace数据集,图片预处理部分仅仅读取图片和对应的标签,同时对图片进行随机翻转、随机裁剪等常见图片预处理方式。
训练集、验证集、测试集的作用和划分比例?
训练集、验证集、测试集的作用和划分比例?
论文解读 ——TimesNet 模型
TimeNets 模型
YOLOV7训练自己的数据集以及训练结果分析(手把手教你)
YOLOV7训练自己的数据集以及训练结果分析(手把手教你)
high-resolution image synthesis with latent diffusion models
vae的生成器,是将标准高斯映射到数据样本,vae的后验是将数据样本映射到标准高斯(学出来的)。我现在想要设计一种方法A,使得A用一种简单的变分后验将数据样本映射到标准高斯,并且使得A的生成器,将标准高斯映射到数据样本,注意,因为生成器的搜索空间大于变分后验,vae的效率远不及A方法,因为A是学一个
Pytorch实现GCN(基于PyTorch实现)
本专栏整理了《图神经网络代码实战》,内包含了不同图神经网络的相关代码实现(PyG以及自实现),理论与实践相结合,如GCN、GAT、GraphSAGE等经典图网络,每一个代码实例都附带有完整的代码。
医学图像的深度学习的完整代码示例:使用Pytorch对MRI脑扫描的图像进行分割
本文我们将介绍如何使用QuickNAT对人脑的图像进行分割。使用MONAI, PyTorch和用于数据可视化和计算的常见Python库,如NumPy, TorchIO和matplotlib。
反射填充详解ReflectionPad2d(padding)
这种填充方式是以输入向量的边界为对称轴,以设定的padding大小为步长,将输入向量的边界内padding大小的元素,对称填充。1)当padding=(2,2,1,1)时,表示向量以左、右、上、下边界为对称轴,左、右、上、下分别填充宽度为2,2,1,1的元素。1)当padding=(1,2)时,表示
2023年目标检测毕业设计(yolov5车辆识别、车辆检测、车牌识别、行人识别)
OpenCV提供的视觉处理算法非常丰富,并且它部分以C语言编写,加上其开源的特性,处理得当,不需要添加新的外部支持也可以完整的编译链接生成执行程序,所以很多人用它来做算法的移植,OpenCV的代码经过适当改写可以正常的运行在DSP系统和ARM嵌入式系统中。车牌区域的定位采用基于形状的方法。车牌的特征
注意力机制(四):多头注意力
多头注意力(Multi-Head Attention)是注意力机制的一种扩展形式,可以在处理序列数据时更有效地提取信息。在标准的注意力机制中,我们计算一个加权的上下文向量来表示输入序列的信息。而在多头注意力中,我们使用多组注意力权重,每组权重可以学习到不同的语义信息,并且每组权重都会产生一个上下文向
损失函数解读 之 Focal Loss
前言Focal loss 是一个在目标检测领域常用的损失函数,它是何凯明大佬在RetinaNet网络中提出的,解决了目标检测中正负样本极不平衡和 难分类样本学习的问题。论文名称:Focal Loss for Dense Object Detection目录什么是正负样本极不平衡?two-stage
【NLP相关】GPT-X合集:GPT类模型介绍(附相关论文和Github项目地址)
GPT(Generative Pre-trained Transformer)是一类基于Transformer架构的预训练语言模型。这一类模型采用自回归的方式进行训练,通过大规模的语料库预训练来学习语言的概率分布,从而能够用于各种自然语言处理任务。
数字孪生及深度学习资源分享专栏
数字孪生及深度学习(姿态识别方向)开源代码分享