Cuda与GPU显卡驱动版本一览

cuda版本是??gpu 驱动? 两者怎么对应

详解:yolov5中推理时置信度,设置的conf和iou_thres具体含义

详解:yolov5中推理时置信度,设置的conf和iou_thres具体含义

YOLOv5训练自己的数据集详解

入门小菜鸟,希望像做笔记记录自己学的东西,也希望能帮助到同样入门的人,更希望大佬们帮忙纠错啦~侵权立删。一、YOLOv5源码下载网址指路:GitHub - ultralytics/yolov5: YOLOv5 ???? in PyTorch > ONNX > CoreML > TF

CoCo数据集下载

文章目录1.介绍2.下载2.1 官网2.2 百度网盘2.3 下载到linux服务器1.介绍MS COCO的全称是Microsoft Common Objects in Context,起源于微软2014年的Microsoft COCO数据集COCO is a large-scale object d

联邦学习(FL)+差分隐私(DP)

联邦学习+差分隐私(FL+DP)

论文阅读笔记:ShuffleNet

背景由于深度学习模型结构越来越复杂,参数量也越来越大,需要大量的算力去做模型的训练和推理。然而随着移动设备的普及,将深度学习模型部署于计算资源有限基于ARM的移动设备成为了研究的热点。ShuffleNet[1]是一种专门为计算资源有限的设备设计的神经网络结构,主要采用了pointwise group

特征融合的分类和方法

1、特征融合的定义特征融合方法是模式识别领域的一种重要的方法,计算机视觉领域的图像识别问题作为一种特殊的模式分类问题,仍然存在很多的挑战,特征融合方法能够综合利用多种图像特征,实现多特征的优势互补,获得更加鲁棒和准确性的识别结果。2、特征融合的分类按照融合和预测的先后顺序,分类为早融合和晚融合(Ea

基于时序模式注意力机制(TPA)的长短时记忆(LSTM)网络TPA-LSTM的多变量输入风电功率预测

0 前言1、TPA理论注意力机制(Attention mechanism)通常结合神经网络模型用于序列预测,使得模型更加关注历史信息与当前输入信息的相关部分。时序模式注意力机制(Temporal Pattern Attention mechanism, TPA)由 Shun-Yao Shih 等提出

【ROS】VSCODE + ROS 配置方法(保姆级教程,总结了多篇)

vscode + ros 配置方法(正在更新……)最近开始学习ROS,但是官方给的教程都是在终端命令行下实现的,如果想要编写代码我使用的是vscode进行编写。首先vscode它不是一个IDE,vscode只提供编辑的环境而不提供编译的环境,如果想要用vscode来集成开发环境,就必须安装必须的编译

解决pytorch中Dataloader读取数据太慢的问题

提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档文章目录前言一、造成的原因二、查找不匹配的原因三、解决方法四、使用方法后言前言最近在使用pytorch框架进行模型训练时遇到一个性能问题,即数据读取的速度远远大于GPU训练的速度,导致整个训练流程中有大部分时间都在等待数据发送到GPU,

【Attention机制】YOLOX模型改进之(SE模块、ECA模块、CBAM模块)的添加

YOLOX模型改进论文地址:https://arxiv.org/pdf/1709.01507.pdf官方代码地址:https://github.com/hujie-frank/SENetPytorch代码地址:https://github.com/moskomule/senet.pytorchSE模

【pytorch】Vision Transformer实现图像分类+可视化+训练数据保存

一、Vision Transformer介绍Transformer的核心是 “自注意力” 机制。论文地址:https://arxiv.org/pdf/2010.11929.pdf自注意力(self-attention)相比 卷积神经网络 和 循环神经网络 同时具有并行计算和最短的最大路径⻓度这两个优

常用归一化/正则化层:InstanceNorm1d、InstanceNorm2d、

批量归一化与实例归一化的最大区别在于计算均值及方差的依据不同,实例归一化是对每个样本沿着通道方向独立对各个通道进行计算,而批量归一化则是对所有样本沿着batch的方向对各个通道分别进行计算。比如:输入特征图形状为:(2,3,256,512),表示有两个256×512的特征图,特征图通道数为3,假设为

4、nerf(pytorch)

nerf-pytorch

AI艺术的背后:详解文本生成图像模型【基于 Diffusion Model】

GLIDE 使用了文本作为条件,来实现文本引导的扩散模型,在文本引导上面,文中主要使用了两种策略,Classifier-Free Diffusion Guidence 以及 CLIP 来作为条件监督,同时使用了更大的模型,在数据量上,和DALL-E 相似。实际上,扩散模型做的事情本质上是一样的,不同

DETR源码笔记(一)

源码获取:https://gitee.com/fgy120/DETR首先对DETR做个简单介绍上图即为DETR的流程pipeline,相比以前的RCNN系列、YOLO系列等,最特别的在于加入了Transformer。直接看源码,从train.py的main函数开始。if __name__ == '_

MaxPool2d详解--在数组和图像中的应用

选择卷积核覆盖时的最大值,ceil_mode控制卷积核超出原始数据后是否进行保留函数:参数要求代码:结果:代码:结果:代码:结果:

[总结] 半监督学习方法: 一致性正则化(Consistency Regularization)

基于平滑假设和聚类假设, 具有不同标签的数据点在低密度区域分离, 并且相似的数据点具有相似的输出. 那么, 如果对一个未标记的数据应用实际的扰动, 其预测结果不应该发生显著变化, 也就是输出具有一致性.

12大类150个图像处理和深度学习开源数据集

本文整理了150 个深度学习和图像处理领域的开源数据集,包括:目标检测、人脸识别、文本识别、图像分类、缺陷检测、医学影像、图像分割、图像去雾、关键点检测、动作识别、姿态估计、自动驾驶和 RGBT 等12个方向。

WGAN(Wasserstein GAN)看这一篇就够啦,WGAN论文解读

WGAN本作引入了Wasserstein距离,由于它相对KL散度与JS 散度具有优越的平滑特性,理论上可以解决梯度消失问题。接 着通过数学变换将Wasserstein距离写成可求解的形式,利用 一个参数数值范围受限的判别器神经网络来较大化这个形式, 就可以近似Wasserstein距离。WGAN既解

登录可以使用的更多功能哦! 登录
作者榜
...
资讯小助手

资讯同步

...
内容小助手

文章同步

...
Deephub

公众号:deephub-imba

...
奕凯

公众号:奕凯的技术栈