365天深度学习训练营-学习线路

要求:学习如何编写一个完整的深度学习程序,并记录学习所得(详细介绍其中一个知识点、简略介绍两个知识点)

实际工作中的高级技术(训练加速、推理加速、深度学习自适应、对抗神经网络)

针对训练数据过于庞大的对策,多GPU训练,加速生产模型的速度,可以认为是离线操作。我们主要看一下基于数据的并行,下面列出了三种并行方式①Model Average(模型平均)②SSGD(同步随机梯度下降)③。......

YOLOv5应用轻量级通用上采样算子CARAFE

手把手教你YOLOv5添加轻量化上采样算子CARAFE

在表格数据集上训练变分自编码器 (VAE)示例

变分自编码器 (VAE) 是在图像数据应用中被提出,但VAE不仅可以应用在图像中。在这篇文章中,我们将简单介绍什么是VAE,以及解释“为什么”变分自编码器是可以应用在数值类型的数据上,最后使用Numerai数据集展示“如何”训练它。

【深度学习】今日bug(8月2)

一. TypeError: ‘method‘ object is not iterable,意思是类型错误“方法”对象不可迭代。二. 自动求梯度,求函数值了吗?

细胞图像数据的主动学习

通过细胞图像的标签对模型性能的影响,为数据设置优先级和权重。

Yolov5更换主干网络之《旷视轻量化卷积神经网络ShuffleNetv2》

通过ChannelSplit替代分组卷积,满足四条设计准则,达到了速度和精度的最优权衡。

使用分类权重解决数据不平衡的问题

在分类任务中,不平衡数据集是指数据集中的分类不平均的情况,会有一个或多个类比其他类多的多或者少的多。

可解释深度学习:从感受野到深度学习的三大基本任务,让你真正理解深度学习!

​深度学习一直作为一个“盲盒”被大家诟病,我们可以借助深度学习实现端到端的训练,简单,有效,但是我们并不了解神经网络的中间层到底在做什么,每一层卷积的关注点是什么。我在之前的专题浅谈图像处理与深度学习中提到,我们在深度学习刚开始的时候,我们要实现一个任务,比如:把不清晰的图像变清晰,我们随意的搭建了

使用内存映射加快PyTorch数据集的读取

本文将介绍如何使用内存映射文件加快PyTorch数据集的加载速度

【NLP】Transformer理论解读

Attention Is All You Need

【OpenCV】 车辆识别 运动目标检测

【OpenCV】 车辆识别 运动目标检测,超详细教学,欢迎大家一起交流学习!!!

6个可解释AI (XAI)的Python框架推荐

随着人工智能的发展为了解决具有挑战性的问题,人们创造了更复杂、更不透明的模型。在本文中,我将介绍6个用于可解释性的Python框架。

【深度学习】(问题记录)<对一个变量求梯度得到什么>-线性回归-小批量随机梯度下降

种瓜得瓜,种豆得豆。变量是什么形状,对这个变量求得的梯度就是什么形状。我之所以下意识地以为得到的会是一组值而不是一个值,是因为前面看了个对矩阵求梯度的例子,得到的是一组值(一个矩阵)。然后看到这里就混淆了,这里我们求梯度的每个参数对象是一个单个的值,只是数据样本有多个。对矩阵(向量)求梯度梯度是个矩

【机器学习算法】神经网络与深度学习-9 递归神经网络

递归神经网络RNN,用来解决序列型,有滞后性问题的神经网络

Anaconda3安装及jupyter环境配置(tensorflow)(Windows)

Anaconda3安装及jupyter环境配置(tensorflow)

RepVGG论文详解以及使用Pytorch进行模型复现

RepVGG 是2021 CVPR的一篇论文,在本文中首先介绍了他如何过河拆桥,白嫖了多分枝架构的性能,然后再使用Pytorch复现RepVGG模型,告诉你如何进行白嫖的操作。

【机器学习算法】神经网络与深度学习-5 深度学习概述

深度学习概述,为之后普通深度网络DNN和深度信念网络DBN(会在自动特征学习中说其中的一种,它的变型太多了)和卷积神经网络CNN,打下框架

cpu和gpu已过时,npu和apu的时代开始

🌎CPU是中央处理器。其实就是机器的“大脑”,也是布局谋略、发号施令、控制行动的“总司令官”。CPU的结构主要包括运算器(ALU,ArithmeticandLogicUnit)、控制单元(CU,ControlUnit)、寄存器(Register)、高速缓存器(Cache)和它们之间通讯的数据、控制