使用分布外数据去除不需要的特征贡献,提高模型的稳健性
分布外数据增强训练可以提高 DNN 的准确性和效率,通过抗性训练可以让 DNN 更加健壮,让模型更不容易受到扰动的影响。
计算机视觉的半监督模型:Noisy student, π-Model和Temporal Ensembling
今天我将讨论一些在过去十年中出现的主要的半监督学习模型。
深度学习敲门砖——神经网络
深度学习以神经网络为出发点!可以说深度学习,就是叠加了很多层的神经网络!
【初始篇】实战必读中文免费文档书—《20天掌握Pytorch实战》
一起来学点新东西,充实自己!
JoJoGAN One-Shot Face Stylization:使用 StyleGAN 创建 JoJo风格人脸头像
JoJoGAN 是一种One-Shot风格迁移模型,可让将人脸图像的风格迁移为另一种风格。
深度学习项目示例 使用自编码器进行模糊图像修复
本文将介绍使用深度学习技术实现一个对图像进行去模糊处理的项目的完整流程,希望对你有所帮助
深度学习的显卡对比评测:2080ti vs 3090 vs A100
显卡大幅降价了但是还可以再等等,新的40系列显卡也要发售了,所以我们先看看目前上市的显卡的性能对比,这样也可以估算下40显卡的性能,在以后购买时作为参考。
睿智的目标检测56——Pytorch搭建YoloV5目标检测平台
睿智的目标检测56——Pytorch搭建YoloV5目标检测平台学习前言源码下载YoloV5改进的部分(不完全)YoloV5实现思路一、整体结构解析二、网络结构解析1、主干网络Backbone介绍2、构建FPN特征金字塔进行加强特征提取3、利用Yolo Head获得预测结果三、预测结果的解码1、获得
论文回顾:Batch Augmentation,在批次中进行数据扩充可以减少训练时间并提高泛化能力
Batch Augmentation(BA):提出使用不同的数据增强在同一批次中复制样本实例,通过批次内的增强在达到相同准确性的前提下减少了SGD 更新次数,还可以提高泛化能力。
LSTM 已死,事实真是这样吗?
保持理性,通过实践检验才能公正地评估数据科学中的概念
基于Pytorch的强化学习(DQN)之策略学习
目录1. 引言2. 数学推导2.1 状态价值函数2.2 策略梯度2.3 蒙特卡罗近似3. 算法1. 引言我们上次讲到了价值学习,这次我们来看看基于策略的学习,我们状态价值函数能够描述当前状态下局势的好坏,如果越大那局势不就会越好吗,所以我们得到了策略学习的基本思想:找到最优的action使达到最大。
5分钟NLP:HuggingFace 内置数据集的使用教程
对于NLP 爱好者来说HuggingFace肯定不会陌生,HuggingFace为NLP任务提供了维护了一系列开源库的应用和实现,今天我们来看一下用于NLP任务的数据集总结。
深度学习崛起十年:“开挂”的OpenAI革新者
作为一个AI前沿领域的探索者,纵览其职业生涯,Sutskever的每一次转向似乎都能恰到好处地挖到黄金。
基于Pytorch的神经网络之Optimizer
目录1.引言2.各种优化器2.1 SGD2.2 Momentum2.3 RMSprop2.4 Adam3.效果对比1.引言我们之前提到进行反向传播时我们需要用到优化器(Optimizer)来优化网络中的参数,优化器有许多种,下面介绍几种常见的优化算法。2.各种优化器2.1 SGD优化算法中比较基本的
自监督学习的知识点总结
本篇文章将对自监督学习的要点进行总结
深度学习相关概念:交叉熵损失
深度学习相关概念:交叉熵损失交叉熵损失详解1.激活函数与损失函数1.1激活函数:1.2损失函数:2.对数损失函数(常用于二分类问题):3.交叉熵、熵、相对熵三者之间的关系4.交叉熵损失函数(常用于多分类问题)4.1交叉熵的作用:5.交叉熵损失 VS 多类支撑向量机损失 我在学习深度学习的过程中,发
基于Pytorch的神经网络之Classfication
1.引言我们上次介绍了神经网络主要功能之一预测,本篇大部分内容与回归相似,有看不懂的点可以看看我回归Regression,今天介绍一下神经网络的另一种功能:分类。2.网络搭建2.1 准备工作还是先引用我们所需要的库,和回归所需的一样。import torchimport torch.nn.funct
基于Pytorch的神经网络之Regression
目录1.引言2.神经网络搭建2.1 准备工作2.2 搭建网络2.3 训练网络3.效果4. 完整代码1.引言我们之前已经介绍了神经网络的基本知识,神经网络的主要作用就是预测与分类,现在让我们来搭建第一个用于拟合回归的神经网络吧。2.神经网络搭建2.1 准备工作要搭建拟合神经网络并绘图我们需要使用pyt
神经网络之激活函数
1.引言上一篇文章我们提到了神经网络中前向传播中数据经过线性变换后会传入一个激活函数(activation function),以满足我们解决非线性问题的需求。2.激活函数类常见的激活函数有以下四种。2.1 Sigmoid2.1.1 表达式与图像表达式:图像:2.1.2 优缺点优点:将整个实轴映射到
从零开始的神经网络构建历程(一)
这是构建神经网络历程系列的第一篇博文。本篇博文主要讲述Python中torch库在神经网络构建中的相关用法。torch库成员与神经网络中相关模块的对应关系由于逻辑回归以及其他机器学习算法解决不了非线性分类/回归问题,所以深度学习理论诞生了,上世纪60年代由此产生了神经网络模型。最早的一大批神经网络都