近几年CVPR图像压缩总结
图像压缩cvpr
《联邦学习实战—杨强》之使用Python从零开始实现一个简单的横向联邦学习模型
理解《联邦学习实战—杨强》使用Python从零开始实现一个简单的横向联邦学习模型
[深度学习基础]激活函数和损失函数
Sigmoid函数的图像如下图所示,其函数曲线在坐标轴上呈现"S"型,经典的S型分布是正态分布的累积分布函数,由于神经网络当中的变量、数据样本分布通常具有正态分布的特性,因此需要Sigmoid函数加入网络模型当中辅助神经网络更好地拟合数据分布。使用Sigmoid的另外一个原因在于该函数的值域为[0,
活体检测综述 Deep Learning for Face Anti-Spoofing: A Survey 阅读记录
这篇文章首次全面回顾了基于深度学习的活体检测算法的最新研究进展。
tf.keras.layers.Embedding() 详解
输入:二维张量:(batch_size, input_length)。输出:3D 张量:(batch_size, input_length, output_dim)。
多模态情感识别数据集和模型(下载地址+最新综述2021.8)
引用论文:Zhao, Sicheng, et al. “Emotion Recognition from Multiple Modalities: Fundamentals and Methodologies.” arXiv preprint arXiv:2108.10152 (2021).PDF链
detectron2安装详细教程+demo测试
win10 下 detectron2 安装详细教程,手把手教你配置!!
一文快速了解 GPT-4
从文本到图像,GPT-4将彻底改变我们与AI互动的方式近年来,语言模型的发展已成为人工智能领域的一个关键研究领域。由OpenAI开发的GPT(生成预训练变换器)模型一直处于这一研究的前沿。GPT-4是该系列的最新版本,建立在其前身的优势基础上,并融合了新的特性和功能。本文讨论了GPT-4的特性和功能
Pytorch深度学习实战3-2:什么是张量?Tensor的创建与索引
张量是多维数组结构,在人工智能领域应用广泛。本文介绍Pytorch中的张量格式,以及七种张量创建方法和三种张量索引方法
YOLO7环境搭建、代码测试
YOLO7环境搭建和代码测试
【PyTorch】加载数据集Dataset与DataLoader
关于PyTorch构建数据集的Dataset与DataLoader的一些记录笔记
【小记】BatchSize的数值是设置的越大越好吗
显存大就一定好吗?batchsize开64?你觉得很帅的时候有人却告诉你这是荒唐的~
yolov5优化器及超参数设置
机器学习的五个步骤: 数据 -> 模型 -> 损失 -> 优化器 -> 迭代训练。 我们通过前向传播的过程,得到了模型输出与真实标签的差异,我们称之为损失, 有了损失,我们会进入反向传播过程得到参数的梯度,那么接下来就是优化器干活了,优化器要根据我们的这个梯度去更新参数,使得损失不断的降低。 那么优
多轮对话(一):概述(意图识别+槽填充)
本文主要介绍对话系统的组成:NLU、DST、DP、NLG。其中主要关注NLU,其包括两个任务:意图识别和槽填充。
【论文笔记】IEEE | 一种新卷积 DSConv: Efficient Convolution Operator
我们引入了一种称为 DSConv(分布移位卷积)的卷积层变体,它可以很容易地替换到标准神经网络架构中,并实现更低的内存使用和更高的计算速度。DSConv 将传统的卷积核分解为两个组件:可变量化核 (VQK) 和分布偏移。通过在 VQK 中仅存储整数值来实现更低的内存使用和更高的速度,同时通过应用基于
PF-Net基于深度学习的点云补全网络
cvpr2020 PF-Net点云补全技术
多传感器融合定位技术
多传感器数据融合是20世纪80年代出现的一门新兴学科,它是将不同传感器对某一目标或环境特征描述的信息融合成统一的特征表达信息及其处理的过程。在多传感器系统 中,各种传感器提供的信息可能具有不同的特征,如模糊的与确定的、时变的与非时变的、实时的与非实时的等。...
第一天 初识CUDA和显卡(含代码)
nvcc是与CUDA Toolkit一起安装的CUDA compiler-driver tool,它只知道它自身构建时的CUDA runtime版本。CUDA Driver与CUDA Runtime相比更偏底层,就意味着Driver API有着更灵活的控制,也伴随着更复杂的编程。CUDA有两个主要的
【IEEE】IEEE论文从投稿到发表全流程案例说明
IEEE论文从投稿到录用全流程
Cifar-10图像分类/Pytorch/LeNet/AlexNet
又叫下采样层,目的是压缩数据,降低数据维度,和卷积有明显区别,采样2x2的选择框进行压缩,原来是28x28,采样后是14x14,通过选择框的数据求和再取平均值然后在乘上一个权值和加上一个偏置值,组成新的图片,每个特征平面采样的权值和偏置值相同,因此每个特征平面对应的采样层只两个待训练参数,总共有6张