全网首发,Swin Transformer+FaceNet实现人脸识别
一、 简介与其他的深度学习方法在人脸上的应用不同,FaceNet并没有用传统的softmax的方式去进行分类学习,然后抽取其中某一层作为特征,而是直接进行端对端学习一个从图像到欧式空间的编码方法,然后基于这个编码再做人脸识别、人脸验证和人脸聚类等。FaceNet主要有两个重点:Backbone和Tr
用于Transformer的6种注意力的数学原理和代码实现
Transformer 的出色表现让注意力机制出现在深度学习的各处。本文整理了深度学习中最常用的6种注意力机制的数学原理和代码实现。
图像恢复 Restormer: 彻底理解论文和源代码 (注释详尽)
图像恢复 Restormer:在图像去雨、图像去模糊和图像去噪等任务上表现 SOTA。
轻量级Visual Transformer模型——LeViT(ICCV2021)
LeViT是FAIR团队发表在ICCV2021上的成果,是轻量级ViT模型中的标杆,文章对ViT中多个部件进行的改进,如加速策略等,对很多工程化铺设ViT系列模型都是很有借鉴意义的。按说,近期出现的优质模型非常多,各种冲击SOTA的,详情可戳我整理的小综述《盘点2021-2022年出现的CV神经网络
NLP:Transformer的简介(优缺点)、架构详解之详细攻略
NLP:Transformer的简介(优缺点)、架构详解之详细攻略目录Transformer的简介(优缺点)、架构详解之详细攻略1、Transformer的简介(1)、Transforme的四4个优点和2个缺点2、Transformer 结构—纯用attention搭建的模型→计算速度更快Trans
Swin Transformer代码阅读注释
Swin Transformer代码阅读注释
论文阅读笔记:Swin Transformer
论文阅读笔记:Swin Transformer
Vision Transformer(Pytorch版)代码阅读注释
Vision Transformer Pytorch版代码阅读注释
论文阅读笔记:Vision Transformer
论文阅读笔记:Vision Transformer
ConvNeXt:超越 Transformer?总结涨点技巧与理解代码(附注释)
CNN or Transformer?研究证明通过对 CNN 一步步改进也可以达到超越 Transformer 的表现。
Vision Transformer详解(附代码)
受NLP\mathrm{NLP}NLP中Transformer\mathrm{Transformer}Transformer扩展成功的启发,Vision Transformer\mathrm{Vision\text{ }Transformer}Vision Transforme
神经网络学习小记录66——Vision Transformer(VIT)模型的复现详解
神经网络学习小记录66——Vision Transformer(VIT)模型的复现详解学习前言什么是Vision Transformer(VIT)代码下载Vision Transforme的实现思路一、整体结构解析二、网络结构解析1、特征提取部分介绍a、Patch+Position Embeddin