模型可视化工具Netron手把手教学
这个工具主要是帮助我们可视化网络模型层结构,可以观察到每个层的name、输入输出shape,有时候和模型本身代码对照来看,就会更容易看明白每一层的含义;有时候,在推理时,通过观察这个可视化结构,比较容易看出来网络是否有冗余的层(推理时不需要)
torch gpu改cpu
关于torch 的cpu和gpu互相转换
【将高光谱、多光谱和全色图像进行融合】
仅供自己参考
yolov7-face关于widerface-val数据集的评测
yolov7-face
yolov7训练自己的数据集及报错处理
yolov7训练自己的数据集及报错处理,其实和yolov5差不太多
Yolov5中使用Resnet18作为主干网络
采用Resnet-18作为主干网络
基于时序模式注意力机制(TPA)的长短时记忆(LSTM)网络TPA-LSTM的多变量输入风电功率预测
0 前言1、TPA理论注意力机制(Attention mechanism)通常结合神经网络模型用于序列预测,使得模型更加关注历史信息与当前输入信息的相关部分。时序模式注意力机制(Temporal Pattern Attention mechanism, TPA)由 Shun-Yao Shih 等提出
带图讲解,深度学习YOLO里面的anchors的进阶理解
可视化网格grid及anchors
【yolov6系列一】深度解析网络架构
在yolov5霸屏计算机视觉领域很久时,六月处美团开源了yolov6,并号称在精度和速度上均超越其他同量级的计算机视觉模型,刚刚瞅了一眼,star已经超过2.8k。网上基于yolov6的解读有很多,文末会附上美团的官方解读和开源代码的github链接。文本开始yolov6系列,先和大家分享下整个yo
深度学习(一)深度学习简介以及常用算法
深度学习属于机器学习的范畴,深度学习可以说是在传统神经网络基础上的升级,约等于神经网络。深度学习和传统机器学习在数据预处理上都是类似的。核心差别在特征提取环节,深度学习由机器自己完成特征提取,不需要人工提取。学习能力强覆盖范围广,适应性好数据驱动,上限高可移植性好计算量大,便携性差硬件需求高模型设计
Self-Attention详解
文章目录Sequence数据的处理Sequence Labeling(输入和输出的大小一样)Self-Attention内部机理如何求解b?Multi-head Self-AttentionPositional EncodingSelf-Attention for ImageSelf-Attenti
双目相机基本原理
双目相机基本原理
一分钟玩转Stable Diffusion
Stable Diffusion,Ai绘图
Yolov7-pose 训练body+foot关键点
yolo-pose
什么是YOLOR?
因此,YOLOR 是一个统一的网络,可以一起处理隐性和显性知识,并产生由于该方法而改进的一般表示。YOLOR 是一种用于对象检测的最先进的机器学习算法,与 YOLOv1-YOLOv5 不同,原因在于作者身份、架构和模型基础设施的差异。YOLOR研究论文的标题为“你只学习一种表示:多个任务的统一网络”
模型调优:验证集的作用(就是为了调整超参数)
注意这里的表现,是指在验证集上的表现。好比训练轮数(epochs),在同样的训练集上,训练3轮和训练10轮,结果肯定是不一样的模型。一般训练几个 epoch 就跑一次验证看看效果,如果发现训练3轮效果更好,那么就应该丢弃掉训练6轮、10轮的潜在模型,只用训练3轮的结果。所以必须从训练样本中取出一部分
CA-用于轻型网络的坐标注意力 | CVPR2021
CA-用于轻型网络的坐标注意力 | CVPR2021
AI又进化了,声音克隆革命性突破
用AI唱了几首歌
Anaconda下的tensorflow-gpu2.6.0安装使用
# Anaconda下的tensorflow-gpu2.6.0安装使用
使用Unit Scaling进行FP16 和 FP8 训练
Unit Scaling 是一种新的低精度机器学习方法,能够在没有损失缩放的情况下训练 FP16 和 FP8 中的语言模型。