模型可视化工具Netron手把手教学

这个工具主要是帮助我们可视化网络模型层结构,可以观察到每个层的name、输入输出shape,有时候和模型本身代码对照来看,就会更容易看明白每一层的含义;有时候,在推理时,通过观察这个可视化结构,比较容易看出来网络是否有冗余的层(推理时不需要)

torch gpu改cpu

关于torch 的cpu和gpu互相转换

yolov7训练自己的数据集及报错处理

yolov7训练自己的数据集及报错处理,其实和yolov5差不太多

Yolov5中使用Resnet18作为主干网络

采用Resnet-18作为主干网络

基于时序模式注意力机制(TPA)的长短时记忆(LSTM)网络TPA-LSTM的多变量输入风电功率预测

0 前言1、TPA理论注意力机制(Attention mechanism)通常结合神经网络模型用于序列预测,使得模型更加关注历史信息与当前输入信息的相关部分。时序模式注意力机制(Temporal Pattern Attention mechanism, TPA)由 Shun-Yao Shih 等提出

带图讲解,深度学习YOLO里面的anchors的进阶理解

可视化网格grid及anchors

【yolov6系列一】深度解析网络架构

在yolov5霸屏计算机视觉领域很久时,六月处美团开源了yolov6,并号称在精度和速度上均超越其他同量级的计算机视觉模型,刚刚瞅了一眼,star已经超过2.8k。网上基于yolov6的解读有很多,文末会附上美团的官方解读和开源代码的github链接。文本开始yolov6系列,先和大家分享下整个yo

深度学习(一)深度学习简介以及常用算法

深度学习属于机器学习的范畴,深度学习可以说是在传统神经网络基础上的升级,约等于神经网络。深度学习和传统机器学习在数据预处理上都是类似的。核心差别在特征提取环节,深度学习由机器自己完成特征提取,不需要人工提取。学习能力强覆盖范围广,适应性好数据驱动,上限高可移植性好计算量大,便携性差硬件需求高模型设计

Self-Attention详解

文章目录Sequence数据的处理Sequence Labeling(输入和输出的大小一样)Self-Attention内部机理如何求解b?Multi-head Self-AttentionPositional EncodingSelf-Attention for ImageSelf-Attenti

双目相机基本原理

双目相机基本原理

一分钟玩转Stable Diffusion

Stable Diffusion,Ai绘图

Yolov7-pose 训练body+foot关键点

yolo-pose

什么是YOLOR?

因此,YOLOR 是一个统一的网络,可以一起处理隐性和显性知识,并产生由于该方法而改进的一般表示。YOLOR 是一种用于对象检测的最先进的机器学习算法,与 YOLOv1-YOLOv5 不同,原因在于作者身份、架构和模型基础设施的差异。YOLOR研究论文的标题为“你只学习一种表示:多个任务的统一网络”

模型调优:验证集的作用(就是为了调整超参数)

注意这里的表现,是指在验证集上的表现。好比训练轮数(epochs),在同样的训练集上,训练3轮和训练10轮,结果肯定是不一样的模型。一般训练几个 epoch 就跑一次验证看看效果,如果发现训练3轮效果更好,那么就应该丢弃掉训练6轮、10轮的潜在模型,只用训练3轮的结果。所以必须从训练样本中取出一部分

CA-用于轻型网络的坐标注意力 | CVPR2021

CA-用于轻型网络的坐标注意力 | CVPR2021

AI又进化了,声音克隆革命性突破

用AI唱了几首歌

Anaconda下的tensorflow-gpu2.6.0安装使用

# Anaconda下的tensorflow-gpu2.6.0安装使用

使用Unit Scaling进行FP16 和 FP8 训练

Unit Scaling 是一种新的低精度机器学习方法,能够在没有损失缩放的情况下训练 FP16 和 FP8 中的语言模型。