Ubuntu22.04 下安装驱动、CUDA、cudnn以及TensorRT
Ubuntu22.04 下安装 Anaconda3 + python3.10 + cuda11.7 + cudnn8.4.1.5+ opencv4.5.3
Paper Reading - 综述系列 - Hyper-Parameter Optimization(上)
自开发深度神经网络以来,几乎在日常生活的每个方面都给人类提供了比较理性的建议。但是,尽管取得了这一成就,神经网络的设计和训练仍然是具有很大挑战性和不可解释性,同时众多的超参数也着实让人头痛,因此被认为是在炼丹。因此为了降低普通用户的技术门槛,自动超参数优化(HPO)已成为学术界和工业领域的热门话题。
模型可视化工具Netron手把手教学
这个工具主要是帮助我们可视化网络模型层结构,可以观察到每个层的name、输入输出shape,有时候和模型本身代码对照来看,就会更容易看明白每一层的含义;有时候,在推理时,通过观察这个可视化结构,比较容易看出来网络是否有冗余的层(推理时不需要)
torch gpu改cpu
关于torch 的cpu和gpu互相转换
【将高光谱、多光谱和全色图像进行融合】
仅供自己参考
yolov7-face关于widerface-val数据集的评测
yolov7-face
yolov7训练自己的数据集及报错处理
yolov7训练自己的数据集及报错处理,其实和yolov5差不太多
Yolov5中使用Resnet18作为主干网络
采用Resnet-18作为主干网络
基于时序模式注意力机制(TPA)的长短时记忆(LSTM)网络TPA-LSTM的多变量输入风电功率预测
0 前言1、TPA理论注意力机制(Attention mechanism)通常结合神经网络模型用于序列预测,使得模型更加关注历史信息与当前输入信息的相关部分。时序模式注意力机制(Temporal Pattern Attention mechanism, TPA)由 Shun-Yao Shih 等提出
带图讲解,深度学习YOLO里面的anchors的进阶理解
可视化网格grid及anchors
【yolov6系列一】深度解析网络架构
在yolov5霸屏计算机视觉领域很久时,六月处美团开源了yolov6,并号称在精度和速度上均超越其他同量级的计算机视觉模型,刚刚瞅了一眼,star已经超过2.8k。网上基于yolov6的解读有很多,文末会附上美团的官方解读和开源代码的github链接。文本开始yolov6系列,先和大家分享下整个yo
深度学习(一)深度学习简介以及常用算法
深度学习属于机器学习的范畴,深度学习可以说是在传统神经网络基础上的升级,约等于神经网络。深度学习和传统机器学习在数据预处理上都是类似的。核心差别在特征提取环节,深度学习由机器自己完成特征提取,不需要人工提取。学习能力强覆盖范围广,适应性好数据驱动,上限高可移植性好计算量大,便携性差硬件需求高模型设计
Self-Attention详解
文章目录Sequence数据的处理Sequence Labeling(输入和输出的大小一样)Self-Attention内部机理如何求解b?Multi-head Self-AttentionPositional EncodingSelf-Attention for ImageSelf-Attenti
双目相机基本原理
双目相机基本原理
一分钟玩转Stable Diffusion
Stable Diffusion,Ai绘图
Yolov7-pose 训练body+foot关键点
yolo-pose
什么是YOLOR?
因此,YOLOR 是一个统一的网络,可以一起处理隐性和显性知识,并产生由于该方法而改进的一般表示。YOLOR 是一种用于对象检测的最先进的机器学习算法,与 YOLOv1-YOLOv5 不同,原因在于作者身份、架构和模型基础设施的差异。YOLOR研究论文的标题为“你只学习一种表示:多个任务的统一网络”
模型调优:验证集的作用(就是为了调整超参数)
注意这里的表现,是指在验证集上的表现。好比训练轮数(epochs),在同样的训练集上,训练3轮和训练10轮,结果肯定是不一样的模型。一般训练几个 epoch 就跑一次验证看看效果,如果发现训练3轮效果更好,那么就应该丢弃掉训练6轮、10轮的潜在模型,只用训练3轮的结果。所以必须从训练样本中取出一部分
CA-用于轻型网络的坐标注意力 | CVPR2021
CA-用于轻型网络的坐标注意力 | CVPR2021
AI又进化了,声音克隆革命性突破
用AI唱了几首歌