对比yolov4和yolov3
总体而言,yolov4是尝试组合一堆tricks,获取得到的模型,该模型具有训练更快、模型更轻、精度更高的特性。
tensorflow gpu版本安装教程
过程十分简陋,仅仅是个人的安装笔记,但其中粗体的注意事项大家可以参考一下,或许能解决你的报错。此过程需要提前安装好anaconda。我安装的为3.9.7的python,对应2.6.0的tensorflow安装过程分为:更新驱动NVIDIA,安装cuda和cudnn,tensorflow更新NVIDI
Windows上tensorflow的GPU死活引用不了(tensorflow 2.11无法调用GPU)
安装了多个版本的TF(tensorflow-gpu)(这个可以正常使用gpu,但是不兼容pandas,艹!实际上对CPU核心多一点(20核服务器)的,GPU提升效果也就那样哈哈哈~下载了多个版本的CUDA(12.0、11.x)(一般都有驱动程序,只需要下工具包,使用。发现回退到2.10就可以用了。不
【K210】K210学习笔记六——MaixHub在线模型训练识别数字
本文着重于如何使用MaixHub平台,在线训练模型,识别数字。MaixHub平台在近期升级了,以前只能将数据包上传训练,现在可以直接将图片上传到MaixHub平台,使用MaixHub平台打标签,然后训练模型,并且可以在MaixHub上看到识别的精准度等信息。......
VoxelNet点云检测详解
1、前言 精确的点云检测在很多三维场景的应用中都是十分重要的一环,比如家用机机器人、无人驾驶汽车等场景。然而高效且准确的点云检测在pointnet网络提出之前,一直没能取得很好的进展,因为传统的手工点云特征提取没有很好的泛化性能。所以VoxelNet是一个端到端的点云检测模型。直接使用深度学习
关于Pytorch中的train()和eval()(以及no_grad())
这三个函数实际上很常见,先来简单看下使用方法train()是nn.Module的方法,也就是你定义了一个网络model,那么表示将该model设置为训练模式,一般在开始新epoch训练时,我们会首先执行该命令:同train()一样,其用法和含义也一样,eval()是nn.Module的方法,也就是你
如何搭建深度学习环境及复现GitHub代码
在终端进行训练的话没法看到代码的细节,因此我们可以在pycharm中进行。conda activate name-of-env(接下来运行的内容就是基于这个环境的)在base这个土壤上搭建环境(不同的小房子),因为不同的代码运行需要不同的环境才能运行。在训练自己的网络时,只需要改变datasets中
LSTM实现多变量输入多步预测(Seq2Seq多步预测)时间序列预测(PyTorch版)
本专栏整理了《深度学习时间序列预测案例》,内包含了各种不同的基于深度学习模型的时间序列预测方法,例如LSTM、GRU、CNN(一维卷积、二维卷积)、LSTM-CNN、BiLSTM、Self-Attention、LSTM-Attention、Transformer等经典模型,包含项目原理以及源码,每一
【FMCW雷达人体行为识别——多普勒谱提取】
主要内容为英国格拉斯哥大学公开的一个人体行为的数据集。结合示例代码进行了分析,最终构建图片数据集用于后续的识别分类。解决了伪彩图保存时遇到的白边、尺寸变化的问题,同时通过批处理的方式加快了效率。............
BLIP2-图像文本预训练论文解读
BLIP-2,基于现有的图像编码器预训练模型,大规模语言模型进行预训练视觉语言模型;BLIP-2通过轻量级两阶段预训练模型Querying Transformer缩小模态之间gap,第一阶段从冻结图像编码器学习视觉语言表征,第二阶段基于冻结语言模型,进行视觉到语言生成学习;BLIP-2在各种视觉-语
GRU时间序列数据分类预测
GRU实现
使用GRU进行天气变化的时间序列预测
一个天气时间序列数据集,它由德国耶拿的马克思 • 普朗克生物地球化学研究所的气象站记录。在这个数据集中,每 10 分钟记录 14 个不同的量(比如气温、气压、湿度、风向等),其中包含2009-2016多年的记录。数据集下载地址GRU(Gate Recurrent Unit)是循环神经网络(Recur
zero-shot, one-shot和few-shot
zero-shot, one-shot和few-shot
BartModel 源码解析
BartModel的代码真的有太多的坑了
基于PyTorch实现图像去模糊任务详细教程代码+数据
基于PyTorch实现图像去模糊任务详细教程代码+数据
改进YOLOv5系列:9.BoTNet Transformer结构的修改
目标检测小白科研Trick改进推荐 | 包括Backbone、Neck、Head、注意力机制、IoU损失函数、NMS、Loss计算方式、自注意力机制、数据增强部分、激活函数
翻译: 详细图解Transformer多头自注意力机制 Attention Is All You Need
它们是用于计算和思考注意力的抽象概念。一旦你继续阅读下面的注意力是如何计算的,你就会知道几乎所有你需要知道的关于每个向量所扮演的角色。计算self-attention的第二步是计算一个分数。假设我们正在计算本例中第一个单词“Thinking”的自注意力。我们需要根据这个词对输入句子的每个词进行评分。
windows安装cuda简易教程
在windows环境中选择适合cuda版本进行下载安装,以进行后续的深度学习等工作。
【代码解读】超详细,YOLOV5之build_targets函数解读。
超详细,yolov5之build_targets函数解读