如何搭建深度学习环境及复现GitHub代码

在终端进行训练的话没法看到代码的细节,因此我们可以在pycharm中进行。conda activate name-of-env(接下来运行的内容就是基于这个环境的)在base这个土壤上搭建环境(不同的小房子),因为不同的代码运行需要不同的环境才能运行。在训练自己的网络时,只需要改变datasets中

注意力机制(Attention Mechanism)-CBAM

注意力机制

LSTM实现多变量输入多步预测(Seq2Seq多步预测)时间序列预测(PyTorch版)

本专栏整理了《深度学习时间序列预测案例》,内包含了各种不同的基于深度学习模型的时间序列预测方法,例如LSTM、GRU、CNN(一维卷积、二维卷积)、LSTM-CNN、BiLSTM、Self-Attention、LSTM-Attention、Transformer等经典模型,包含项目原理以及源码,每一

【FMCW雷达人体行为识别——多普勒谱提取】

主要内容为英国格拉斯哥大学公开的一个人体行为的数据集。结合示例代码进行了分析,最终构建图片数据集用于后续的识别分类。解决了伪彩图保存时遇到的白边、尺寸变化的问题,同时通过批处理的方式加快了效率。............

BLIP2-图像文本预训练论文解读

BLIP-2,基于现有的图像编码器预训练模型,大规模语言模型进行预训练视觉语言模型;BLIP-2通过轻量级两阶段预训练模型Querying Transformer缩小模态之间gap,第一阶段从冻结图像编码器学习视觉语言表征,第二阶段基于冻结语言模型,进行视觉到语言生成学习;BLIP-2在各种视觉-语

GRU时间序列数据分类预测

GRU实现

使用GRU进行天气变化的时间序列预测

一个天气时间序列数据集,它由德国耶拿的马克思 • 普朗克生物地球化学研究所的气象站记录。在这个数据集中,每 10 分钟记录 14 个不同的量(比如气温、气压、湿度、风向等),其中包含2009-2016多年的记录。数据集下载地址GRU(Gate Recurrent Unit)是循环神经网络(Recur

zero-shot, one-shot和few-shot

zero-shot, one-shot和few-shot

BartModel 源码解析

BartModel的代码真的有太多的坑了

基于PyTorch实现图像去模糊任务详细教程代码+数据

基于PyTorch实现图像去模糊任务详细教程代码+数据

改进YOLOv5系列:9.BoTNet Transformer结构的修改

目标检测小白科研Trick改进推荐 | 包括Backbone、Neck、Head、注意力机制、IoU损失函数、NMS、Loss计算方式、自注意力机制、数据增强部分、激活函数

翻译: 详细图解Transformer多头自注意力机制 Attention Is All You Need

它们是用于计算和思考注意力的抽象概念。一旦你继续阅读下面的注意力是如何计算的,你就会知道几乎所有你需要知道的关于每个向量所扮演的角色。计算self-attention的第二步是计算一个分数。假设我们正在计算本例中第一个单词“Thinking”的自注意力。我们需要根据这个词对输入句子的每个词进行评分。

【代码解读】超详细,YOLOV5之build_targets函数解读。

超详细,yolov5之build_targets函数解读

yolov7损失函数源码解析(一句一句解析,)

自己做的笔记而已,仅供参考。

通过公式和源码解析 DETR 中的损失函数 & 匈牙利算法(二分图匹配)

DETR在单次通过解码器时推断一个固定大小的有N个预测的集合,其中N被设置为显著大于图像中典型的物体数量。所有真实框中的每一个框和所有预测框进行匹配,损失值最小的预测框为该真实框的最佳匹配框,当所有真实框遍历完毕后,得到所有唯一匹配的框。完成最优分配,假设有六位老师和六种课程,通过匈牙利算法进行匹配

知识蒸馏算法和代码(Pytorch)笔记分享,一个必须要了解的算法

知识蒸馏算法和代码(Pytorch)笔记分享,一个必须要了解的算法

【论文笔记】—低照度图像增强—Supervised—RetinexNet—2018-BMVC

​【题目】:Deep retinex decomposition for low-light enhancement 本文提出用自己制作的弱光/正常光图像对的弱光数据集LOL数据集,利用Retinex理论中的不同光照下的图片反射率是相同的这一特点让其共享反射率,通过一个分解网络和一个增强网络对低照度

bert-bilstm-crf提升NER模型效果的方法

在使用bert或者其它预训练模型进行微调,下接其它具体任务相关的模块时,会面临这样一个问题,bert由于已经进行了预训练,参数已经达到了一个较好的水平,如果要保持其不会降低,学习率就不能太大,而下接结构是从零开始训练,用小的学习率训练不仅学习慢,而且也很难与BERT本体训练同步。如果学习率过小,梯度

MMdetection之train.py源码详解

目录一、tools/train.py二、源码详解三、核心函数详解(一)build_detector(mmdet/models/builder.py)(二)build_dataset(mmdet/datasets/builder)(三)train_detector(mmdet/apis/train.p