浅谈非极大值抑制和IOU

非极大值抑制,简称NMS,是一种获取局部最大值的有效算法。不管是one-stage还是two-stage,NMS都是其中的重要一环,被广泛应用于各种目标检测算法中。下面以一个例子来简述非极大值抑制在目标检测中的应用。在实际检测过程中,一个目标往往会检测出多个region proposal很多时候,我

PyTorch----实现手写数字的识别

加载手写数字的数据组成训练集和测试集,这里已经下载好了,所以download为Falseimport torchvision# 是否支持gpu运算# device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')# prin

项目实战解析:基于深度学习搭建卷积神经网络模型算法,实现图像识别分类

项目交流群(源码获取,问题解答):617172764文章目录前言一、基础知识介绍二、数据集收集三.模型训练四.图像识别分类总结前言随着人工智能的不断发展,深度学习这门技术也越来越重要,很多人都开启了学习机器学习,本文将通过项目开发实例,带领大家从零开始设计实现一款基于深度学习的图像识别算法。学习本章

基于神经网络集成学习的研究论文推荐

集成 的概念在机器学习中很常见。集成可以被认为是一种学习技术,可以将许多模型连接起来解决一个问题

【一起入门DeepLearning】中科院深度学习_期末总复习

考试题目主要是计算题(涉及卷积操作,反向传播计算等)和简答题(概念理解),由7道大题组成,比较简单。

PyTorch 全连接层权值共享的手势识别网络

机器人学实验课的考核是,利用机械臂做一下拓展应用,所以花了很多时间来设计了这个神经网络因为这个神经网络的思路比较新颖,而且尝试了一些防止过拟合、性能优化的手段,所以决定记录一下模型性能time FPS FLOTs Params (float16) 4.195 ms 238 9,

在没有训练数据的情况下通过领域知识利用弱监督方法生成NLP大型标记数据集

介绍了弱监督的概念,以及如何使用它来将专家的领域知识编码到机器学习模型中。我还讨论了一些标记模型。在两步弱监督方法中结合这些框架,可以在不收集大量手动标记训练数据集的情况下实现与全监督ML模型相媲美的准确性!

Pytorch框架学习路径(二:张量操作)

张量操作文章目录张量操作张量拼接与切分torch.cat()torch.stack()torch.chunk()torch.split()张量索引torch.index_select()torch.masked_select()张量变换torch.reshape()torch.transpose()

PyTorch强化学习实战(1)——强化学习环境配置与PyTorch基础

工欲善其事,必先利其器。为了更专注于学习强化学习的思想,而不必关注其底层的计算细节,我们首先搭建相关强化学习环境,包括 PyTorch 和 Gym,其中 PyTorch 是我们将要使用的主要深度学习框架,Gym 则提供了用于各种强化学习模拟和任务的环境。除此之外,本文还介绍了一些 PyTorch 的

李宏毅老师《机器学习》课程笔记-4.2 Batch Normalization

介绍了Deep Neural Network 的加速优化的一个方法: Batch Normalization

Python实时监控GPU运行状态(含源码&jupyter-lab)

GPU运行状态监测介绍NVDashboard 是一个开源包,用于在交互式 Jupyter Lab 环境中实时可视化 NVIDIA GPU 指标。 NVDashboard 是所有 GPU 用户监控系统资源的好方法。然而,它对于 NVIDIA 的 GPU 加速数据科学软件库开源套件 RAPIDS 的用户

强化学习系列(一):基本原理和概念

目录一、什么是强化学习?二、强化学习的结构第一层第二层第三层三、价值函数1)Policy function:2)Value function:3)Q与V之间的转化3)Q值更新——贝尔曼公式四、强化学习的特点五、强化学习的优点一、什么是强化学习?这几年强化学习在学术界是非常的火热,想必大家或多或少都听

汉明距离、汉明损失详解及代码(python)

用具体的图示+代码,帮你理解汉明距离(Hamming distance)、汉明损失(Hamming loss)。

微调大型语言模型示例:使用T5将自然语言转换成SQL语句

在本文中,我们将使用谷歌的文本到文本生成模型T5和我们的自定义数据进行迁移学习,这样它就可以将基本问题转换为SQL查询。

深度对抗神经网络(DANN)笔记

一 总体介绍DANN是一种迁移学习方法,是对抗迁移学习方法的代表方法。基本结构由特征提取层f,分类器部分c和对抗部分d组成,其中f和c其实就是一个标准的分类模型,通过GAN(生成对抗网络)得到迁移对抗模型的灵感。但此时生成的不是假样本,而是假特征,一个足以让目标域和源域区分不开的假特征。而领域判别器

DeepLearning 中的 RNN 与 BRNN(双向RNN)

RNN下图为 RNN 隐藏层单元的可视化呈现:BRNN下图,紫色表示正向连接,绿色表示反向连接,通过下图箭头连接,这个网络就构成了一个无环图。如图,给定一个输入序列 X<1>--X<4>,这个序列首先计算前向的a<1>, 然后计算a<2>,接着a&lt

TensorFlow笔记_采用迁移学习的方法搭建MobileNetV2网络实现自建数据集的图像分类任务

自定义数据集完成图像分类任务:拍摄数据集,采用TFRecord创建和保存数据,采用迁移学习的方式搭建MobileNetV2网络,将模型转换为tflite,并加载tflite实现推理

【math系列】《深度学习》中主成分分析(PCA)的一个知识点证明

【线性代数】PCA中的数学证明题

Keras深度学习实战(11)——股价预测

我们已经学习了使用神经网络进行音频、文本等非结构化数据和房价、信用等结构化数据分析的相关任务。本节,通过股价预测应用,了解了神经网络在处理时间序列数据的一般流程,并学习了使用函数式 API 来构建复杂神经网络,通过利用相关新闻数据信息来提高预测准确性。