轻量级神经网络——shuffleNet
文章目录轻量级神经网络——shuffleNetshuffleNet1逐点分组卷积(Pointwise group convolution)✨✨✨通道重排(channel shuffle)✨✨✨shuffleNet Unit✨✨✨shuffleNet1的网络结果和效果轻量级神经网络——shuffleN
神经网络中的激活函数与损失函数&深入理解推导softmax交叉熵
介绍神经网络中常用的激活函数和损失函数,主要是介绍softmax交叉熵损失函数,并使用计算图手动推导softmax交叉熵反向传播过程。
论文推荐:StarCraft II Unplugged 离线强化学习
在本文中,我们将介绍 StarCarft II Unplugged 论文 [1],本论文可以将AlphaStar进行了扩展或者说更好的补充解释,绝对值得详细阅读。
论文回顾:U2-Net,由U-Net组成的U-Net
在这篇文章中,我们将介绍2020年发布的一种称为 U²-Net 或 U-squared Net 的 U-net 变体。U²-Net基本上是由U-Net组成的U-Net。
详细且通俗讲解轻量级神经网络——MobileNets【V1、V2、V3】
文章目录轻量级神经网络——MobileNetsMobileNetV1深度可分离卷积1、**深度卷积**✨✨✨2、**逐点卷积**✨✨✨参数量和计算量1、**标准卷积**2、**深度可分离卷积**✨✨✨MobileNetV1的网络结构及效果MobileNetV2Linear Bottlenecks✨✨
可视化深度学习模型架构的6个常用的方法总结
可视化有助于解释和理解深度学习模型的内部结构。本文将使用 Keras 和 PyTorch 构建一个简单的深度学习模型,然后使用不同的工具和技术可视化其架构。
混合密度网络(MDN)进行多元回归详解和代码示例
在本文中,首先简要解释一下 混合密度网络 MDN (Mixture Density Network)是什么,然后将使用Python 代码构建 MDN 模型,最后使用构建好的模型进行多元回归并测试效果。
基于BP神经网络使用开盘价、最高价、最低价预测收盘价
以下是本文所用数据~~~一、直接上手撸代码import pandas as pdimport numpy as npimport mathdata = pd.read_excel('上证指数.xls')data = np.array(data.iloc[3:-1,1:])e = 1ita = 0.0
EfficientNetV2 - 通过NAS、Scaling和Fused-MBConv获得更小的模型和更快的训练
EfficientNetV2是由 Google Research,Brain Team发布在2021 ICML的一篇论文,比EfficientNetV1的训练速度快得多,同时体积小 6.8 倍。
5分钟NLP:从 Bag of Words 到 Transformer 的时间年表总结
本文对影响NLP研究的一些重要的模型进行总结,并尽量让它简约而不是简单,如果你刚刚进入NLP领域,本文可以作为深入研究该领域的起点。
清华大学出品:罚梯度范数提高深度学习模型泛化性
论文方法L(θ)=LS(θ)+λ⋅∥∇θLS(θ)∥pL(\theta)=L_{\mathcal{S}}(\theta)+\lambda \cdot \|\nabla_\theta L_{\mathcal{S}}(\theta)\|_pL(θ)=LS(θ)+λ⋅∥∇θLS(θ)∥p∥h(θ1
DeepFaceDrawing: 使用草图生成人脸图像
在本文中,介绍了使用人脸设计或草图来制作人脸照片的想法。该技术的应用包括角色设计、教育培训、面部变形和嫌疑人画像等。
使用OpenCV对运动员的姿势进行检测
点击上方“小白学视觉”,选择加"星标"或“置顶”重磅干货,第一时间送达如今,体育运动的热潮日益流行。同样,以不正确的方式进行运动的风险也在增加。有时可能会导致严重的伤害。考虑到这些原因,提...
b站的用纸笔训练神经网络【matlab与python实现】
b站的用纸笔训练神经网络【matlab与python实现】我的工作基本思路黑盒是什么MATLAB源码Python源码我的工作之前在b站上看到小蛮大佬做的一期用纸笔训练神经网络的视频【BV1R64y187yt】,关于正向传递和反向传播这一块受益匪浅,但是视频中也存在一些公式以及绘图错误的地方,所以尝试
Darknet CUDA/CUDANN环境的快速安装
在具备GPU显卡且主持CUDA的纯净的UBUNTU18.04系统上,按照如下指导文档安装 Nvidia 显卡驱动。Ubuntu18.04安装CUDA深度学习环境_tugouxp的专栏-CSDN博客之后,下载darknetgit clone https://github.com/AlexeyAB/da
卷积自编码器中注意机制和使用线性模型进行超参数分析
本文通过一个简单的代码实例介绍了卷积的注意力机制和何如使用线性模型进行超参数的分析
论文推荐-使用 Noisy Student 进行自训练可以提高 ImageNet 分类的表现
使用 Noisy Student 进行自训练改进 ImageNet 分类是一篇由 Google Research、Brain Team 和Carnegie Mellon大学发表在2020 CVPR的论文
深度学习入门之神经网络
接着啃书第三章
图卷积和消息传递理论的可视化详解
本文中将研究如何基于消息传递机制构建图卷积神经网络,并创建一个模型来对具有嵌入可视化的分子进行分类。
伪标签:用于深度神经网络的简单高效的半监督学习方法
未标记的数据由监督学习网络标记,即所谓的伪标记。然后使用标记数据和伪标记数据训练网络。