基于双语数据集搭建seq2seq模型

基于英-法数据集搭建无注意力机制的seq2seq模型

基于GAN的时序缺失数据填补前言(1)——RNN介绍及pytorch代码实现

本专栏将主要介绍基于GAN的时序缺失数据填补。提起时序数据,就离不开一个神经网络——循环神经网络(Recurrent Neural Network, RNN)。RNN是一类用于处理序列数据的神经网络。RNN对具有序列特性的数据非常有效,它能挖掘数据中的时序信息。因为在介绍时序缺失数据填补,就离不开R

Linux下使用Anaconda安装 Pytorch(GPU)各个版本(万无一失),不会出现问题,经历各种踩坑的总结

(1)按照自己的环境选择,但是没有自己想要的版本。(2)修改安装命令里的版本号不是安装出错就是运行出错。(3)安装上之后用进入python环境,导入torch模块,之后输入命令输出安装torch的cuda版本没有反应,因为使用命令装上的是CPU版本的或者装的torch缺失cuda.(3)pytorc

深入浅出PyTorch中的nn.CrossEntropyLoss

PyTorch中的交叉熵详解

PyTorch 卷积网络正则化 DropBlock

论文地址:https://arxiv.org/pdf/1810.12890.pdfDropBlock 是一种类似于 dropout 的简单方法,它与 dropout 的主要区别在于,它从层的特征图中抹除连续区域,而不是抹除独立的随机单元类似地,DropBlock 通过随机地置零网络的响应,实现了通道

PyTorch中repeat、tile与repeat_interleave的区别

PyTorch中repeat、tile与repeat_interleave的区别

丢弃法Dropout(Pytorch)

介绍了dropout(丢弃法),以及PyTorch的从零实现和调API实现

权重衰退(PyTorch)

权重衰退和正则项的影响本质以及Pytorch的代码实现

GPU启用及Pytorch/Cuda安装

最近在跑神经网络,用CPU跑实在是太慢了,于是决定探究一下怎么用GPU跑,配置GPU环境的过程异常艰辛,为此还阅读几十篇CSDN+知乎优秀博主的优质论文,最后终于整出来了,现在我总结一下就当做个备忘录吧。以下内容引用了很多博主的博客内容,如有侵权,立刻删除。.........

Pytorch(二) —— 激活函数、损失函数及其梯度

δ(x)=11+e−xδ′(x)=δ(1−δ)\delta(x)=\frac{1}{1+e^{-x}}\\\delta'(x)=\delta(1-\delta)δ(x)=1+e−x1​δ′(x)=δ(1−δ)tanh(x)=ex−e−xex+e−x∂tanh(x)∂x=1−tanh2(x)tanh(

时间序列预测系列文章总结(代码使用方法)

时间序列预测系列文章总结(代码使用方法)

深入理解PyTorch中的nn.Embedding

深入理解nn.Embedding模块

神经网络-最大池化的使用

池化层的官方文档中介绍了很多种的池化方法,但是最常用的还是MaxPool2d,这里我们也用MaxPool2d来讲解,其他的类似,关键还是要学会看官方文档概述:最大池化目的就是为了保留输入的特征,但是同时把数据量减少,最大池化之后数据量就减少了,对于整个网路来说,进行计算的参数就变少了,就会训练的更快

PyTorch搭建LSTM实现服装分类(FashionMNIST)

LSTM + FashionMNIST

PyTorch搭建CNN-LSTM混合模型实现多变量多步长时间序列预测(负荷预测)

PyTorch搭建CNN-LSTM混合模型实现多变量多步长时间序列预测(负荷预测)

用RNN & CNN进行情感分析 - PyTorch

情感分析研究人们在文本中(如产品评论、博客评论和论坛讨论等)“隐藏”的情绪。这里使用斯坦福大学的大型电影评论数据集(large movie review dataset)进行情感分析。它由一个训练集和一个测试集组成,其中包含从IMDb下载的25000个电影评论。在这两个数据集中,“积极”和“消极”标

【时序预测完整教程】以气温预测为例说明论文组成及PyTorch代码管道构建

时间序列预测论文组成及PyTorch代码管道构建详解。

Win11系统PyTorch环境安装配置

Win11系统PyTorch环境安装配置

PyTorch nn.RNN 参数全解析

全面解析 torch.nn.RNN