基于Pytorch的强化学习(DQN)之策略学习

目录1. 引言2. 数学推导2.1 状态价值函数2.2 策略梯度2.3 蒙特卡罗近似3. 算法1. 引言我们上次讲到了价值学习,这次我们来看看基于策略的学习,我们状态价值函数能够描述当前状态下局势的好坏,如果越大那局势不就会越好吗,所以我们得到了策略学习的基本思想:找到最优的action使达到最大。

5分钟NLP:HuggingFace 内置数据集的使用教程

对于NLP 爱好者来说HuggingFace肯定不会陌生,HuggingFace为NLP任务提供了维护了一系列开源库的应用和实现,今天我们来看一下用于NLP任务的数据集总结。

深度学习崛起十年:“开挂”的OpenAI革新者

作为一个AI前沿领域的探索者,纵览其职业生涯,Sutskever的每一次转向似乎都能恰到好处地挖到黄金。

基于Pytorch的神经网络之Optimizer

目录1.引言2.各种优化器2.1 SGD2.2 Momentum2.3 RMSprop2.4 Adam3.效果对比1.引言我们之前提到进行反向传播时我们需要用到优化器(Optimizer)来优化网络中的参数,优化器有许多种,下面介绍几种常见的优化算法。2.各种优化器2.1 SGD优化算法中比较基本的

自监督学习的知识点总结

本篇文章将对自监督学习的要点进行总结

深度学习相关概念:交叉熵损失

深度学习相关概念:交叉熵损失交叉熵损失详解1.激活函数与损失函数1.1激活函数:1.2损失函数:2.对数损失函数(常用于二分类问题):3.交叉熵、熵、相对熵三者之间的关系4.交叉熵损失函数(常用于多分类问题)4.1交叉熵的作用:5.交叉熵损失 VS 多类支撑向量机损失  我在学习深度学习的过程中,发

基于Pytorch的神经网络之Classfication

1.引言我们上次介绍了神经网络主要功能之一预测,本篇大部分内容与回归相似,有看不懂的点可以看看我回归Regression,今天介绍一下神经网络的另一种功能:分类。2.网络搭建2.1 准备工作还是先引用我们所需要的库,和回归所需的一样。import torchimport torch.nn.funct

基于Pytorch的神经网络之Regression

目录1.引言2.神经网络搭建2.1 准备工作2.2 搭建网络2.3 训练网络3.效果4. 完整代码1.引言我们之前已经介绍了神经网络的基本知识,神经网络的主要作用就是预测与分类,现在让我们来搭建第一个用于拟合回归的神经网络吧。2.神经网络搭建2.1 准备工作要搭建拟合神经网络并绘图我们需要使用pyt

神经网络之激活函数

1.引言上一篇文章我们提到了神经网络中前向传播中数据经过线性变换后会传入一个激活函数(activation function),以满足我们解决非线性问题的需求。2.激活函数类常见的激活函数有以下四种。2.1 Sigmoid2.1.1 表达式与图像表达式:图像:2.1.2 优缺点优点:将整个实轴映射到

从零开始的神经网络构建历程(一)

这是构建神经网络历程系列的第一篇博文。本篇博文主要讲述Python中torch库在神经网络构建中的相关用法。torch库成员与神经网络中相关模块的对应关系由于逻辑回归以及其他机器学习算法解决不了非线性分类/回归问题,所以深度学习理论诞生了,上世纪60年代由此产生了神经网络模型。最早的一大批神经网络都

论文导读:Universal Adversarial Training

在这篇论文中,作者提出了一种优化的方法来找到给定模型的通用对抗样本(首先在 Moosavi-Desfooli 等人 [1] 中引入)。作者还提出了一种低成本算法来增强模型对此类扰动的鲁棒性。

深度学习主干网络-VGG16论文网络实现,参数介绍,数据处理,单通道,多通道数据,最大池化可视化。带源码。

深度学习主干网络-VGG16论文网络实现,参数介绍,数据处理,单通道,多通道数据,最大池化可视化。带源码。

5分钟NLP:使用 HuggingFace 微调BERT 并使用 TensorBoard 可视化

上篇文章我们已经介绍了Hugging Face的主要类,在本文中将介绍如何使用Hugging Face进行BERT的微调进行评论的分类。

AlexNet论文解读与代码实现

1. 论文解读1.1 泛读1.1.1 标题与作者1.1.2 摘要1.1.3 结论(讨论)1.1.4 重要图1.1.5 重要表1.2 精读1.2.1 文章精解1.2.1.1 ReLU1.2.1.2 Local Response Normalization(局部响应归一化)1.2.1.3 降低过拟合1.

论文导读:CoAtNet是如何完美结合 CNN 和 Transformer的

这篇文章主要介绍 Z. Dai 等人的论文 CoAtNet: Marrying Convolution and Attention for All Data Sizes。(2021 年)。

手把手教你用numpy搭建一个单隐层神经网络

在阅读本文之前,请确保你已经有了一定的神经网络基础。目录一、理论部分1.1 正向计算1.2 反向传播一、理论部分1.1 正向计算符号说明\textcolor{red}{符号说明}符号说明设我们的单隐层BP神经网络有 mmm 个输入神经元,nnn 个输出神经元,hhh 个隐层神经元。权重: 第 iii

人工智能实践Tensorflow2.0 第五章--1.卷积神经网络基础--八股法搭建卷积神经网络--北京大学慕课

第五章–卷积神经网络基础–八股法搭建卷积神经网络本讲目标:  介绍神经网络基本概念,用八股法实现卷积神经网络(以cifar10为例,本节建立的框架作为后续网络的baseline,在baseline中修改实现其他网络)。参考视频。卷积神经网络基础0.回顾全连接神经网络1.卷积计算过程1.1-卷积概念1

论文解释:SeFa ,在潜在空间中为 GAN 寻找语义向量

SeFa — Closed-Form Factorization of Latent Semantics in GANs

5分钟 NLP :Hugging Face 主要类和函数介绍 🤗

主要包括Pipeline, Datasets, Metrics, and AutoClasses

【宝藏工具系列】神经网络可视化工具集合啦,秒级画出漂亮的神经网络图~

宝藏工具系列,强烈建议收藏备用!!!