BRIO:抽象文本摘要任务新的SOTA模型
在 SimCLS [2]论文发布后不久,作者又发布了抽象文本摘要任务的SOTA结果 [1]。BRIO在上述论文的基础上结合了对比学习范式。
学习笔记:深度学习(8)——基于PyTorch的BERT应用实践
使用PyTorch将BERT嵌入网络进行应用的一次初尝试!
连夜看了30多篇改进YOLO的中文核心期刊 我似乎发现了一个能发论文的规律
第1种:焕然一新的创新;比如Faster-RCNN、Yolov1、Transformer、ShuffleNet等,能……第2种:守正出奇的创新;比如将图像金字塔改进为特征金字塔……第3种:各种先进算法集成的创新,比如……
一般神经网络(DNN)反向传播过程
DNN反向传播过程多元函数微分损失函数都是标量函数,它使用范数损失将向量转换为标量。计算损失函数在第L层输入的导数是一种标量对向量的求导。实际上不论是几维向量,都可以视为一列多元函数的自变量数组。例如,m×nm\times nm×n维度的矩阵{Wij}\{W_{ij}\}{Wij}可以转化为一列多
ICLR 2022的10篇论文推荐
一千多篇论文,19个研讨会和8次邀请演讲。 所以我整理了10篇论文作为推荐,希望对你有帮助
手把手带你Yolov5 (v6.1)添加注意力机制(并附上30多种顶会Attention原理图)
Yolov5 (v6.1)添加注意力机制教程(并附上30多种顶会Attention原理图)
深度学习中的归一化技术全面总结
归一化是深度学习中的一个基本概念。它加快了计算速度并稳定了训练。多年来发展了许多不同的技术。本篇文章整理了目前与它相关的方法,希望对你有所帮助
42个激活函数的全面总结
这个列表将包含 42 个激活函数,这里面肯定有没有见过的
《协同式智能清漂子母船》——第十四届国际水中机器人大赛---国赛亚军
摘要:水库、湖泊等水域在降雨和人类活动的作用下经常会聚集大量漂浮垃圾,严重影响水利枢纽正常运行,以及水域和周边的生态环境健康。如何适应各种水域特征,及时而高效安全的清除漂浮垃圾仍然是亟需解决的问题。针对此问题,本作品设计了一种子母船,在大型水域由母船直接清理漂浮垃圾,而在母船无法完成清理工作的较浅水
手把手带你调参Yolo v5 (v6.1)(一)
解析Yolov5项目中每一个参数含义
Keras深度学习实战(3)——神经网络性能优化技术详解
在神经网络训练过程中,有多种超参数可以影响神经网络的准确性。在本节中,我们将详细介绍神经网络中各种超参数的作用,通过使用不同的超参数来优化神经网络性能,以 MNIST 手写数字分类模型为例应用多种神经网络优化技术提高模型准确率。
在预测中使用LSTM架构的最新5篇论文推荐
本文总结了近半年来关于LSTM的5篇论文,推荐阅读
三、深度学习基础2(前、反向传播;超参数)
前向传播与反向传播前向传播反向传播神经网络的输出、卷积神经网络输出值以及Pooling 层输出值(主要作用是下采样)过程皆为比较简单的基础知识,在此不作详细赘述。超参数超参数:比如算法中的 learning rate (学习率)、iterations(梯度下降法循环的数量)、(隐藏层数目)、(隐藏层
深度学习基础 初学者版
提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档文章目录前言 一、过拟合与欠拟合,防止过拟合方法。 二、使用步骤 1.引入库 2.读入数据 总结前言首先!博主目前大一,写出来的东西水平很低。我写博客的目的只是为了让同是大一大二的学生们,入门这个领域的时候变得稍微轻松一点点。这篇博
基于pytorch平台实现对MNIST数据集的分类分析(前馈神经网络、softmax)基础版
基于pytorch平台实现对MNIST数据集的分类分析(前馈神经网络、softmax)基础版
三、深度学习基础1(构成、模型)
神经网络组成(输入层、隐藏层、输出层)最简单的神经网络:感知机复杂一些的感知机由简单的感知机单元组合而成:Sigmoid 单元感知机单元的输出只有 0 和 1,实际情况中,更多的输出类别不止 0 和 1,而是[0,1]上的概率值,这时候就需要 sigmoid 函数把任意实数映射到[0,1]上。sig
学习笔记:深度学习(5)——词向量的相关概念
开始学习Bert。
从零到一实现神经网络(六):误差反向传播算法更新网络权重
误差反向传播算法原理,误差反向传播更新权重参数,三层神经网络实现
5分钟NLP:Text-To-Text Transfer Transformer (T5)统一的文本到文本任务模型
本文将解释如下术语:T5,C4,Unified Text-to-Text Tasks
图像预训练模型的起源解说和使用示例
这篇文章简要介绍了图像预训练模型过去的演变,并总结了现在的一些热门话题。