5分钟NLP:Text-To-Text Transfer Transformer (T5)统一的文本到文本任务模型

本文将解释如下术语:T5,C4,Unified Text-to-Text Tasks

图像预训练模型的起源解说和使用示例

这篇文章简要介绍了图像预训练模型过去的演变,并总结了现在的一些热门话题。

​常见的8个概率分布公式和可视化

在本文中,我们将介绍一些常见的分布并通过Python 代码进行可视化以直观地显示它们。

5篇关于将强化学习与马尔可夫决策过程结合使用的论文推荐

低光图像增强、离线强化学习、基于深度强化学习的二元分类决策森林的构建方法等最新的研究成果

检测和处理异常值的极简指南

本文是关于检测和处理数据集中的异常值

基于梯度提升(Boosting )的回归树简介

Boosting 是一种松散的策略,它将多个简单模型组合成一个复合模型。这个想法的理论来自于随着我们引入更多的简单模型,整个模型会变得越来越强大。

改善图形神经网络,提升GNN性能的三个技巧

本文总结了一些技巧来提高 GNN 模型的性能。

SRCNN:基于深度学习的超分辨率开山之作回顾

本文提供了与SRCNN论文的总结和回顾,如果你对于图像的超分辨率感兴趣,一定要先阅读这篇论文,他可以说是所有基于深度学习的超分辨率模型的鼻祖

HIST:微软最新发布的基于图的可以挖掘面向概念分类的共享信息的股票趋势预测框架

2022 年 1 月微软研究院的提出了一种新颖的股票趋势预测框架,可以充分挖掘该概念面向来自预定义概念和隐藏概念的共享信息

2022 年 5 篇与降维方法的有关的论文推荐

本篇文章整理了2022年新发布的5篇与降维技术有关的文章

NLP 进行文本摘要的三种策略代码实现和对比:TextRank vs Seq2Seq vs BART

本文将使用 Python 实现和对比解释 NLP中的3 种不同文本摘要策略:老式的 TextRank(使用 gensim)、著名的 Seq2Seq(使基于 tensorflow)和最前沿的 BART(使用Transformers )

MultiMAE:一种简单、灵活且有效的 ViT 预训练策略

Multi-modal Multi-task Masked Autoencoders (MultiMAE),也是一种预训练策略,可以对掩码进行自动编码处理并执行多模态和多任务的训练。

自动化的机器学习:5个常用AutoML 框架介绍

AutoML 可以为预测建模问题自动找到数据准备、模型和模型超参数的最佳组合,本文整理了5个最常见且被熟知的开源AutoML 框架。

将梯度提升模型与 Prophet 相结合可以提升时间序列预测的效果

将Prophet的预测结果作为特征输入到 LightGBM 模型中进行时序的预测

2022 年 4 月 10篇 ML 研究论文推荐

Google 的 5400 亿参数 PaLM、Pathways、Kubric、Tensor Programs、Bootstrapping Reasoning With Reasoning、Sparse all-MLP 架构

假设检验中的第一类错误和第二类错误

这是支撑统计学中假设检验的最重要概念

高斯朴素贝叶斯分类的原理解释和手写代码实现

朴素贝叶斯假设每个参数(也称为特征或预测变量)具有预测输出变量的独立能力。所有参数的预测组合是最终预测,它返回因变量被分类到每个组中的概率,最后的分类被分配给概率较高的分组(类)。

多任务学习中的网络架构和梯度归一化

多任务学习(Multi-task learning, MTL),旨在用其他相关任务来提升主要任务的泛化能力,多个任务共享一个结构并在一次正向传递中产生多个推理。

使用分布外数据去除不需要的特征贡献,提高模型的稳健性

分布外数据增强训练可以提高 DNN 的准确性和效率,通过抗性训练可以让 DNN 更加健壮,让模型更不容易受到扰动的影响。

计算机视觉的半监督模型:Noisy student, π-Model和Temporal Ensembling

今天我将讨论一些在过去十年中出现的主要的半监督学习模型。

个人信息

加入时间:2020-01-23

最后活动:13 小时前

发帖数:1615

回复数:1