Transformer的潜在竞争对手QRNN论文解读,训练更快的RNN

使用递归神经网络(RNN)序列建模业务已有很长时间了。但是RNN很慢因为他们一次处理一个令牌无法并行化处理。

Google的神经网络表格处理模型TabNet介绍

Google Research的TabNet于2019年发布,在预印稿中被宣称优于表格数据的现有方法。

使用CatBoost和NODE建模表格数据对比测试

来自俄罗斯在线搜索公司Yandex的CatBoost快速且易于使用,但同一家公司的研究人员最近发布了一种基于神经网络的新软件包NODE,声称其性能优于CatBoost和所有其他梯度增强方法。

对比PyTorch和TensorFlow的自动差异和动态子类化模型

使用自定义模型类从头开始训练线性回归,比较PyTorch 1.x和TensorFlow 2.x之间的自动差异

梯度直方图(HOG)用于图像多分类和图像推荐

介绍 机器学习的神奇之处在于,我们对原理的概念和思路理解得越多,它就变得越容易。在本文中,我们将研究在图像

理解强化学习

强化学习指的是专注于学习如何与环境交互的算法的机器学习。

基于神经网络的风格迁移目标损失解析

这篇文章可以看作是对其他文章的概述和理解,以便在更高的层次上理解这个概念。

使用pandas分析1976年至2010年的美国大选的投票数据

我最近在Kaggle上看到了美国大选的数据集。数据集包含了从1976年到2020年的选举。我会从不同的角度来处理这些数据,试图了解人们是如何投票的。

十分钟了解Transformers的基本概念

RNN已死,注意力万岁?

二分查找会更快吗?Python中的二分查找与线性查找性能测试

当您要检查某个元素是否在列表中时,有很多方法可以解决相同的问题。可以通过线性查找和二分查找来完成,但是要猜

使用深度学习的方法进行人脸解锁

使用深度学习来创建面部解锁算法。

在TPU上运行PyTorch的技巧总结

TPU芯片介绍Google定制的打机器学习专用晶片称之为TPU(Tensor Processing Unit

NLP任务中的文本预处理步骤、工具和示例

这篇文章将包括一些简单的方法来清洗和预处理文本数据以进行文本分析任务。

在python中使用KNN算法处理缺失的数据

今天,我们将探索一种简单但高效的填补缺失数据的方法-KNN算法。

使用WebAssembly提高模型部署的速度和可移植性

在本文中,我阐明了如何确保使用标准ML库(例如PyTorch,Scikit-learn和Tensorflow)训练的模型可以有效地部署在各种边缘设备上。

MCMC、蒙特卡洛近似和Metropolis算法简介

MCMC 是Markov Chain Monte Carlo 的简称,MCMC的目的就是运用蒙特卡洛模拟出一个马可链

使用PandasGUI进行探索性数据分析

Pandasgui是一个开源的python模块,它为pandas创建了一个GUI界面,我们可以在其中使用pandas的功能分析数据和使用不同的功能

时域卷积网络TCN详解:使用卷积进行序列建模和预测

CNN经过一些简单的调整就可以成为序列建模和预测的强大工具

使用PolyGen和PyTorch生成3D模型

创造性地组合3D模型,从图像快速生成3D模型

机器学习中处理缺失值的9种方法

在这个文章中,我将分享处理数据缺失的9种方法