论文解读:SKNet自适应动态选择机制,动态调整感受野尺寸

本文提出的方法可以使神经元对于不同尺寸的输入信息进行自适应的调整其感受野的大小,不同尺寸的卷积核最后通过softmax进行融合。分支中不同注意力产生不同的有效感受野。多个SK单元进行堆叠构成SKNet。

1x1卷积详解:概念、优势和应用

Lin等人的《网络中的网络(Network in Network, NiN)》一文,提出了一种特殊的卷积操作,它允许跨通道参数级联,通过汇聚跨通道信息来学习复杂的交互。

TransGAN:使用Transformer替换卷积也可以构建一个强力的GAN

本次介绍的论文研究构建一个完全没有卷积的GAN,只使用纯基于transformer的架构。

如何在评估机器学习模型时防止数据泄漏

本文讨论了评估模型性能时的数据泄漏问题以及避免数据泄漏的方法。

通过随机采样和数据增强来解决数据不平衡的问题

通过随机采样和数据增强来解决数据不平衡的问题

使用Deep Replay可视化神经网络学习的过程

如果你对可视化神经网络学习的过程感兴趣的话请阅读本文

用N.E.A.T遗传算法玩FlappyBird

我用python实现了一个完整的FlappyBird,而且还可以通过N.E.A.T遗传算法让它自己玩

线性回归中的L1与L2正则化

在这篇文章中,我将介绍一个与回归相关的常见技术面试问题,我自己也经常会提到这个问题: 描述回归建模中的L1和L2正则化方法。

使用神经网络的自动化特征工程

如何自动化并极大地改进数据建模中最繁琐的步骤之一

亿级用户的平台是如何使用词嵌入来建立推荐系统的

推荐系统对于我们今天使用的几乎所有应用程序都是至关重要的。 借助大数据,我们有大量可供选择的内容。并且我们可

Deepmind的RFA:transformers的Softmax注意机制最新替代

什么是注意力机制?为什么RFA比Softmax更好?

SHAP值:用博弈论的概念解释一个模型

SHAP —表示SHapley Additive ExPlanations是一种解释来自机器学习模型的单个预测的方法。

为什么独热编码会引起维度诅咒以及避免他的几个办法

从机器学习的角度来看独热编码不是一个很好的选择,最明显的原因是它加起来有大量的维度,数据集维数的增加会引起维数诅咒,从而导致并行性和多重共线性问题。

开放API如何处理数据隐私问题?看看GPT-3 是怎么做的

GPT-3正在改变企业利用人工智能增强现有产品能力的方式,并推出下一代产品。我们看看GPT-3如何处理数据隐私问题

5分钟搭建强大又好用的深度学习环境

为深度学习项目建立一个良好的环境不是一件容易的任务,随着容器彻底改变了软件开发的世界,现在它们也可以帮助数据科学家构建更健壮的环境。

结合Sklearn的网格和随机搜索进行自动超参数调优

今天将介绍两种自动超参数优化方法:随机搜索和网格搜索,并结合他们的有点进行自动化的超参数调整

FOTS:自然场景的文本检测与识别

在这篇文章里,我将分享​实现这篇论文的方法。

基于偏差校正似然的贝叶斯参数估计

通过使用先验信息来校正贝叶斯参数估计中似然性的偏差,可能意味着对小样本量的估计的准确性和鲁棒性进行了改进

基于BERT嵌入的推荐系统

当你查看任何社交媒体平台时,你很可能会从其中看到很多建议,例如“为你推荐”。这些建议主要取决于你当前的兴趣

卷积神经网络中的自我注意

我写这篇短文是为了总结cnn的自注意力机制,主要是为了以后可以回顾一下我做了什么,但我也希望对你们有用。