揭开机器学习模型黑箱:模型可解释性方法总结和对比

解释人工智能黑盒模型是一个巨大的挑战。在这篇文章中,我将介绍特征归因和反事实解释的基本方法。稍后,您将了解两者之间的关系。本文基于Microsoft[1]在2020年发表的一篇论文。

深度不一定更好:12层ParNet 并行非深度网络架构实现了与目前SOTA模型相似的性能

普林斯顿大学(Princeton University)和英特尔实验室(Intel Labs)的一个研究小组在最新发表的(Non-deep Networks)论文中提出了ParNet (Parallel Networks),其性能可与最先进的深度网络架构相媲美。

​常用的连续概率分布汇总

使用统计学分析《鱿鱼游戏》中“玻璃垫脚石”的生存概率

如果你要在鱿鱼游戏中玩玻璃垫脚石,你的会选择那个数字?

20个不常见但却非常有用的Numpy函数

Numpy是每个数据科学家都应该掌握的Python包,它提供了许多创建和操作数字数组的方法。它构成了许多与数据科学相关的广泛使用的Python库的基础,比如panda和Matplotlib。

使用torch.package将pytorch模型进行独立打包

在最新的1.9版本中有了一个新的方法torch.package,可以帮我们简化保存模型的步骤。

基本的核方法和径向基函数简介

偏差-方差困境是机器学习方法的面临的主要问题。在看完本文后,希望你能很好地理解这句话的含义以及它为什么重要。

一文读懂正则化:LASSO回归、Ridge回归、ElasticNet 回归

你可能听说过“Ridge”、“Lasso”和“ElasticNet”这样的术语。这些技术术语背后的基本概念都是正规化。在这篇文章中我们将详细进行说明。

Patchs才是你最需要的! 新研究表明VIT的强大性能归功于Patchs的策略

Vision transformer (ViT) 在许多计算机视觉任务中取得了优于经典的卷积架构的令人瞩目的性能。

已经14年的Scikit-Learn终于1.0了,发布第一个主要版本的意义是什么?

在这篇文章中,我不想像其他许多文章那样对新特性进行分析,而是想尝试分析Scikit-Learn这个版本的目的,以及它未来的发展策略

使用傅立叶变换清理时间序列数据噪声

傅立叶变换是一种从完全不同的角度查看数据的强大方法:从时域到频域。 但是这个强大的运算用它的数学方程看起来很可怕。

论文解释:Vision Transformers和CNN看到的特征是相同的吗?

本文将解释论文《Do Vision Transformers See Like Convolutional Neural Networks?》,并探讨传统CNN 和 Vision Transformer 之间的区别。

多重共线性是如何影响回归模型的

在机器学习面试中经常会被问到的一个问题是,特征如果存在多重共线性时为什么不能估计出最佳回归系数?本篇文章可以算是这个问题的标准答案

MeRL:强化学习分配奖励机制的新方法

这是谷歌在2019年发布的一种在强化学习模型中分配奖励机制的新方法。

Python 3.10的几个好用的新特性

3.10版没有添加新的模块,但是引入了很多新的并且有用的特性。让我们来一起看看吧。

DeepMind的FIRE PBT自动超参数调整,更快的模型训练和更好的最终性能

DeepMind的一个研究团队提出了Faster Improvement Rate PBT (FIRE PBT),这是一种新的性能优于PBT方法,并与ImageNet基准上通过传统手工超参数调优训练的网络的性能相匹配。

DOTA2 插眼位置进行聚类分析,你也可以成为眼位大师

这篇文章的目标是:借助一些数据科学工具,探索职业玩家如何插眼和控制视野。

10分钟掌握异常检测

异常检测(也称为离群点检测)是检测异常实例的任务,异常实例与常规实例非常不同。这些实例称为异常或离群值,而正常实例称为内部值。

机器学习中的参数与非参数方法

在今天的文章中,我们将讨论机器学习背景下的参数和非参数方法。此外,我们将探讨它们的主要差异以及它们的主要优点和缺点。

个人信息

加入时间:2020-01-23

最后活动:11 小时前

发帖数:1587

回复数:1