神经网络结构搜索(NAS)简介

本文旨在展示神经网络架构搜索(NAS)的进展、面临的困难和提出的解决方案,以及 NAS 在当今的普及和未来趋势。

详细对比深度神经网络DNN和高斯过程GP

深度神经网络 (DNN) 和高斯过程 (GP)* 是两类具有高度表现力的监督学习算法。在考虑这些方法的应用时会出现一个自然的问题:“什么时候以及为什么使用一种算法比另一种更有意义?”

Batch Renormalization:修复小批量对Batch Normalization的影响

这篇论文也是batch normalization的作者所写的,主要是针对小的mini-batch 会影响normalization效果这个问题作出修复,如果你的BN效果不好,可以试试这个方法。

论文导读:RotNet通过预测图像旋转进行自监督学习

这是2018年ICLR发表的一篇论文,被引用超过1100次。论文的想法来源于:如果某人不了解图像中描绘的对象的概念,则他无法识别应用于图像的旋转。

拥有100万亿参数GPT-4将比GPT-3大500倍:超大型的神经网络是实现AGI的最佳方式吗?

OpenAI 的诞生是为了应对实现通用人工智能 (AGI) 的挑战——一种能够做人类能做的任何事情的人工智能。

用于AB测试的减少方差方法总结和对比

当我们进行在线实验或A/B测试时,我们需要确保我们的测试具有很高的统计能力,这样如果我们的推断确实存在的话,我们就有很高的概率发现和验证它。

时间卷积网络TCN:CNN也可以处理时序数据并且比LSTM更好

本文回顾了 Shaojie Bai、J. Zico Kolter 和 Vladlen Koltun 撰写的论文:An Empirical Evaluation of Generic Convolutional and Recurrent Networks for Sequence Modeling。

基于遗传算法的特征选择:通过自然选择过程确定最优特征集

遗传算法是一种基于自然选择的优化问题的技术。在这篇文章中,我将展示如何使用遗传算法进行特征选择。

激活函数其实并不简单:最新的激活函数如何选择?

让我们来看看几个最有前途的激活函数,看看它们为什么好以及何时使用它们。

使用神经网络的建立与分析遗传基因数据模型

"哪一种最简单的神经网络能与遗传数据最匹配"。经过大量文献回顾,我发现与该主题相关的最接地气却非常有趣的工作是在Yoshua Bengio 教授的实验室中进行的。

深度学习的端到端文本OCR:使用EAST从自然场景图片中提取文本

我们生活在这样一个时代:任何一个组织或公司要想扩大规模并保持相关性,就必须改变他们对技术的看法,并迅速适应不

现实世界中的数据科学:基于领域知识和监督学习模型的黄金价格理解与预测

本文将展示如何建立一个简单但是强大的金价预测模型,主要包含以下内容:黄金的简要历史影响金价的若干因素建立用于

基于图卷积神经网络GCN的时间序列预测:图与递归结构相结合的库存品需求预测

时间序列预测任务可以按照不同的方法执行。最经典的是基于统计和自回归的方法。循环和卷积结构在时间序列预测中取得了巨大的成功。我们尝试做的是使用时间序列的图形表示来产生未来的预测

一个简单的更改让PyTorch读取表格数据的速度提高20倍:可大大加快深度学习训练的速度

在训练深度学习模型时,性能至关重要。数据集可能非常庞大,而低效的训练方法意味着迭代速度慢

数据的预处理基础:如何处理缺失值

数据清理/探索性数据分析阶段的主要问题之一是处理缺失值。 缺失值表示未在观察值中作为变量存储的数据值。

归一化vs标准化,哪个更好

标准化 归一化 今天我们将探讨这两种技术,并了解数据分析师在解决数据科学问题时所做出的一些常见假设。

XGBoost算法背后的数学:尽可能简单地解释XGBoost算法背后的数学机制

XGBoost是一个很优美的算法,它的过程不乏启发性。这些通常简单而美丽的概念在数学术语中消失了。我在理解数学的过程中也遇到过同样的挑战,所以我写这篇文章的目的是 巩固我的理解,同时帮助其他人完成类似的过程。

机器学习模型的超参数优化

模型优化是机器学习算法实现中最困难的挑战之一。机器学习和深度学习理论的所有分支都致力于模型的优化。

Explainable AI (XAI) 不能解释什么,以及我们如何解决这个问题

神经网络准确但不可解释,决策树是可解释的,但在计算机视觉中是不准确的。对于这种问题,我们在本文有一个解决办法

理论结合实际:如何调试神经网络并检查梯度

当我们实现神经网络时,反向传播的过程中更容易出错。因此,如果我们能够实现一些使我们能够轻松调试神经网络

个人信息

加入时间:2020-01-23

最后活动:21 小时前

发帖数:1593

回复数:1