自注意力机制(Self-Attention)的基本知识
Transformers是机器学习(ML)中一个令人兴奋的(相对)新的部分,但是在理解它们之前,有很多概念需要分解
使用TensorBoard进行超参数优化
在本文中,我们将介绍超参数优化,然后使用TensorBoard显示超参数优化的结果。
Meal Kit 的时间序列数据预测实践
本文的目的是基于历史数据,通过机器学习的方法实现对于每周需求的预测。主要目标在于开发一个模型用于减少配送损失
在tensorflow2.2中使用Keras自定义模型的指标度量
使用Keras和tensorflow2.2可以无缝地为深度神经网络训练添加复杂的指标
在没有技术术语的情况下介绍Adaptive、GBDT、XGboosting等提升算法的原理简介
这篇文章将不使用任何的术语介绍每个提升算法如何决定每棵树的票数。通过理解这些算法是如何工作的,我们将了解什么
直观理解并使用Tensorflow实现Seq2Seq模型的注意机制
本文通过采用带注意机制的序列序列结构进行英印地语神经机器翻译,详细介绍注意力机制的概念
Beam Search、GREEDY DECODER、SAMPLING DECODER等解码器工作原理可视化
图像标注的任务让我们可以构建和训练一个为任何给定图像生成字幕的神经网络。在设计时使用了解码器的来完成文字的生成。
使用PyTorch实现鸟类音频检测卷积网络模型
以及为什么鸟类的声音检测对我们环境的未来如此重要介绍你听说过自动语音识别,你听说过音乐标签和生成,但是你听说
机器学习常见的损失函数以及何时使用它们
每一个机器学习工程师都应该知道机器学习中这些常见的损失函数以及何时使用它们。
进行图像增广(数据扩充)的15种功能总结和Python代码实现
python代码可以自己扩充图像数据集。多图慎入!!!
深入卷积神经网络:高级卷积层原理和计算的可视化
在深度计算机视觉领域中,有几种类型的卷积层与我们经常使用的原始卷积层不同。在计算机视觉的深度学习研究方面,许多流行的高级卷积神经网络实现都使用了这些层。
各种形式的图神经网络的实现和基准测试
本篇文章是论文的介绍性博客:Benchmarking Graph Neural Networks
如何在GPU上设计高性能的神经网络
gpu对于机器学习是必不可少的。作为一个机器学习架构师,你应该如何设计神经网络来最大化GPU的性能?
利用机器学习探索食物配方:通过Word2Vec模型进行菜谱分析
介绍食物是我们生活中不可分割的一部分。据观察,当一个人选择吃东西时,通常会考虑食材和食谱。我们将进一步研究机器学习如何在食品工业中使用
人工智能的编年史——从开始到现在
人工智能的历史早在图灵之前,甚至早于计算机。
深度学习模型压缩方法的特点总结和对比
了解用于深入学习的不同模型压缩技术的需求和特点
神经网络架构搜索(NAS)基础入门
在这篇文章中,我们主要探讨NAS的思想和方法,希望可以帮助读者更好地理解该领域并发现实时应用程序的可能性。
使用Pytorch和Matplotlib可视化卷积神经网络的特征
在处理图像和图像数据时,CNN是最常用的架构。卷积神经网络已经被证明在深度学习和计算机视觉领域提供了许多最先
常见机器学习算法背后的数学
不同的机器学习算法是如何从数据中学习并预测未见数据的呢?
神经网络如何学习的?
像下山一样,找到损失函数的最低点。