时间序列分解:将时间序列分解成基本的构建块

大多数时间序列可以分解为不同的组件,在本文中,我将讨论这些不同的组件是什么,如何获取它们以及如何使用 Python 进行时间序列分解。

U-Net在2022年相关研究的论文推荐

UNet 可以算是 FCN 的一种变体,是最常用、最简单的一种分割模型,简单、高效、易懂、容易构建,且可以从小数据集中训练。2015 年,UNet 在论文 U-Net: Convolutional Networks for Biomedical Image Segmentation 中被提出 。

Keras可视化神经网络架构的4种方法

keras 中有一些现成的包可以创建我们的神经网络模型的可视化表示。

使用上下文装饰器调试Pytorch的内存泄漏问题

装饰器是 python 上下文管理器的特定实现。本片文章将通过一个pytorch GPU 调试的示例来说明如何使用它们。

使用PyTorch进行小样本学习的图像分类

我们将从几个样本中学习的问题被称为“少样本学习 Few-Shot learning”。我们将从几个样本中学习的问题被称为“少样本学习 Few-Shot learning”。少样本学习是机器学习的一个子领域。

贝叶斯推理三种方法:MCMC 、HMC和SBI

本文将阐明为什么贝叶斯方法不仅在逻辑上是合理的,而且使用起来也很简单。这里将以三种不同的方式实现相同的推理问题。

10个机器学习中常用的距离度量方法

距离度量是有监督和无监督学习算法的基础,包括k近邻、支持向量机和k均值聚类等。

PyTorch中的多GPU训练:DistributedDataParallel

本文将介绍DistributedDataParallel,DDP 基于使用多进程而不是使用多线程的 DP,可以扩充到多机多卡的环境,所以他是分布式多GPU训练的首选。

基于深度学习的Deepfake检测综述

在过去的几年里已经进行了数百项研究,发明和优化各种使用 AI 的 Deepfake 检测,本文主要就是讨论如何对 Deepfake 进行检测

12个常用的图像数据增强技术总结

扩展用于训练模型的数据量的过程称为数据增强。通过训练具有多种数据类型的模型,我们可以获得更“泛化”的模型。

使用pandas-profiling对时间序列进行EDA

在这篇文章中,我将利用 pandas-profiling 的时间序列特性,介绍EDA中的一些关键步骤。

使用KNN进行分类和回归

一般情况下k-Nearest Neighbor (KNN)都是用来解决分类的问题,其实KNN是一种可以应用于数据分类和预测的简单算法,本文中我们将它与简单的线性回归进行比较。

比较CPU和GPU中的矩阵计算

GPU 计算与 CPU 相比能够快多少?在本文中,我将使用 Python 和 PyTorch 线性变换函数对其进行测试。

构建基于Transformer的推荐系统

使用基于BERT的模型构建基于协同过滤的推荐系统

谷歌AudioLM :通过歌曲片段生成后续的音乐

AudioLM 是 Google 的新模型,能够生成与提示风格相同的音乐。该模型还能够生成复杂的声音,例如钢琴音乐或人的对话。结果是它似乎与原版没有区别,这是十分让人惊讶的。

10个Pandas的小技巧

pandas是数据科学家必备的数据处理库,我们今天总结了10个在实际应用中肯定会用到的技巧

持续学习常用6种方法总结:使ML模型适应新数据的同时保持旧数据的性能

持续学习是指在不忘记从前面的任务中获得的知识的情况下,按顺序学习大量任务的模型。

训练深度学习神经网络的常用5个损失函数

损失函数的选择与神经网络模型从示例中学习的特定预测建模问题(例如分类或回归)有关。在本文中我们将介绍常用的一些损失函数

使用基于注意力的编码器-解码器实现医学图像描述

使用计算机视觉和自然语言处理来为X 射线的图像生成文本描述。

我们能从后验分布中学到什么?贝叶斯后验的频率解释

假设我们从未知分布 q 中观察到 N 个独立且同分布的 (iid) 样本 X = (x1, ... , xN)。统计学中的一个典型问题是“样本集 X 能告诉我们关于分布 q 的什么信息?”。

个人信息

加入时间:2020-01-23

最后活动:3 小时前

发帖数:2310

回复数:1