使用PyTorch实现简单的AlphaZero的算法(1):背景和介绍
在本文中,我们将在PyTorch中为Chain Reaction[2]游戏从头开始实现DeepMind的AlphaZero[1]。
论文推荐:基于GE-MRI的多任务学习
医学图像分析,多任务学习,图像分类,图像分割,U-Net,后处理
PyTorch实现非极大值抑制(NMS)
NMS即non maximum suppression即非极大抑制,顾名思义就是抑制不是极大值的元素,搜索局部的极大值。
11个常见的分类特征的编码技术
机器学习算法只接受数值输入,所以如果我们遇到分类特征的时候都会对分类特征进行编码,本文总结了常见的11个分类变量编码方法。
从头开始进行CUDA编程:Numba并行编程的基本概念
本文不是 CUDA 或 Numba 的综合指南,本文的目标是通过用Numba和CUDA编写一些简单的示例,这样可以让你了解更多GPU相关的知识
时间序列分解:将时间序列分解成基本的构建块
大多数时间序列可以分解为不同的组件,在本文中,我将讨论这些不同的组件是什么,如何获取它们以及如何使用 Python 进行时间序列分解。
U-Net在2022年相关研究的论文推荐
UNet 可以算是 FCN 的一种变体,是最常用、最简单的一种分割模型,简单、高效、易懂、容易构建,且可以从小数据集中训练。2015 年,UNet 在论文 U-Net: Convolutional Networks for Biomedical Image Segmentation 中被提出 。
Keras可视化神经网络架构的4种方法
keras 中有一些现成的包可以创建我们的神经网络模型的可视化表示。
使用上下文装饰器调试Pytorch的内存泄漏问题
装饰器是 python 上下文管理器的特定实现。本片文章将通过一个pytorch GPU 调试的示例来说明如何使用它们。
使用PyTorch进行小样本学习的图像分类
我们将从几个样本中学习的问题被称为“少样本学习 Few-Shot learning”。我们将从几个样本中学习的问题被称为“少样本学习 Few-Shot learning”。少样本学习是机器学习的一个子领域。
贝叶斯推理三种方法:MCMC 、HMC和SBI
本文将阐明为什么贝叶斯方法不仅在逻辑上是合理的,而且使用起来也很简单。这里将以三种不同的方式实现相同的推理问题。
10个机器学习中常用的距离度量方法
距离度量是有监督和无监督学习算法的基础,包括k近邻、支持向量机和k均值聚类等。
PyTorch中的多GPU训练:DistributedDataParallel
本文将介绍DistributedDataParallel,DDP 基于使用多进程而不是使用多线程的 DP,可以扩充到多机多卡的环境,所以他是分布式多GPU训练的首选。
基于深度学习的Deepfake检测综述
在过去的几年里已经进行了数百项研究,发明和优化各种使用 AI 的 Deepfake 检测,本文主要就是讨论如何对 Deepfake 进行检测
12个常用的图像数据增强技术总结
扩展用于训练模型的数据量的过程称为数据增强。通过训练具有多种数据类型的模型,我们可以获得更“泛化”的模型。
使用pandas-profiling对时间序列进行EDA
在这篇文章中,我将利用 pandas-profiling 的时间序列特性,介绍EDA中的一些关键步骤。
使用KNN进行分类和回归
一般情况下k-Nearest Neighbor (KNN)都是用来解决分类的问题,其实KNN是一种可以应用于数据分类和预测的简单算法,本文中我们将它与简单的线性回归进行比较。
比较CPU和GPU中的矩阵计算
GPU 计算与 CPU 相比能够快多少?在本文中,我将使用 Python 和 PyTorch 线性变换函数对其进行测试。
构建基于Transformer的推荐系统
使用基于BERT的模型构建基于协同过滤的推荐系统
谷歌AudioLM :通过歌曲片段生成后续的音乐
AudioLM 是 Google 的新模型,能够生成与提示风格相同的音乐。该模型还能够生成复杂的声音,例如钢琴音乐或人的对话。结果是它似乎与原版没有区别,这是十分让人惊讶的。