论文推荐:谷歌Masked Generative Transformers 以更高的效率实现文本到图像的 SOTA

在23年1月新发布的论文 Muse中:Masked Generative Transformers 生成文本到图像利用掩码图像建模方法来达到了最先进的性能,零样本 COCO 评估的 FID 分数为 7.88,CLIP 分数为 0.32——同时明显快于扩散或传统自回归模型。

2022年深度学习在时间序列预测和分类中的研究进展综述

2022年时间序列预测中transformers衰落和时间序列嵌入方法的兴起,还有异常检测、分类也取得了进步,本文将尝试介绍一些在过去一年左右的时间里出现的更有前景和关键的论文

联邦学习 (FL) 中常见的3种模型聚合方法的 Tensorflow 示例

联合学习 (FL) 是一种出色的 ML 方法,它使多个设备(例如物联网 (IoT) 设备)或计算机能够在模型训练完成时进行协作,而无需共享它们的数据。

Diffusion 和Stable Diffusion的数学和工作原理详细解释

扩散模型的兴起可以被视为人工智能生成艺术领域最近取得突破的主要因素。而稳定扩散模型的发展使得我们可以通过一个文本提示轻松地创建美妙的艺术插图。所以在本文中,我将解释它们是如何工作的。

TensorFlow和PyTorch的实际应用比较

TensorFlow和PyTorch是两个最受欢迎的开源深度学习框架,本文与其他文章的特性的对比不同,我们将以实际应用出发,从性能、可伸缩性和其他高级特性方面比较TensorFlow和PyTorch。

9个时间序列交叉验证方法的介绍和对比

在本文中,我们收集了时间序列的常用的9种交叉验证方法。这些包括样本外验证(holdout)或流行的K-fold交叉验证的几个扩展。

使用Flask快速部署PyTorch模型

今天我将通过一个简单的案例:部署一个PyTorch图像分类模型,介绍如何启动和运行我们的模型

28个数据可视化图表的总结和介绍

在这篇文章中,我们将整理我们能看到的所有数据可视化图表。如果你是数据科学初学者,那么本文将是最适合你的。

从视频到音频:使用VIT进行音频分类

在本文中,我们将利用ViT - Vision Transformer的是一个Pytorch实现在音频分类数据集GTZAN数据集-音乐类型分类上训练它。

Python中的时间序列数据操作总结

在本文中,我们介绍时间序列数据的索引和切片、重新采样和滚动窗口计算以及其他有用的常见操作,这些都是使用Pandas操作时间序列数据的关键技术。

常见的降维技术比较:能否在不丢失信息的情况下降低数据维度

本文将比较各种降维技术在机器学习任务中对表格数据的有效性。

2022年最有开创性的10篇AI论文总结

本文我们总结了在2022年发表的最具开创性的10篇论文,无论如何你都应该看看。

PyTorch 2.0 推理速度测试:与 TensorRT 、ONNX Runtime 进行对比

PyTorch 2.0 于 2022 年 12 月上旬在 NeurIPS 2022 上发布,它新增的 torch.compile 组件引起了广泛关注,因为该组件声称比 PyTorch 的先前版本带来更大的计算速度提升。

使用CLIP构建视频搜索引擎

使用CLIP构建视频搜索引擎

Pandas处理大数据的性能优化技巧

Pandas是Python中最著名的数据分析工具。本文将介绍一些使用Pandas处理大数据时的技巧,希望对你有所帮助

降维和特征选择的对比介绍

在machine learning中,特征降维和特征选择是两个常见的概念,在应用machine learning来解决问题的论文中经常会出现。特征降维和特征选择的目的都是使数据的维数降低,使数据维度降小。但实际上两者的区别是很大,他们的本质是完全不同的。

为深度学习选择最好的GPU

加快训练速度,更快的迭代模型

PyTorch的Dataset 和TorchData API的比较

从版本1.11开始,PyTorch引入了TorchData库,它实现了一种不同的加载数据集的方法。

如何检测时间序列中的异方差(Heteroskedasticity)

异方差性影响时间序列建模。因此检测和处理这种情况非常重要。

论文推荐:CCNet用于语义分割的交叉注意力

CCNet, Transformer递归交叉自注意力,比非局部神经网络更有效。华中科技大学、地平线、ReLER 和伊利诺伊大学香槟分校联合研发

个人信息

加入时间:2020-01-23

最后活动:21 小时前

发帖数:1801

回复数:1