时间序列平滑法中边缘数据的处理技术

金融市场的时间序列数据是出了名的杂乱,并且很难处理。这也是为什么人们都对金融数学领域如此有趣的部分原因!

机器学习:基于朴素贝叶斯实现单词拼写修正器(附Python代码)

本文基于朴素贝叶斯原理实现一个有趣的应用——单词拼写修正器,并梳理一些贝叶斯公式中的细节加深理解,最后给出python代码

2022年10个用于时间序列分析的Python库推荐

去年我们整理了一些用于处理时间序列数据的Python库,现在已经是2022年了,我们看看又有什么新的推荐

Tensorflow2数据集过大,GPU内存不够

在我们平时使用tensorflow训练模型时,有时候可能因为数据集太大(比如VOC数据集等等)导致GPU内存不够导致终止,可以自制一个数据生成器来解决此问题。方法就是将数据集图片的路径保存到一个列表之中,然后使用while循环在训练时进行不断读取,,我在训练时出现了这样的问题,这是我的猜测。

使用PyG进行图神经网络的节点分类、链路预测和异常检测

在这篇文章中,我们将回顾节点分类、链接预测和异常检测的相关知识和用Pytorch Geometric代码实现这三个算法。

分类判别式模型——逻辑斯特回归曲线

本文介绍了分类的判别式模型,从以往机器学习的三大步骤引入;在寻找最优解中,比较了与线性回归梯度下降法的不同;在损失函数层面,比较了交叉熵和square error的差异;在分类模型上,比较是本专栏上文的分类生成模型。最后在多分类问题上进行了扩展,在无法解决的同或问题中引入了特征映射和神经网络的概念。

带掩码的自编码器(MAE)最新的相关论文推荐

7-9月的MAE相关的9篇论文推荐

哈工大2022机器学习实验二:逻辑回归

逻辑回归,又意译为对率回归,虽然它的名字中带“回归”,但它是一个分类模型。它的基本思想是直接估计条件概率P(Y|X)的表达式,即给定样本X=x,其属于类别Y的概率。

机器学习模型的集成方法总结:Bagging, Boosting, Stacking, Voting, Blending

集成学习是一种元方法,通过组合多个机器学习模型来产生一个优化的模型,从而提高模型的性能。集成学习可以很容易地减少过拟合,避免模型在训练时表现更好,而在测试时不能产生良好的结果。

Python中的层次聚类,详细讲解

机器学习中的层次聚类,python实现

“华为杯”第十八届中国研究生数学建模竞赛一等奖经验分享

“华为杯”第十八届中国研究生数学建模竞赛一等奖经验分享。

在gpu上运行Pandas和sklearn

Pandas和sklearn这两个是我们最常用的基本库,Rapids将Pandas和sklearn的功能完整的平移到了GPU之上

超长时间序列数据可视化的6个技巧

本文展示了6种用于绘制长时间序列数据的可视化方法,通过使用交互函数和改变视角,我可以使结果变得友好并且能够帮助我们更加关注重要的数据点。

Python实现基于机器学习的手写数字识别系统

安装好的OpenCV中有自带的分类器,但是很不幸的是自带的分类器仅有关于人脸识别方向的,如果是做人脸识别方向的研究使用该分类器将会非常方便。本章将介绍如何使用计算机视觉库OpenCV调用电脑摄像头、找到帧画面中的数字并对数字进行识别前的处理,最后调用训练好的手写数字模型将识别结果在原帧画面中显示出来

机器学习:详解半朴素贝叶斯分类AODE原理(附Python实现)

朴素贝叶斯中的属性独立性假设在实际上很难成立,因此引入半朴素贝叶斯分类器,其核心思想是:适当考虑部分属性的相互依赖。本文介绍典型的半朴素贝叶斯分类AODE原理及Python实现

生成模型VAE、GAN和基于流的模型详细对比

生成算法有很多,但属于深度生成模型类别的最流行的模型是变分自动编码器(VAE)、gan和基于流的模型。

嵌入式软件编程模式

这里讨论的编程模式主要针对没有操作系统的嵌入式软件运行环境,在这种情况下,CPU的全部算力可以分配到和应用相关的计算,不需要额外执行IO资源状态、内存清理、调度等软件操作系统的管理任务,因此运行效率和内存使用效率会更高,但付出的代价是需要手动管理任务并发、IO状态检查、资源共享等,对开发者有更高的要

《计算机视觉基础知识蓝皮书》第2篇 深度学习基础

深度学习基础知识精讲

【python-Unet】计算机视觉~舌象舌头图片分割~机器学习

舌象数据集包含舌象原图以及分割完成的二元图,共979*2张,示例图片如下:U-Net是一个优秀的语义分割模型,在中e诊中U-Net共三部分,分别是主干特征提取部分、加强特征提取部分、预测部分。利用主干特征提取部分获得5个初步有效的特征层,之后通过加强特征提取部分对上述获取到的5个有效特征层进行上采样