【AIGC】2、扩散模型 | 到底什么是扩散模型?

本文简单介绍扩散模型

知识图谱入门:使用Python创建知识图,分析并训练嵌入模型

本文中我们将解释如何构建KG、分析它以及创建嵌入模型。

点到直线垂足坐标的计算

假设空间某点O的坐标为(Xo, Yo, Zo),空间某条直线上两点A和B的坐标为:(X1, Y1, Z1),(X2, Y2, Z2),设点O在直线AB上的垂足为点N,坐标为(Xn, Yn, Zn)。由向量垂直关系,两个向量如果垂直,那么两个向量的点积(点乘,向量积)则为0,可得出。把(4)式代入(3

Google开源了可视化编程框架Visual Blocks for ML

Visual Blocks for ML是一个由Google开发的开源可视化编程框架。它使你能够在易于使用的无代码图形编辑器中创建ML管道。

Hugging Face中的Accelerate:让训练速度飞起来

Hugging Face是人工智能领域中一个非常受欢迎的开源工具库,提供了许多方便的自然语言处理和深度学习模型,如BERT、GPT-3等。其中,Accelerate是Hugging Face中非常有用的一个工具,它可以大幅提高模型的训练速度。本文将详细介绍Accelerate的原理、用法以及代码实现

MoveNet流程解析

第三步:根据粗略的关键点信息,构造一个以这个关键点坐标为中心生成一个权重矩阵,直接以等差数列0-47(47的原因是当关键点信息在边界时能够覆盖整个特征图(48*28)),中心点最小为0,往外依次递增的权重系数矩阵。原因:如果Heatmap中这个关键点与粗略关键点最靠近,说明这个关键点就属于最靠近图像

切比雪夫(Chebyshev)不等式

标准化设随机变量x具有数学期望E(x)=μE(x) = \muE(x)=μ,方差D(x)=σ2D(x) = \sigma^{2}D(x)=σ2。记X∗=X−μσX^{* } =\frac{X-\mu }{\sigma }X∗=σX−μ​, 则X*的期望和方差为:E(X∗)=1σE(X−μ)=1σ[E

马修斯相关系数MCC简介

在评估机器学习模型的性能时,F1score都被首选指标。在本文中,我们将介绍一个值得更多关注和认可的替代度量:马修斯相关系数(MCC)。

10、CLASSIFIER-FREE DIFFUSION GUIDANCE

CLASSIFIER-FREE DIFFUSION GUIDANCE

遗传算法(GA)优化的BP神经网络实现回归预测——附代码

遗传算法(GeneticAlgorithm,GA)的理论是根据达尔文进化论而设计出来的算法,大体意思是生物是朝着好的方向进化的,在进化的过程中会自动选择优良基因淘汰劣等基因。但是需要说明的是这种随机化操作选择操作方法和传统的随机搜索方法是不同的,GA进行的是高效有向的搜索而一般的随机搜索每次操作都是

多目标粒子群算法求解帕累托前沿Pareto,Pareto的原理,测试函数100种求解之21

在目标优化过程种,很多时候都两个或者多个目标,并且目标函数不能同时达到最优,鱼与熊掌不可兼得,这个时候可以通过求解帕累托前沿,来寻找支配解集,本文通过MOPSO多目标粒子群算法秋季帕累托前沿

ChatGPT基础知识系列之Prompt

先在大规模语料上进行预训练,然后再在某个下游任务上进行微调,如BERT、T5;:先选择某个通用的大规模预训练模型,然后为具体的任务生成一个prompt模板以适应大模型进行微调,如GPT-3;:仍然在预训练语言模型的基础上,先在多个已知任务上进行微调(通过自然语言的形式),然后再推理某个新任务上进行z

皮尔逊相关系数及假设检验

(1)显著水平,就是P值,这是首要的,因为如果不显著,相关系数再高也没用,可能只是因为偶然因素引起的,那么多少才算显著,一般p值小于0.05就是显著了;例如p值=0.001,就是很高的显著水平了,只要显著,就可以下结论说:拒绝原假设无关,两组数据显著相关也说两者间确实有明显关系.通常需要p值小于0.

概率论与数理统计(3)--指数分布函数及其期望、方差

指数分布函数及其性质整理

真实免费易用!推荐一款AI文本转语音工具:一点红语音合成

推荐一款体积小,免安装,易用,而且免费无广告的文本转语音软件

YOLOV5改进:顶刊TIP 2023 | CFP:即插即用的多尺度融合模块,有效涨点!

的物体检测方法,本文方法基于全局显式的中心特征调节。与现有的方法不同,本文方法不仅关注不同层之间的特征交互,还考虑了同一层内的特征调节,该调节在密集预测任务中被证明是有益的。则依赖于自下而上的特征金字塔结构,通过建立自上而下的路径和横向连接从多尺度高级语义特征图中获取特征信息。提出了一种额外的自下而

【机器学习】XGBoost

XGBoost(eXtreme Gradient Boosting)极度梯度提升树,属于集成学习中的boosting框架算法。对于提升树,简单说就是一个模型表现不好,继续按照原来模型表现不好的那部分训练第二个模型,依次类推。本质思想与GBDT一致,构建多个基学习器使用加法模型,学习前面基学习器的结果

使用Pandas进行数据清理的入门示例

数据清理是数据分析过程中的关键步骤,它涉及识别缺失值、重复行、异常值和不正确的数据类型。获得干净可靠的数据对于准确的分析和建模非常重要。

深度学习论文精读[13]:Deeplab v3+

Deeplab v3+是Deeplab系列最后一个网络结构,也是基于空洞卷积和多尺度系列模型的集大成者。相较于Deeplab v3,v3+版本参考了UNet系列网络,对基于空洞卷积的Deeplab网络引入了编解码结构,一定程度上来讲,Deeplab v3+是编解码和多尺度这两大系列网络的一个大融合,

排序之损失函数List-wise loss(系列3)

在pointwise 中,我们将每一个 作为一个训练样本来训练一个分类模型。这种方法没有考虑文档之间的顺序关系;而在pariwise 方法中考虑了同一个query 下的任意两个文档的相关性,但同样有上面已经讲过的缺点;在listwise 中,我们将一个 作为一个样本来训练。论文中还提出了概率分布的方