0


【AIGC】2、扩散模型 | 到底什么是扩散模型?

文章目录

参考论文:A Survey on Generative Diffusion Model

github:https://github.com/chq1155/A-Survey-on-Generative-Diffusion-Model

一、什么是扩散模型

1.1 现有生成模型简介

已经有大量的方法证明深度生成模型能够模拟人类的想象思维,生成人类难以分辨真伪的内容,主要方法如下:

  • VAE:比 GAN 要学习的东西更加明确,即使用 Encoder 学习数据的分布(均值和方差),使用 Decoder 基于学习到的分布训练生成器。VAE 的 Encoder 本质上就是对真实数据进行加噪,Decoder 就是在加了高斯噪声的数据上解码,相当于去掉噪声来恢复真实数据。VAE 其实结构和扩散模型很像,且有较好的理论可解释性,但 Encoder 使用很大的步长来学习数据分布并进行加噪,Decoder 也使用很大的步长来去噪,导致学习的不够细致,很粗糙。
  • Flow-based
  • GAN:用神经网络训练生成器和判别器,可解释性较差,训练时容易出现不稳定的问题
  • diffusion model:和 VAE 的结构类似,不过是前向使用很小的步长来一步步进行加噪,逆向使用很小的步长一步步的进行去噪,比 VAE 学习的更细致

在这里插入图片描述

1.2 扩散模型的理论来源

我们主要介绍扩散模型,扩散模型背后的直觉来源于物理学:

  • 在物理学中,气体分子从高浓度区域扩散到低浓度区域
  • 这与由于噪声的干扰而导致的信息丢失是相似的
  • 通过引入噪声,然后尝试去噪来生成图像,模型每次在给定一些噪声输入的情况下学习生成新图像。

1.3 扩散模型的使用场景

扩散模型可以用到哪些任务上:

  • 计算机视觉
  • 语言模型
  • 声音模型
  • AI for science

扩散模型的应用场景:

  • 图文生成
  • 视频生成
  • 分子结构生成
  • AI 绘画
  • AI 制药

1.4 扩散模型的基本结构

扩散模型的工作原理:

  • 学习由于噪声引起的信息衰减,然后使用学习到的模式来生成图像

扩散模型的结构:

  • 扩散模型定义了一个扩散步骤的马尔可夫链,慢慢地向数据中添加随机噪声,也就是熵增的过程,然后学习逆向扩散过程,从噪声中构建所需的数据样本
  • 前向扩散过程 q q q:为输入图像 x 0 x_0 x0​ 引入一系列的随机噪声,也就是对样本点分 T 步添加高斯噪声,随着噪声的引入, x 0 x_0 x0​ 最终会失去区分特性
  • 逆向恢复过程 p p p:从高斯先验出发,从有大量随机噪声的图中学习恢复原图

在这里插入图片描述

扩散模型相比 GAN 或 VAE 的缺点:

  • 速度慢:扩散模型是基于马尔科夫过程来实现的,在训练和推理的时候都需要很多步骤

在这里插入图片描述

1.5 马尔可夫过程

马尔可夫模型有两个假设:

  • 系统在 t t t 时刻的状态只与 t − 1 t-1 t−1 时刻的状态有关,也称无后效性
  • 状态转移概率与时间 t t t 无关,只与前驱和后继的状态有关,也称齐次性或时齐性

1、无后效性

具有马尔科夫性质的状态满足下面公式:

      P 
     
    
      ( 
     
     
     
       S 
      
      
      
        t 
       
      
        + 
       
      
        1 
       
      
     
    
      ∣ 
     
     
     
       S 
      
     
       t 
      
     
    
      ) 
     
    
      = 
     
    
      P 
     
    
      ( 
     
     
     
       S 
      
      
      
        t 
       
      
        + 
       
      
        1 
       
      
     
    
      ∣ 
     
     
     
       S 
      
     
       1 
      
     
    
      , 
     
    
      . 
     
    
      . 
     
    
      . 
     
    
      , 
     
     
     
       S 
      
     
       t 
      
     
    
      ) 
     
    
   
     P(S_{t+1}|S_t)=P(S_{t+1}|S_1,...,S_t) 
    
   
 P(St+1​∣St​)=P(St+1​∣S1​,...,St​)

上述公式的意义:

  • 给定当前状态 S t S_t St​,将来的状态 S t + 1 S_{t+1} St+1​ 和 t t t 时刻之前的状态 { S 1 , . . . , S t − 1 } {S_1, ..., S_{t-1} } {S1​,...,St−1​} 已经没有关系,只和当前的状态 S t S_t St​ 有关系。
  • 当前的状态 S t S_t St​ 中已经包括了历史的相关信息,所以之前的状态可以忽略

2、齐次性

对状态

     s 
    
   
  
    s 
   
  
s 和后继状态  
 
  
   
    
    
      s 
     
    
      ′ 
     
    
   
  
    s' 
   
  
s′,状态转移概率定义为:

  
   
    
     
     
       P 
      
      
      
        s 
       
       
       
         s 
        
       
         ′ 
        
       
      
     
    
      = 
     
    
      P 
     
    
      [ 
     
     
     
       S 
      
      
      
        t 
       
      
        + 
       
      
        1 
       
      
     
    
      = 
     
     
     
       s 
      
     
       ′ 
      
     
    
      ∣ 
     
     
     
       S 
      
     
       t 
      
     
    
      = 
     
    
      s 
     
    
      ] 
     
    
   
     P_{ss'}=P[S_{t+1}=s'|S_t=s] 
    
   
 Pss′​=P[St+1​=s′∣St​=s]

状态转移矩阵 P 定义了从

     s 
    
   
  
    s 
   
  
s 转移到后继状态  
 
  
   
    
    
      s 
     
    
      ′ 
     
    
   
  
    s' 
   
  
s′ 的概率:

在这里插入图片描述
其中的每行和为1:

  • 比如掷骰子游戏,当前的点数为1
  • 再一次掷骰子得到的点数的概率,即使我们不知道下一个具体点数的概率,但是我们知道下一个点数是1,2,3,4,5,6中的某一点,那么就会有:在这里插入图片描述

马尔可夫过程:

马尔科夫过程一个无记忆的随机过程,是一些具有马尔科夫性质的随机状态序列构成,可以用一个元组 <S,P> 表示:

  • S 是有限数量的状态集合
  • P 是状态转移概率矩阵, P s s ′ = P [ S t + 1 = s ′ ∣ S t = s ] P_{ss'}=P[S_{t+1}=s'|S_t=s] Pss′​=P[St+1​=s′∣St​=s]

二、扩散模型相关定义

2.1 符号和定义

1、State:状态

State 是能够描述整个扩散模型过程的一系列数据:

  • 初始状态:starting state x 0 x_0 x0​
  • prior state:离散时为 x T x_T xT​,连续时为 x 1 x_1 x1​
  • 中间状态:intermediate state x t x_t xt​

2、Process 和 Transition Kernel

  • Forward/Diffusion 过程 F F F:将初始状态转换到有噪声的状态
  • Reverse/Denoised 过程 R R R:和前向过程方向相反,从有噪声的图像中逐步复原原图的过程
  • Transition Kernel:在上面的两个过程中,每两个 state 的变换都是通过 transition kernel 来实现的,

前向和逆向的过程如下所示:

在这里插入图片描述

对于非离散情况,任何时间

     0 
    
   
     < 
    
   
     = 
    
   
     t 
    
   
     < 
    
   
     s 
    
   
     < 
    
   
     1 
    
   
  
    0<=t<s<1 
   
  
0<=t<s<1 的前向过程如下:

在这里插入图片描述

  •                                                F                               t                                            F_t                     Ft​ 和                                                    R                               t                                            R_t                     Rt​ 分别是                                         t                                  t                     t 时刻从状态                                                    x                                           t                                  −                                  1                                                       x_{t-1}                     xt−1​ 转换成状态                                                    x                               t                                            x_t                     xt​ 的前向 transition kernel 和逆向 transition kernel
    
  •                                                σ                               t                                            \sigma_t                     σt​ 是噪声尺度
    
  • 最常用的 transition kernel 是 Markov kernel,因为其具有较好的任意性和可控性

3、Pipeline:

假设定义 sampled data 为

       x 
      
     
       ~ 
      
     
    
      0 
     
    
   
  
    \widetilde{x}_0 
   
  
x0​,则整个过程可以描述如下:

在这里插入图片描述

4、离散和连续过程

与离散过程相比,连续过程能够从任何时间状态中提取任何信息

如果扰动核的变化足够小,则连续过程有更好的理论支撑

5、训练目标

扩散模型是生成模型的一个子类,和 VAE 的目标函数类似,目标是让初始分布

      x 
     
    
      0 
     
    
   
  
    x_0 
   
  
x0​ 和采样分布  
 
  
   
    
     
     
       x 
      
     
       ~ 
      
     
    
      0 
     
    
   
  
    \widetilde{x}_0 
   
  
x0​ 尽可能的接近。

通过最大化如下 log-likelihood 公式来实现,其中

      σ 
     
    
      ~ 
     
    
   
  
    \widetilde{\sigma} 
   
  
σ 在前向和逆向过程中是不同的:

在这里插入图片描述

2.2 问题规范化

1、Denoised Diffusion Probabilistic Model(DDPM):去噪扩散概率模型

NIPS 2021 的论文 ‘Denoising diffusion probabilistic models’ 中对扩散概率模型进行了改进,提出了 DDPM:

  • 使用固定的方差回归均值
  • 用和噪声表示,通过均值预测网络重参数化,将关于均值的差改写为噪声预测网络与噪声的差,将目标函数改写为噪声预测的方式
  • 对高斯噪声进行回归预测
  • 对扩散模型的架构也进行了相应的改进,使用 U-Net 形式的架构,引入了跳跃连接,更适合于像素级别的预测任务

DDPM Forward Process:

  • DDPM 使用一系列的噪声系数 β 1 \beta_1 β1​、 β 2 \beta_2 β2​ … β T \beta_T βT​ 作为不同时刻的 Markov trasition kernel。
  • 一般都使用常数、线性规则、cosine 规则 来选择噪声系数,而且 [68] 中也证明了不同的噪声系数在实验中也没有明显的影响
  • DDPM 的前向过程定义如下:在这里插入图片描述
  • 根据从 x 0 x_0 x0​ 到 x T x_T xT​ 的扩散步骤, Forward Diffusion Process 如下:在这里插入图片描述

DDPM Reverse Process:

  • 逆向过程使用可学习的 Gaussian trasition 参数 θ \theta θ 来定义如下:在这里插入图片描述
  • 逐步从 x T x_T xT​ 复原到 x 0 x_0 x0​ 的过程如下,假设过程为 p ( x T ) = N ( x T ; 0 , I ) p(x_T) = N(x_T;\ 0, I) p(xT​)=N(xT​; 0,I):在这里插入图片描述
  • 所以, p θ ( x 0 ) = ∫ p θ ( x 0 : T ) d x 1 : T p_{\theta}(x_0)=\int p_{\theta}(x_{0:T})dx_{1:T} pθ​(x0​)=∫pθ​(x0:T​)dx1:T​ 的分布就是 x ~ 0 \widetilde{x}_0 x0​ 的分布

Diffusion Training Objective:为了最小化 negative log-likelihood (NLL),则最小化问题转换为:

在这里插入图片描述

  •                                                L                               T                                            L_T                     LT​:prior loss
    
  •                                                L                               0                                            L_0                     L0​:reconstruction loss
    
  •                                                L                                           1                                  :                                  T                                  −                                  1                                                       L_{1:T-1}                     L1:T−1​:consistent loss
    

下图是 PPDM 的 pipeline:

在这里插入图片描述

2、Score Matching Formulation

score matching 模型是为了解决原始数据分布的估计问题,通过近似数据的梯度

      ∇ 
     
    
      x 
     
    
   
     l 
    
   
     o 
    
   
     g 
    
   
     p 
    
   
     ( 
    
   
     x 
    
   
     ) 
    
   
  
    \nabla_xlogp(x) 
   
  
∇x​logp(x) 来实现,这也称为 score。

两个相邻状态的 transition kernel 为:

在这里插入图片描述

Score matching 过程:

score matching 的核心是训练一个得分估计网络

      s 
     
    
      θ 
     
    
   
     ( 
    
   
     x 
    
   
     , 
    
   
     σ 
    
   
     ) 
    
   
  
    s_{\theta}(x, \sigma) 
   
  
sθ​(x,σ) 来预测得分。

在这里插入图片描述

DSM:

在这里插入图片描述

在这里插入图片描述

三、可以提升的点

尽管扩散模型目前取得了很好的生成效果,到其逐步去噪的过程涉及非常多的迭代步骤,故此扩散模型的加速是很重要的研究课题。

在这里插入图片描述


本文转载自: https://blog.csdn.net/jiaoyangwm/article/details/129439761
版权归原作者 呆呆的猫 所有, 如有侵权,请联系我们删除。

“【AIGC】2、扩散模型 | 到底什么是扩散模型?”的评论:

还没有评论