Stable Diffusion的入门介绍和使用教程

Stable Diffusion是一个文本到图像的潜在扩散模型,本文将介绍如何使用Stable Diffusion以及它具体工作的原理

TwoModalBERT进行角色分类

魔改模型,不一定有用,但很好玩

群体智能优化算法

群体智能优化算法群体智能(SI)源于对以蚂蚁、蜜蜂等为代表的社会性昆虫的群体行为的研究,群居性生物通过协作表现出的宏观智能行为特征。群体智能算法有粒子群优化算法(PSO)、蚁群优化算法(ACO)、人工蜂群优化算法(ABC)、差分进化算法(DE)、引力搜索算法(GSA)、萤火虫算法(FA)、蝙蝠算法(

学习Transformer:自注意力与多头自注意力的原理及实现

自从Transformer[3]模型在NLP领域问世后,基于Transformer的深度学习模型性能逐渐在NLP和CV领域(Vision Transformer)取得了令人惊叹的提升。本文的主要目的是介绍经典Transformer模型和Vision Transformer的技术细节及基本原理,以方便

pytorch训练模型时出现nan原因整合

常见原因-1一般来说,出现NaN有以下几种情况:相信很多人都遇到过训练一个deep model的过程中,loss突然变成了NaN。在这里对这个问题做一个总结:1.如果在迭代的100轮以内,出现NaN,一般情况下的原因是因为你的学习率过高,需要降低学习率。可以不断降低学习率直至不出现NaN为止,一般来

机器学习深度神经网络——实验报告

机器学习实验报告6:深度神经网络

YOLO V5源码详解

首先读取图片以及标签路径,并将标签存入缓存,对单标签情况、特定类别、以及是否保持长方形等情况分别进行处理。如果需要进行mosaic 数据增强,首先找到中心点,将图片分别放置于四个位置,进行裁剪或者拼接以适应,并对labels进行调整。同时,对进行过mosaic数据增强过的图像,再进行copy_pas

BertTokenizer 使用方法

BertTokenizer 使用方法,BertTokenizer 函数详解,tokenizer使用方法

Transformer框架时间序列模型Informer内容与代码解读

Transformer框架时间序列模型Informer内容与代码解读。详细介绍概括了顶会论文AAAI‘21 Best Paper的核心内容。

注意力机制详解

注意力机制

DDPM代码详细解读(1):数据集准备、超参数设置、loss设计、关键参数计算

Diffusion Models专栏文章汇总:入门与实战前言:大部分DDPM相关的论文代码都是基于《Denoising Diffusion Probabilistic Models》和《Diffusion Models Beat GANs on Image Synthesis》贡献代码基础上小改动的

拉格朗日乘子法

是一种寻找多元函数在一组约束下的极值的方法。通过引入拉格朗日乘子,可将有 ddd 个变量与 kkk 个约束条件的最优化问题转化为具有 d+kd + kd+k 个变量的无约束优化问题求解。假如有方程 x2y=3x^2y=3x2y=3,它的图像如下(左一)所示。现在我们想求其上点与原点的最短距离(中图)

局部规划算法:DWA算法原理

DWA算法(dynamicwindowapproach)是移动机器人在运动模型下推算(v,w)对应的轨迹,确定速度采样空间或者说是动态窗口(三种限制);在速度空间(v,w)中采样多组速度,并模拟这些速度在一定时间内的运动轨迹,通过一个评价函数对这些轨迹打分,选取最优的轨迹来驱动机器人运动。...

Vision Transformer 论文 + 详解( ViT )

Vision Transformer 论文 + 详解

超详细!手把手带你轻松用 MMSegmentation 跑语义分割数据集

本文主要讲解了数据集相关的内容,包括目前学术界主流的语义分割数据集在 MMSegmentation中的实现,以及如何用 MMSegmentation 跑自己的数据集。希望可以帮助大家快速上手使用 MMSegmentation 代码库进行实验。.........

Apollo Planning决策规划算法代码详解 (22):决策规划算法最完整介绍

前言:后台已经写完了Apollo Planning决策规划算法的完整解析,一路从规划模块的入口OnLanePlanning,介绍到常见的规划器PublicRoadPlanner;接着介绍了在PublicRoadPlanner中如何通过类似有限状态机的ScenarioDispatch进行场景决策。之后

AI上推荐 之 多任务loss优化(自适应权重篇)

1. 写在前面在多任务学习中,往往会将多个相关的任务放在一起来学习。例如在推荐系统中,排序模型同时预估候选的点击率和浏览时间。相对于单任务学习,多任务学习有以下优势:多个任务共享一个模型,占用内存量减少;多个任务一次前向计算得出结果,推理速度增加;关联任务通过共享信息,相互补充,可以提升彼此的表现。

深度强化学习-DQN算法原理与代码

DQN算法是DeepMind团队提出的一种深度强化学习算法,在许多电动游戏中达到人类玩家甚至超越人类玩家的水准,本文就带领大家了解一下这个算法,论文的链接见下方。论文:https://www.nature.com/articles/nature14236.pdf代码:后续会将代码上传到Github上

【魔改YOLOv5-6.x(4)】结合EIoU、Alpha-IoU损失函数

文章目录前言EIoU论文简介加入YOLOv5Alpha-IoU论文简介加入YOLOv5References前言本文使用的YOLOv5版本为v6.1,对YOLOv5-6.x网络结构还不熟悉的同学,可以移步至:【YOLOv5-6.x】网络模型&源码解析想要尝试改进YOLOv5-6.1的同学,可以

经典CNN设计演变的关键总结:从VGGNet到EfficientNet

卷积神经网络设计史上的主要里程碑:模块化、多路径、因式分解、压缩、可扩展