GANs系列:CGAN(条件GAN)原理简介以及项目代码实现

cGAN的中心思想是希望 可以控制 GAN 生成的图片,而不 是单纯的随机生成图片。 具体来说,Conditional GAN 在生成器和判别器的输入中 增加了额外的 条件信息,生成器生成的图片只有足够真实 且与条件相符,才能够通过判别器。

【机器学习】有监督、无监督、自监督、半监督、弱监督的区别

自监督数据监督来源于数据本身,其实就是自己生成一些简单的标签,然后去学习,理论上网络就学习到了图像的一些特征信息,然后再在这个模型的基础上添加其他任务。相对于分割的标签来说,分类的标签就是弱标签。

【深度学习】特征融合的重要方法 | 张量的拼接 | torch.cat()函数 | torch.add(函数

【深度学习】特征融合的重要方法 | 张量的拼接 | torch.cat()函数 | torch.add(函数

目标检测算法——安全帽识别数据集(附下载链接)

🎄🎄近期,小海带在空闲之余收集整理了一批安全帽识别数据集供大家参考。整理不易,小伙伴们记得一键三连喔!!!🎈🎈

RTX4070ti-40系列显卡配置pytorch深度学习环境过程

这几天新配的4070需要安装深度学习环境,开始为了图简便把之前显卡的环境复制过来,结果有各种小问题,什么环境无法导入pytorch,显卡算力和torch的算力不匹配等小问题,导致两天才弄好,下面说下成功安装过程。这里有个问题是官方的下载比较慢,也不建议用镜像原,我第一次用镜像下的就是cpu版本的to

LORA: LOW-RANK ADAPTATION OF LARGE LAN-GUAGE MODELS

给定一个自回归语言模型 PΦ(y|x),比如可以是基于通用多任务训练的 GPT 模型,需要将这个模型在下游任务上进行 finetune,比如机器阅读理解 (MRC) 和自然语言转换为 SQL (NL2SQL) 这两个任务上,这些任务的数据通常是上下文与目标对:Z = {(xi, yi)}i=1,…,

Nvidia核心技术和用于AI训练的高端工业级显卡

这是 Nvidia 的最新数据中心 GPU,具有高达 80 GB 的显存、6912 个 CUDA 核心和 432 个 Tensor 核心,适用于最大规模的 AI 模型训练和推断。: 这是一款最强大的消费级 GPU,具有高达 72 GB 的显存、4608 个 CUDA 核心和 576 个 Tensor

Meta AI最新出品,全能的分割模型SAM:掀桌子的Segment Anything,CV届的ChatGPT已经到来!

2023年4月5号,Meta AI 发布了通用的分割网络SAM。原文题目只有两个词《Segment Anything》。SAM有望成为,或是已经成为CV领域的ChatGPT。

【pytorch】深度学习所需算力估算:flops及模型参数量

因为8GB显卡的实际可用显存约为7500MB左右,可以满足模型在最大推理batchsize下的显存需求,同时还有一定的余量,可以保证模型能够正常运行。在部署时,需要考虑芯片的显存,是因为显存的大小限制了模型的最大批次大小。如果模型的批次大小超过了显存的大小,那么就无法将整个批次的数据同时加载到显存中

PaddleNLP教程文档

核心API::数据集快速加载接口,通过传入数据集读取脚本的名称和其他参数调用子类的相关方法加载数据集。: DatasetBuilder 是一个基类,所有的内置数据集都继承自该类,该类的主要功能是下载和读取数据集文件并生成Dataset。贡献者可以通过重写和_read()等方法向社区贡献数据集:Pad

【多模态】CLIP模型

Title: Learning transferable visual models from natural language supervision作者:Alec Radford * 1 Jong Wook Kim * 1 Chris Hallacy 1 Aditya Ramesh 1 Gabr

YoloV8改进策略:InternImage与YoloV8深度融合,动态卷积DCNv3大显神威

他来了!他来了!他带着氩弧焊的光芒过来了!作为CV的大模型,InternImage的光芒太强了。分类任务检测任务分割任务“书生2.5”可根据文本内容需求快速定位检索出语义最相关的图像。这一能力既可应用于视频和图像集合,也可进一步结合物体检测框,具有丰富的应用模式,帮助用户更便捷、快速地找到所需图像资

【深度学习】图像超分实验:SRCNN/FSRCNN

输入大小为h×w的图像X,输出为一个sh×sw的图像 Y,s为放大倍数。本次实验采用的是 BSDS500 数据集,其中训练集包含 200 张图像,验证集包含 100 张图像,测试集包含 200 张图像。数据集来源:https://download.csdn.net/download/weixin_4

Adam优化器

简单来说,Adam是带动量的梯度下降算法和RMSProp算法的结合。对梯度的一阶矩估计(First Moment Estimation,即梯度的均值)和二阶矩估计(Second Moment Estimation,即梯度的未中心化的方差)进行综合考虑,计算出更新步长。均方根传播(RMSProp)也维

VLAD Diffusion,一个更好用且易于安装的Stable Diffusion Web UI

VLAD Diffusion 是我们前面介绍过的 AUTOMATIC1111/stable-diffusion-webui的一个定制的更新,它主要是为了更频繁发布的更新和错误修复。

使用Pytorch进行多卡训练

  当一块GPU不够用时,我们就需要使用多卡进行并行训练。其中多卡并行可分为数据并行和模型并行。具体区别如下图所示:  由于模型并行比较少用,这里只对数据并行进行记录。对于pytorch,有两种方式可以进行数据并行:数据并行(DataParallel, DP)和分布式数据并行(Distributed

Torch 模型 onnx 文件的导出和调用

OpenNeuralNetworkExchange(ONNX,开放神经网络交换)格式,是一个用于表示深度学习模型的标准,可使模型在不同框架之间进行转移Torch所定义的模型为动态图,其前向传播是由类方法定义和实现的但是Python代码的效率是比较底下的,试想把动态图转化为静态图,模型的推理速度应当有

SORT与DeepSORT简介

DeepSORT作为一个成熟多目标跟踪算法在很多应用中得到使用。本文对多目标跟踪算法SORT与DeepSORT做简要介绍。

CVPR 2023 | 旷视研究院入选论文亮点解读

近日,CVPR 2023 论文接收结果出炉。近年来,CVPR 的投稿数量持续增加,今年收到有效投稿 9155 篇,和 CVPR 2022 相比增加 12%,创历史新高。最终,大会收录论文 2360 篇,接收率为 25.78 %。本次,旷视研究院有 13 篇论文入选,涵盖3D 目标检测、多目标跟踪、模

Transformer简介

transformer模型简介,包括编码器(encoder)、解码器(decoder)、训练以及模型训练中的tips。