Swin Transformer原理详解篇

CV攻城狮入门VIT(vision transformer)之旅——近年超火的Transformer你再不了解就晚了!🍁🍁🍁CV攻城狮入门VIT(vision transformer)之旅——VIT原理详解篇🍁🍁🍁CV攻城狮入门VIT(vision transformer)之旅——VIT

超越ShuffleNet、MobileNet、MobileViT等模型的新backbone FasterNet

为了设计快速神经网络,许多工作都集中在减少浮点运算(FLOPs)的数量上。然而,作者观察到FLOPs的这种减少不一定会带来延迟的类似程度的减少。这主要源于每秒低浮点运算(FLOPS)效率低下。为了实现更快的网络,作者重新回顾了FLOPs的运算符,并证明了如此低的FLOPS主要是由于运算符的频繁内存访

扩散模型DDPM开源代码的剖析【对应公式与作者给的开源项目,diffusion model】

论文地址:https://proceedings.neurips.cc/paper/2020/hash/4c5bcfec8584af0d967f1ab10179ca4b-Abstract.html项目地址:https://github.com/hojonathanho/diffusion公式推导参考

深度学习中的卷积神经网络

2012年,AlexNet横空出世,卷积神经网络从此火遍大江南北。此后无数人开始研究,卷积神经网络终于在图像识别领域超过人类,那么卷积神经网络有什么神奇?下面我们来了解了解。

PyTorch之F.pad的使用与报错记录

这一函数用于实现对高维tensor的形状补齐操作。模式中,padding的数量不得超出原始tensor对应维度的大小。常见的错误主要是因为padding的数量超过了对应模式的要求。模式中,padding的数量必须小于对应维度的大小。对于padding并没有限制。

Anacoda/Pycharm 安装及Pytorch环境配置

Anacoda/Pycharm 安装及Pytorch环境配置

语义分割数据集:Cityscapes的使用

本文主要介绍Cityscapes在语义分割方向上的理解和使用。其中包括Cityscapes具体构建流程和使用方法。并提供了具体代码和pytorch dataset代码。

Notion AI vs ChatGPT vs New Bing 三款AI软件使用体验对比

三款AI问答软件均师出同门,全部基于OpenAI公司开发的GPT-3模型(其中Chatgpt使用的应是ChatGPT3.5版本的模型)。本篇文章从多个维度对比三款软件使用的优缺点,帮助大家了解它们的使用方式,以及应该如何更好地使用它们作为自己的辅助。

【深度学习】预训练语言模型-BERT

BERT是一种预训练语言模型(pre-trained language model, PLM),其全称是Bidirectional Encoder Representations from Transformers。

又一个开源第一!飞桨联合百舸,Stable Diffusion推理速度遥遥领先

飞桨Stable Diffusion模型能实现在单卡80G A100(SXM4)上,512*512分辨率生成图像(50 iters)推理时延0.76s,推理速度达到68.2 iters/s,显存占用4.6G,显存占用方面和速度方面均为当前业界最优效果。

2023年4月的12篇AI论文推荐

GPT-4发布仅仅三周后,就已经随处可见了。本月的论文推荐除了GPT-4以外还包括、语言模型的应用、扩散模型、计算机视觉、视频生成、推荐系统和神经辐射场。

【论文笔记】—低光图像增强—Supervised—URetinex-Net—2022-CVPR

【题目】:URetinex-Net: Retinex-based Deep Unfolding Network for Low-light Image Enhancement 提出了一种基于Retinex的 deep unfolding network (URetinex-Net),它将一个优化问题

YOLOv5源码逐行超详细注释与解读(3)——训练部分train.py

全网最详细的YOLOv5项目源码解读之训练部分train. py。全文近5万字!代码逐行注释,逐段讲解,小白入门必备!

摄像头标定--camera_calibration

用于指明标定板的内角点数量,如下图每个红圈的位置就是一个内角点,我所使用的GP290标点板有横向有11个内角点,纵向有8个内角点。当所有进度条都变成绿色后,CALIBRATE按钮由灰色变成深绿色,点击CALIBRATE,点击一下后,界面会卡住,此时不要做任何操作,直到运行标定程序的终端输出标定的结果

图解transformer | The Illustrated Transformer

写在最前边看transformer相关文章的时候发现很多人用了相同的图。直到我搜到作者的原文……于是决定翻译一下无删改的原文。翻译讲究:信、达、雅。要在保障意思准确的情况下传递作者的意图,并且尽量让文本优美。但是大家对我一个理工科少女的语言要求不要太高,本文只能保证在尽量通顺的情况下还原原文。作者博

PyTorch中的可视化工具

本文主要介绍Pytorch中的一些可视化工具

ChatGLM-6B 类似ChatGPT功能型对话大模型 部署实践

ChatGLM(alpha内测版:QAGLM)是一个初具问答和对话功能的中英双语模型,当前仅针对中文优化,多轮和逻辑能力相对有限,但其仍在持续迭代进化过程中,敬请期待模型涌现新能力。中英双语对话 GLM 模型:ChatGLM-6B,结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量

网站怎么接入chatGPT来自动写文章

将ChatGPT集成到网站中,可以让用户在网站上快速、简便地生成文章,并且可以提高用户体验。以下是一些用ChatGPT写文章接入网站的方法:使用ChatGPT API接口:OpenAI提供了GPT-3 API接口,您可以使用它来将ChatGPT集成到您的网站中。您可以使用API接口生成文章、回答问题

使用ChatGPT快速实现灰度和RGBA图片转换为RGB三通道图片的Python数据清洗demo

Imganet数据集,由于原始图片有灰度图片、彩色图片和RGBA图片,我们的要求是将灰度图片和RGBA图片通过。转换为RGB三通道图片重新保存起来。

Video Transformer | TimeSformer 理解+ 代码实战

TimeSformer(video transformer)Is Space-Time Attention All You Need for Video Understanding?

登录可以使用的更多功能哦! 登录
作者榜
...
资讯小助手

资讯同步

...
内容小助手

文章同步

...
Deephub

公众号:deephub-imba

...
奕凯

公众号:奕凯的技术栈