【深度学习】详解 ViLT
【深度学习】详解 ViLT: Vision-and-Language Transformer Without Convolution or Region Supervision
[AI医学] 医学领域几个微调&预训练大模型的项目
一是对海量领域数据继续进行生成式语言模型预训练(continue pretrain);二是在通用大模型的基础上引入领域数据进行指令微调训练(通用大模型底座+领域数据指令微调);生成式语言模型继续预训练对数据量和计算资源的要求较高,目前大部分项目的工作多是集中在对通用模型进行领域数据指令微调训练。在指
YOLOv5在验证集上进行测试
YOLOv5的作者在2021年7月14日已经将test.py更名为val.py,以及使用test.py在验证集进行测试
Make-A-Video(造啊视频)——无需文字-视频数据的文字转视频(文生视频)生成方法
Make-A-Video 是迄今为止最先进的文生视频方法,本文详细介绍了其实现原理,并提供了公开的训练数据集供读者参考。
【人工智能】定义详解,研究价值,发展阶段,发展阶段,指纹识别的详细讲解
【人工智能】定义详解,研究价值,发展阶段,发展阶段,指纹识别的详细讲解
时间序列的季节性:3种模式及8种建模方法
分析和处理季节性是时间序列分析中的一个关键工作,在本文中我们将描述三种类型的季节性以及常见的8种建模方法。
人工智能-神经网络
n)取值0或1,分别表示该神经元的抑制和兴奋,每个神经元的状态都受其他神经元的制约,单个的感知器(也叫单感知机)就构成了一个简单的模型(MP模型),但在现实世界中,实际的决策模型则要复杂得多,往往是由多个感知器组成的多层网络,如下图所示,这也是经典的神经网络模型(也叫多感知机,也叫人工神经网络),由
cudnn 安装
windows cudnn安装步骤
在自定义数据集上微调Alpaca和LLaMA
本文将介绍使用LoRa在本地机器上微调Alpaca和LLaMA
with torch.no_grad() 详解
在使用pytorch时,并不是所有的操作都需要进行计算图的生成,只是想要网络结果的话就不需要后向传播 ,如果你想通过网络输出的结果去进一步优化网络的话 就需要后向传播了。不使用with torch.no_grad():此时有grad_fn=属性,表示,计算的结果在一计算图当中,可以进行梯度反传等操作
自监督ViT:DINO-v1和DINO-v2
基于ViT(Vision Transformer)自监督在最近几年取得了很大进步,目前在无监督分类任务下已经超过了之前的一些经典模型,同时在检测分割等基础任务领域也展现出了强大的泛化能力。这篇文章将主要基于DINO系列自监督算法介绍它们的算法原理,方便 大家快速了解相关算法。
Pytorch激活函数最全汇总
为了更清晰地学习Pytorch中的激活函数,并对比它们之间的不同,这里对最新版本的Pytorch中的激活函数进行了汇总,主要介绍激活函数的公式、图像以及使用方法,具体细节可查看官方文档。
长时间序列模型DLinear(代码解析)
长时间序列模型SOTA,Dlinear模型代码解析
Vision Transformer 模型详解
关于Vision Transformer模型的详解 ,末尾附原论文下载链接以及pytorch代码。
RTX 4090深度学习性能实测奉上!模型训练可提升60~80%
新一代RTX 4090显卡性能相比上一代RTX 30系列有了巨大提升,最高接近80%,涡轮版RTX 4090显卡尺寸与30系列涡轮版对比变化不大,依旧与超微8卡GPU平台适配,搭配后可以提供强大的整机计算性能。
【深度学习】——Informer模型
Informer模型是一种用于时间序列预测的深度学习模型,由中国科学院自动化研究所的研究团队提出。与传统的RNN、LSTM、GRU等模型不同,Informer模型采用了一种新的注意力机制,能够很好地处理长期依赖和序列中的缺失值。
配置文件、权重文件、YOLOV5
配置文件(也称为模型定义文件或模型结构文件)包含了模型的结构信息,如层的类型、数量、参数等;即YOLOV5的框架。
WGAN-gp模型——pytorch实现
【代码】WGAN-gp模型——pytorch实现。
深入浅出TensorFlow2函数——tf.rank
tf.rank(input, name=None)
七、训练模型,CPU经常100%,但是GPU使用率才5%左右
具体原因分析参见。