如何判断训练中的模型已经收敛
3.模型收敛:train loss 下降趋于稳定,val loss 下降也趋于稳定,且train loss 的值与val loss 的值相差不大。5.train loss上升,val loss上升:网络结构设计有问题,或者训练参数设置不当等,及时停止学习,调整代码。4.train loss稳定,va
如何彻底卸载anaconda3(win10)
anaconda安装容易出现错误,如果需要重新安装一定要讲之前的彻底删除干净,按照文中的三个步骤来操作就可以
Anaconda搭建深度学习虚拟环境:cuda+cudnn+pytorch+torchvision(并验证)
小白一看就会,容易上手,在Anaconda中搭建全套的深度学习虚拟环境:cuda+cudnn+pytorch+torchvision,并包含各类包是否安装成功的验证结果。
torch.load() 、torch.load_state_dict() 详解
torch.load() 、torch.load_state_dict() 详解
全局平均池化/全局最大池化Pytorch实现:
全局池化与普通池化的区别在于“局部区域”和“全局”:普通池化根据滑动窗口以及步长以逐步计算局部区域的方式进行;而全局池化是分别对每个通道的所有元素进行计算,谓之全局池化。大大降低计算的参数量;没有需要学习的参数,可以更好的避免过拟合;更能体现输入的全局信息;拿一个简单的网络验证参数量下降(此处只计算
A Time Series is Worth 64 Words(PatchTST模型)论文解读
论文A Time Series is Worth 64 Words:Long-Time Forecasting With Tranformer解读,最新时间序列预测SOTA模型PatchTST
【异构知识蒸馏:IVIF】
仅供自己参考
大模型时代的“Linux”生态,开启人工智能新十年
演讲 | 林咏华 智源人工智能研究院副院长 整理 | 何苗出品 | CSDN(ID:CSDNnews)2018 年以来,超大规模预训练模型的出现推动了 AI 科研范式从面向特定应用场景、训练专有模型,转变为大模型+微调+模型服务的AI工业化开发模式。直至对话大模型 ChatGPT 引发全球广泛关注,
【周末闲谈】AI的旅途
忙碌的一周终于快要过去了,本周就让我们来谈谈AI这个热点话题吧😉(ps:但愿下个星期会更加轻松)AI无论在那个时代都是人们津津乐道的话题,人们即担心其的发展终有一天会取代人类,又好奇它能够成长到何种地步,今天就让我们来谈谈AI的发展史吧。
pytorch深度学习一机多显卡训练设置,流程
pytorch深度学习一机多显卡训练设置,流程
pytorch如何搭建一个最简单的模型,
在 PyTorch 中,可以使用torch.nn模块来搭建深度学习模型。具体步骤如下:定义一个继承自的类,这个类将作为我们自己定义的模型。在类的构造函数__init__()中定义网络的各个层和参数。可以使用torch.nn模块中的各种层,如Conv2dLinear等。在类中定义前向传播函数forwa
MobileNet网络详解
Mobile net
Transformer13~目标检测算法汇总
都到了13了 ~~ 还是基于这个的么办法 自从VIT横空出世以来,Transformer在CV界掀起了一场革新,各个上下游任务都得到了长足的进步,然后盘点一下基于Transformer的端到端目标检测算法!进行了深入的消融研究,以验证DINO中不同设计选择的有效性。因此,DINO通过ResNet-5
【ROS】VSCODE + ROS 配置方法(保姆级教程,总结了多篇)
vscode + ros 配置方法(正在更新……)最近开始学习ROS,但是官方给的教程都是在终端命令行下实现的,如果想要编写代码我使用的是vscode进行编写。首先vscode它不是一个IDE,vscode只提供编辑的环境而不提供编译的环境,如果想要用vscode来集成开发环境,就必须安装必须的编译
Cursor!!!GPT-4帮我写代码
目前为止应该是第一个免费能够使用GPT4工作的软件,看作者的Twitter,他说自己提前向OpenAI要到了GPT4的API,然后在这么短的时间内就集成出一个IDE,效率之高简直离谱,并且实际测试代码生成速度也巨快。
AI遮天传 DL-CNN
上次我们介绍了多层感知机(MLP),本次将介绍深度学习领域中第二个基本的模型:卷积神经网络(CNN)。CNN在MLP之上又引入了两种新的层:卷积层和池化层。
解读YOLO v7的代码(三)损失函数
对Yolov7的代码进行分析,研究其正样本生成机制以及损失函数
深度学习参数初始化(一)Xavier初始化 含代码
Xavier初始化也称为Glorot初始化,因为发明人为Xavier Glorot。Xavier initialization是 Glorot 等人为了解决随机初始化的问题提出来的另一种初始化方法,他们的思想就是尽可能的让输入和输出服从相同的分布,这样就能够避免后面层的激活函数的输出值趋向于0。..
Transformer到底为何这么牛
深度学习自出生以来就不被看好,随着计算机的发展和硬件条件的提升,这种大规模计算的深度学习才重新焕发光芒。但是我们都知道深度学习,甚至是深度强化学习的效率太慢了,人类只需要重复学习几次,甚至几十次就可以学会的东西,深度学习需要成千上万次,不得不感叹深度学习算法的学习真的太慢了。深度学习的学习效率问题是
图像修复(Image Restoration)算法数据集详细介绍
图像修复(Image Restoration)算法数据集详细介绍:人脸数据集【1.Helen Face 2.CelebA (Celebrity Attribute) 3.CelebA-HQ 4.FFHQ(Flickr-Faces-HQ)】场景数据集【1.MS COCO (Common Obje