【已解决】ERROR:The testing results of the whole dataset is empty
已解决:ERROR:The testing results of the whole dataset is empty
ResNet代码复现+超详细注释(PyTorch)
ResNet代码复现(PyTorch),每一行都有超详细注释,新手小白都能看懂,亲测可运行
【深度学习】如何分配训练集、验证集、测试集比例
对于传统机器学习阶段(数据集在万这个数量级),一般分配比例为训练集和测试集的比例为7:3或是8:2。为了进一步降低信息泄露同时更准确的反应模型的效能,更为常见的划分比例是训练集、验证集、测试的比例为6:2:2。对于小规模样本集(几万量级),常用的分配比例是 60% 训练集、20% 验证集、20% 测
人工智能深度学习100种网络模型,精心整理,全网最全,PyTorch框架逐一搭建
大家好,我是微学AI,今天给大家介绍一下人工智能深度学习100种网络模型,这些模型可以用PyTorch深度学习框架搭建。模型按照个人学习顺序进行排序
编织人工智能:机器学习发展历史与关键技术全解析
关注TechLead,分享AI领域与云服务领域全维度开发技术。本文全面回顾了机器学习的发展历史,从早期的基本算法到当代的深度学习模型,再到未来的可解释AI和伦理考虑。文章深入探讨了各个时期的关键技术和理念,揭示了机器学习在不同领域的广泛应用和潜力。
中文CLIP快速上手指南
当前OpenAI提出的CLIP是AI领域内最火热的多模态预训练模型,简单的图文双塔结构让多模态表征学习变得异常简单。此前CLIP只有官方英文版本,如果想在中文领域尤其是业务当中使用这种强大的表征模型,需要非常麻烦的翻译工作。近期达摩院提出中文版本CLIP,Chinese CLIP系列,在ModelS
Mx_yolov3的安装并使用GPU训练
小白为了使用GPU训练模型,从各位大佬那里找来的解决方法,希望可以给大家提供帮助。
机器学习算法:UMAP 深入理解(通俗易懂!)
UMAP 是 McInnes 等人开发的新算法。与t-SNE相比,它具有许多优势,最显着的是提高了计算速度并更好地保留了数据的全局结构。降维是机器学习从业者可视化和理解大型高维数据集的常用方法。最广泛使用的可视化技术之一是 t-SNE,但它的性能受到数据集规模的影响,并且正确使用它可能需要一定学习成
【周末闲谈】“深度学习”,人工智能也要学习?
人们在日常生活中接触人工智能的频率越来越高。有可以帮用户买菜的京东智能冰箱;可以做自动翻译的机器;还有Siri、Alexa和Cortana这样的机器人助理;以及无人车、AlphaGo等已经把人工智能技术带到了“看得到摸得着”的境地。我们也许会好奇,它是怎么做到的?今天我们就来谈谈人工智能的学习方式—
yolov5训练时的dataset not found
关于这个问题,大都是因为数据集的路径问题,需要主要的是自己的数据集的下的data.yaml文件,这个文件里的两个相对路径改成绝对路径(写的潦草,只为自己有点印象。
relu函数的作用
relu函数的作用
GCNet: Global Context Network(ICCV 2019)原理与代码解析
本文通过观察发现non-local block针对每个query position计算的attention map最终结果是独立于查询位置的,那么就没有必要针对每个查询位置计算了,因此提出计算一个通用的attention map并应用于输入feature map上的所有位置,大大减少了计算量的同时又
高阶数据增强:Cutmix 原理讲解&零基础程序实现
CutMix是一种数据增强技术,用于在训练图像分类模型时减轻过拟合问题,可以帮助提高模型的泛化性能和鲁棒性,是竞赛的一个重要涨分点。CutMix的核心思想是将两张图像的一部分混合在一起,生成一个新的训练样本。本篇博客详细讲解了CutMix的原理,并从零开始教大家实现将CutMix移植到自己的网络模型
多尺度可形变注意力机制MultiScaleDeformableAttn
这个模块是将 Transformer 的全局注意力变为局部注意力的一个非常关键的组件,用于减少训练时间,提高 Transformer 的收敛速度;该机制来源于BEVFormer中的技术;目前已集成到MMCV MMDET3d中。
【深度学习进阶之路】----解决新建Anconda虚拟环境总是安装在C盘的问题
即使我们在安装Anacoda时明明选择了其他安装路径,但是新建虚拟环境时总是默认安装在C盘,以至于导致C盘文件不断增加,本篇博客通过修改配置在C盘路径下的**.condarc**文件,实现虚拟环境的位置变化。......
最近火出圈的GPT-4 技术Report出来了,快进来看看逐文对照翻译!
近期OpenAI发布的GPT-4的效果好得让人惊艳!碾压了之前火到出圈的ChatGPT,通过同步发布的GPT-4 Technical Report一同看看到底发生了什么!No.0摘要We report the development of GPT-4, a large-scale, multimod
机器学习——池化层
池化层是深度学习中常用的一种层级结构,它可以对输入数据进行降采样,减少数据量,同时保留重要的特征信息。池化层通常紧跟在卷积层之后,可以有效地减少数据量和计算复杂度,提高模型的训练速度和泛化能力。
AI视觉算法训练平台介绍
模型训练:通过可视化工具调用模型训练器进行模型训练,核心参数包括优化器、学习速率、epochs等,还可以灵活设置训练时批量大小和训练集、验证集分割方式等。数据准备:先将需要训练的图像数据集上传至数据管理库。数据集应当包含尽可能多的安装在设备上的场景、目标,且在构建数据集时注意保证数据类型或格式的规范
ResNeXt代码复现+超详细注释(PyTorch)
ResNeXt代码复现(PyTorch),每一行都有超详细注释,新手小白都能看懂,亲测可运行
【Yolov5】涨点亲测有效,Yolov5添加PSA极化自注意力机制
Yolov5添加PSA极化注意力机制,助力实验涨点!主要用于目标检测、图像语义分割、人体姿态识别等