PyTorch深度学习实战(15)——迁移学习

迁移学习通过利用相关任务或领域的知识,帮助解决新任务或领域中的学习挑战,可以提高模型的泛化能力、加速模型训练,并在实际应用中取得良好的效果。在图像分类、目标检测、机器翻译等任务中,迁移学习已经展现出巨大的应用价值。在本节中,介绍了迁移学习的基本概念,并使用 PyTorch 构建了迁移学习模型,利用预

基于pointpillars的点云目标检测、测试评估、TensorRT后量化及ROS可视化

参考:https://github.com/traveller59/kitti-object-eval-python,把相应的的依赖函数提取出来了,不需要单独安装second-1.5.1,spconv-1.0。也可以混合精度测试,通过修改config里的yaml参数,测试评估时要保证路径一一对应。可

向量数据库简介和5个常用的开源项目介绍

本文旨在全面介绍向量数据库,并介绍2023年可用的最佳向量数据库。

SAP 解析销售订单的状态

众所周知,在SD的流程中,很多处理是跟订单的状态息息相关的,比如参照一张销售订单来做发货单的时候,系统需要检查销售订单里面的交货状态是否是A(没有处理)或者B(部分处理),如果是空白(不相关)或者已经是C(完全处理)了,那么系统会报错来通知用户这张销售订单的明细已经不能用来做发货了。“完成规则”只是

Llama-2 推理和微调的硬件要求总结:RTX 3080 就可以微调最小模型

大语言模型微调是指对已经预训练的大型语言模型(例如Llama-2,Falcon等)进行额外的训练,以使其适应特定任务或领域的需求。

【人工智能】关于人类大脑模型的一些数学公式

关于人类大脑建模的数学公式主要涉及到神经元网络、激活函数、学习算法等方面。这里是一些常见的数学公式(使用Markdown和LaTeX语法)。

chatgpt fine-tuning 官方文档

【代码】chatgpt fine-tuning 官方文档。

【人工智能】大模型基础概念、核心技术、应用场景和未来发展

所谓“大模型”,通常是在无标注的大数据集上,采用自监督学习的方法进行训练。之后在其他场景的应用中,开发者只需要对模型进行微调,或采用少量数据进行二次训练,就可以满足新应用场景的需要。大模型是指具有庞大参数量和较高模型复杂度的神经网络模型,通常使用深度学习方法进行训练和优化,能够实现更加精准和高效的自

【SeAFusion:语义感知:分割+融合】

仅供自己参考

Falcon 180B 目前最强大的开源模型

Technology Innovation Institute最近发布了Falcon 180B大型语言模型(LLM),它击败了Llama-2 70b,与谷歌Bard的基础模型PaLM-2 Large不相上下。

NWD(2022)

检测微小物体是一个非常具有挑战性的问题,因为微小物体仅包含几个像素大小。我们证明,由于缺乏外观信息,最先进的检测器无法在微小物体上产生令人满意的结果**。我们的主要观察结果是,基于联合交集 (IoU) 的指标(例如 IoU 本身及其扩展)对微小物体的位置偏差非常敏感,并且在用于基于锚点的检测器中时会

使用keras加载模型出现编码方式问题(已解决)

使用keras加载模型出错

深度学习|卷积神经网络

介绍卷积神经网络基本理论,包括卷积层、池化层和全连接层,并阐述LeNet卷积神经网络的构建过程。

模态对齐与融合

思考:多模态本质就是alignment(对齐),那么问题就在于如何做对齐。有用entity的,有用attention的,有用event做alignment,然后再做fusion(融合)。融合有多种方法,例如Linking、Grounding、Structure等。感觉很多是简单粗暴的把represe

【AI】《动手学-深度学习-PyTorch版》笔记(二十):图像增强、微调

微调属于迁移学习的一种,在已经从大量数据集上训练出来的模型上继续训练自己的小数据集,继承已经学习到的边缘、纹理、形状等信息。通过对图像进行随机裁剪,使物体以不同的比例出现在图像的不同位置。

loss = nn.CrossEntropyLoss(reduction=‘none‘)

reduction 参数用于控制输出损失的形式。

在自定义数据集上实现OpenAI CLIP

在本文中,我们将使用PyTorch中从头开始实现CLIP模型,以便我们对CLIP有一个更好的理解

Autolabelimg自动标注工具

在做机器视觉有监督方面,通常会面对很多数据集,然后去进行标注,而有些时候我们面对庞大数量数据集的情况下也会感到十分头疼,这个时候Autolabelimg这个自动标注神器就应运而生了。让我们可以实现批量处理图片和标注文件。

Swin-Transformer 实战代码与讲解(快速上手)

Swin Transformer是2021年微软研究院发表在ICCV上的一篇文章,并且已经获得ICCV 2021 best paper的荣誉称号。它可以作为计算机视觉的通用backbone,并且在很多视觉底层任务中取得了Sota的水准。

【Ubuntu 20.04安装和深度学习环境搭建 4090显卡】

Ubuntu20.04 | 显卡驱动 | CUDA | CUDNN 安装 | 4090

登录可以使用的更多功能哦! 登录
作者榜
...
资讯小助手

资讯同步

...
内容小助手

文章同步

...
Deephub

公众号:deephub-imba

...
奕凯

公众号:奕凯的技术栈