【人工智能】大模型的本质:在超高维空间上对人类全部知识的高度压缩映射
大模型是指具有超过一千万个参数的深度神经网络模型。目前,大模型主要应用于自然语言处理、图像识别和推荐系统等领域。大模型通常采用非常复杂的结构和算法,以便在海量数据中提取出最有效的特征。本文详细介绍了大模型的定义、本质、优势、挑战、应用、训练技术、评估标准和未来发展趋势。大模型作为人工智能领域的前沿技
网络梯度为None、参数不更新解决思路(又名“魔改代码的报应”)
网络梯度为None、参数不更新的解决思路
PyTorch深度学习实战(15)——迁移学习
迁移学习通过利用相关任务或领域的知识,帮助解决新任务或领域中的学习挑战,可以提高模型的泛化能力、加速模型训练,并在实际应用中取得良好的效果。在图像分类、目标检测、机器翻译等任务中,迁移学习已经展现出巨大的应用价值。在本节中,介绍了迁移学习的基本概念,并使用 PyTorch 构建了迁移学习模型,利用预
基于pointpillars的点云目标检测、测试评估、TensorRT后量化及ROS可视化
参考:https://github.com/traveller59/kitti-object-eval-python,把相应的的依赖函数提取出来了,不需要单独安装second-1.5.1,spconv-1.0。也可以混合精度测试,通过修改config里的yaml参数,测试评估时要保证路径一一对应。可
向量数据库简介和5个常用的开源项目介绍
本文旨在全面介绍向量数据库,并介绍2023年可用的最佳向量数据库。
Llama-2 推理和微调的硬件要求总结:RTX 3080 就可以微调最小模型
大语言模型微调是指对已经预训练的大型语言模型(例如Llama-2,Falcon等)进行额外的训练,以使其适应特定任务或领域的需求。
【人工智能】关于人类大脑模型的一些数学公式
关于人类大脑建模的数学公式主要涉及到神经元网络、激活函数、学习算法等方面。这里是一些常见的数学公式(使用Markdown和LaTeX语法)。
【人工智能】大模型基础概念、核心技术、应用场景和未来发展
所谓“大模型”,通常是在无标注的大数据集上,采用自监督学习的方法进行训练。之后在其他场景的应用中,开发者只需要对模型进行微调,或采用少量数据进行二次训练,就可以满足新应用场景的需要。大模型是指具有庞大参数量和较高模型复杂度的神经网络模型,通常使用深度学习方法进行训练和优化,能够实现更加精准和高效的自
【SeAFusion:语义感知:分割+融合】
仅供自己参考
Falcon 180B 目前最强大的开源模型
Technology Innovation Institute最近发布了Falcon 180B大型语言模型(LLM),它击败了Llama-2 70b,与谷歌Bard的基础模型PaLM-2 Large不相上下。
NWD(2022)
检测微小物体是一个非常具有挑战性的问题,因为微小物体仅包含几个像素大小。我们证明,由于缺乏外观信息,最先进的检测器无法在微小物体上产生令人满意的结果**。我们的主要观察结果是,基于联合交集 (IoU) 的指标(例如 IoU 本身及其扩展)对微小物体的位置偏差非常敏感,并且在用于基于锚点的检测器中时会
使用keras加载模型出现编码方式问题(已解决)
使用keras加载模型出错
深度学习|卷积神经网络
介绍卷积神经网络基本理论,包括卷积层、池化层和全连接层,并阐述LeNet卷积神经网络的构建过程。
模态对齐与融合
思考:多模态本质就是alignment(对齐),那么问题就在于如何做对齐。有用entity的,有用attention的,有用event做alignment,然后再做fusion(融合)。融合有多种方法,例如Linking、Grounding、Structure等。感觉很多是简单粗暴的把represe
【AI】《动手学-深度学习-PyTorch版》笔记(二十):图像增强、微调
微调属于迁移学习的一种,在已经从大量数据集上训练出来的模型上继续训练自己的小数据集,继承已经学习到的边缘、纹理、形状等信息。通过对图像进行随机裁剪,使物体以不同的比例出现在图像的不同位置。
loss = nn.CrossEntropyLoss(reduction=‘none‘)
reduction 参数用于控制输出损失的形式。
在自定义数据集上实现OpenAI CLIP
在本文中,我们将使用PyTorch中从头开始实现CLIP模型,以便我们对CLIP有一个更好的理解
Autolabelimg自动标注工具
在做机器视觉有监督方面,通常会面对很多数据集,然后去进行标注,而有些时候我们面对庞大数量数据集的情况下也会感到十分头疼,这个时候Autolabelimg这个自动标注神器就应运而生了。让我们可以实现批量处理图片和标注文件。
Swin-Transformer 实战代码与讲解(快速上手)
Swin Transformer是2021年微软研究院发表在ICCV上的一篇文章,并且已经获得ICCV 2021 best paper的荣誉称号。它可以作为计算机视觉的通用backbone,并且在很多视觉底层任务中取得了Sota的水准。
Langchain的一些问题和替代选择
Langchain因其简化大型语言模型(llm)的交互方面的到关注。凭借其高级的API可以简化将llm集成到各种应用程序中的过程。