向量数据库简介和5个常用的开源项目介绍
本文旨在全面介绍向量数据库,并介绍2023年可用的最佳向量数据库。
Llama-2 推理和微调的硬件要求总结:RTX 3080 就可以微调最小模型
大语言模型微调是指对已经预训练的大型语言模型(例如Llama-2,Falcon等)进行额外的训练,以使其适应特定任务或领域的需求。
【人工智能】关于人类大脑模型的一些数学公式
关于人类大脑建模的数学公式主要涉及到神经元网络、激活函数、学习算法等方面。这里是一些常见的数学公式(使用Markdown和LaTeX语法)。
【人工智能】大模型基础概念、核心技术、应用场景和未来发展
所谓“大模型”,通常是在无标注的大数据集上,采用自监督学习的方法进行训练。之后在其他场景的应用中,开发者只需要对模型进行微调,或采用少量数据进行二次训练,就可以满足新应用场景的需要。大模型是指具有庞大参数量和较高模型复杂度的神经网络模型,通常使用深度学习方法进行训练和优化,能够实现更加精准和高效的自
【SeAFusion:语义感知:分割+融合】
仅供自己参考
Falcon 180B 目前最强大的开源模型
Technology Innovation Institute最近发布了Falcon 180B大型语言模型(LLM),它击败了Llama-2 70b,与谷歌Bard的基础模型PaLM-2 Large不相上下。
NWD(2022)
检测微小物体是一个非常具有挑战性的问题,因为微小物体仅包含几个像素大小。我们证明,由于缺乏外观信息,最先进的检测器无法在微小物体上产生令人满意的结果**。我们的主要观察结果是,基于联合交集 (IoU) 的指标(例如 IoU 本身及其扩展)对微小物体的位置偏差非常敏感,并且在用于基于锚点的检测器中时会
使用keras加载模型出现编码方式问题(已解决)
使用keras加载模型出错
深度学习|卷积神经网络
介绍卷积神经网络基本理论,包括卷积层、池化层和全连接层,并阐述LeNet卷积神经网络的构建过程。
模态对齐与融合
思考:多模态本质就是alignment(对齐),那么问题就在于如何做对齐。有用entity的,有用attention的,有用event做alignment,然后再做fusion(融合)。融合有多种方法,例如Linking、Grounding、Structure等。感觉很多是简单粗暴的把represe
【AI】《动手学-深度学习-PyTorch版》笔记(二十):图像增强、微调
微调属于迁移学习的一种,在已经从大量数据集上训练出来的模型上继续训练自己的小数据集,继承已经学习到的边缘、纹理、形状等信息。通过对图像进行随机裁剪,使物体以不同的比例出现在图像的不同位置。
loss = nn.CrossEntropyLoss(reduction=‘none‘)
reduction 参数用于控制输出损失的形式。
在自定义数据集上实现OpenAI CLIP
在本文中,我们将使用PyTorch中从头开始实现CLIP模型,以便我们对CLIP有一个更好的理解
Autolabelimg自动标注工具
在做机器视觉有监督方面,通常会面对很多数据集,然后去进行标注,而有些时候我们面对庞大数量数据集的情况下也会感到十分头疼,这个时候Autolabelimg这个自动标注神器就应运而生了。让我们可以实现批量处理图片和标注文件。
Swin-Transformer 实战代码与讲解(快速上手)
Swin Transformer是2021年微软研究院发表在ICCV上的一篇文章,并且已经获得ICCV 2021 best paper的荣誉称号。它可以作为计算机视觉的通用backbone,并且在很多视觉底层任务中取得了Sota的水准。
Langchain的一些问题和替代选择
Langchain因其简化大型语言模型(llm)的交互方面的到关注。凭借其高级的API可以简化将llm集成到各种应用程序中的过程。
YoloV5 训练长方形图像
YOLO训练长方形图像
InternImage segmentation部分代码复现及训练自己的数据集(一)
算法InternImage复现细节。
【Linear Probing | 线性探测】深度学习 线性层
深度学习linear probing
SplitMask:大规模数据集是自我监督预训练的必要条件吗?
自监督预训练需要大规模数据集吗?这是2021年发布的一篇论文,提出了一种类似于BEiT的去噪自编码器的变体SplitMask,它对预训练数据的类型和大小具有更强的鲁棒性。