图像分割之SAM(Segment Anything Model)

该模型有别于传统的分割模型。传统分割模型只能输入原图输出固定的分割结果,SAM在设计上可以同时输入原图和特定提示(点、框、阴影、文本),然后根据不同的提示输出不同的分割结果图,并且SAM支持不同提示的交互式分割。SA-1B覆盖了更广泛的图片区间,比第二大分割数据集多了11倍的图片400倍的mask。

损失函数——对数损失(Logarithmic Loss,Log Loss)

要在训练中使用对数损失作为损失函数,可以在模型训练的过程中调用 PyTorch 中的损失函数计算方法,并将计算得到的损失加入到反向传播过程中以更新模型参数。在 PyTorch 中,可以使用 nn.BCELoss() 来计算二元分类问题的对数损失,使用 nn.CrossEntropyLoss() 来计

CityScapes数据集介绍

Cityperson数据集,在16年CVPR上被提出,是张姗姗一波人在CityScapes数据集上进行标注得到的行人检测数据集。有标记的前景对象绝对不能有洞,也就是说,如果有一些背景可见的“通过”一些前景对象,它被认为是前景的一部分。例如:房子或天空前面的树叶(一切都是树),透明的车窗(一切都是汽车

AI大模型

本文将介绍什么是AI大模型,它能应用到哪些行业,使用AI大模型的具体步骤以及应该注意的事项。

走进人工智能|GANs AI时代下的前卫艺术

GANs(生成对抗网络)是一种机器学习技术,它由两个神经网络组成:一个生成器和一个判别器`。生成器负责生成假数据,而判别器则负责区分真实数据和假数据。这两个网络相互竞争,不断地进行优化,最终生成越来越接近真实数据的结果。`核心思想是通过学习真实数据的特征,生成具有类似特征的新数据。`在GANs中,生

机器学习课后练习题(期末复习题目附答案)

第九章 神经网络一. 单选题1. 以下关于感知器说法错误的是: ( )。A. 单层感知器可以用于处理非线性学习问题B. 可为感知器的输出值设置阈值使其用于处理分类问题C. 感知器是最简单的前馈式人工神经网络D. 感知器中的偏置只改变决策边界的位置正确答案: A2. 关于BP算法特点描述错误的是 (

神经网络的参数量(Params)和计算量(FLOPs)

神经网络的参数量(Params)和计算量(FLOPs)

深度学习竞赛进阶技巧 - BLIP使用说明与实战

由于大规模模型的端到端的训练,视觉与语言的预训练模型的成本越来越高。本文提出了BLIP-2,这是一种通用的有效的预训练策略,它从现成的冷冻预训练图像编码器与大型的语言模型中引导视觉语言预训练。BLIP-2通过一个轻量级的查询transformer弥补了模态差距,该transformer分为两个阶段进

nerfstudio安装

nerfstudio安装

预训练、微调和上下文学习

最近语言模型在自然语言理解和生成方面取得了显著进展。这些模型通过预训练、微调和上下文学习的组合来学习。在本文中将深入研究这三种主要方法,了解它们之间的差异,并探讨它们如何有助于语言模型的学习过程。

深入浅出Pytorch函数——torch.full_like

torch.full_like(input, fill_value, \*, dtype=None, layout=torch.strided, device=None, requires_grad=False, memory_format=torch.preserve_format) → Tens

堆叠式自动编码器(SAE)--学习笔记

堆叠式自动编码器(SAE)--学习笔记

最新版本 Stable Diffusion 开源 AI 绘画工具之 ControlNet 篇

让AI绘画向生产力工具进步的神级工具

【杂物间3】AI,ML,RL,DL,NLP,CV…搞清了这些是啥

一文搞清(for me)AI-ML-RL-DL-NLP/CV/GNN之间的关系。

有关于pytorch单精度bfloat16位

BF16是brain float的简称(来源于google brain)。不同于普通的单精度浮点数FP16(i.e., torch.float16),BF16是介于FP16和FP32之间的一种浮点数格式。BF16的指数位比FP16多,跟FP32一样,不过小数位比较少。即,BF16尝试采用牺牲精度的方

ChatGPT对未来编程语言发展的影响与展望

ChatGPT是一种基于自然语言处理技术的语言模型,由美国OpenAI团队研发。它是构建在生成式预训练变换模型(Generative Pre-trained Transformer,简称GPT)之上,具有强大的自然语言理解和生成能力。GPT模型以大规模文本数据为输入进行训练,从而学习到了丰富的语言知

通俗解释EMA

EMA,全称是指数移动平均,是一种给予近期数据更高权重的平均方法,详细的介绍可以参考:深度学习: 指数加权平均。 深度学习中常见的Adam、RMSProp和Momentum等优化算法内部都使用了EMA,由于使用了EMA这些算法常被称为自适应优化算法,可以随着训练过程的推移,自适应的调整参数的优

【论文合集】Awesome Anomaly Detection

Anomaly Detection: The process of detectingdata instances that significantly deviate from the majority of the whole dataset.

目标检测算法——YOLOv5/YOLOv7改进之结合GAMAttention

论文题目:Global Attention Mechanism: Retain Information to Enhance Channel-Spatial Interactions作者设计一种减少信息缩减并放大全局维度交互特征的机制,采用了CBAM中的顺序通道-空间注意机制,并对子模块进行了重新设