2023年小型计算机视觉总结

到2023年底,人工智能领域迎来了生成式人工智能的新成功:大型语言模型(llm)和图像生成模型。每个人都在谈论它,它们对小型计算机视觉应用有什么改变吗?

深度强化学习——actor-critic算法(4)

θ,w)来近似,θ是策略网络的参数,w是价值网络的参数,训练的时候要更新两个神经网络的参数θ和w,但是更新θ和w的目标是不同的,更新策略网络Π的参数θ,是为了让V函数的值增加,V函数是对策略Π和状态s的评价,如果固定s,V越大则说明策略Π越好,所以很显然我们需要更新参数θ使得V的平均值(期望)增加,

神经网络可视化新工具:TorchExplorer

TorchExplorer是一个交互式探索神经网络的可视化工具

一文总结经典卷积神经网络CNN模型

总结从1998年至今的优秀CNN模型,包括LeNet、AlexNet、ZFNet、VGG、GoogLeNet、ResNet、DenseNet、SENet、SqueezeNet、MobileNet。了解巨佬们的智慧结晶,学习算法上的思路和技巧,便于我们自己构建模型,也便于我们做迁移学习。

【头歌平台】人工智能-深度学习初体验

神经网络中也有神经元,这些神经元也会与其他神经元相连接,这样就形成了神经网络,而且这种网络我们称之为。如下图所示():从图可以看出,神经网络由一层一层的神经元所构成的,并且不同的层有不同的名字。其中表示用来接收数据输入的一组神经元。表示用来输出的一组神经元。表示介于输入层与输出层之间的一组神经元。

一种用于心音分类的轻量级1D-CNN+DWT网络

利用离散小波变换(DWT)得到的多分辨率域特征对1D-CNN模型进行心音分类训练。

经典神经网络论文超详细解读(六)——DenseNet学习笔记(翻译+精读+代码复现)

DenseNet论文(《Densely connected convolutional networks》)超详细解读。翻译+总结。文末有代码复现

神经网络的类型分类和结构理解

神经网络按照不同的分类方式,会有多种形式的划分。第一种分类方式是按照类型来分,包含两种类型,分别为前馈神经网络和反馈神经网络。掌握神经网络层与层之间的结构后,会有助于我们对神经网络的理解,从而更好的理解参数模型,找到算法合适的参数。

简化版Transformer :Simplifying Transformer Block论文详解

在这篇文章中我将深入探讨来自苏黎世联邦理工学院计算机科学系的Bobby He和Thomas Hofmann在他们的论文“Simplifying Transformer Blocks”中介绍的Transformer技术的进化步骤。这是自Transformer 开始以来,我看到的最好的改进。

经典神经网络论文超详细解读(三)——GoogLeNet InceptionV1学习笔记(翻译+精读+代码复现)

GoogLeNet InceptionV1论文(Going deeper with convolutions)超详细解读。翻译+总结。文末有代码复现

【头歌】机器学习 --- 神经网络

【头歌】机器学习 --- 神经网络

人工智能 -- 神经网络

但我们并不知道他的分析过程是怎样的,它是如何判断里面是否有猫的。就像当我们教小孩子认识猫时,我们拿来一些白猫,告诉他这是猫,拿来一些黑猫,告诉他这也是猫,他脑子里会自己不停地学习猫的特征。最后我们拿来一些花猫,问他,他会告诉你这也是猫。而人工神经网络则不同,它的内部是一个黑盒子,就像我们人类的大脑一

【论文笔记】一文读懂残差网络ResNet(附代码)

残差网络原理详解、梯度分析、代码展示和各模块分析改进

(HGNN) Hypergraph Neural Networks

提出了一个用于数据表示学习的超图神经网络(HGNN)框架,它可以在超图结构中编码高阶数据相关性。面对在实际实践中学习复杂数据表示的挑战,我们建议将这种数据结构合并到超图中,这在数据建模上更加灵活,特别是在处理复杂数据时。该方法设计了一种来处理表示学习过程中的数据相关性。这样,传统的超图学习过程就可以

Facebook AI团队的DETR模型代码复现

5.开始训练,Facebook AI 团队训练了 300 个 epoch,这里推荐修改 为 100,修改自己数据集位置 train2017 和 val2017 以及标注文件的路径,修改自己权重文件路径,开始训练, 训练完成之后会在output生成自己的训练模型 check 什么文件,记住他的路径。这

PubMedBERT:生物医学自然语言处理领域的特定预训练模型

语言模型并不一定就是最优的解决方案,“小”模型也有一定的用武之地

人工智能:CNN(卷积神经网络)、RNN(循环神经网络)、DNN(深度神经网络)的知识梳理

CNN 主要用于处理图像数据,RNN 用于处理序列数据,而 DNN 是一个通用的深度神经网络架构,可以应用于各种不同类型的数据。这些神经网络架构也可以结合使用,以解决复杂的多模态问题。

深度学习|BP神经网络

讲述BP神经网络原理,并通过Python语言,分别导入numpy、sklearn和pytorch库完成编程。

经典神经网络论文超详细解读(五)——ResNet(残差网络)学习笔记(翻译+精读+代码复现)

RseNet论文(《Deep Residual Learning for Image Recognition》)超详细解读。翻译+总结。文末有代码复现

注意力机制——Convolutional Block Attention Module(CBAM)

其中通道注意力模块通过对输入特征图在通道维度上进行最大池化和平均池化,然后将这两个池化结果输入到一个全连接层中,最后输出一个通道注意力权重向量。空间注意力模块则通过对输入特征图在通道维度上进行平均池化和最大池化,然后将这两个池化结果输入到一个全连接层中,最后输出一个空间注意力权重张量。CBAM 模块

登录可以使用的更多功能哦! 登录
作者榜
...
资讯小助手

资讯同步

...
内容小助手

文章同步

...
Deephub

公众号:deephub-imba

...
奕凯

公众号:奕凯的技术栈