使用pytorch构建图卷积网络预测化学分子性质

在本文中,我们将通过化学的视角探索图卷积网络,我们将尝试将网络的特征与自然科学中的传统模型进行比较,并思考为什么它的工作效果要比传统的方法好。

【记录-如何安装halcon软件】

记录-如何安装halcon软件

神经网络模型的参数量和FlOPS

FLOPS:注意S是大写,是 “每秒所执行的浮点运算次数”(floating-point operations per second)的缩写。它常被用来估算电脑的执行效能,尤其是在使用到大量浮点运算的科学计算领域中。正因为FLOPS字尾的那个S,代表秒,而不是复数,所以不能省略掉。FLOPs:注意s

【机器学习】李宏毅-食物图像分类器

卷积层,256个channel,512个filter,每个filter大小3*3,stride=1,padding=1,输入256*16*16,输出512*16*16。卷积层,512个channel,512个filter,每个filter大小3*3,stride=1,padding=1,输入512*

《神经网络与深度学习》算法伪代码汇总

《神经网络与深度学习》算法伪代码

基于VGG16的猫狗分类实战

基于VGG16的猫狗分类实战

BP神经网络模型一篇入门

BP神经网络广泛应用于解决各种问题,是知名度极高的模型之一为了方便初学者快速学习,本文进行深入浅出讲解BP神经网络的基本知识通过本文,可以初步了解BP神经网络的各个核心要素,并弄清BP神经网络是什么。

2023年小型计算机视觉总结

到2023年底,人工智能领域迎来了生成式人工智能的新成功:大型语言模型(llm)和图像生成模型。每个人都在谈论它,它们对小型计算机视觉应用有什么改变吗?

深度强化学习——actor-critic算法(4)

θ,w)来近似,θ是策略网络的参数,w是价值网络的参数,训练的时候要更新两个神经网络的参数θ和w,但是更新θ和w的目标是不同的,更新策略网络Π的参数θ,是为了让V函数的值增加,V函数是对策略Π和状态s的评价,如果固定s,V越大则说明策略Π越好,所以很显然我们需要更新参数θ使得V的平均值(期望)增加,

神经网络可视化新工具:TorchExplorer

TorchExplorer是一个交互式探索神经网络的可视化工具

一文总结经典卷积神经网络CNN模型

总结从1998年至今的优秀CNN模型,包括LeNet、AlexNet、ZFNet、VGG、GoogLeNet、ResNet、DenseNet、SENet、SqueezeNet、MobileNet。了解巨佬们的智慧结晶,学习算法上的思路和技巧,便于我们自己构建模型,也便于我们做迁移学习。

【头歌平台】人工智能-深度学习初体验

神经网络中也有神经元,这些神经元也会与其他神经元相连接,这样就形成了神经网络,而且这种网络我们称之为。如下图所示():从图可以看出,神经网络由一层一层的神经元所构成的,并且不同的层有不同的名字。其中表示用来接收数据输入的一组神经元。表示用来输出的一组神经元。表示介于输入层与输出层之间的一组神经元。

一种用于心音分类的轻量级1D-CNN+DWT网络

利用离散小波变换(DWT)得到的多分辨率域特征对1D-CNN模型进行心音分类训练。

经典神经网络论文超详细解读(六)——DenseNet学习笔记(翻译+精读+代码复现)

DenseNet论文(《Densely connected convolutional networks》)超详细解读。翻译+总结。文末有代码复现

神经网络的类型分类和结构理解

神经网络按照不同的分类方式,会有多种形式的划分。第一种分类方式是按照类型来分,包含两种类型,分别为前馈神经网络和反馈神经网络。掌握神经网络层与层之间的结构后,会有助于我们对神经网络的理解,从而更好的理解参数模型,找到算法合适的参数。

简化版Transformer :Simplifying Transformer Block论文详解

在这篇文章中我将深入探讨来自苏黎世联邦理工学院计算机科学系的Bobby He和Thomas Hofmann在他们的论文“Simplifying Transformer Blocks”中介绍的Transformer技术的进化步骤。这是自Transformer 开始以来,我看到的最好的改进。

经典神经网络论文超详细解读(三)——GoogLeNet InceptionV1学习笔记(翻译+精读+代码复现)

GoogLeNet InceptionV1论文(Going deeper with convolutions)超详细解读。翻译+总结。文末有代码复现

【头歌】机器学习 --- 神经网络

【头歌】机器学习 --- 神经网络

人工智能 -- 神经网络

但我们并不知道他的分析过程是怎样的,它是如何判断里面是否有猫的。就像当我们教小孩子认识猫时,我们拿来一些白猫,告诉他这是猫,拿来一些黑猫,告诉他这也是猫,他脑子里会自己不停地学习猫的特征。最后我们拿来一些花猫,问他,他会告诉你这也是猫。而人工神经网络则不同,它的内部是一个黑盒子,就像我们人类的大脑一

【论文笔记】一文读懂残差网络ResNet(附代码)

残差网络原理详解、梯度分析、代码展示和各模块分析改进