从简单逻辑到复杂计算:感知机的进化与其在现代深度学习和人工智能中的应用(上)
本文详细探讨了感知机——一种简单形式的人工神经网络,首次由Frank Rosenblatt在1957年提出。文章从感知机的基本原理和结构开始,解释了其如何处理输入和产生输出。通过实例,展示了感知机在模拟基本逻辑门(如与门、或门和与非门)中的应用,并讨论了其在处理更复杂的逻辑函数时的局限性,特别是在尝
【人工智能Ⅰ】实验9:BP神经网络
整体代码和准确率计算结果如下图所示,其中图1为整体代码,图2为计算的准确率结果(分类的准确率为0.7)。整体代码、标签对比结果和混淆矩阵结果如下图所示,其中图1为整体代码,图2为程序输出的标签对比结果,图3为程序输出的混淆矩阵结果。整体代码和直方图可视化结果如下图所示,其中图1为整体代码,图2为花萼
【机器学习】解锁AI密码:神经网络算法详解与前沿探索
随着人工智能技术的飞速发展,神经网络作为机器学习的一个重要分支,已经广泛应用于图像识别、自然语言处理、推荐系统等领域。神经网络通过模拟人脑神经元的连接方式,实现对复杂数据的处理和预测。本文将详细介绍神经网络的基本原理、结构、训练过程以及应用实例。
【嵌入式AI开发】轻量化卷积神经网络Mnasnet(神经架构搜索)详解
谷歌轻量化卷积神经网络Mnasnet,介于MobileNet V2和V3之间。使用多目标优化的目标函数,兼顾速度和精度,其中速度用真实手机推断时间衡量。提出分层的神经网络架构搜索空间,将卷积神经网络分解为若干block,分别搜索各自的基本模块,保证层结构多样性。
YOLO系列算法全家桶——YOLOv1-YOLOv9详细介绍 !!
本文详细介绍了从YOLOv1-YOLOv9的网络结构,以及各个版本之间的迭代。YOLOv1-YOLOv8之间的对比ModelAnchorInputBackboneNeckYOLOv1锚框(训练是224*224,测试是448*448;GoogLeNet;Dropout防止过拟合;最后一层使用线性激活函
MLP多层感知器:AI人工智能神经网络的基石
MLP 是指多层感知器(Multilayer Perceptron),是一种基础人工神经网络模型(ANN,Artificial Neural Network)。MLP 能够将信息逐层重新组合,每层重组的信息经过激活函数的放大或抑制后进入下一层的数据重组,从而实现特征提取和知识获取。

2024年5月计算机视觉论文推荐:包括扩散模型、视觉语言模型、图像编辑和生成、视频处理和生成以及图像识别等各个主题
我们今天总结下2024年5月发表的最重要的论文,重点介绍了计算机视觉领域的最新研究和进展,包括扩散模型、视觉语言模型、图像编辑和生成、视频处理和生成以及图像识别等各个主题。
【AI】深度学习——前馈神经网络——全连接前馈神经网络
全连接前馈神经网络可以抽象为信息传播公式,其理论依据为通用近似定理,与机器学习结合可以解决分类问题,对交叉熵损失函数使用梯度下降算法求参数矩阵求导在nndl中以分母布局为主,以链式法则为计算依据,但同时也可采用更为高效的计算方法反向传播算法:第l层的误差项可以通过第 l+1 层的误差项计算得到,前向

使用FP8加速PyTorch训练的两种方法总结
在PyTorch中,FP8(8-bit 浮点数)是一个较新的数据类型,用于实现高效的神经网络训练和推理。它主要被设计来降低模型运行时的内存占用,并加快计算速度
【嵌入式AI开发】轻量化卷积神经网络MobileNetV3详解
本文对MobileNetv3网络结构进行详细的讲解。1.更新Block(bneck),也就是逆残差结构上的简单改动。2.使用NAS搜索参数(Neural Architecture Search)。3.重新设计耗时层结构,(对网络的每一层的推理时间进行分析,针对某些耗时的层结构做进一步优化)。4.重新
【嵌入式AI开发】轻量级卷积神经网络MobileNetV2详解
MobileNetV2网络先升维后降维,在降维时使用线性激活函数,带残差的Inverted bottleck模块,防止ReLU信息丢失。在图像分类、目标检测、语义分割等任务上实现了网络轻量化、速度和准确度的权衡。
条件生成对抗网络(cGAN)在AI去衣技术中的应用探索
生成器G根据随机噪声和条件变量生成去衣后的图像,而判别器D则判断生成的图像是否真实且符合指定的条件。在训练过程中,生成器和判别器通过竞争和合作的方式,共同优化一个损失函数,使得生成的图像既真实又符合给定的条件。随着深度学习技术的飞速发展,生成对抗网络(GAN)作为其中的一个重要分支,在图像生成、图像
【嵌入式AI开发】轻量级卷积神经网络MobileNetV1详解
本文对轻量级卷积神经网络MobileNetV1网络进行详解。MobileNetV1网络就是由若干个深度可分离卷积模块堆叠起来的,深度可分离卷积由DW卷积核PW卷积构成。
第二篇【AI与传奇开心果系列】Python的AI技术点库案例示例:详解AI工业应用算法原理
AI与传奇开心果系列博文系列博文目录Python的AI技术点库案例示例系列博文目录前言一、AI工业应用算法原理介绍二、机器学习在工业领域的应用算法示例代码三、深度学习算法在工业领域应用示例代码四、强化学习在工业领域应用示例代码五、自然语言处理在工业领域应用示例代码六、图像处理算法在工业领域应用示例代

论文推荐:用多词元预测法提高模型效率与速度
作者们提出了一种创新的多词元预测方法,该方法在提高大型语言模型(LLMs)的样本效率和推理速度方面展示了显著优势。

号称能打败MLP的KAN到底行不行?数学核心原理全面解析
这篇文章将涉及大量的数学知识,主要介绍KAN背后的数学原理。

PyTorch小技巧:使用Hook可视化网络层激活(各层输出)
这篇文章将演示如何可视化PyTorch激活层。可视化激活,即模型内各层的输出,对于理解深度神经网络如何处理视觉信息至关重要,这有助于诊断模型行为并激发改进。
存内计算为AI大模型提供的支持以及挑战
存内计算技术作为一种新型的计算范式,将存储器与处理器紧密地集成在一起,实现了数据的高效处理和低延迟访问。这种技术有效地缓解了传统计算模式下存储器与处理器之间的带宽瓶颈问题,为大规模数据处理和人工智能应用提供了更高效的计算支持。存内计算技术的核心思想是在存储器中实现简单的计算操作,以降低数据传输的功耗

归一化技术比较研究:Batch Norm, Layer Norm, Group Norm
本文将使用合成数据集对三种归一化技术进行比较,并在每种配置下分别训练模型。记录训练损失,并比较模型的性能。

Quiet-STaR:让语言模型在“说话”前思考
本文将介绍一篇3月的论文Quiet-STaR:这是一种新的方法,通过鼓励LLM发展一种“内心独白”的形式来解决这一限制,这种基本原理生成有助于LLM通过完成任务或回答问题所涉及的步骤进行推理,最终获得更准确和结构良好的输出。