(HGNN) Hypergraph Neural Networks

提出了一个用于数据表示学习的超图神经网络(HGNN)框架,它可以在超图结构中编码高阶数据相关性。面对在实际实践中学习复杂数据表示的挑战,我们建议将这种数据结构合并到超图中,这在数据建模上更加灵活,特别是在处理复杂数据时。该方法设计了一种来处理表示学习过程中的数据相关性。这样,传统的超图学习过程就可以

Facebook AI团队的DETR模型代码复现

5.开始训练,Facebook AI 团队训练了 300 个 epoch,这里推荐修改 为 100,修改自己数据集位置 train2017 和 val2017 以及标注文件的路径,修改自己权重文件路径,开始训练, 训练完成之后会在output生成自己的训练模型 check 什么文件,记住他的路径。这

PubMedBERT:生物医学自然语言处理领域的特定预训练模型

语言模型并不一定就是最优的解决方案,“小”模型也有一定的用武之地

人工智能:CNN(卷积神经网络)、RNN(循环神经网络)、DNN(深度神经网络)的知识梳理

CNN 主要用于处理图像数据,RNN 用于处理序列数据,而 DNN 是一个通用的深度神经网络架构,可以应用于各种不同类型的数据。这些神经网络架构也可以结合使用,以解决复杂的多模态问题。

深度学习|BP神经网络

讲述BP神经网络原理,并通过Python语言,分别导入numpy、sklearn和pytorch库完成编程。

经典神经网络论文超详细解读(五)——ResNet(残差网络)学习笔记(翻译+精读+代码复现)

RseNet论文(《Deep Residual Learning for Image Recognition》)超详细解读。翻译+总结。文末有代码复现

注意力机制——Convolutional Block Attention Module(CBAM)

其中通道注意力模块通过对输入特征图在通道维度上进行最大池化和平均池化,然后将这两个池化结果输入到一个全连接层中,最后输出一个通道注意力权重向量。空间注意力模块则通过对输入特征图在通道维度上进行平均池化和最大池化,然后将这两个池化结果输入到一个全连接层中,最后输出一个空间注意力权重张量。CBAM 模块

光流估计(二) FlowNet 系列文章解读

在上篇文章中,我们学习并解了光流(Optical Flow)的一些基本概念和基本操作,但是传统的光流估计方法计算比较复杂、成本较高。近些年来随着CNN卷积神经网络的不断发展和成熟,其在各种计算机视觉任务中取得了巨大成功(多用于识别相关任务)。于是,将光流估计与CNN深度学习相结合提出了FlowNet

神经网络中的量化与蒸馏

本文将深入研究深度学习中精简模型的技术:量化和蒸馏

2022大湾区杯粤港澳金融数学建模备赛

第三届大湾区杯金融数学建模即将开始,缺少金融数学的知识积累,通过竞赛的讲座对金融市场有了一定的了解。

如何在kaggle上保存、加载文件,同时在output上删除已经保存的文件。

在kaggle的notebook下操作output,用torch对文件进行操作

卷积神经网络CNN的经典模型

主要介绍卷积神经网络CNN的发展史,并详细剖析了经典网络模型的架构。

【人工智能】大模型的发展历史

2012年以后的深度学习热潮:2012年,AlexNet横空出世,以卷积神经网络(CNN)为代表的深度学习模型在计算机视觉任务中取得了巨大突破,吸引了越来越多的计算机科学家和工程师投入深度学习研究和应用。:2018年,Google推出了基于Transformer的预训练模型BERT,通过大量无标签文

基于ChatGPT实现AI软件研发 | 神经网络 | 数据

这是一本讲解以ChatGPT/GPT-4为代表的大模型如何为软件研发全生命周期赋能的实战性著作。它以软件研发全生命周期为主线,详细讲解了ChatGPT/GPT-4在软件产品的需求分析、架构设计、技术栈选择、高层设计、数据库设计、UI/UX 设计、后端应用开发、Web 前端开发、软件测试、系统运维、技

神经网络的发展历史

论文中提出了人工神经网络的概念,并给出了人工神经元的数学模型,从而开创了人工神经网络研究的时代。

LSTM-CRF模型详解和Pytorch代码实现

本文中crf的实现并不是最有效的实现,也缺乏批处理功能,但是它相对容易阅读和理解,因为本文的目的是让我们了解crf的内部工作,所以它非常适合我们。

TSMixer:谷歌发布的用于时间序列预测的全新全mlp架构

这是谷歌在9月最近发布的一种新的架构 TSMixer: An all-MLP architecture for time series forecasting

深度学习技巧应用2-神经网络中的‘残差连接’

残差连接通过直接将前一层的输出加到后一层的输入中,使得梯度能够更容易地传递到前一层,从而使得深度神经网络的训练更加容易。由于深层网络容易出现梯度消失或梯度爆炸的问题,因此可以通过残差连接的方式,将网络的深度扩展到数十层以上,从而提高模型的性能。残差连接的基本思想是,在网络的某些层中,将输入的信号直接

常见注意力机制解析

详细解析多种注意力机制!

9月大型语言模型研究论文总结

这些论文涵盖了一系列语言模型的主题,从模型优化和缩放到推理、基准测试和增强性能。最后部分讨论了有关安全训练并确保其行为保持有益的论文。