联邦学习研究方向及论文推荐(二)
第二篇联邦学习论文推荐。
Vit transformer中class token作用
因为transformer输入为一系列的patch embedding,输出也是同样长的序列patch feature,但是最后要总结为一个类别的判断,简单方法可以用avg pool,把所有的patch feature都考虑算出image feature。其中训练的时候,class token的em
【AI知识点】残差网络(ResNet,Residual Networks)
残差网络(ResNet,Residual Networks) 是由微软研究院的何凯明等人在 2015 年提出的一种深度神经网络架构,在深度学习领域取得了巨大的成功。它通过引入残差连接(Residual Connection) 解决了深层神经网络中的梯度消失(Vanishing Gradient) 问
扩散引导语言建模(DGLM):一种可控且高效的AI对齐方法
随着大型语言模型(LLMs)的迅速普及,如何有效地引导它们生成安全、适合特定应用和目标受众的内容成为一个关键挑战。例如,我们可能希望语言模型在与幼儿园孩子互动时使用不同的语言,或在撰写喜剧小品、提供法律支持或总结新闻文章时采用不同的风格。目前,最成功的LLM范式是训练一个可用于多种任务的大型自回归模
Resnet结构介绍
ResNet,全称为残差网络(Residual Networks),是一种深度卷积神经网络架构,由微软研究院的Kaiming He等人于2015年提出。ResNet在多个视觉识别任务中取得了当时的最佳性能,并在深度学习领域产生了深远的影响。
Agent Q:自主 AI 智体的高级推理和学习
24年8月来自MultiOn AGI公司和斯坦福大学的论文“”Agent Q: Advanced Reasoning and Learning for Autonomous AI Agents“。
人工智能 | BP神经网络
到这里已经可以重新描述BP神经网络的定义了,官方的说法是“按照误差逆向传播算法训练的。
CNN卷积神经网络代码实现及解析(仅全连接层)
CNN卷积神经网络代码实现及解析(仅全连接层),适合0基础,非常详细的学习记录
关于深度学习中的cuda编程,cuda相关介绍
CUDA(Compute Unified Device Architecture,统一计算设备架构)是由Nvidia开发的编程模型和并行计算平台。在模式识别任务中,使用cuda进行GPU加速可以显著提升计算能力,通过并行化任务更快的执行简单矩阵操作PyTorch提供了torch.cuda库来设置和运
【增量学习】7种典型场景
所有训练样本属于同一个任务,并分批到达。
植物数据集-全面多种杂草识别的数据集
CWD30数据集,专为作物杂草识别任务设计。CWD30包含219,770张高分辨率图像,涵盖20种杂草和10种作物的不同生长阶段、多角度视角和多种环境条件。数据集从不同地理位置和季节的农田收集,确保了数据的代表性。其分层分类法实现了细粒度分类,有助于开发更精确和强大的深度学习模型。广泛的基线实验表明
【AI前沿】计算机视觉的10个突破性进展:实际应用、挑战与方向
【AI前沿】计算机视觉的10个突破性进展:实际应用、挑战与方向
科研论文必备:10大平台和工具助你高效查找AI文献
Research Rabbit是一款基于引文网络的文献检索及可视化工具,它可以根据用户提供的种子文献,自动推荐相关文献,并以可视化的方式展示文献之间的关系,可查看领域大牛及学者间的合作关系。Connected Papers是一款基于引文网络的文献检索与分析工具,它可以根据用户提供的一篇种子文献,构建
用国产AI大模型通义千问写论文的保姆级教程(附AI写作工具)
之前咱们出过两篇保姆级教程,分别是用ChatGPT写学术论文和用Kimi写论文的教程,今天我选择的是阿里巴巴出品的ai大模型通义千问,亲测一下用通义千问写出来的论文初稿水平如何。通过AI的联系上下方功能和角色扮演功能,非常快速完成论文初稿的建立,而对于论文内容润色和细化,则需要不断通过提问AI,提问
如果你的PyTorch优化器效果欠佳,试试这4种深度学习中的高级优化技术吧
在深度学习领域,优化器的选择对模型性能至关重要。
【人工智能环境搭建】Win11+WSl2+Ubuntu+CUDA+cuDNN+Pytorch搭建教程
作为一名科班研究生,在科研环境方面踩了很多坑,历时两天终于搭建成功环境,借此契机想将其中的坑之处与大家分享,帮助刚入门的小白避免一些坑。下面就开是我们今天的教程吧!本次教程版本:Win11、WSL2、Ubuntu22.04、CUDA12.4、cuDNN8.9.7、Pytorch2.4.1、pytho
【人工智能】新手版手写数字识别
MNIST数据集包含60000个训练集和10000测试数据集。分为图片和标签,图片是28x28的像素矩阵,标签为0~9共10个数字所搭建的网络不包括输入层的情况下,共有7层:5个卷积层、2个全连接层 其中第一个卷积层的输入通道数为数据集图片的实际通道数。MNIST数据集为灰度图像,通道数为1 第1个
医学图像分割,Transformer+UNet的14种融合方法
在此框架内,Cross Transformer 模块采用可扩展采样来计算两种模态之间的结构关系,从而重塑一种模态的结构信息,以与 Swin Transformer 同一局部窗口内两种模态的相应结构保持一致。在编码器中,输入的MRI扫描X∈RC×H×W×D,具有C个通道(模态),H×W的空间分辨率和D
打造全场景、跨领域、多模态的AI工作流 | 开源图像标注工具 X-AnyLabeling v2.4.0 正式发布!
X-AnyLabeling 是一款基于AI推理引擎和丰富功能特性于一体的强大辅助标注工具,其专注于实际应用,致力于为图像数据工程师提供工业级的一站式解决方案,可自动快速进行各种复杂任务的标定。
三种Transformer模型中的注意力机制介绍及Pytorch实现:从自注意力到因果自注意力
本文深入探讨Transformer模型中三种关键的注意力机制:自注意力、交叉注意力和因果自注意力。我们不仅会讨论理论概念,还将使用Python和PyTorch从零开始实现这些注意力机制。