如果你的PyTorch优化器效果欠佳,试试这4种深度学习中的高级优化技术吧

在深度学习领域,优化器的选择对模型性能至关重要。

【人工智能环境搭建】Win11+WSl2+Ubuntu+CUDA+cuDNN+Pytorch搭建教程

作为一名科班研究生,在科研环境方面踩了很多坑,历时两天终于搭建成功环境,借此契机想将其中的坑之处与大家分享,帮助刚入门的小白避免一些坑。下面就开是我们今天的教程吧!本次教程版本:Win11、WSL2、Ubuntu22.04、CUDA12.4、cuDNN8.9.7、Pytorch2.4.1、pytho

【人工智能】新手版手写数字识别

MNIST数据集包含60000个训练集和10000测试数据集。分为图片和标签,图片是28x28的像素矩阵,标签为0~9共10个数字所搭建的网络不包括输入层的情况下,共有7层:5个卷积层、2个全连接层 其中第一个卷积层的输入通道数为数据集图片的实际通道数。MNIST数据集为灰度图像,通道数为1 第1个

医学图像分割,Transformer+UNet的14种融合方法

在此框架内,Cross Transformer 模块采用可扩展采样来计算两种模态之间的结构关系,从而重塑一种模态的结构信息,以与 Swin Transformer 同一局部窗口内两种模态的相应结构保持一致。在编码器中,输入的MRI扫描X∈RC×H×W×D,具有C个通道(模态),H×W的空间分辨率和D

打造全场景、跨领域、多模态的AI工作流 | 开源图像标注工具 X-AnyLabeling v2.4.0 正式发布!

X-AnyLabeling 是一款基于AI推理引擎和丰富功能特性于一体的强大辅助标注工具,其专注于实际应用,致力于为图像数据工程师提供工业级的一站式解决方案,可自动快速进行各种复杂任务的标定。

三种Transformer模型中的注意力机制介绍及Pytorch实现:从自注意力到因果自注意力

本文深入探讨Transformer模型中三种关键的注意力机制:自注意力、交叉注意力和因果自注意力。我们不仅会讨论理论概念,还将使用Python和PyTorch从零开始实现这些注意力机制。

LYT-Net——轻量级YUV Transformer 网络低光照条件图像修复

低光照图像增强(LLIE)是计算机视觉(CV)领域的一个重要且具有挑战性的任务。在低光照条件下捕获图像会显著降低其质量,导致细节和对比度的丧失。这种退化不仅会导致主观上不愉快的视觉体验,还会影响许多CV系统的性能。LLIE的目标是在提高可见度和对比度的同时,恢复暗环境中固有的各种失真。低光照条件指的

多模态AI:原理、应用与未来展望

多模态AI技术正引领着人工智能的发展方向,通过融合多种数据类型,提供更智能的解决方案。尽管面临诸多挑战,未来的多模态AI系统将变得更加智能、自适应和强大,推动各行各业的智能化进程。通过不断探索和创新,我们将迎来一个更加智能化的未来。

多代理强化学习综述:原理、算法与挑战

多代理强化学习是强化学习的一个子领域,专注于研究在共享环境中共存的多个学习代理的行为。每个代理都受其个体奖励驱动,采取行动以推进自身利益

大模型科普:大模型与传统AI的区别

本文详尽地介绍了大模型(特别是大规模语言模型LLM)的基本概念、与传统AI的区别、训练过程以及生成答案的机制,这对于理解当前AI技术的前沿进展非常有帮助。

AI基本概念(人工智能、机器学习、深度学习)

一、概述ChatGPT 3.5是OpenAI在ChatGPT系列基础上进行改进的一款AI模型,它在自然语言处理方面展现出了非常强大的能力,能够进行对话、阅读、生成文本等多种任务。二、主要特点模型规模与参数:ChatGPT 3.5的预训练模型包含了1750亿个参数,是目前最大的自然语言处理模型之一。多

华为开源自研AI框架昇思MindSpore应用案例:计算高效的卷积模型ShuffleNet

华为开源自研AI框架昇思MindSpore应用案例:计算高效的卷积模型ShuffleNet

如何搭建10万个H100 GPU的集群:电力、并行化、网络拓扑与成本优化

在现代人工智能的发展中,构建大规模GPU集群是提升计算能力的关键手段。今天我们探讨如何搭建一个包含10万个H100 GPU的集群。这个项目不仅涉及巨大的资本支出,还面临电力供应、并行化处理、网络拓扑结构以及可靠性和恢复等多方面的挑战。通过深入分析这些问题,本文将为大家揭示构建如此庞大集群的复杂性和关

动态注意力机制新突破!11个最新idea,看了就能发顶会!

在处理复杂数据时,可以通过引入,让模型根据输入数据的特点动态调整关注点,聚焦最关键的信息,来提高模型的处理能力和效率。这种比传统方法更高效、灵活的技术足以应对各种复杂任务和挑战,具有强大的适应性,因此它的应用范围非常广泛,创新空间也很大,是深度学习领域的一个热门研究方向。目前常见的关于动态注意力机制

图像数据增强库综述:10个强大图像增强工具对比与分析

本文旨在全面介绍当前广泛使用的图像数据增强库,分析其特点和适用场景,以辅助研究人员和开发者选择最适合其需求的工具。

【AI大模型】深入Transformer架构:编码器部分的实现与解析(下)

在Transformer中前馈全连接层就是具有两层线性层的全连接网络。前馈全连接层的作用是考虑注意力机制可能对复杂过程的拟合程度不够, 通过增加两层网络来增强模型的能力.

【自用】动手学深度学习——跟李沐学AI要点

自用,是学习实时笔记,未条条记录,没有进一步加工组织语言,按需查看。

FredNormer: 非平稳时间序列预测的频域正则化方法

FredNormer的核心思想是从频率角度观察数据集,并自适应地增加关键频率分量的权重。

2024 Google 开发者大会:AI 如何引领技术创新浪潮?

2024 Google 开发者大会展示了 AI 技术在各个领域的创新应用,从 Gemma 2 和 Gemini API 等核心技术的突破,到 Google AI Studio 这样的一站式开发平台,再到非遗保护和特殊教育等传统领域的创新应用。这些进展不仅展示了 AI 技术的巨大潜力,也为开发者提供了

PAIRDISTILL: 用于密集检索的成对相关性蒸馏方法

成对相关性蒸馏(Pairwise Relevance Distillation, PAIRDISTILL)。