【人工智能】新手版手写数字识别
MNIST数据集包含60000个训练集和10000测试数据集。分为图片和标签,图片是28x28的像素矩阵,标签为0~9共10个数字所搭建的网络不包括输入层的情况下,共有7层:5个卷积层、2个全连接层 其中第一个卷积层的输入通道数为数据集图片的实际通道数。MNIST数据集为灰度图像,通道数为1 第1个
医学图像分割,Transformer+UNet的14种融合方法
在此框架内,Cross Transformer 模块采用可扩展采样来计算两种模态之间的结构关系,从而重塑一种模态的结构信息,以与 Swin Transformer 同一局部窗口内两种模态的相应结构保持一致。在编码器中,输入的MRI扫描X∈RC×H×W×D,具有C个通道(模态),H×W的空间分辨率和D
半监督学习 (SemiSupervised Learning) 原理与代码实例讲解
在机器学习领域,数据集通常分为两类:带有标签的数据(有监督学习)和未带标签的数据(无监督学习)。有监督学习方法需要大量带有标签的数据来训练模型,而无监督学习方法则利用未带标签的数据进行模式识别和聚类。然而,获取大量高质量的标签数据往往成本高昂且耗时。半监督学习(Semi-Supervised Lea
GPU服务器使用SD- WebUI容器镜像快速将文本生成图像
Stable Diffusion WebUI(以下简称SD-WebUI)镜像通过DeepGPU工具(例如AIACC Deepytorch)进行加速,您无需深入了解复杂的机器学习模型推理优化细节,便可开箱即用。对于需要文本生成图像的业务场景,在GPU实例上部署SD-WebUI容器镜像后可以提供更快的计
打造全场景、跨领域、多模态的AI工作流 | 开源图像标注工具 X-AnyLabeling v2.4.0 正式发布!
X-AnyLabeling 是一款基于AI推理引擎和丰富功能特性于一体的强大辅助标注工具,其专注于实际应用,致力于为图像数据工程师提供工业级的一站式解决方案,可自动快速进行各种复杂任务的标定。
ultralytics-yolo-webui :Detect 目标检测 工具-先行版本 >> DataBall
通过webui 方式对ultralytics 的 detect 检测任务 进行: 1)数据预处理,2)模型训练,3)模型推理。本项目提供了 示例数据集,用 labelImage标注,标注文件为 xml 文件。项目地址:https://github.com/XIAN-HHappy/ultralyti
三种Transformer模型中的注意力机制介绍及Pytorch实现:从自注意力到因果自注意力
本文深入探讨Transformer模型中三种关键的注意力机制:自注意力、交叉注意力和因果自注意力。我们不仅会讨论理论概念,还将使用Python和PyTorch从零开始实现这些注意力机制。
LYT-Net——轻量级YUV Transformer 网络低光照条件图像修复
低光照图像增强(LLIE)是计算机视觉(CV)领域的一个重要且具有挑战性的任务。在低光照条件下捕获图像会显著降低其质量,导致细节和对比度的丧失。这种退化不仅会导致主观上不愉快的视觉体验,还会影响许多CV系统的性能。LLIE的目标是在提高可见度和对比度的同时,恢复暗环境中固有的各种失真。低光照条件指的
多模态AI:原理、应用与未来展望
多模态AI技术正引领着人工智能的发展方向,通过融合多种数据类型,提供更智能的解决方案。尽管面临诸多挑战,未来的多模态AI系统将变得更加智能、自适应和强大,推动各行各业的智能化进程。通过不断探索和创新,我们将迎来一个更加智能化的未来。
多代理强化学习综述:原理、算法与挑战
多代理强化学习是强化学习的一个子领域,专注于研究在共享环境中共存的多个学习代理的行为。每个代理都受其个体奖励驱动,采取行动以推进自身利益
大模型科普:大模型与传统AI的区别
本文详尽地介绍了大模型(特别是大规模语言模型LLM)的基本概念、与传统AI的区别、训练过程以及生成答案的机制,这对于理解当前AI技术的前沿进展非常有帮助。
开源模型应用落地-模型微调-模型研制-模型训练(二)
通过微调让预训练模型更好地适应各种特定任务的要求
Dify:一个简化大模型应用的开源平台
Dify 是一个开源的 AI 应用开发平台,旨在帮助开发者简化大语言模型 (LLM) 应用的开发、部署和管理。无论开发者是否拥有机器学习背景,Dify 通过友好的界面和强大的工具,帮助快速实现 AI 应用的构建与交付。它具备丰富的功能模块,涵盖提示工程、数据集管理、模型集成、API 部署以及 LLM
AI基本概念(人工智能、机器学习、深度学习)
一、概述ChatGPT 3.5是OpenAI在ChatGPT系列基础上进行改进的一款AI模型,它在自然语言处理方面展现出了非常强大的能力,能够进行对话、阅读、生成文本等多种任务。二、主要特点模型规模与参数:ChatGPT 3.5的预训练模型包含了1750亿个参数,是目前最大的自然语言处理模型之一。多
华为开源自研AI框架昇思MindSpore应用案例:计算高效的卷积模型ShuffleNet
华为开源自研AI框架昇思MindSpore应用案例:计算高效的卷积模型ShuffleNet
机器学习中的并行与分布式深度学习:C/C++实现详解
并行深度学习是指在单台机器或单个集群内通过并行处理来加速模型训练。数据并行(Data Parallelism):将数据划分为多个部分,同时在多个处理器上训练同一个模型副本。模型并行(Model Parallelism):将模型的不同部分划分到不同的处理器上,在每个处理器上运行模型的一部分,适用于特别
如何搭建10万个H100 GPU的集群:电力、并行化、网络拓扑与成本优化
在现代人工智能的发展中,构建大规模GPU集群是提升计算能力的关键手段。今天我们探讨如何搭建一个包含10万个H100 GPU的集群。这个项目不仅涉及巨大的资本支出,还面临电力供应、并行化处理、网络拓扑结构以及可靠性和恢复等多方面的挑战。通过深入分析这些问题,本文将为大家揭示构建如此庞大集群的复杂性和关
动态注意力机制新突破!11个最新idea,看了就能发顶会!
在处理复杂数据时,可以通过引入,让模型根据输入数据的特点动态调整关注点,聚焦最关键的信息,来提高模型的处理能力和效率。这种比传统方法更高效、灵活的技术足以应对各种复杂任务和挑战,具有强大的适应性,因此它的应用范围非常广泛,创新空间也很大,是深度学习领域的一个热门研究方向。目前常见的关于动态注意力机制
图像数据增强库综述:10个强大图像增强工具对比与分析
本文旨在全面介绍当前广泛使用的图像数据增强库,分析其特点和适用场景,以辅助研究人员和开发者选择最适合其需求的工具。
【AI大模型】深入Transformer架构:编码器部分的实现与解析(下)
在Transformer中前馈全连接层就是具有两层线性层的全连接网络。前馈全连接层的作用是考虑注意力机制可能对复杂过程的拟合程度不够, 通过增加两层网络来增强模型的能力.