丹摩智算:如何在云端开发一个AI应用——基于UNet的眼底血管分割案例

丹摩智算低价狂欢节开始,4090、显示器等神秘好礼等待大家!

MaskRCNN 在 Windows 上的部署教程

在’train’模式下,主要关注dataset、weights和logs参数,确保它们正确指向了训练所需的数据集、权重文件和日志目录。在’splash’模式下,除了上述参数外,还需要关注image或video参数,确保它们正确指向了要检测的目标图像或视频文件。同时,weights参数应指向一个已训练

Transformer——逐步详解架构和完整代码搭建

Transformer是一个经典的编码解码结构,编码器decoder负责编码,解码器encoder负责解码。Transformer是基于seq2seq的架构,提出时被用在机器翻译任务上,后面变种‌Swin Transformer和‌Vision Transformer让其在CV领域也大放异彩。

解析数论基础:第三十三章 零点分布(二)

解析数论基础:第三十三章 零点分布(二)作者:禅与计算机程序设计艺术 / Zen and the Art of Computer Programming关键词:解析数论、黎曼ζ函数、零点分布、素数定理、蒙哥马利猜想、配对相关函数、随机矩阵理论1. 背景介绍

SparkStreaming的最佳实践案例分享

在当今数据密集型应用的时代,实时数据处理和分析已经成为许多企业和组织的核心需求。Apache Spark是一个开源的大数据处理框架,它提供了一个统一的环境来进行批处理、交互式查询和流式计算。Spark Streaming作为Spark生态系统中的一个重要组成部分,专门用于实时数据流的处理,可以从多种

Qwen2-57B-A14B预训练

Qwen2-57B-A14B作为一个强大的MoE模型,在保持较小激活参数规模的同时,实现了优秀的性能表现,为大规模语言模型的应用提供了新的可能性。任务中表现优异,超越了当前主流的MoE开源模型。SwiGLU激活函数。

梯度下降Gradient Descent原理与代码实例讲解

梯度下降Gradient Descent原理与代码实例讲解1. 背景介绍1.1 机器学习中的优化问题在机器学习中,我们经常需要解决各种优化问题。比如在训练一个模型时,我们希望通过最小化损失函数(loss

ResNet原理与代码实例讲解

ResNet原理与代码实例讲解1. 背景介绍1.1 问题的由来在深度学习领域,随着网络层数的增加,模型的训练难度也在增加。深层网络容易陷入梯度消失或梯度爆炸的问题,导致训练效率低下。这一现象在深层神经网络结构中尤为明显,比如在卷积神经网络(

多任务学习MultiTask Learning原理与代码实例讲解

多任务学习算法通常旨在最小化所有任务的损失函数之和。在联合训练框架中,可以通过最小化多任务损失函数来实现这一目标。多任务损失函数可以是每个任务损失的加权和,或者更复杂的组合,如最小化每个任务损失的同时保持任务之间的差异。首先,明确要解决的任务集。每个任务都定义其相应的损失函数,如交叉熵损失、均方误差

多模态大模型:技术原理与实战 智能试穿

多模态大模型:技术原理与实战 智能试穿1. 背景介绍1.1 多模态大模型的兴起近年来,随着深度学习技术的飞速发展,多模态大模型(Multimodal Large Models)成为人工智能领域的研究热点。多模态大模型能够同时

使用TensorRT进行加速推理(示例+代码)

TensorRT 是 NVIDIA 开发的一款高性能深度学习推理引擎,旨在优化神经网络模型并加速其在 NVIDIA GPU 上的推理性能。它支持多种深度学习框架,并提供一系列优化技术,以实现更高的吞吐量和更低的延迟。TensorRT(NVIDIA Tensor Runtime)是由 NVIDIA 开

药品包装或质量控制

这段代码是一个完整的工作流程,从图像的读取、预处理、特征提取、分类器训练、分类、后处理到结果展示。它适用于自动化药片识别和分类的场景,例如在药品包装或质量控制中。

【论文精读】Fully Sparse 3D Occupancy Prediction

团队:南京大学,上海人工智能实验室时间:2023年12月代码:https://github.com/MCG-NJU/SparseOcc。

Mem0 与 MultiOn:打造个性化 AI 辅助研究助手

Mem0 是一个为大型语言模型(LLMs)设计的智能记忆层。它能够存储和检索用户相关的信息,为 AI 应用提供个性化的上下文。多层次记忆存储自适应个性化简单易用的 API跨平台一致性。

自制深度学习推理框架之入门基础

从零自制深度学习推理框架,主要介绍了环境配置和基础库的使用。

从【人工智能】到【计算机视觉】,【深度学习】引领的未来科技创新与变革

本文系统性地介绍了人工智能、机器学习、深度学习、算法和计算机视觉的基础知识、核心技术和实际应用。从基本概念到高级技术,本文旨在为读者提供一个全面的学习指南,帮助他们深入理解和掌握AI领域的关键内容。人工智能的未来发展将更加广泛和深入。随着技术的进步,AI将在更多的领域得到应用,带来新的机遇和挑战。未

Qwen2-1.5B-Instruct Lora微调

最近做了一个基于Qwen2-1.5B-Instruct模型的比赛,记录一下自己的微调过程。怕自己以后忘了我就手把手一步一步来记录了。大多数都是给小白看的,如果你是小白建议你用jupyter运行,按照我这个模块一块一块运行,如果你是高手单纯的想找一个训练代码直接看模块10,我在提供了完整代码。

[paper阅读笔记][2024]Learning with Noisy Foundation Models

本文任务虽然是:在下游任务中有效地利用含噪声的预训练基础模型,但其实其本质科学问题是:如何在存在数据噪声的情况下保持和提升模型的泛化能力。

Transformer模型

Transformer模型是一种在自然语言处理(NLP)及其他序列到序列(Seq2Seq)任务中广泛使用的深度学习模型框架。其基本原理和核心组件,尤其是自注意力机制(Self-Attention Mechanism),对于理解该模型的工作方式至关重要。以下是对Transformer模型基本原理和自注

Mixup原理与代码实例讲解

Mixup原理与代码实例讲解作者:禅与计算机程序设计艺术 / Zen and the Art of Computer Programming1. 背景介绍1.1 问题的由来随着深度学习在各个领域的广泛应用,如何提高模型泛化能力

登录可以使用的更多功能哦! 登录
作者榜
...
资讯小助手

资讯同步

...
内容小助手

文章同步

...
Deephub

公众号:deephub-imba

...
奕凯

公众号:奕凯的技术栈