关于迁移学习的方法

迁移学习的具体实现

火星探测器背后的人工智能:从原理到实战的强化学习

本文详细探讨了强化学习在火星探测器任务中的应用。从基础概念到模型设计,再到实战代码演示,我们深入分析了任务需求、环境模型构建及算法实现,提供了一个全面的强化学习案例解析,旨在推动人工智能技术在太空探索中的应用。

注意力机制——Convolutional Block Attention Module(CBAM)

其中通道注意力模块通过对输入特征图在通道维度上进行最大池化和平均池化,然后将这两个池化结果输入到一个全连接层中,最后输出一个通道注意力权重向量。空间注意力模块则通过对输入特征图在通道维度上进行平均池化和最大池化,然后将这两个池化结果输入到一个全连接层中,最后输出一个空间注意力权重张量。CBAM 模块

使用FP8加速PyTorch训练

在这篇文章中,我们将介绍如何修改PyTorch训练脚本,利用Nvidia H100 GPU的FP8数据类型的内置支持。

nnUNet原创团队全新力作!MedNeXt:医学图像分割新SOTA

MedNeXt是nnUNet原创团队于2023年3月17日上传至arxiv上的新作品,该模型受ConNeXt启发,根据Transformer改进了现有的卷积网络,实现了医学图像分割领域的SOTA。除了用Transformer改造UNet之外,MedNeXt还改进了上采样和下采样块、提出了一个用小卷积

用TrackEval评测自己的数据集

跑通代码最重要的就是路径问题, 为此我写了两个config模板, 让配置路径更简单.

大语言模型量化方法对比:GPTQ、GGUF、AWQ

在过去的一年里,大型语言模型(llm)有了飞速的发展,在本文中,我们将探讨几种(量化)的方式,除此以外,还会介绍分片及不同的保存和压缩策略。

深度学习之图像分割—— SegNet基本思想和网络结构以及论文补充

也就是每次Pooling,都会保存通过max选出的权值在2x2 filter中的相对位置,对于上图的6来说,6在粉色2x2 filter中的位置为(1,1)(index从0开始),黄色的3的index为(0,0)。,即卷积后保持图像原始尺寸;在网络框架中,SegNet,最后一个卷积层会输出所有的类别

“AI教父”Geoffrey Hinton:智能进化的下一个阶段

ChatGPT等大模型带来的震撼技术革新,让Geoffrey Hinton突然改变了自己的一个想法。这位75岁的“人工智能教父”意识到,数字智能优于生物智能的进程无法避免,超级智能很快就会到来,他必须要对其风险发出警示,而人类需要找到一种方法来控制AI技术的发展。而在此之前,他一直认为,智能机器人不

光流估计(二) FlowNet 系列文章解读

在上篇文章中,我们学习并解了光流(Optical Flow)的一些基本概念和基本操作,但是传统的光流估计方法计算比较复杂、成本较高。近些年来随着CNN卷积神经网络的不断发展和成熟,其在各种计算机视觉任务中取得了巨大成功(多用于识别相关任务)。于是,将光流估计与CNN深度学习相结合提出了FlowNet

通过WSL2搭建Pytorch1.10+CUDA11.4+NVIDIA Driver深度学习框架

通过WSL2搭建Pytorch1.10+CUDA11.4+NVIDIA Driver深度学习框架

sMLP:稀疏全mlp进行高效语言建模

论文提出了sMLP,通过设计确定性路由和部分预测来解决下游任务方面的问题。

AI时代再进化!GitHub上热门AI工具大PK!

作为如今备受推崇的开发者技术社区,GitHub 近来涌现出众多令人激动的 AI 工具。这些工具都有一些共同的特质:它们不仅简单易用,高效便捷,而且融入了引人注目的创新元素,能够显著提升您个人的工作效率和生产力。今天,我将带您深入了解一些备受欢迎的 GitHub 上的 AI 工具,这些工具将成为您日常

【端到端图像压缩】CompressAI运行记录

期末作业要求运行端到端的图像压缩代码,过程中学习了csdn上诸多教程。这里将运行的过程分享出来。

图像数据增强算法汇总(Python)

数据增强是一种通过使用已有的训练样本数据来生成更多训练数据的方法,可以应用于解决数据不足的问题。数据增强技术可以用来提高模型的泛化能力,减少过拟合现象。比如在狗猫识别项目中,通过随机旋转、翻转和裁剪等数据增强方法,可以使模型具有对不同角度和尺寸的狗猫图像的识别能力。增加训练样本数量:通过生成新样本,

用最通俗的方式理解LSTM和重要参数

LSTM---长短期记忆递归神经网络是一个非常常用的神经网络,其特点在于该网络引入了长时记忆和短时记忆的概念,因而适用于一些有着上下文语境的回归和分类,诸如温度预测或是语义理解。从利用pytorch来构造模型的角度来看,该模型相比于一般的模型会有一些不同的地方,尤其是在参数的设置上,本文尝试以一个相

XoT:一种新的大语言模型的提示技术

这是微软在11月最新发布的一篇论文,它增强了像GPT-3和GPT-4这样的大型语言模型(llm)解决复杂问题的潜力。

常用的数据集网站

常用数据集网站

卷积总结篇(普通卷积、转置卷积、膨胀卷积、分组卷积和深度可分离卷积)

卷积总结篇(普通卷积、转置卷积、膨胀卷积、分组卷积和深度可分离卷积),分别从概念、背景、原理、参数量、计算量、感受野、各种卷积的优点以及在网络的应用展开讲解。

AI数字人:最强声音驱动面部表情模型VideoReTalking

VideoReTalking是一个强大的开源模型,是目前语音驱动面部表情的模型中效果最好的一个。此模型是由西安电子科技大学、腾讯人工智能实验室和清华大学联合开发的。