深度强化学习(DRL)简介与常见算法(DQN,DDPG,PPO,TRPO,SAC)分类

简单介绍深度强化学习的基本概念,常见算法、流程及其分类(持续更新中),方便大家更好的理解、应用强化学习算法,更好地解决各自领域面临的前沿问题。欢迎大家留言讨论,共同进步。

Informer:比Transformer更有效的长时间序列预测

目录AAAI 2021最佳论文:比Transformer更有效的长时间序列预测BackgroundWhy attentionMethods:the details of InformerSolve_Challenge_1:最基本的一个思路就是降低Attention的计算量,仅计算一些非常重要的或者说

大型语言模型的推理演算

本文详细阐述了大型语言模型推理性能的几个基本原理,不含任何实验数据或复杂的数学公式,旨在加深读者对相关原理的理解。此外,作者还提出了一种极其简单的推理时延模型,该模型与实证结果拟合度高,可更好地预测和解释Transformer模型的推理过程。为了更好地阅读本文,读者需了解一些Transformer模

手把手教你用Yolov5 (v6.2) 训练分类模型 基于《Kaggle猫狗大战》案例

在8月17日晚上,YOLOv5官方发布了v6.2版本,v6.2版本支持分类模型训练、验证、预测和导出;v6.2版本的推出使得训练分类器模型变得超级简单!

【第77篇】分割anything

本文提出Segment Anything (SA)项目:一个用于图像分割的新任务、模型和数据集。在数据收集循环中使用我们的高效模型,我们构建了迄今为止(到目前为止)最大的分割数据集,在1100万张授权和尊重隐私的图像上有超过10亿个掩码。该模型被设计和训练为可提示的,因此它可以将零样本迁移到新的图像

ChatGPT等大模型的模型量化:平滑量化法

十亿级的模型、百亿级的模型、千亿级的模型量化难度完全不一样,而像chatgpt为代表的大模型,模型参数已经超过千亿。大模型往往同时是计算密集型+访存密集型的,如果想要做模型压缩,非常困难!这篇博客给大家介绍一下为什么大模型量化困难?大模型压缩过程中会遇到哪些挑战?以及如果解决这些困难?SmoothQ

【Segment Anything】CV的大模型Segment Anything也来了,强人工智能的时代究竟还有多远?

我自己上传了一张图片,结果还是挺好的(我上传的图片比较简单)。由于自己的3090显存有限,无法使用。论文解读后续更新……

深度学习时间序列预测项目案例数据集介绍

高精度、可靠的风速预报是气象学家面临的挑战。由对流风暴引起的强风,造成相当大的破坏(大规模森林破坏、停电、建筑物/房屋损坏等)。雷暴、龙卷风以及大冰雹、强风等对流事件是有可能扰乱日常生活的自然灾害,特别是在有利于对流启动的复杂地形上。即使是普通的对流事件也会产生强风,造成致命和昂贵的损失。因此,风速

Deep Learning Tuning Playbook(深度学习调参手册中译版)

由五名研究人员和工程师组成的团队发布了《Deep Learning Tuning Playbook》,本文对手册进行了中文翻译

解决方案:炼丹师养成计划 Pytorch如何进行断点续训——DFGAN断点续训实操

在实际运行当中,我们经常需要每100轮epoch或者每50轮epoch要保存训练好的参数,以防不测,这样下次可以直接加载该轮epoch的参数接着训练,就不用重头开始。下面我们来介绍Pytorch断点续训原理以及DFGAN20版本和22版本断点续训实操**。

【人工智能】图文详解深度学习中的卷积神经网络(CNN)

卷积神经网络是一种常用的深度学习模型,广泛用于图像识别、语音识别、自然语言处理等领域。它的核心思想是通过一系列卷积、池化等操作,提取出输入数据的特征,并通过全连接层等操作进行分类或回归等任务。

TensorFlow 决策森林详细介绍和使用说明

使用TensorFlow训练、调优、评估、解释和部署基于树的模型的完整教程

YOLOv5/v7 引入 RepVGG 重参数化模块

YOLO添加RepVGG教程

Pytorch+PyG实现GraphSAGE

本专栏整理了《图神经网络代码实战》,内包含了不同图神经网络的相关代码实现(PyG以及自实现),理论与实践相结合,如GCN、GAT、GraphSAGE等经典图网络,每一个代码实例都附带有完整的代码。

开源大语言模型(LLM)汇总(持续更新中)

随着ChatGPT的火爆,越来越多人希望在本地运行一个大语言模型。为此我维护了这个开源大语言模型汇总,跟踪每天不发的大语言模型和精调语言模型。

GoogLeNet详解

​目录一、GoogLeNet网络的背景二、GooLeNet网络结构三、GooLeNet的亮点四、GooLeNet代码实现一、GoogLeNet网络的背景想要更好的预测效果,就要从网络深度和网络宽度两个角度出发增加网络的复杂度。但这个思路有两个较为明显的问题:首先,更复杂的网络意味着更多的参数,也很容

吴恩达《深度学习》笔记汇总

第一门课:神经网络和深度学习(第一周)——深度学习引言第一门课:神经网络和深度学习(第二周)——神经网络的编程基础第一门课:神经网络和深度学习(第三周)——浅层神经网络第一门课:神经网络和深度学习(第四周)——深层神经网络第二门课:改善深层神经网络:超参数调试、正则化以及优化(第一周)——深度学习的

解析不同种类的StableDiffusion模型Models,再也不用担心该用什么了

Stable Diffusion是一个基于Latent Diffusion Models(潜在扩散模型,LDMs)的文图生成(text-to-image)模型。具体来说,Stable Diffusion在 LAION-5B 的一个子集上训练了一个Latent Diffusion Models,该模型

深入剖析Focal loss损失函数

目标检测方法常常使用先验框提高预测性能,一张图像可能生成成千上万的先验框,但是其中只有很少一部分能匹配到目标(正样本),而没有匹配到目标的先验框占大多数。这种情况造成了One-Stage目标检测方法的正负样本不平衡。如下图所示,红色的先验框都没有匹配到目标,所以它们都属于负样本,只是图中间的黄色先验