语义分割数据集:Cityscapes的使用

本文主要介绍Cityscapes在语义分割方向上的理解和使用。其中包括Cityscapes具体构建流程和使用方法。并提供了具体代码和pytorch dataset代码。

Notion AI vs ChatGPT vs New Bing 三款AI软件使用体验对比

三款AI问答软件均师出同门,全部基于OpenAI公司开发的GPT-3模型(其中Chatgpt使用的应是ChatGPT3.5版本的模型)。本篇文章从多个维度对比三款软件使用的优缺点,帮助大家了解它们的使用方式,以及应该如何更好地使用它们作为自己的辅助。

【深度学习】预训练语言模型-BERT

BERT是一种预训练语言模型(pre-trained language model, PLM),其全称是Bidirectional Encoder Representations from Transformers。

2023年4月的12篇AI论文推荐

GPT-4发布仅仅三周后,就已经随处可见了。本月的论文推荐除了GPT-4以外还包括、语言模型的应用、扩散模型、计算机视觉、视频生成、推荐系统和神经辐射场。

【论文笔记】—低光图像增强—Supervised—URetinex-Net—2022-CVPR

【题目】:URetinex-Net: Retinex-based Deep Unfolding Network for Low-light Image Enhancement 提出了一种基于Retinex的 deep unfolding network (URetinex-Net),它将一个优化问题

YOLOv5源码逐行超详细注释与解读(3)——训练部分train.py

全网最详细的YOLOv5项目源码解读之训练部分train. py。全文近5万字!代码逐行注释,逐段讲解,小白入门必备!

摄像头标定--camera_calibration

用于指明标定板的内角点数量,如下图每个红圈的位置就是一个内角点,我所使用的GP290标点板有横向有11个内角点,纵向有8个内角点。当所有进度条都变成绿色后,CALIBRATE按钮由灰色变成深绿色,点击CALIBRATE,点击一下后,界面会卡住,此时不要做任何操作,直到运行标定程序的终端输出标定的结果

图解transformer | The Illustrated Transformer

写在最前边看transformer相关文章的时候发现很多人用了相同的图。直到我搜到作者的原文……于是决定翻译一下无删改的原文。翻译讲究:信、达、雅。要在保障意思准确的情况下传递作者的意图,并且尽量让文本优美。但是大家对我一个理工科少女的语言要求不要太高,本文只能保证在尽量通顺的情况下还原原文。作者博

PyTorch中的可视化工具

本文主要介绍Pytorch中的一些可视化工具

ChatGLM-6B 类似ChatGPT功能型对话大模型 部署实践

ChatGLM(alpha内测版:QAGLM)是一个初具问答和对话功能的中英双语模型,当前仅针对中文优化,多轮和逻辑能力相对有限,但其仍在持续迭代进化过程中,敬请期待模型涌现新能力。中英双语对话 GLM 模型:ChatGLM-6B,结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量

Video Transformer | TimeSformer 理解+ 代码实战

TimeSformer(video transformer)Is Space-Time Attention All You Need for Video Understanding?

如何判断训练中的模型已经收敛

3.模型收敛:train loss 下降趋于稳定,val loss 下降也趋于稳定,且train loss 的值与val loss 的值相差不大。5.train loss上升,val loss上升:网络结构设计有问题,或者训练参数设置不当等,及时停止学习,调整代码。4.train loss稳定,va

torch.load() 、torch.load_state_dict() 详解

torch.load() 、torch.load_state_dict() 详解

全局平均池化/全局最大池化Pytorch实现:

全局池化与普通池化的区别在于“局部区域”和“全局”:普通池化根据滑动窗口以及步长以逐步计算局部区域的方式进行;而全局池化是分别对每个通道的所有元素进行计算,谓之全局池化。大大降低计算的参数量;没有需要学习的参数,可以更好的避免过拟合;更能体现输入的全局信息;拿一个简单的网络验证参数量下降(此处只计算

A Time Series is Worth 64 Words(PatchTST模型)论文解读

论文A Time Series is Worth 64 Words:Long-Time Forecasting With Tranformer解读,最新时间序列预测SOTA模型PatchTST

【异构知识蒸馏:IVIF】

仅供自己参考

大模型时代的“Linux”生态,开启人工智能新十年

演讲 | 林咏华 智源人工智能研究院副院长 整理 | 何苗出品 | CSDN(ID:CSDNnews)2018 年以来,超大规模预训练模型的出现推动了 AI 科研范式从面向特定应用场景、训练专有模型,转变为大模型+微调+模型服务的AI工业化开发模式。直至对话大模型 ChatGPT 引发全球广泛关注,

【周末闲谈】AI的旅途

忙碌的一周终于快要过去了,本周就让我们来谈谈AI这个热点话题吧😉(ps:但愿下个星期会更加轻松)AI无论在那个时代都是人们津津乐道的话题,人们即担心其的发展终有一天会取代人类,又好奇它能够成长到何种地步,今天就让我们来谈谈AI的发展史吧。

pytorch深度学习一机多显卡训练设置,流程

pytorch深度学习一机多显卡训练设置,流程

pytorch如何搭建一个最简单的模型,

在 PyTorch 中,可以使用torch.nn模块来搭建深度学习模型。具体步骤如下:定义一个继承自的类,这个类将作为我们自己定义的模型。在类的构造函数__init__()中定义网络的各个层和参数。可以使用torch.nn模块中的各种层,如Conv2dLinear等。在类中定义前向传播函数forwa