人工智能 - 人脸识别:发展历史、技术全解与实战
本文全面探讨了人脸识别技术的发展历程、关键方法及其应用任务目标,深入分析了从几何特征到深度学习的技术演进。
11月推荐阅读的12篇大语言模型相关论文
现在已经是12月了,距离2024年只有一个月了,本文总结了11月的一些比较不错的大语言模型相关论文
文本识别CRNN模型介绍以及pytorch代码实现
文本识别CRNN pytorch
人工智能概论报告-基于PyTorch的深度学习手写数字识别模型研究与实践
CQUPT人工智能概论的课程大作业实践应用报告,供大家参考,如果有需要word版的可以私信我,或者在评论区留下邮箱,我会逐个发。word版是我最后提交的,已经调整统一了全文格式等。希望能给大家提供一些参考。如果起到作用请给我点个赞哦,嘿嘿嘿嘿
目标检测算法——图像去雾开源数据集汇总(速速收藏)
🎄🎄近期,小海带在空闲之余收集整理了一批图像去雾开源数据集资源供大家参考。整理不易,小伙伴们记得一键三连喔!!!🎈🎈
深度学习论文学习
高光谱图像分类
【古诗生成AI实战】之五——加载模型进行古诗生成
这部分是项目中非常激动人心的一环,因为我们将看到我们的模型如何利用先前学习的知识来创造出新的古诗文本。这是一个重要的里程碑,因为训练好的模型是我们进行文本生成的基础。* 生成文本:从初始文本(例如“天”)开始,逐字生成新的文本,直到达到指定长度(如32个字符)。在这部分内容中,我们将探讨如何使用预训
RTX4080+Ubuntu20.04深度学习环境配置(小白入门友好)
因为科研需要,最近几个月开始入门深度学习,准备做语义分割相关的东西。整了一块16G的4080显卡,从0开始学习配置,但找了网上很多资源,感觉很多都不适合纯小白入门。第一次配置成功后没有做记录,昨天因为系统的ubuntu图形用户界面崩掉了,整了很多方法,都没有成功拯救我的电脑,最后就重装了系统(一言难
简化版Transformer :Simplifying Transformer Block论文详解
在这篇文章中我将深入探讨来自苏黎世联邦理工学院计算机科学系的Bobby He和Thomas Hofmann在他们的论文“Simplifying Transformer Blocks”中介绍的Transformer技术的进化步骤。这是自Transformer 开始以来,我看到的最好的改进。
经典神经网络论文超详细解读(三)——GoogLeNet InceptionV1学习笔记(翻译+精读+代码复现)
GoogLeNet InceptionV1论文(Going deeper with convolutions)超详细解读。翻译+总结。文末有代码复现
什么是softmax
pytroch实现softmax, softmax的理论介绍和实现softmax代码的详细讲解
机器学习可解释性一(LIME)
对于机器学习的用户而言,模型的可解释性是一种较为主观的性质,我们无法通过严谨的数学表达方法形式化定义可解释性。通常,我们可以认为机器学习的可解释性刻画了“人类对模型决策或预测结果的理解程度”,即用户可以更容易地理解解释性较高的模型做出的决策和预测。从哲学的角度来说,为了理解何为机器学习的可解释性,我
人工智能 -- 神经网络
但我们并不知道他的分析过程是怎样的,它是如何判断里面是否有猫的。就像当我们教小孩子认识猫时,我们拿来一些白猫,告诉他这是猫,拿来一些黑猫,告诉他这也是猫,他脑子里会自己不停地学习猫的特征。最后我们拿来一些花猫,问他,他会告诉你这也是猫。而人工神经网络则不同,它的内部是一个黑盒子,就像我们人类的大脑一
[log_softmax]——深度学习中的一种激活函数
具体来说,在模型训练过程中,[log_softmax]可以被当作是损失函数的一部分,用于计算预测值与真实值之间的距离。在深度学习中,我们需要将神经网络的输出转化为预测结果,而由于输出值并非总是代表着概率,因此我们需要使用激活函数将其转化为概率值。总结来说,[log_softmax]是深度学习中非常重
人工智能 - 图像分类:发展历史、技术全解与实战
在本文中,我们深入探讨了图像分类技术的发展历程、核心技术、实际代码实现以及通过MNIST和CIFAR-10数据集的案例实战。文章不仅提供了技术细节和实际操作的指南,还展望了图像分类技术未来的发展趋势和挑战。
(HGNN) Hypergraph Neural Networks
提出了一个用于数据表示学习的超图神经网络(HGNN)框架,它可以在超图结构中编码高阶数据相关性。面对在实际实践中学习复杂数据表示的挑战,我们建议将这种数据结构合并到超图中,这在数据建模上更加灵活,特别是在处理复杂数据时。该方法设计了一种来处理表示学习过程中的数据相关性。这样,传统的超图学习过程就可以
深入探讨机器学习中的过拟合现象及其解决方法
真正喜欢的人和事都值得我们去坚持。
MiniGPT-4开源了,史无前例的AI图片内容分析,甚至能用于逻辑验证码推理识别
MiniGPT-4 仅使用一个投影层将来自 BLIP-2 的冻结视觉编码器与冻结 LLM(小羊驼)对齐。我们用两个阶段训练 MiniGPT-4. 第一个传统的预训练阶段是使用 4 个 A100 在 10 小时内使用大约 500 万个对齐的图像-文本对进行训练。在第一阶段之后,小羊驼能够理解图像。但小
使用Accelerate库在多GPU上进行LLM推理
本文将使用多个3090将llama2-7b的推理扩展在多个GPU上
Facebook AI团队的DETR模型代码复现
5.开始训练,Facebook AI 团队训练了 300 个 epoch,这里推荐修改 为 100,修改自己数据集位置 train2017 和 val2017 以及标注文件的路径,修改自己权重文件路径,开始训练, 训练完成之后会在output生成自己的训练模型 check 什么文件,记住他的路径。这