神经网络案例编程实战

神经网络案例编程实战

【深度学习】笔记3-神经网络的学习

深度学习个人笔记,神经网络的学习

【数模智能算法】BP神经网络基本算法原理

【数模智能算法】BP神经网络基本算法原理

使用Dask,SBERT SPECTRE和Milvus构建自己的ARXIV论文相似性搜索引擎

通过矢量相似性搜索,可以在〜50ms内响应〜640K论文上的语义搜索查询

【深度学习实践(四)】识别验证码

【深度学习实践(四)】识别验证码

CVPR 2022上人脸识别相关的论文分类整理

人脸识别是AI研究的一个重要的方向,CVPR 2022也有很多相关的论文,本篇文章将针对不同的应用分类进行整理,希望对你有帮助

你的模型是最好的还是最幸运的?选择最佳模型时如何避免随机性

对于数据科学家来说,知道模型选择中哪一部分是偶然发挥的作用是一项基本技能。在本文中,我们将说明如何量化选择最佳模型过程中涉及的随机性。

2022年8月的10篇论文推荐

10篇关于强化学习(RL)、缩放定律、信息检索、语言模型等的论文推荐

tqdm高级使用方法(类keras进度条)

在很多场景,我们希望对一个进度条标识其运行的内容(),同时也希望在进度条中增加一些信息,如模型训练的精度等。本文就将基于tqdm,在实际应用中充实进度条。

DALL·E-2是如何工作的以及部署自己的DALL·E模型

在本文中,我们将简单介绍DALL-E2是如何工作的,并且把DALL·E Mini生成的图像输入到其他图像处理模型(GLID-3-xl和SwinIR)中来提高生成图像的质量

Geoffrey Hinton:深度学习的下一个大事件

在当今享誉世界的AI科学家中,深度学习教父Geoffrey Hinton也许拥有最为与众不同的研究思维——他喜欢按直觉行事,更倾向于运用类比,研究生涯中的神来之笔大都源自瞬间迸发的思维火花。这与他本人的教育背景息息相关。他的本科专业是生理学和物理学,也读了哲学,拿到的却是心理学.........

更简单的掩码图像建模框架SimMIM介绍和PyTorch代码实现

在本文中我们将探索一篇和MAE同期的工作:SimMIM,任何VIT都可以在大量未注释的数据上进行训练,并且可以很好地学习下游任务。

YOLOv7基于自己的数据集从零构建模型完整训练、推理计算超详细教程

到底使用哪个完全看自己的选择和需求。我这里选择的是tag里面的稳定版本。前段时间感觉也是应接不暇了,先是美团技术团队提出来了yolov6,也就间隔一周的时间吧,yolov7就出来的,当然了,两者的优化思路是不一样的,可以根据自身的实际业务场景需求来进行选择即可,也未必说越新的模型就会越好。到这里,基

【机器学习】数据科学基础——神经网络基础实验

【机器学习】数据科学基础——神经网络基础实验,基于百度飞桨开发,参考于《机器学习实践》所作。

365天深度学习训练营-学习线路

要求:学习如何编写一个完整的深度学习程序,并记录学习所得(详细介绍其中一个知识点、简略介绍两个知识点)

实际工作中的高级技术(训练加速、推理加速、深度学习自适应、对抗神经网络)

针对训练数据过于庞大的对策,多GPU训练,加速生产模型的速度,可以认为是离线操作。我们主要看一下基于数据的并行,下面列出了三种并行方式①Model Average(模型平均)②SSGD(同步随机梯度下降)③。......

可解释深度学习:从感受野到深度学习的三大基本任务,让你真正理解深度学习!

​深度学习一直作为一个“盲盒”被大家诟病,我们可以借助深度学习实现端到端的训练,简单,有效,但是我们并不了解神经网络的中间层到底在做什么,每一层卷积的关注点是什么。我在之前的专题浅谈图像处理与深度学习中提到,我们在深度学习刚开始的时候,我们要实现一个任务,比如:把不清晰的图像变清晰,我们随意的搭建了

手推机器学习 吴恩达 神经网络BP反向传播矩阵推导(上篇)

吴恩达机器学习 神经网络BP反向传播算法 基础篇

18张图,直观理解为什么神经网络这么有效?

迄今,人们对神经网络的一大疑虑是,它是难以解释的黑盒。本文则主要从理论上理解为什么神经网络对模式识别、分类效果这么好,其本质是通过一层层仿射变换和非线性变换把原始输入做扭曲和变形,直至可以非常容易被区分不同的类别。实际上,反向传播算法(BP) 其实就是根据训练数据不断地微调这个扭曲的效果。.....

【机器学习算法】神经网络与深度学习-9 递归神经网络

递归神经网络RNN,用来解决序列型,有滞后性问题的神经网络