OCR文字识别方法综述
摘 要:文字识别可以把海量非结构化数据转换为结构化数据,从而支撑各种创新的人工智能应用,是计算机视觉研究领域的分支之一,其任务是识别出图像中的文字内容,一般输入来自于文本检测得到的文本框截取出的图像文字区域。近几年来,基于深度学习的文字识别算法模型已取得不错成果,其过程无需进行特征处理且可以实现复
【手把手带你学习神经机器翻译--模型篇】
全连接神经网络(FullyConnected Neural Network,FCNN),是深度神经网络中最基本的一种结构,如图所示。按照神经元所处的位置划分,全连接网络由输入层,隐藏层和输出层组成,通常第一层为输入层,最后一层为输出层,中间部分全为隐藏层。顾名思义,全连接神经网络中每一个神经元都与
深入浅出PyTorch中的nn.CrossEntropyLoss
PyTorch中的交叉熵详解
不懂AI不会写代码怎么做专业时序预测
预测是业务开展、数据分析、算法开发时的一个高频话题,贯穿各行各业的经营过程:不管是高层要做战略规划,管理层要做生意计划,还是执行层要决定执行数量,都依赖于通过预测判断未来。本文介绍一款最新预测工具DChain Forecast,不需要编写代码,也不需要了解深度学习和机器学习算法原理,跟随系统的引导
【强化学习PPO算法】
强化学习基础记录
卷积神经网络在深度学习中新发展的5篇论文推荐
卷积神经网络在深度学习中新发展的5篇论文推荐
人脸识别AdaFace学习笔记
简单或困难样本的相对重要性应基于样本的图像质量。 AdaFace 提出了一种新的损失函数,它根据图像质量强调不同难度的样本。 该方法通过特征范数来表示图像质量,以自适应裕值函数的形式实现这一点。...
分享本周所学——Transformer模型详解
大家好,欢迎来到《分享本周所学》第二期。本人是一名人工智能初学者,最近一周学了一下Transformer这个特别流行而且特别强大的模型,觉得非常有收获,就想用浅显易懂的语言让大家对这个超级神器有所了解。然后因为我也只是一名小白,所以有错误的地方还希望大佬们多多指正。 其实这周我还干了一
ArgMiner:一个用于对论点挖掘数据集进行处理、增强、训练和推理的 PyTorch 的包
对kaggle中Feedback Prize比赛该兴趣的小伙伴推荐了解下。ArgMiner可以用于对SOTA论点挖掘数据集进行标准化处理、扩充、训练和执行推断。
PyTorch 卷积网络正则化 DropBlock
论文地址:https://arxiv.org/pdf/1810.12890.pdfDropBlock 是一种类似于 dropout 的简单方法,它与 dropout 的主要区别在于,它从层的特征图中抹除连续区域,而不是抹除独立的随机单元类似地,DropBlock 通过随机地置零网络的响应,实现了通道
深度学习与神经网络之开宗明义: 详解人工智能
人工指的是人类生产制造而来,与之对应的是自然产生(进化)的。所以与人工智能相对应的就是`自然智能`。但两者并不是完全对立或者互斥的关系。所谓阴在阳之内,不在阳之对。大胆预测一下,未来的发展方向是将人工智能和自然智能进行融合。......
Github Copilot 值得购买吗?使用GitHub Copilot进行快速EDA的示例
本篇文章作为例子来演示如何将Copilot用于探索性分析,看看每月10美元是否值得
PyTorch中repeat、tile与repeat_interleave的区别
PyTorch中repeat、tile与repeat_interleave的区别
Geoffrey Hinton:我的五十年深度学习生涯与研究心法
“如果能弄清一大批聪明人正在研究什么,然后你再去做不一样的研究,总是一个好主意。”
Keras深度学习实战——基于VGG19模型实现性别分类
VGG19 是 VGG16 的改进版本,具有更多的卷积和池化操作。本文首先简要介绍了 VGG19 的架构,并使用 Keras 中预训练的 VGG19 模型进行性别分类实战。
丢弃法Dropout(Pytorch)
介绍了dropout(丢弃法),以及PyTorch的从零实现和调API实现
计算复杂度
计算复杂度的简单理解
图卷积神经网络GCN的一些理解以及DGL代码实例的一些讲解
近些年图神经网络十分火热,因为图数据结构其实在我们的现实生活中更常见,例如分子结构、人的社交关系、语言结构等等。NLP中的句法树、依存树就是一种特殊的图,因此,图神经网络的学习也是必不可少的。GCN是图卷积神经网络,初期研究者为了从数学上严谨的推导该公式是有效的,所以会涉及到诸如傅里叶变换,拉普拉斯
深度学习参数初始化(一)Xavier初始化 含代码
Xavier初始化也称为Glorot初始化,因为发明人为Xavier Glorot。Xavier initialization是 Glorot 等人为了解决随机初始化的问题提出来的另一种初始化方法,他们的思想就是尽可能的让输入和输出服从相同的分布,这样就能够避免后面层的激活函数的输出值趋向于0。..