卷积神经网络中的自我注意
我写这篇短文是为了总结cnn的自注意力机制,主要是为了以后可以回顾一下我做了什么,但我也希望对你们有用。
强化学习相关的主要概念和术语简介
而强化学习,现在被认为是最有前途的技术,以推动AI范式的下一个层次
基于3DCNN的深度学习卫星图像土地覆盖分类
本文帮助读者更好地理解使用3D-CNN对卫星数据进行土地覆盖分类的不同深度学习方法。
神经机器翻译的Subword技术
字符分割是机器翻译中为了避免词层翻译的缺点而采用的一种技术,Sennrich等人(2016)通过提供更有意义的表示,引入了将单词分割成子词单元序列的概念
TabTransformer:用于表格数据的Transformer
在Transformers颠覆了自然语言处理和计算机视觉之后,他们现在把目光投向了最大的数据类型:表格数据。
音频时域特征的提取
介绍在音频领域中,我们可以使用深度学习提取和分析这些音频的频率和时域特征以了解波形的属性。
论文总结与分析:“An Image is Worth 16x16 Words”
本文提出这样的论点,即这种转换将产生与传统CNN相当的结果,同时需要较少的计算资源进行训练。
递归模型的语言处理入门:双向rnn,编码器和词嵌入
双向RNN是RNN的一种变体,它对于自然语言处理任务特别有用,并且有时可以提高性能。
在Python中使用逆变换方法生成随机变量
目标在仿真理论中,生成随机变量是最重要的“构建块”之一,而这些随机变量大多是由均匀分布的随机变量生成的。
使用深度学习进行音频分类的端到端示例和解释
声音分类是音频深度学习中应用最广泛的方法之一。它包括学习对声音进行分类并预测声音的类别。
为什么深度学习模型不能适配不同的显微镜扫描仪产生的图像
为什么深度学习模型不能在其他实验室的图像上工作?部分答案是肯定的:使用不同的扫描仪造成的色域移位。
pandas_profiling:1行代码即可生成详细的数据分析报告
pandas_profiling是最著名的python库之一,程序员可以使用它在一行python代码中立即获取数据分析报告。
使用CNN (VVC滤波)提高VVC的预测感知质量( VCIP 2020)
这是2020年VCIP的一篇论文:灵感来自EDSR,以帧内预测信号作为附加输入,Y,U和V分量的平均BD速率增益分别为6.7%,12.6%和14.5%
XGBoost和时间序列
XGBoost是功能非常强大且用途广泛的模型。 它的应用范围非常大,并且已经成功地用于解决许多ML分类和回归问题。
R vs. Python vs. Julia
如果你是一名数据科学家,你很有可能使用Python或R编程。但是有一个叫Julia的新成员承诺在不影响数据科学家编写代码和与数据交互的情况下拥有c一样的性能。
优化Pytorch模型训练的小技巧
在本文中,我将描述并展示4种不同的Pytorch训练技巧的代码,这些技巧是我个人发现的,用于改进我的深度学习模型的训练。
使用Imblearn对不平衡数据进行随机重采样
我们希望为模型准备或分析的数据是完美的。在我们的生活中,数据不可能是平衡的,这种不平衡的情况非常常见而且需要进行修正。
Numpy中常用的10个矩阵操作示例
数据科学和机器学习所需的数学知识中,约有30-40%来自线性代数。矩阵运算在线性代数中占有重要的地位。numpy通过向量化避免许多for循环来更有效地执行矩阵操作。
超分辨率技术:Adobe Photoshop与深度神经网络对比
与领先的超分辨率深度神经网络模型相比,Adobe的超分辨率有多有效?这篇文章试图评估这一点,Adobe的超级分辨率的结果非常令人印象深刻
TimeSformer:视频理解所需的只是时空注意力吗?
论文提出了一种无卷积的视频分类方法,该方法专门基于名为“ TimeSformer”的空间和时间上的自注意力而构建,通过直接从一系列帧级块中启用时空特征学习,将标准的Transformer体系结构应用于视频。