100+数据科学面试问题和答案总结 - 机器学习和深度学习

来自Amazon,谷歌,Meta, Microsoft等的面试问题,本文接着昨天的文章整理了机器学习和深度学习的问题

期末复习【机器学习】

期末复习【机器学习】

基于BP神经网络识别手写字体MINST字符集

问题描述:  本次实验所要解决的问题是使用人工神经网络实现识别手写字体。实验采用MINST手写字符集作为识别对象。其中60000张作为训练集,剩余10000张作为测试集。实验采用python语言进行编程,使用到一些python的第三方库。使用的神经网络模型为BP神经网络,这是一种按照误差逆向传播算法

神经网络-最大池化的使用

池化层的官方文档中介绍了很多种的池化方法,但是最常用的还是MaxPool2d,这里我们也用MaxPool2d来讲解,其他的类似,关键还是要学会看官方文档概述:最大池化目的就是为了保留输入的特征,但是同时把数据量减少,最大池化之后数据量就减少了,对于整个网路来说,进行计算的参数就变少了,就会训练的更快

【yolov4】基于yolov4深度学习网络目标检测MATLAB仿真

YOLO发展至YOLOv3时,基本上这个系列都达到了一个高潮阶段,很多实际任务中,都会见到YOLOv3的身上,而对于较为简单和场景,比如没有太密集的目标和极端小的目标,多数时候仅用YOLOv2即可。除了YOLO系列,也还有其他很多优秀的工作,比如结构同样简洁的RetinaNet和SSD。后者SSD其

分享本周所学——人工智能语音识别模型CTC、RNN-T、LAS详解

本人是一名人工智能初学者,最近一周学了一下AI语音识别的原理和三种比较早期的语音识别的人工智能模型,就想把自己学到的这些东西都分享给大家,一方面想用浅显易懂的语言让大家对这几个模型有所了解,另一方面也想让大家能够避免我所遇到的一些问题。然后因为我也只是一名小白,所以有错误的地方还希望大佬们多多指正。

使用“BERT”作为编码器和解码器(BERT2BERT)来改进Seq2Seq文本摘要模型

BERT是一个著名的、强大的预先训练的“编码器”模型。让我们看看如何使用它作为“解码器”来形成编码器-解码器架构。

基于CNN-RNN的医疗文本生成

本项目使用经过IMAGENET预训练的resnet101网络图像特征进行提取后,将图像特征输入LSTM来生成影像的文本描述。初步实现了图像到文本的简单生成。

评估和选择最佳学习模型的一些指标总结

在评估模型时,虽然准确性是训练阶段模型评估和应用模型调整的重要指标,但它并不是模型评估的最佳指标,我们可以使用几个评估指标来评估我们的模型。

Yolov5更换上采样方式

将原本的的上采样方式替换为转置卷积;有人通过实验证明了确实涨点,但是我在VOC数据集上测试并没有涨点,大概掉了不到1点。

位置编码(PE)是如何在Transformers中发挥作用的

Transformers不像LSTM具有处理序列排序的内置机制,它将序列中的每个单词视为彼此独立。所以使用位置编码来保留有关句子中单词顺序的信息。

【时序预测完整教程】以气温预测为例说明论文组成及PyTorch代码管道构建

时间序列预测论文组成及PyTorch代码管道构建详解。

【自动驾驶模拟器AirSim快速入门 | 03】模型训练

在本笔记本中,我们将定义网络架构并训练模型。我们还将讨论数据上的一些转换,以回应我们在笔记本的数据探索部分所做的观察。

Win11系统PyTorch环境安装配置

Win11系统PyTorch环境安装配置

主动学习(Active Learning) 概述、策略和不确定性度量

主动学习是指对需要标记的数据进行优先排序的过程,这样可以确定哪些数据对训练监督模型产生最大的影响。

Keras深度学习实战(10)——迁移学习

迁移学习 (Transfer Learning) 是机器学习中的一个重要研究方向,指将一个预训练的模型重新用于另一个任务中,和从零开始训练卷积神经网络相比,利用迁移学习,只需要少量样本即可训练得到性能较好的模型。本文我们将使用预训练的 VGG16 模型利用迁移学习进行性别分类任务实战。...

Curriculum Labeling:重新审视半监督学习的伪标签

Curriculum Labeling (CL),在每个自训练周期之前重新启动模型参数,优于伪标签 (PL)

PyTorch nn.RNN 参数全解析

全面解析 torch.nn.RNN

单目3D车辆检测全流程实战分享-附完整代码

基于M3D-RPN全流程实现单目3D检测,从数据处理到优化和部署的全流程实战分享

物理驱动的深度学习方法入门到详解

物理驱动的深度学习方法入门