【机器学习】线性回归(超详细)
机器学习之线性回归,看懂这一篇就够了(超详细)。
SE(Squeeze and Excitation)模块的理解以及代码实现
SEBlock并非一个完整的网络,而且一个子结构,可以嵌在其他分类或检测模型中。SEBlock的核心思想是通过网络根据loss去学习特征权重,使得有效的featuremap权重更大,无效或效果小的featuremap权重更小的方式去训练模型已达到更好的结果。当然,SEblock嵌在原有的一些分类网络
自主导航与路径规划无人机研究现状
无人机自主飞行可简单地说成是指无人机在不同位置上怎样安全平稳地运动。在自主飞行技术层面上,可将其分解成4个问题:。1.What does the environment look like?2. Where am I?3. Where am I going?4. How do I get there
[总结] 半监督学习方法: 一致性正则化(Consistency Regularization)
基于平滑假设和聚类假设, 具有不同标签的数据点在低密度区域分离, 并且相似的数据点具有相似的输出. 那么, 如果对一个未标记的数据应用实际的扰动, 其预测结果不应该发生显著变化, 也就是输出具有一致性.
对sklearn中transform()和fit_transform()的深入理解
对sklearn中transform()和fit_transform()的深入理解
机器学习TensorFlow安装之CPU版本
TensorFlow1.5发布的时候,出于好奇下载安装跑了一下演示的几个代码。最近,重新拿起书本学习深度学习,发现TensorFlow已经更新发布到了2.6版本了。由于这期间电换了电脑,为了学TensorFlow只有再次安装了!两台电脑,一台笔记本电脑,没有独立显卡;另一台台式机,安装了NVIDIV
什么是神经网络?
什么是神经网络
XGBoost基本介绍(机器学习ML神器)
介绍:基于Boosting思想,利用梯度下降思想XGBoost在机器学习里面所有算法里面算效果很好的了,对于很多竞赛,都是用XGBoost获得了很好的名词基于树的集成学习优点:基于树的集成学习不用做特征归一化,使用起来非常方便。基于树的集成学习可以做到特征组合,不用自己做升维。集成学习可以做大规模数
基于强化学习的空战辅助决策(2D)
空域作战辅助决策的环境搭建
朴素贝叶斯(Naive Bayes)详解
贝叶斯决策论、朴素贝叶斯原理与算法实现、具体应用。
T-SNE可视化高维数据,亮瞎审稿人
文章目录经典案例-MNIST手写数字降维可视化论文中使用 t-SNE 案例t-SNE 实战MNIST 可视化教程MRI 脑肿瘤三维数据可视化t-Distributed Stochastic Neighbor Embedding (t-分布随机邻域嵌入, 简称 t-SNE) 是一种降维技术,特别适用于
7个角度,用 ChatGPT 玩转机器学习
大家好,我是机器学习科普创作者章北海mlpy,探索更高效的学习方法是我一直等追求。现在的初学者太幸福了,可以利用ChatGPT来帮助你学习机器学习的各个方面。请记住,ChatGPT虽然是一个非常有用的工具,但它不是万能的,也可能存在不准确或过时的信息。:询问ChatGPT关于学习机器学习的推荐资源,
基于旋转高频注入法的永磁同步电机无位置传感器控制
基于旋转高频注入法的永磁同步电机无位置传感器控制一、原理解说PMSM 无位置传感器控制主要分为两类:一种是在中高速范围内利用反电动势和电角速度的关系,通过计算反电动势获取转子位置信息,例如磁链观测器,模型参考自适应法,扩展卡尔曼滤波器和滑模观测器。另一种是利用电机凸极效应的高频注入法,包括脉振高频电
机器学习实现恶意URL检测实战一
恶意URL检测的方法很多,这里介绍通过机器学习分析URL文本分词词频来检测恶意URL。训练的数据集为开源数据集,通过机器学习训练检测模型,然后做了部分工程化的应用,将模型持久化,在应用的时候加载进来直接应用,不用重新进行训练。通过接口调用实现恶意URL检测预测判断。恶意URL检测,对应与机器学习是个
Hive on Tez性能优化
升级到 CDP 后Hive on Tez 性能调整和故障排除指南优化Hive on Tez查询永远不能以一种万能的方法来完成。查询的性能取决于数据的大小、文件类型、查询设计和查询模式。在性能测试期间,要评估和验证配置参数和任何 SQL 修改。建议在工作负载的性能测试期间一次进行一项更改,并且最好在生
GELU激活函数
GELU激活函数简介
机器学习强基计划0-3:数据集核心知识串讲,构造方法解析
用最通俗的例子和语言将机器学习中数据集的众多概念进行串讲,最后分析了数据集的三种构造方式
【深度学习】损失函数详解
损失函数
10个最频繁用于解释机器学习模型的 Python 库
XAI,Explainable AI是指可以为人工智能(AI)决策过程和预测提供清晰易懂的解释的系统或策略。XAI 的目标是为他们的行为和决策提供有意义的解释,这有助于增加信任、提供问责制和模型决策的透明度。XAI 不仅限于解释,还以一种使推理更容易为用户提取和解释的方式进行 ML 实验。在实践中,