【智能时代】的崛起:【人工智能】、【机器学习】与【计算机视觉】的革命

人工智能、机器学习、深度学习及计算机视觉的核心概念与应用,通过理论分析与代码示例展示了这些技术的实际操作和发展趋势。文章探讨了它们在医疗、金融、制造等领域的应用,及未来面临的挑战,为读者提供了全面的技术指南和未来展望。

大模型参数——详细介绍

大模型参数——详细介绍

智能新时代:探索【人工智能】、【机器学习】与【深度学习】的前沿技术与应用

这篇文章深入探讨了人工智能、机器学习、深度学习、算法和计算机视觉的核心概念,并通过丰富的代码示例展示了这些技术在实际应用中的具体实现。通过理论与实践的结合,读者不仅能够理解这些复杂的技术概念,还能掌握在不同场景下如何有效地应用这些技术,进而为进一步的学习和研究奠定坚实的基础。

【人工智能】Transformers之Pipeline(十三):填充蒙版(fill-mask)

本文对transformers之pipeline的填充蒙版(fill-mask)从概述、技术原理、pipeline参数、pipeline实战、模型排名等方面进行介绍,读者可以基于pipeline使用文中的2行代码极简的使用NLP中的填充蒙版(fill-mask)模型。

处理效应模型及 Stata 具体操作步骤

通过倾向得分匹配,找到在这些因素上相似但一组接受治疗,一组未接受治疗的个体进行比较,从而更准确地评估治疗效果。选取实施政策的城市作为处理组,未实施政策的相似城市作为控制组,比较政策实施前后两组城市空气质量的变化差异,以评估政策效果。对于倾向得分匹配,查看匹配质量的统计结果,判断协变量是否在处理组和控

绝区玖--人工智能物料清单 (AI BOM)

从基础数据层到模型训练的复杂性,从部署策略到扩展基础设施,每个元素在人工智能生命周期中都发挥着至关重要的作用。端到端 AI 堆栈:包括数据、模型开发、基础设施、部署和监控层。训练过程:详细说明数据准备、模型选择、超参数调整和优化策略。大规模推理:涵盖优化技术、硬件加速和部署注意事项。微调策略:探索迁

学习率调度器简明教程

在机器学习的背景下,学习率(learning rate)是一个超参数,它决定了优化算法(如梯度下降)在尝试最小化损失函数时进行的步长。现在,让我们继续讨论学习率调度程序。学习率调度器(learning rate scheduler)是一种在训练过程中调整学习率的方法,通常会随着训练的进展而降低学习率

Datawhale X 魔搭 AI夏令营:精读代码,实战进阶

学习如何借助AI来提升我们的自学习能力,从而帮助大家在后面的学习工作中如何从容迎接各种挑战。

第五周:机器学习

继上周学习了贝叶斯基础的理论,本周将朴素贝叶斯和贝叶斯网络运用到实践中去,通过对代码的逐行分析,更加深入理解了贝叶斯。接着前两周提出“训练集达不到最优化”的问题,继续探究了批次、动量、学习率的影响因素。最终得出,小批次的数据集具有更高的精确度;动量可以解决局部最小值的困境;均方差和自适应学习率会使得

时间序列特征提取:从理论到Python代码实践

**时间序列**是一种特殊的存在。这意味着你对表格数据或图像进行的许多转换/操作/处理技术对于时间序列来说可能根本不起作用。

DSPy: 用数据驱动的方式优化AI应用

DSPy 是一个专门用于算法优化语言模型(LM)提示和权重的框架,特别适用于在管道中多次使用 LM 的情况。将问题分解为多个步骤逐步优化每个步骤的提示,直到它们单独运行良好调整这些步骤以确保它们协同工作生成合成示例来微调每个步骤使用这些示例微调较小的 LM 以降低成本目前,这个过程既复杂又混乱:每次

人工智能与机器学习在医学领域的应用

人工智能(AI)是指机器模拟人类智能的能力,涉及感知、学习、推理和决策等功能。机器学习(ML)是AI的一个子领域,它通过数据训练模型,使计算机能够自动从数据中学习模式,并根据这些模式进行预测或决策。ML在医学中的应用尤其广泛,因为现代医学产生了大量的数据,而ML算法可以从这些数据中提取有价值的信息。

Datawhale AI夏令营第四期魔搭-AIGC文生图方向Task1笔记

从零入门AI生图原理&实践 是 Datawhale 2024 年 AI 夏令营第四期的学习活动(“AIGC”方向),基于魔搭社区“ 可图Kolors-LoRA风格故事挑战赛 ”开展的实践学习——- 适合想 **入门并实践 AIGC文生图、工作流搭建、LoRA微调** 的学习者参与学习内容提要:从文

高效的时间序列可视化:减少认知负荷获得更清晰的洞察

在本文中,我们将探讨使真实世界的**疫苗接种数据**来可视化单个时间序列和多个时间序列。

联邦学习+语义通信阅读记录(六)

发送者无法知道。发射机上的实际可观察数据也可能与共享背景知识库中的经验数据分布不相同。针对这些实际问题,本文提出了一种基于神经网络的新型图像传输语义通信系统,其中任务在发射者处是无意识的,数据环境是动态的。该系统由两个主要部分组成,即语义编码(SC)网络和数据自适应(DA)网络。SC 网络学习如何使

基于大预言模型的AI逻辑推理#AI夏令营 #Datawhale #夏令营

大语言模型(英文:Large Language Model,缩写LLM),是一种人工智能模型,旨在理解和生成人类语言。我们可以想象一下,LLM就像一个图书馆的守护者,它阅读了数不尽的书籍,从古老的传说到现代的科学论文,它吸收了无数知识,并能够根据这些知识回答各种问题。通常,大语言模型 (LLM) 指

ODMN亿级用户的用户生命周期价值预测:来自快手的工业级解决方案

快手ODMN引入了一个订单依赖单调网络,建模了不同时间跨度LTV之间的有序依赖关系,从而大大提高了模型性能。ODMN框架已成功部署在快手的多个业务场景中,并取得了优异的性能。

XGBoost中正则化的9个超参数

正则化是一种强大的技术,通过防止过拟合来提高模型性能。本文将探索各种XGBoost中的正则化方法及其优势。

AI/机器学习(计算机视觉/NLP)方向面试复习3

这种方法能够显著减少模型的参数数量。

机器学习之回归算法——只需要看这一篇

机器学习,线性回归,范数,正则化,最小二乘法,岭回归(Ridge Regression),拉索回归(Lasso Regression),弹性网络回归(Elastic Net)