【人工智能】Transformers之Pipeline(十五):总结(summarization)
本文对transformers之pipeline的总结(summarization)从概述、技术原理、pipeline参数、pipeline实战、模型排名等方面进行介绍,读者可以基于pipeline使用文中的2行代码极简的使用NLP中的总结(summarization)模型。
高通AI Engine SDK(QNN)使用教程(环境配置、模型转换、量化、推理、分析)
高通AI Engine使用教程
【深度学习详解】Task2 分段线性模型-引入深度学习 Datawhale X 李宏毅苹果书 AI夏令营
机器学习基础 -> 线性模型 -> 分段线性模型 -> 引入深度学习🍎 🍎
向李宏毅学深度学习(进阶)#task01#Datawhale X 李宏毅苹果书 AI夏令营
根据基于李宏毅老师机器学习课程编著的《深度学习详解》一书,结合自己的思考,阐释了深度学习中全局最优值、局部极值、鞍点等关键概念,以及批量(banch)和动量法
CVPR 2024最佳论文分享┆EventPS: 基于事件相机的实时光度立体视觉
本文介绍了CVPR 2024的最佳论文提名,该论文利用事件相机的独特属性,实现了实时光度立体视觉。该算法在传统和深度学习领域均取得成功。配合高速转台数据采集和GPU优化,算法实现了每秒超30帧的实时表面法线重建。
为什么多模态大模型中使用Q-Former的工作变少了?附Q-Former结构简介
面试中遇到的问题,自己在实践中注意到了却没有深究原因,没有回答好,特此记录和探讨这个问题。多模态大模型中需要一个输入投影模块,将视觉特征投射到LLM能理解的语言特征维度,这里就可以选择各种不同的模块。LLaVA最初用了简单的线性投射,然而作者提到这么做是为了做实验更快一点,使用复杂的模块可能会有更好
LSTM模型
LSTM(长短期记忆)是一种用于处理和预测时间序列数据的递归神经网络(RNN)架构旨在解决传统RNN在处理长序列数据时存在的梯度消失和梯度爆炸问题。LSTM的关键在于其特殊的单元结构,每个单元包含三个门:输入门、遗忘门和输出门。这些门通过控制信息的流动,允许LSTM在更长时间范围内保持和更新记忆。输
视觉 注意力机制——通道注意力、空间注意力、自注意力、交叉注意力
在计算机视觉领域,注意力机制(Attention Mechanism)已成为提升模型性能的关键技术之一。注意力机制通过模拟人类视觉的选择性注意力,能够在海量数据中自动聚焦于最相关的信息,从而提高模型的效率和准确性。下面将介绍通道注意力、空间注意力、自注意力和交叉注意力四种类型。
使用PyTorch从零构建Llama 3
本文将详细指导如何从零开始构建完整的Llama 3模型架构,并在自定义数据集上执行训练和推理。
AI中的核心概念解读:深度学习、机器学习、神经网络与自然语言处理
人工智能(AI):包含所有让机器具备智能行为的技术。机器学习(ML):AI 的子领域,通过数据自动学习和做出决策。深度学习(DL):机器学习的子领域,基于多层神经网络进行复杂数据的学习和处理。神经网络(Neural Networks):深度学习的核心结构,模仿人脑神经元的连接方式。自然语言处理(NL
MimicMotion一张图片就可以生成小姐姐跳舞的视频,Windows一键运行包
最近,腾讯和上交大合作推出了一款名为MimicMotion的AI工具,简直是视频生成领域的一次重大突破。你只需提供一张姿态序列图片,MimicMotion就能生成细节丰富、逼真的人类动作视频,无论是舞蹈、运动还是日常活动,统统不在话下。
comsol-声学
COMSOL多物理场仿真软件以高效的计算性能和杰出的多场耦合分析能力实现了精确的数值仿真,已被广泛应用于各个领域的科学研究以及工程计算,为工程界和科学界解决了复杂的多物理场建模问题。COMSOL内嵌的声学模块可以方便地进行多孔声学和粘热声学的模拟仿真。软件数值计算得到的云图,可以将声压、速度、声强以
入门篇,带你了解CPU, GPU, TPU, NPU, DPU
CPU是计算机系统的核心,负责执行操作系统和应用程序的指令。它由多个核心组成,每个核心可以独立执行任务。CPU的设计重点是处理复杂的逻辑运算和顺序任务,如分支预测、指令调度等。现代CPU通常包含多个层级的缓存(如L1、L2和L3缓存),以减少访问主存储器的延迟。CPU的架构设计如超标量(Supers
RWKV: 与Transformer和Mamba掰掰手腕的小家碧玉
开源项目RWKV是一个“具有 GPT 级别LLM性能的RNN,也可以像transformer并行训练。它主要是解决了Transformer的高成本。注意力机制是 Transformer 霸权背后的驱动力之一。
家用消费级显卡玩转大模型超简单,一看就懂,一学就会
这篇文章主要介绍了如下内容:模型量化,包括转换为gguf格式如何通过Ollama部署运行模型通过这篇文章,你可以将一个很大的模型文件转换为一个相对很小的模型文件,并部署运行起来,运行速度可以大大提升,消费级显卡也可以无压力运行。
【无线感知】【P7】WIFI 感知实战2- 数据集处理
slide_size = 200 (滑动窗口,帧与帧之间存在overlap,less than window_size!1: 先通过 csv_import 提取训练input,label 到txt(只运行一次,大概18分钟)运行 cross_vali_data_convert_merg
CNN中的注意力机制综合指南:从理论到Pytorch代码实现
本文将全面介绍CNN中的注意力机制,从基本概念到实际实现,为读者提供深入的理解和实践指导。
部分可观测马尔可夫决策过程(POMDP)原理与代码实战案例讲解
POMDP是一个基于概率的决策过程,用于描述在部分可观测环境下决策的问题。状态空间SSS):描述环境可能处于的所有状态。动作空间AAA):描述可以采取的所有动作。观测空间OOO):描述可能观测到的所有信息。奖励函数RsaoR(s,a,o)Rsao):描述在状态SSS、执行动作AAA并在观测OOO之后
【Windows环境下nerfstudio环境配置及复现(含tinycudann安装、poster数据)】
在Windowsx64系统,在虚拟环境python3.8、CUDA11.8、torch2.1.2的环境配置下,搭建了nerfstudio的实验环境。其中,将tinycudann、仓库拉取超时等问题做了详细的解决方法记录,以供有需要的人借鉴。
(Hugging Face)如何训练和评估 Transformer 模型(代码 + 实践)
这个函数在实例化时,它需要一个分词器(tokenzier)以便知道使用哪个填充用的 token,以及模型填充在输入的左侧或右侧。填充到该批次中最长序列的长度,而不是填充到整个数据集中最长序列的长度。最后一项我们需要做的是,当我们将元素一起进行批处理时,将所有 example 填充到最长的句子的长度。