什么是人工智能 (AI)
什么是人工智能 (AI)
大家都爱用!不可错过的 AI API 接口
AI API通过提供一种标准化和安全的方式来集成智能功能,已成为现代软件开发中不可或缺的一部分,为企业提供了一个灵活、高效和可扩展的方式来构建和集成复杂的业务解决方案。
江大白 | 视觉Transformer与Mamba的创新改进,完美融合(附论文及源码)
在本文中,作者引入了MambaVision,这是首个专门为视觉应用设计的Mamba-Transformer混合骨架。作者提出了重新设计Mamba公式的方法,以增强全局上下文表示的学习能力,并进行了混合设计集成模式的综合研究。
【技术追踪】HiDiff:医学图像分割的混合扩散框架(TMI-2024)
HiDiff:一种用于医学图像分割的新型混合扩散框架,它可以协同现有判别分割模型和新型生成扩散模型的优势,在腹部器官、脑肿瘤、息肉和视网膜血管分割数据集上性能表现 SOTA !
如何评判大模型的输出速度?首Token延迟和其余Token延迟有什么不同?
如果你使用商用大模型,或者使用开源大模型本地化部署,除了生成的质量之外,另外一个关键的指标就是生成token的速度。而且并不是简单的每秒生成多少个token,而是拆成了两个阶段: 1. prefill:预填充,并行处理输入的 tokens。 2. decoding:解码,逐个生成下一个 toke
使用 Coze 构建一个旅行规划工作流
创建一个旅行规划的Coze工作流程
Chainlit一个快速构建成式AI应用的Python框架,无缝集成与多平台部署
Chainlit 是一个开源 Python 包,用于构建和部署生成式 AI 应用的开源框架。它提供了一种简单的方法来创建交互式的用户界面,这些界面可以与 LLM(大型语言模型)驱动的应用程序进行通信。Chainlit 旨在帮助开发者快速构建基于文本的 AI 应用,如聊天机器人、问答系统等,并且支持实
《A Survey of Mamba》Mamba 最新综述!!(2024-08-05)
Transformers作为最具代表性之一架构,赋予了许多先进模型以力量,特别是那些包含数十亿参数的大型语言模型,在深度学习中扮演着基础角色。因此,在本综述中对最近与 Mamba 相关联 的研究进行深入调查,主要涵盖三个方向:基于 Mambas 的模式进步、使 Mambas 适应各类数据技巧和 Ma
Stable Diffusion赋能“黑神话”——助力悟空走进AI奇幻世界
好易智算平台是一个一站式的AI服务平台,该平台的核心功能集中在GPU算力租赁服务及AI应用服务上,旨在为用户提供高性能、低成本的GPU算力服务,满足用户在AI应用、深度学习等领域的计算需求好易智算平台的特点在于其算力市场、应用市场和交流社区三大功能模式。算力市场提供多样化的显卡类型,包括RTX309
AI时代下的智慧体育, 用科技赋能体育创新
智能运动装备是AI技术在体育领域的另一项创新应用,这些装备通常集成了先进的传感器和计算单元,能够实时监测用户的运动数据,并通过无线技术将数据传输到用户的智能设备上。智能动作分析是提高运动表现的关键,利用计算机视觉技术,AI可以捕捉和分析用户的动作视频,识别出动作中的不足之处,并提供相应的矫正建议。A
Librechat快速部署指南
Librechat部署难度相对较大,纯英文的程序说明文档也难以理解,对用户实操造成了一些困扰。基于以上问题,本文把部署教程化繁为简,以帮助用户轻松完成Lirbrechat快捷部署。
再谈Agent:Dify智能体实现Txet2SQL
什么是Agent?Agent的是能够在一定环境中自主运作并完成特定任务的程序或者系统。自主性:Agent能够在没有人为干预的情况下运行,并独立做出决策。适应性:Agent能够根据环境的变化调整自己的行为。反应性:Agent能够对环境中的变化做出快速反应。预动性:Agent不仅对环境做出反应,还能主动
如何把图片放大保持清晰度?手把手教你7个方法
本文介绍了数字图像无损放大的多种方法,包括使用软件、插值、深度学习等,并详细说明了每种方法的具体操作步骤。同时,还讨论了各种方法在不同领域的应用和案例分析。
Datawhale AI夏令营第四期 AIGC方向 task01小白学习笔记
文生图主要以SD系列基础模型为主,以及在其基础上微调的lora模型和人物基础模型等。接下来,我们简单了解下提示词、lora、ComfyUI和参考图控制这些知识点。
1区著名水刊《Scientific Reports》论文被撤稿:数据未授权使用
一篇关于国际热核聚变实验堆(ITER)内部泄漏事故初步风险评估的研究,在《科学报告》上发表后不久被撤回。
EchoMimic 数字人项目:语音驱动图像说话项目
参考:https://github.com/BadToBest/EchoMimic下载模型下载位置放到下面下载代码目录下, cd EchoMimic 下下载代码运行代码自定义图像和音频,更改./configs/prompts/animation.yaml 文件即可运行后的生成视频保存到output文
一文搞懂LLM大模型!LLM从入门到精通万字长文(2024.7月最新)
LLM大模型从入门到精通
基于重要性加权的LLM自我改进:考虑分布偏移的新框架
在这篇论文中,证明过滤掉正确但具有高分布偏移程度(DSE)的样本也可以有利于自我改进的结果。
lora微调Qwen模型全流程
LoRA(Low-Rank Adaptation)是一种用于大模型高效微调的方法。通过对模型参数进行低秩分解和特定层的微调,LoRA 能在保持模型性能的前提下显著减少训练所需的参数量和计算资源。接下来是对 LoRA 微调 Qwen 模型的完整技术流程概述:模型和分词器加载首先,从预训练模型库中加载预