全球最强AI程序员 “Genie” 横空出世
Genie是迄今为止世界上最好的 AI 程序员。Genie启动。cosine.sh。
【大模型】 智谱 AI 的 GLM-4 来了,26 种语言支持,最高支持 1M 上下文长度(约 200 万中文字符)
智谱 AI 的 GLM-4 来了,26 种语言支持,最高支持 1M 上下文长度(约 200 万中文字符)
丹摩智算:如何在云端开发一个AI应用——基于UNet的眼底血管分割案例
丹摩智算低价狂欢节开始,4090、显示器等神秘好礼等待大家!
MaskRCNN 在 Windows 上的部署教程
在’train’模式下,主要关注dataset、weights和logs参数,确保它们正确指向了训练所需的数据集、权重文件和日志目录。在’splash’模式下,除了上述参数外,还需要关注image或video参数,确保它们正确指向了要检测的目标图像或视频文件。同时,weights参数应指向一个已训练
Transformer——逐步详解架构和完整代码搭建
Transformer是一个经典的编码解码结构,编码器decoder负责编码,解码器encoder负责解码。Transformer是基于seq2seq的架构,提出时被用在机器翻译任务上,后面变种Swin Transformer和Vision Transformer让其在CV领域也大放异彩。
Qwen2-57B-A14B预训练
Qwen2-57B-A14B作为一个强大的MoE模型,在保持较小激活参数规模的同时,实现了优秀的性能表现,为大规模语言模型的应用提供了新的可能性。任务中表现优异,超越了当前主流的MoE开源模型。SwiGLU激活函数。
使用TensorRT进行加速推理(示例+代码)
TensorRT 是 NVIDIA 开发的一款高性能深度学习推理引擎,旨在优化神经网络模型并加速其在 NVIDIA GPU 上的推理性能。它支持多种深度学习框架,并提供一系列优化技术,以实现更高的吞吐量和更低的延迟。TensorRT(NVIDIA Tensor Runtime)是由 NVIDIA 开
药品包装或质量控制
这段代码是一个完整的工作流程,从图像的读取、预处理、特征提取、分类器训练、分类、后处理到结果展示。它适用于自动化药片识别和分类的场景,例如在药品包装或质量控制中。
【论文精读】Fully Sparse 3D Occupancy Prediction
团队:南京大学,上海人工智能实验室时间:2023年12月代码:https://github.com/MCG-NJU/SparseOcc。
Mem0 与 MultiOn:打造个性化 AI 辅助研究助手
Mem0 是一个为大型语言模型(LLMs)设计的智能记忆层。它能够存储和检索用户相关的信息,为 AI 应用提供个性化的上下文。多层次记忆存储自适应个性化简单易用的 API跨平台一致性。
自制深度学习推理框架之入门基础
从零自制深度学习推理框架,主要介绍了环境配置和基础库的使用。
从【人工智能】到【计算机视觉】,【深度学习】引领的未来科技创新与变革
本文系统性地介绍了人工智能、机器学习、深度学习、算法和计算机视觉的基础知识、核心技术和实际应用。从基本概念到高级技术,本文旨在为读者提供一个全面的学习指南,帮助他们深入理解和掌握AI领域的关键内容。人工智能的未来发展将更加广泛和深入。随着技术的进步,AI将在更多的领域得到应用,带来新的机遇和挑战。未
Qwen2-1.5B-Instruct Lora微调
最近做了一个基于Qwen2-1.5B-Instruct模型的比赛,记录一下自己的微调过程。怕自己以后忘了我就手把手一步一步来记录了。大多数都是给小白看的,如果你是小白建议你用jupyter运行,按照我这个模块一块一块运行,如果你是高手单纯的想找一个训练代码直接看模块10,我在提供了完整代码。
[paper阅读笔记][2024]Learning with Noisy Foundation Models
本文任务虽然是:在下游任务中有效地利用含噪声的预训练基础模型,但其实其本质科学问题是:如何在存在数据噪声的情况下保持和提升模型的泛化能力。
Transformer模型
Transformer模型是一种在自然语言处理(NLP)及其他序列到序列(Seq2Seq)任务中广泛使用的深度学习模型框架。其基本原理和核心组件,尤其是自注意力机制(Self-Attention Mechanism),对于理解该模型的工作方式至关重要。以下是对Transformer模型基本原理和自注
多模态大模型应用中的Q-Former是什么?
在这篇博客中,我们将详细探讨Q-Former的工作原理、应用场景,并在必要时通过公式进行解释,帮助你全面理解这一前沿技术。通过本文的介绍,希望你对Q-Former的工作原理、应用场景以及在BLIP2中的具体应用有了更清晰的理解,并能够在实际项目中灵活应用这一前沿技术。结合BLIP2的应用,Q-For
基于Transformer实现中英翻译任务的微调
本文旨在说明如何通过Transfoemers库和pytorch来微调一个中英翻译模型。这里选择开源的opus-mt-zh-en模型来实现微调,提升该模型在特定语料上的性能。入门小白,如果有误还请指导。
[CR]厚云填补_MSDA-CR
云层污染是光学遥感图像中常见的问题。基于深度学习的遥感图像去云技术近年来受到越来越多的关注。然而,由于缺乏对云失真效果的有效建模和网络较弱的特征表示能力,从云图像中开发有用的多尺度云感知表示仍然具有挑战性。为了规避这些挑战,我们提出了一个多尺度扭曲感知云移除(MSDA-CR)网络,该网络由多个云扭曲
【AI学习】[2024北京智源大会]具身智能:具身智能关键技术研究:操纵、决策、导航
具身智能的关键点:过去是通过仿真实现基本的操作和导航技能,包括自监督的学习;现在是通过大模型,解决仿真到真实世界的gap,利用大模型的知识;那接下来,还是要利用真实世界的数据。
本地部署:Real-ESRGAN: 高效的图像超分辨率解决方案
Real-ESRGAN 作为一种先进的图像超分辨率技术,凭借其高效的多尺度特征提取和生成对抗训练,在处理真实世界图像时表现出色。特别是在处理真实世界图像时,Real-ESRGAN 展现出了卓越的性能,生成的高分辨率图像细节丰富、视觉效果逼真。损失函数(Loss Function):Real-ESRG