Mem0 与 MultiOn:打造个性化 AI 辅助研究助手

Mem0 是一个为大型语言模型(LLMs)设计的智能记忆层。它能够存储和检索用户相关的信息,为 AI 应用提供个性化的上下文。多层次记忆存储自适应个性化简单易用的 API跨平台一致性。

自制深度学习推理框架之入门基础

从零自制深度学习推理框架,主要介绍了环境配置和基础库的使用。

从【人工智能】到【计算机视觉】,【深度学习】引领的未来科技创新与变革

本文系统性地介绍了人工智能、机器学习、深度学习、算法和计算机视觉的基础知识、核心技术和实际应用。从基本概念到高级技术,本文旨在为读者提供一个全面的学习指南,帮助他们深入理解和掌握AI领域的关键内容。人工智能的未来发展将更加广泛和深入。随着技术的进步,AI将在更多的领域得到应用,带来新的机遇和挑战。未

Qwen2-1.5B-Instruct Lora微调

最近做了一个基于Qwen2-1.5B-Instruct模型的比赛,记录一下自己的微调过程。怕自己以后忘了我就手把手一步一步来记录了。大多数都是给小白看的,如果你是小白建议你用jupyter运行,按照我这个模块一块一块运行,如果你是高手单纯的想找一个训练代码直接看模块10,我在提供了完整代码。

[paper阅读笔记][2024]Learning with Noisy Foundation Models

本文任务虽然是:在下游任务中有效地利用含噪声的预训练基础模型,但其实其本质科学问题是:如何在存在数据噪声的情况下保持和提升模型的泛化能力。

Transformer模型

Transformer模型是一种在自然语言处理(NLP)及其他序列到序列(Seq2Seq)任务中广泛使用的深度学习模型框架。其基本原理和核心组件,尤其是自注意力机制(Self-Attention Mechanism),对于理解该模型的工作方式至关重要。以下是对Transformer模型基本原理和自注

多模态大模型应用中的Q-Former是什么?

在这篇博客中,我们将详细探讨Q-Former的工作原理、应用场景,并在必要时通过公式进行解释,帮助你全面理解这一前沿技术。通过本文的介绍,希望你对Q-Former的工作原理、应用场景以及在BLIP2中的具体应用有了更清晰的理解,并能够在实际项目中灵活应用这一前沿技术。结合BLIP2的应用,Q-For

基于Transformer实现中英翻译任务的微调

本文旨在说明如何通过Transfoemers库和pytorch来微调一个中英翻译模型。这里选择开源的opus-mt-zh-en模型来实现微调,提升该模型在特定语料上的性能。入门小白,如果有误还请指导。

[CR]厚云填补_MSDA-CR

云层污染是光学遥感图像中常见的问题。基于深度学习的遥感图像去云技术近年来受到越来越多的关注。然而,由于缺乏对云失真效果的有效建模和网络较弱的特征表示能力,从云图像中开发有用的多尺度云感知表示仍然具有挑战性。为了规避这些挑战,我们提出了一个多尺度扭曲感知云移除(MSDA-CR)网络,该网络由多个云扭曲

【AI学习】[2024北京智源大会]具身智能:具身智能关键技术研究:操纵、决策、导航

具身智能的关键点:过去是通过仿真实现基本的操作和导航技能,包括自监督的学习;现在是通过大模型,解决仿真到真实世界的gap,利用大模型的知识;那接下来,还是要利用真实世界的数据。

本地部署:Real-ESRGAN: 高效的图像超分辨率解决方案

Real-ESRGAN 作为一种先进的图像超分辨率技术,凭借其高效的多尺度特征提取和生成对抗训练,在处理真实世界图像时表现出色。特别是在处理真实世界图像时,Real-ESRGAN 展现出了卓越的性能,生成的高分辨率图像细节丰富、视觉效果逼真。损失函数(Loss Function):Real-ESRG

【深度学习】“复杂场景下基于深度学习的卷积神经网络在鸟类多类别识别中的模型设计与性能优化研究“(下)

本研究旨在探索基于深度学习的卷积神经网络在鸟类多类别识别中的应用潜力,通过深入分析模型设计和性能优化的方法,以应对复杂环境带来的挑战。通过系统的实验验证和性能评估,本研究试图为解决实际应用中的识别难题提供创新的解决方案和理论支持。

足球预测:AI技术如何预测比赛结果

综上所述,AI预测能够综合各类算法,并结合数据挖掘、机器学习等应用来预测足球比赛,得出来的预测结果也有着可观的准确度,对AI预测感兴趣的小伙伴,可以扫描下方图片,领取AI预测工具。

三元组损失Triplet loss 详解

在这篇文章中,我们将以简单的技术术语解析三元组损失及其变体批量三元组损失,并提供一个相关的例子来帮助你理解这些概念。

CV10_模型、特征图、CAM热力图可视化

https://www.bilibili.com/video/BV17i421U73P/?spm_id_from=333.999.0.0&vd_source=7dace3632125a1ef7fd32c285eb2fbac

Datawhale AI 夏令营Task02:从baseline入门深度学习

Task2的内容在Task1的基础上更深入了一些,上次是初窥的话,这次就是深入入门了,已经进了深度学习这扇大门了,哈哈哈哈哈哈。之前就是扒在门框上偷偷看了几眼。言归正传,使用手册因为涉及的内容太多,所以讲的相对浅一些,其中涉及代码的部分也不多,主要是原理,并且更多的内容还需要大家自行查阅。代码的话则

美团的 AI 面试有点简单

数据增强是一种通过对原始数据集进行变换,生成新的训练样本的技术。这些变换包括图像翻转、旋转、缩放、裁剪以及其他各种手法,通过引入这些变化,可以有效地扩充数据集的规模,提高模型的泛化能力。是不是很简单?将原始数据集做一些变换然后送给模型做训练,此时裁剪出来的图片,可能就是猫咪尖尖的耳朵和大大的眼睛,训

在 AutoDL 平台配置 U-Mamba 环境并训练医学图像分割

最近,处理长序列任务的 Mamba 模型较为火爆。U-Mamba 的作者设计了一个混合的 CNN-SSM(卷积神经网络 - 状态空间序列模型)块,它结合了 CNN 的局部特征提取能力以及 SSM 捕捉长距离依赖的能力,还充分利用了 UNet 的 U 型结构的优势,从而提出了 U-Mamba 网络。通

【环境搭建】使用openSfM+MVSNet重建稠密点云

本帖详细介绍了如何使用openSfM+MVSNet对真实采集的数据进行稀疏重建与稠密重建,并针对一些真实场景下可能遇到的问题进行了整理。

百川大模型微调指令详解

设定 beta2 为 0.98 比默认的 0.999 稍低,可能会使得优化过程对历史信息的依赖程度降低,从而提高优化过程的灵活性,但也可能增加训练过程中的噪声。在使用 Adam 或其他类似的优化算法(如 RMSprop、Adagrad)时,历史梯度对当前梯度的影响主要体现在如何计算梯度的动量(即梯度