【大模型搭建】部署Ollama,pull失败,手动构建方案

Ollama 是一个专注于简化大规模机器学习模型开发的框架。它提供了一系列工具来帮助开发者轻松地定义、训练和部署大型语言模型。优点:• 提供了简洁的API,易于上手。• 支持多种硬件加速选项,如GPU和TPU。• 内置了许多预训练模型,方便快速开始实验。缺点:• 对一些高级功

Qwen-VL大模型LoRA微调、融合及部署

Qwen-VL大模型LoRA微调、融合及部署

一文读懂蒙特卡洛算法:从概率模拟到机器学习模型优化的全方位解析

蒙特卡洛方法已成为机器学习领域的关键工具,在强化学习、贝叶斯滤波和复杂模型优化等方面有广泛应用

快乐8 Ai大模型XGBoost LightGBM预测系统

随机森林回归:通过集成多个决策树模型,提高预测的准确性和稳定性。XGBoost:一种基于梯度提升的强大模型,擅长处理结构化数据。LightGBM:一种高效的基于决策树算法的分布式梯度提升框架,具有快速的训练速度和低内存消耗。高预测准确率:通过集成多种模型,提供更为精准的预测结果。多种预测方法:支持同

Mediapipe实现手势识别教程

本文介绍了手势识别的详细思路和代码,希望能帮助到大家!

本地部署 AI 智能体,Dify 搭建保姆级教程(下):知识库 RAG + API 调用,我捏了一个红楼解读大师

通过 `红楼解读大师` 的案例,带大家动手捏了一个基于知识检索增强(RAG)的智能体

【Windows环境下nerfstudio环境配置及复现(含tinycudann安装、poster数据)】

在Windowsx64系统,在虚拟环境python3.8、CUDA11.8、torch2.1.2的环境配置下,搭建了nerfstudio的实验环境。其中,将tinycudann、仓库拉取超时等问题做了详细的解决方法记录,以供有需要的人借鉴。

【人工智能】【机器学习】-好书推荐之《Python神经网络编程》

《Python神经网络编程》(原书名:Make Your Own Neural Network)是一本深度学习领域的入门级书籍,由Tariq Rashid撰写。这本书的独特之处在于它从零开始讲解神经网络的基础知识,同时提供了详细的编程实例,让读者能够亲手构建一个简单的神经网络。

压缩大型语言模型(LLMs):缩小10倍、性能保持不变

尽管LLMs的巨大规模使其在广泛的应用场景中表现卓越,但这也为其在实际问题中的应用带来了挑战。本文将探讨如何通过压缩LLMs来应对这些挑战。我们将介绍关键概念,然后通过具体的Python代码实例进行演示。

人脸操作:从检测到识别的全景指南

人脸操作技术从检测到识别,再到特征提取,涵盖了计算机视觉中多个重要方面。通过掌握这些技术,你可以在许多实际应用中实现人脸处理的功能,从而推动智能系统的应用和发展。希望本文能够帮助你更好地理解和应用人脸操作技术,为你在计算机视觉领域的探索提供有用的参考。

6种有效的时间序列数据特征工程技术(使用Python)

在本文中,我们将探讨使用日期时间列提取有用信息的各种特征工程技术。

查看、指定使用的 GPU 数量和编号

在使用 PyTorch 框架时,可以通过以下步骤查看可用的 GPU 数量,指定使用的 GPU 编号,并在代码中体现这一点。

FoundationPose复现

FoundationPose简单复现

机器学习概述,深度学习,人工智能,无监督学习,有监督学习,增量学习,预处理,回归问题,分类问题

学习的核心在与改善性能,通过数据对算法的反复锤炼,不断提升函数预测的准确性,直至获得能够满。有些情况每个样本的每个特征值具体的值并不重要,但是每个样本特征值的占比更加重要。将学习过程和应用过程统一起来,在应用的同时,以增量的方式不断学习新的内容,边训练、边预测。根据样本数据,建立用于联系输出和输出的

【diffusers极速入门(七)】Classifier-Free Guidance (CFG)直观理解以及对应代码

由于 Classifier-Free Guidance (CFG) 相关的理论解释博客已经很多了,本文不涉及理论推导,而侧重直观理解和对应的 diffusers 代码。

Datawhale X 魔搭 AI夏令营 Task1

从零入门AI生图原理&实践

jax 和 jaxlib 的 cuda 版本安装

笔者花费时间才在 Ubuntu 20.04 适配上 jax 和 jaxlib 的 cuda 版本安装,以及 chex 版本。

使用 lmdeploy 部署 internlm/internlm2_5-7b-chat

使用 lmdeploy 部署 internlm/internlm2_5-7b-chat