Datawhale X 魔搭 AI夏令营第四期 魔搭-AIGC方向 -task-02
随着AIGC技术的不断成熟,AI生图不再仅仅局限于生成简单的图形或图像,而是能够根据用户的指令、风格参考或情感需求,创作出富有创意和个性化的图像作品。进入21世纪,特别是深度学习技术的兴起,特别是卷积神经网络(CNN)和生成对抗网络(GAN)的提出,彻底改变了AI生图技术的格局。随着人工智能(AI)
从数据中台到数智基建,Gartner 发布影响中国数智基建市场的三大重要趋势
数智基建所提供的能力也将在解决幻觉方面发挥至关重要的作用。此外,到 2028 年,在中国开展跨境业务的企业机构(包括出海企业和外资企业),如果不能简化其互联云/混合云的数据管理,其所有 D&A 成果的洞察交付时间将延长一倍。在这些背景下,中国的 D&A 领导者在实施 D&A 解决方案和选择供应商时,
LLM端侧部署系列 | 手机上运行47B大模型?上交推理框架PowerInfer-2助力AI手机端侧部署
近日,上海交大为大模型能够在智能手机上部署提出PowerInfer-2,该框架是专为智能手机设计且高度优化的推理框架。目前PowerInfer-2支持的最大模型是Mixtral 47B MoE模型,在inference的时候每秒可生成11.68个token,这比其他最先进的框架快22倍。即使是使用7
(Hugging Face)如何训练和评估 Transformer 模型(代码 + 实践)
这个函数在实例化时,它需要一个分词器(tokenzier)以便知道使用哪个填充用的 token,以及模型填充在输入的左侧或右侧。填充到该批次中最长序列的长度,而不是填充到整个数据集中最长序列的长度。最后一项我们需要做的是,当我们将元素一起进行批处理时,将所有 example 填充到最长的句子的长度。
《Attention Is All You Need》解读
是一篇由Ashish Vaswani等人在2017年发表的论文,它在自然语言处理领域引入了一种新的架构——Transformer。这个架构现在被广泛应用于各种任务,如机器翻译、文本摘要、问答系统等。Transformer模型的核心是“自注意力”(self-attention)机制,这一机制能够有效捕
压缩大型语言模型(LLMs):缩小10倍、性能保持不变
尽管LLMs的巨大规模使其在广泛的应用场景中表现卓越,但这也为其在实际问题中的应用带来了挑战。本文将探讨如何通过压缩LLMs来应对这些挑战。我们将介绍关键概念,然后通过具体的Python代码实例进行演示。
Ollama + Dify部署AI大模型
Ollama + Dify部署AI大模型
1.认识人工智能(AI,Artificial Intelligence)
概述:本文主要用于介绍人工智能的应用场景以及人工智能实现拟人化的常见流程。
深入调研亚马逊云科技AI平台Amazon Bedrock热门开发功能
国际数据公司(IDC)在2024 年 8 月发布了《 中国大模型平台市场份额, 2023 :大模型元年——初局 》调研报告。IDC的数据显示,2023年中国大模型平台及相关应用市场规模达惊人的17.65亿元人民币,且科学计算大模型仍处于蓝海市场,市场中有大量的AI相关的市场和岗位需求。根据麦肯锡报告
当AIGC走进温室大棚:AI+“种菜“的前世今生
尤其是随着设施农业的快速发展,如何在人工可控的大棚环境实现精准高效的作物管理,已然成为智慧农业亟待攻克的难题。将AIGC引入智慧农业,有望显著提升传统农业的信息化、自动化、智能化水平,破解农业生产中的诸多难题。作为人工智能领域的明星技术,AIGC通过大规模预训练模型,再结合少量任务相关数据微调,即可
中科院一区顶刊!基于高斯量子改进的粒子群算法GQPSO!效果极佳!
之前经常在论文里看到有将量子粒子群算法应用到各类领域的,但是用的人一旦多了,就没有什么创新性了,审稿人看了也会腻。另外,从测试函数的表现上来讲,量子粒子群相比于原始粒子群其实并没有特别明显的区别。因此今天给大家带来一期高斯量子粒子群算法!
数字化技术对数据全生命周期安全的影响(五)—— 人工智能
人工智能技术对数据安全有显著的双面影响。一方面,AI技术可以通过智能威胁检测、自动化响应和动态访问控制来显著提升数据安全性。另一方面,AI技术的应用也引发了一些新的问题和风险,例如AI驱动的攻击手段,处理数据时的隐私泄露或数据滥用,AI系统模型泄露导致的敏感信息泄露,AI算法偏见和误判导致安全响应的
人工智能视觉深度学习yolov5的学习笔记
人工智能视觉深度学习yolov5的学习笔记
Vitis AI 进阶认知(量化过程详解)
在当今技术快速发展的时代,我们追求的不仅是智能设备的高性能,同时也强调其能效和便携性。Vitis AI量化器便是在这样的背景下应运而生的一个工具,它通过将神经网络模型的数据精度从32位浮点数降低到8位整数,极大地缩减了模型的体积和计算需求,而通过精心设计的校准和微调过程,又能确保模型的预测准确性基本
LLaMA-Factory全面指南:从训练到部署
LLaMA-Factory项目是一个专注于大模型训练、微调、推理和部署的开源平台。其主要目标是提供一个全面且高效的解决方案,帮助研究人员和开发者快速实现大模型的定制化需求。简化大模型训练流程:通过提供一系列预设的训练脚本和参数配置,降低用户在训练大模型时的技术门槛,使得即使是初学者也能轻松上手。增强
权重共享的理解
在PyTorch中,权重共享是通过将多个层或模块的参数设置为同一个变量来实现的。这意味着这些层或模块在训练过程中会更新相同的权重,从而共享相同的特征表示。假设我们想要构建一个简单的网络,其中两个全连接层共享相同的权重和偏置。# 如果提供了权重和偏置,则直接使用else:else:创建一个共享权重的网
教您使用AI生成代码,DevEco CodeGenie 使用指南
截止到目前为止,我的DevEco studio已经用三种AI编码工具了,分别是github 的Copilot、阿里的通义灵码、华为的CodeGenie。安装好了之后,就重启IDE,出现下面这个界面就说明安装成功了。
深度学习笔记
神经网络主要原理图:神经网络主要有两个函数:线性函数、激活函数。包含两个参数:M未知数的系数、b偏置数。在模型训练好之后:对应的inputs和outputs为输入和输出内容如:将英文内容输入输出翻译为中文。但在训练模型时需要同时将语义相近的中文和英文分别在inputs和outputs输入之后通过最上
最新爆火的开源AI项目 | LivePortrait 本地安装教程
LivePortrait 本地部署教程,强大且开源的可控人像AI视频生成
AI模型应该追求全能还是专精
在对AI模型进行评估时,应根据具体的业务需求和应用背景综合考量各项指标的权重。所有这些指标都构成了模型性能的全貌,但在不同场景下的优先级不同。通过细致的测试和评估,可以选择或调整最适合当前任务的模型。通过上述多维度的策略,我们可以设计出既具有高度专业性又具备良好扩展性的AI模型,能够在保持对特定任务