生物研究新范式!AI语言模型在生物研究中的应用
尽管生物学从根本上依赖于物理实体(蛋白质、基因和细胞)的特性,但我们对该领域的理解是通过科学论文、教科书、网页等以自然语言记录的。因此,人们越来越有兴趣使用自然语言模型,让生物学研究人员可以轻松访问这些书面资源中包含的大量生物学信息。此外,自然语言模型可以通过来自其他模态(例如图像或基因序列)的数据
多模态大模型中的幻觉问题及其解决方案
人工智能咨询培训老师叶梓 转载标明出处多模态大模型在实际应用中面临着一个普遍的挑战——幻觉问题(hallucination),主要表现为模型在接收到用户提供的图像和提示时,可能会产生与图像内容不符的描述,例如错误地识别颜色、数量或位置等。这种误判可能对实际应用造成严重影响,如在自动驾驶场景中,错误的
开源模型应用落地-LangChain实用小技巧-使用各种Loader高效解析不同数据源(七)
使用LangChain的Loader机制,高效解析不同数据源
AI安全立法:加州新法案的争议与未来影响
正如之前详细探讨过的那样,SB-1047法案要求AI模型的创建者在模型出现“对公共安全和安保构成新威胁”时,尤其是在“缺乏人类监督、干预或管理”的情况下,必须实施一种可以“关闭”该模型的“杀手开关”。不要错过这个机会,成为AI领域的领跑者。在周三宣布立法通过时,该法案的发起人、州参议员斯科特·维纳(
大模型参数规模扩大是趋势
大模型参数规模扩大是趋势,参数规模迈向万亿级。
AI大模型原理(通俗易懂版)——大语言模型
AI大模型原理——大语言模型
从“数字毕业生“到“AI领航员“:大语言模型的成长之路
在人工智能的浩瀚宇宙中,大语言模型就像是刚刚走出校门的"数字毕业生"。它们虽然已经吸收了海量的知识,但还需要经历一段特殊的"培训期",才能真正成为能够为人类社会服务的"AI领航员"。让我们一起探索这个神奇的蜕变过程,看看这些数字巨人是如何从懵懂无知到智慧过人的。
向李宏毅学深度学习(进阶)#task01#Datawhale X 李宏毅苹果书 AI夏令营
根据基于李宏毅老师机器学习课程编著的《深度学习详解》一书,结合自己的思考,阐释了深度学习中全局最优值、局部极值、鞍点等关键概念,以及批量(banch)和动量法
AI大语言模型的温度、top_k等超参数怎么理解
在AI大语言模型中,温度(Temperature)和top_k是两个重要的超参数,它们主要影响模型生成文本时的多样性、创造性以及可控性。
开源模型应用落地-qwen2-7b-instruct-LoRA微调&模型合并-Axolotl-单机单卡-V100(十)
使用Axolotl合并微调后的模型权重
LLaMA3技术报告解读
语言模型预训练。将一个大型多语言文本语料库转换为离散的标记,然后在由此产生的数据上预训练一个大型语言模型,以执行下一个标记的预测。在训练过程中使用了8K标记的上下文窗口,在15.6Ttoken上预训练了一个拥有405B参数的模型。在标准预训练之后,还会继续进行预训练,将支持的上下文窗口增加到128k
目前比较火爆的国产AI大模型有哪些?它们分别有什么特色和优缺点?
2023年被誉为AI大模型的元年,从OpenAI先后推出了多个版本的GPT,再到国内外大模型的密集发布、技术与应用的突破、行业生态的初步形成以及社会影响的广泛化。这一年标志着AI大模型的发展进入了一个新的阶段并将在未来继续引领人工智能技术的发展和应用落地。时至今日,目前有哪些国产AI大模型在激烈的竞
生成式人工智能最重要的三个神经网络,从谷歌DeepDream、Magenta、到NVIDIA的StyleGAN
神经网络是生成式人工智能的基础,使机器能够生成模仿真实数据分布的新数据实例。
开源模型应用落地-qwen2-7b-instruct-LoRA微调-Axolotl-单机多卡-RTX 4090双卡(七)
使用Axolotl高效微调qwen2-7b-instruct
【专家系统】专家系统概述,应用场景,项目实践及案例分析,附带代码示例
专家系统是一种智能计算机程序系统,它包含了某个领域专家水平的知识与经验,能够应用人工智能技术和计算机技术,根据系统中的知识与经验进行推理和判断,模拟人类专家的决策过程,以解决那些需要人类专家处理的复杂问题。
【可能是全网最丝滑的LangChain教程】十九、LangChain进阶之Agents
LangChain 的代理(Agents)模块允许开发者使用语言模型作为推理引擎,以动态确定执行的一系列动作,而不是硬编码这些动作。
开源模型应用落地-LangChain高阶-记忆组件-RedisChatMessageHistory正确使用(八)
如何正确使用RedisChatMessageHistory组件
【AI大模型】-- 应用部署
这个数据可以有点偏大,我在实测过程中,部署llama3:14b的大模型,占用了仅16G内存,触发推理时会多一些,这个数据可作为参考。它特别适合大规模深度学习任务,通过高效的架构在性能和能源消耗上表现出色。:若需高速下载,尤其依赖于 GitHub 或 Docker 官方镜像,建议选择国外服务器。Goo
Qwen2-1.5B-Instruct Lora微调
最近做了一个基于Qwen2-1.5B-Instruct模型的比赛,记录一下自己的微调过程。怕自己以后忘了我就手把手一步一步来记录了。大多数都是给小白看的,如果你是小白建议你用jupyter运行,按照我这个模块一块一块运行,如果你是高手单纯的想找一个训练代码直接看模块10,我在提供了完整代码。
NLP之transformer:transformer-explainer的简介、安装和使用方法、案例应用之详细攻略
NLP之transformer:transformer-explainer的简介、安装和使用方法、案例应用之详细攻略目录相关论文transformer-explainer的简介transformer-explainer的安装和使用方法transformer-explainer的案例应用相关论文《T