大型语言模型安全风险的基准评估套件
CYBERSECEVAL 2 扩展了以前的工作,增加了两个新的测试套件:解释器滥用和提示注入。
AI系列:大语言模型的function calling(下)- 使用LangChain
在AI系列:大语言模型的function calling(上)中我们实现了OpenAI原生的function calling。这篇文章将继续探讨如何使用LangChain实现大语言模型(LLM)的function calling。
2024年中国医疗领域AI Models Overview
国内开源医疗大模型总览
OpenAI、微软、智谱AI 等全球 16 家公司共同签署前沿人工智能安全承诺
人工智能(AI)的安全问题,正以前所未有的关注度在全球范围内被讨论。
开源大模型与闭源大模型:技术哲学的较量
在人工智能领域,大型机器学习模型的开发面临着一个关键的选择:走向开源还是选择闭源。这两种模式各有优劣,而选择一个合适的路径对于模型的成功至关重要。本文将从数据隐私保护、用户数据安全、商业应用领域的考量等方面进行探讨,并分析在实际应用中如何选择以及未来发展趋势。
You Only Cache Once:YOCO 基于Decoder-Decoder 的一个新的大语言模型架构
论文提出了一种用于大型语言建模的解码器-解码器体系结构(YOCO)。与Transformers相比,YOCO具有更好的推理效率和竞争性能。实验结果表明,在各种设置下,YOCO在大型语言模型上取得了良好的效果,即扩大训练词元数量,扩大模型大小,将上下文长度扩大到1M词元。分析结果还表明,YOCO将推理
【论文速读】| 对大语言模型解决攻击性安全挑战的实证评估
本研究全面评价了LLMs在解决现实世界中的CTF挑战能力,并覆盖了从实际竞赛到完全自动化流程的各个阶段。研究成果不仅支持了LLMs在网络安全教育中的应用,同时也为系统性评估LLMs在网络安全攻击能力方面的潜力提供了新的研究路径。
开源模型应用落地-CodeQwen模型小试-探索更多使用场景(三)
使用CodeQwen1.5-7B-Chat模型,帮助开发人员获得高效、准确和个性化的代码支持
开源模型应用落地-模型量化-Qwen1.5-7B-Chat-GPTQ-Int8(一)
理解GPTQ模型量化技术,以低成本体验大语言模型的魅力
运用 Co-STAR 模型,让AI更容易理解你的提示词
个人使用层面来说,使用 CO-STAR 的模型,能让AI更容易理解你所在意的需求重点,从原理上分析,所有基于大型语言模型的AI都能够运用此模型,并且能够更有效地处理信息,以便精确地回答你的问题,提供更好的Idea。
AI大模型探索之路-训练篇13:大语言模型Transformer库-Evaluate组件实践
在自然语言处理(NLP)技术的迅猛发展过程中,基于深度学习的模型逐渐成为了研究和工业界解决语言问题的主流工具。特别是Transformer模型,以其独特的自注意力机制和对长距离依赖的有效捕捉能力,在多个NLP任务中取得了革命性的突破。然而,随着模型变得越来越复杂,如何准确评估模型的性能,理解模型的优
AI大模型探索之路-训练篇11:大语言模型Transformer库-Model组件实践
本文将介绍transformers库中的Model组件,包括不同类型的预训练模型、Model Head以及如何调用这些模型进行推理。通过本文的介绍,读者可以更好地理解和应用transformers库中的Model组件。
探索AI世界:向AI提问的艺术与技巧 — 解锁AI大语言模型的潜力
它详细介绍了提示工程技巧,涵盖有效提示编写、针对复杂任务的提示设计技巧、对话中的提示设计技巧,以及提示的优化与迭代。《探索AI世界:向AI提问的艺术与技巧》一书深入剖析了这门艺术,为您揭开了AI世界的神秘面纱。这些案例不仅让您更直观地理解了AI的应用,还为您提供了实践中的参考和启发。这本书是一本通俗
AI大模型探索之路-训练篇18:大语言模型预训练-微调技术之Prompt Tuning
随着深度学习和人工智能技术的飞速发展,大语言模型的预训练与微调技术已成为自然语言处理领域的重要研究方向。预训练模型如GPT、BERT等在多种语言任务上取得了显著成效,而微调技术则进一步推动了这些模型在特定任务上的适用性和性能。Prompt Tuning作为一种新兴的微调技术,通过引入虚拟标记(Vir
AI大模型探索之路-基础篇5:GLM-4解锁国产大模型的全能智慧与创新应用
随着人工智能技术的飞速发展,大型预训练语言模型已成为推动行业进步的重要力量。它们在理解自然语言、生成文本、执行复杂任务等方面展现出惊人的能力。在此背景下,国产大模型GLM-4的问世,不仅展现了中国在AI领域的实力,也为国内外研究者和开发者提供了新的研究与应用平台。
Spark Streaming实践
作者:禅与计算机程序设计艺术 1.简介随着互联网、移动互联网、物联网等新型网络的飞速发展,数据量日益增长,如何从海量数据中快速获取有价值的信息,变得越来越重要。目前,大数据的处理主要靠离线计算框架MapReduce。随着云计算、大数据处理的发展,基于云平台的分布
AI大模型探索之路-训练篇1:大语言模型微调基础认知
在人工智能的广阔研究领域内,大型预训练语言模型(Large Language Models, LLMs)已经成为推动技术革新的关键因素。这些模型通过在大规模数据集上的预训练过程获得了强大的语言理解和生成能力,使其能够在多种自然语言处理任务中表现出色。然而,由于预训练过程所产生的模型通常具有泛化特性,
AI大模型探索之路-训练篇3:大语言模型全景解读
大规模语言模型(Large Language Models,LLM),也称大语言模型或大型语言模型,是一种由包含数百亿以上参数的深度神经网络构建的语言模型,通常使用自监督学习方法通过大量无标注文本进行训练。
开源模型应用落地-CodeQwen模型小试-SQL专家测试(二)
使用CodeQwen1.5-7B-Chat模型,帮助开发人员获得高效、准确和个性化的代码支持
AI大模型探索之路-训练篇20:大语言模型预训练-常见微调技术对比
随着人工智能的迅猛发展,自然语言处理(NLP)在近年来取得了显著的进展。大型语言模型(LLMs)在多种NLP任务中展现了卓越的性能,这得益于它们在大规模文本数据集上进行的预训练和随后的微调过程。这些模型不仅能够理解和生成自然语言,还能在特定任务上通过微调达到令人印象深刻的精度和鲁棒性。本文将深入探讨