【知识图谱】深入浅出讲解知识图谱(技术、构建、应用)

知识图谱的背景 2012 年 5 月 17 日,Google 正式提出了知识图谱(Knowledge Graph)的概念,其初衷是为了优化搜索引擎返回的结果,改善用户的搜索质量以及搜索体验。当前的人工智能技术其实可以简单地划分为感知智能(主要是图像、视频、语音、文字等识别)和认知智能(涉及知识推理、

文本摘要生成方法

文本摘要概览

【JavaScript+自然语言处理+HTML+CSS】实现Web端的智能聊天问答客服实战(附源码 超详细必看)

【JavaScript+自然语言处理+HTML+CSS】实现Web端的智能聊天问答客服实战(附源码 超详细必看)

深度学习之文本分类总结

一、文本分类概况二、文本分类的发展三、文本分类常用的模型结构四、文本分类模型实际中遇到的问题(Q&A)

中文语音识别数据集总结

目录OpenSLR国内镜像1.Free ST Chinese Mandarin Corpus2.Primewords Chinese Corpus Set 13.爱数智慧中文手机录音音频语料库(Mandarin Chinese Read Speech )4.THCHS305.ST-CMDS6.MAG

GPT-4报告解读

前面我们介绍了《GPT-4报告的整体情况》,那接下来展开介绍GPT-4报告中讲的内容。

类ChatGPT国产大模型ChatGLM-6B,单卡即可运行

2023年3月14日GPT4又发布了,在ChatGPT发展如火如荼的当下,我们更应该关注国内的进展,今天将分享一个清华大学基于GLM-130B模型开发的类似ChatGPT的ChatGLM-6B模型,ChatGLM-6B 是一个开源的、支持中英双语的对话语言模型,基于 General Language

AI:ModelScope(一站式开源的模型即服务共享平台)的简介、安装、使用方法之详细攻略

ModelScope旨在打造下一代开源的模型即服务共享平台,汇集了行业领先的预训练模型,减少了开发者的重复研发成本。个人认为,相比于AI公司经常卖一款软件产品或者卖一个算法需求,而ModelScope更偏向于某种功能(model端到端)实现,初级AI从业者也能很容易实现大模型,有点低代码的感觉。当前

Bert+LSTM+CRF命名实体识别pytorch代码详解

Bert+LSTM+CRF命名实体识别从0开始解析源代码。理解原代码的逻辑,具体了解为什么使用预训练的bert,bert有什么作用,网络的搭建是怎么样的,训练过程是怎么训练的,输出是什么调试运行源代码NER目标NER是named entity recognized的简写,对人名、地名、机构名、日期时

【关系抽取】深入浅出讲解实体关系抽取(介绍、常用算法)

关系抽取(Relation Extraction,简称RE)的概念是1988年在MUC大会上提出,是信息抽取的基本任务之一,目的是为了识别出文本实体中的目标关系,是构建知识图谱的重要技术环节。知识图谱是语义关联的实体,它将人们对物理世界的认知转化为计算机能够以结构化的方式理解的语义信息。关系抽取通过

LSTM分类模型

LSTM分类模型本文主要固定一个文本分类的流程。分为三个部分:数据处理。对分类文本数据集做简单的预处理。模型数据准备。处理上一步的结果,得到模型的输入样本。模型搭建和训练流程。程序架构如下:主要包括一个原始的分类文件(头条新闻)。一个预处理脚本prepare_data.py一个数据处理脚本data_

ChatGPT提示语大全

ChatGPT prompts,常用的提示语整理

逐行讲解BiLSTM+CRF实现命名实体识别(NER)

使用BiLSTM+CRF做中文命名实体识别(NER),数据处理、建立词表、模型构建、训练过程书写等,代码有详细注释,若有遗漏或不详细可评论补充。

人工智能 LLM 革命前夜:一文读懂横扫自然语言处理的 Transformer 模型

阿里ATA内部技术社区头条文章,作者麦克船长为现任阿里集团总监,近期自然语言领域的生成式AI(Gen-AI或叫AIGC)爆火,其背后的技术缘起要从几大主流LM如何一路演变到Transformer说起,本文将以初学者视角一文读懂。

One-shot就能做事件抽取?ChatGPT在信息抽取上的强大应用

近期,OpenAI发布的chat GPT可谓是各种刷屏,很多人都在关注这种模式是否可以应用于搜索引擎,这给做搜索的朋友们带来了很大的危机感。然而,我尝试用它做信息抽取,也得到了让我感到非常害怕的结果。本文就结合一个简单的例子,来聊一聊chat GPT在信息抽取上的使用。

spacy自然语言处理工具库--en_core_web_sm

自然语言处理工具库——spacy的安装,和en_core_web_sm、zh_core_web_sm

多轮对话(一):概述(意图识别+槽填充)

本文主要介绍对话系统的组成:NLU、DST、DP、NLG。其中主要关注NLU,其包括两个任务:意图识别和槽填充。

【APC支付攻略】期刊版面费应该怎么付?看这里一文说清楚(含Wiley、MDPI、Frontiers)

您的文章被接收后,通过点击审稿平台内的"Proceed to Pay"查看付款信息,点击"View Invoice"核对 Invoice 及相关付款信息后,点击右侧的"Proceed to Payment"进入到付款界面。• 如果您不使用 Frontiers 的在线支付平台,选择银行转账的方式付款时

GPT-4发布:人工智能新高度,以图生文技术震撼,短时间内挤爆OpenAI模型付费系统

GPT-4是人工智能领域的一个新里程碑,它拥有强大的多模态能力和创造力,可以处理各种类型的数据和任务,为我们提供了无限的可能性和机会。它将给我们带来许多便利和乐趣,比如帮助我们学习、工作、娱乐、创作等等。它也将给我们带来许多挑战和责任,比如保护隐私、防止滥用、维护公平、促进发展等等。我们应该积极地探

【自然语言处理】【大模型】BLOOM:一个176B参数且可开放获取的多语言模型

​ 预训练语言模型已经成为了现代自然语言处理pipeline中的基石,因为其在少量的标注数据上产生更好的结果。随着ELMo、ULMFiT、GPT和BERT的开发,使用预训练模型在下游任务上微调的范式被广泛使用。随后发现预训练语言模型在没有任何额外训练的情况下任务能执行有用的任务,进一步证明了其实用性