BERTopic:NLP主题模型的未来!
文| ZenMoore编| 小轶以前我一直以为,主题建模(提取文档的主题词)这种机器学习时代就开始研究的基础工具,现在肯定已经到头了,虽然...有时效果可能不是那么让人满意。但突然看到一则推文:“彻底疯了!不需要预先清洗数据,就能够快速拿到质量难以置信的主题!” “NLP 主题模型的未来!”好家伙!
D435i相机的标定及VINS-Fusion config文件修改
D435i相机的标定及VINS-Fusion config文件修改
时间序列特征提取的Python和Pandas代码示例
使用Pandas和Python从时间序列数据中提取有意义的特征,包括移动平均,自相关和傅里叶变换。
到底什么是模型预测控制MPC(一)
1. 为什么使用MPC控制2. 什么是模型预测控制 MPC3. MPC的参数设计在我们驾驶汽车的时候,驾驶的目的就是让汽车行驶在安全的道路上。作为一个驾驶员我们可以控制的是汽车的油门和方向盘,也就是对应控制的是汽车的速度和方向。在驾驶的过程中我们会不断的调节方向盘的角度,这是因为我们知道当前角度如果
简单研究一下 OpenAI 的官方文档
介绍 openai 的tokenizer、模型、ChatGPT接口使用(gpt-3.5-turbo)、使用限制、定价。
ChatGLM-6B (介绍以及本地部署)
ChatGLM-6B 是一个开源的、支持中英双语问答的对话语言模型,基于架构,具有 62 亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4 量化级别下最低只需 6GB 显存)。ChatGLM-6B 使用了和ChatGLM相同的技术,针对中文问答和对话进行了优化。经过约 1T
[九]深度学习Pytorch-transforms图像增强(剪裁、翻转、旋转)
深度学习Pytorch-transforms图像增强(剪裁、翻转、旋转)
ChatGPT开源平替——OpenChatKit(前OpenAI团队打造)
OpenChatKit是一个由前OpenAI研究员共同打造的开源聊天机器人平台。它包含了训练好的大型语言模型、定制配方和可扩展的检索系统,可以帮助用户快速构建高精度、多功能的聊天机器人应用。其中,最核心的组件是一个经过微调的、具有200亿参数的语言模型——GPT-NeoXT-Chat-Base-20
本手、妙手、俗手?我用AI写2022高考全国作文题,会被看出来?
自然语言处理是人工智能领域的前沿学科和热点方向,本文试着用NLP文章生成模型写了2022年高考作文题,有点意思
Lift-Splat-Shoot算法理解及代码中文注释
对算法Lift-Splat-Shoot的理解以及源代码中文注释
ICRA2022 SLAM进展---激光SLAM
ICRA2022 slam论文简单导读,未完待续
【深度学习】扩散模型(Diffusion Model)详解
【深度学习】扩散模型(Diffusion Model)详解
A2C算法原理及代码实现
A2C算法原理及代码实现
机器学习和深度学习概述
学习笔记
快速了解 GPT 发展三阶段
GPT-1 的预训练模型在 GPT-2 团队看来有一个不足的地方,虽然 GPT-1 构建了一个不错的预训练模型,但是对下游任务还是需要使用有标注的样板来训练新的模型,也就是说需要对具体的下游任务做有监督的微调。同时,GPT-2 还引入了一些新的技术,如动态掩码、自适应的词向量权重、多层次的表示等,以
三分钟认知Softmax和Sigmoid的详细区别
Softmax以及Sigmoid这两者都是神经网络中的激活函数,对应还有其他的激活函数引入激活函数是为了将其输入非线性化,使得神经网络可以逼近任何非线性函数(原本没有引入激活函数,就是多个矩阵进行相乘,无论神经网络多少层都是线性组合,这个概念是感知机)Softmax以及Sigmoid两者都是作为神经
ros(23):接收rviz中的2D Nav Goal、2D Pose Estimate消息
即设置二维导航目标,并使用“goal”这个话题进行通讯(结合rviz的其他教程,话题名也可能是“/move_base_simple/goal”)其消息类型为:geometry_msgs/PoseStamped1.2 2D Pose Estimate即设置二维初始位姿并使用“initialpose”进
【机器学习】支持向量回归
支持向量回归 SVR 回归模型 支持向量机 管道 惩罚 拉格朗日 KKT 对偶 互补松弛 支持向量 几何意义 间隔 边界 超平面
各种生成模型:VAE、GAN、flow、DDPM、autoregressive models
各种生成模型:VAE、GAN、flow、DDPM、autoregressive models
图解自注意力机制
写在最前边这个文章是《图解GPT-2 | The Illustrated GPT-2 (Visualizing Transformer Language Models)》的一部分,因为篇幅太长我就单独拿出来了。当然如果你只想了解自注意力机制也可以看看本文章的前半部分,这篇文章属算是入门科普读物了,不