语音增强——基本谱减法及其python实现

语音增强——基本谱减法及其python实现

Python 语音转文本

Python 文本转语言

基于so-vits-svc语音模型实现AI翻唱歌曲

使用so-vits-svc模型训练zutomayo的音色,让AI用这音色去翻唱其他歌曲

理解梅尔频谱(mel spectrogram)

语音处理中 常常需要用到mel spectrogram,比如在语音分类中常常会把把信号signal变成图片spectrogram的形式, 然后用分类图片的算法(比如CNN)来分类语音。 本文主要介绍如何通过librosa来获取spectrogram 和mel spectrogram

声音克隆 AI有哪些?

Tacotron:由Google开发的声音克隆 AI模型,能够生成人类的语音,并在Google Assistant中使用。WaveNet:由Google开发的声音克隆 AI模型,能够生成人类的语音,并在Google Assistant中使用。声音克隆 AI是一类人工智能技术,主要用于生成人类或动物的

【愚公系列】华为云系列之ModelArts搭建中文语音识别系统

ModelArts是面向AI开发者的一站式开发平台,提供海量数据预处理及半自动化标注、大规模分布式训练、自动化模型生成及端-边-云模型按需部署能力,帮助用户快速创建和部署模型,管理全周期AI工作流。“一站式”是指AI开发的各个环节,包括数据处理、算法开发、模型训练、模型部署都可以在ModelArts

微软提出AIGC新“玩法”,图灵奖得主Yoshua Bengio也来了!

在AIGC取得举世瞩目成就的背后,基于大模型、多模态的研究范式也在不断地推陈出新。微软研究院作为这一研究领域的佼佼者,与图灵奖得主、深度学习三巨头之一的Yoshua Bengio一起提出了AIGC新范式——Regeneration Learning。这一新范式究竟会带来哪些创新变革?本文作者将带来他

代码会说话——pyttsx3简介

目录一、pyttsx3 概述二、pyttsx3的安装三、pyttsx3的运用四、全套代码一、pyttsx3 概述代码会说话:pyttsx3是Python中的文本到语音转换库。二、pyttsx3的安装pipinstallpyttsximage-20220429155835751三、pyttsx3的运用

中文语音识别数据集总结

目录OpenSLR国内镜像1.Free ST Chinese Mandarin Corpus2.Primewords Chinese Corpus Set 13.爱数智慧中文手机录音音频语料库(Mandarin Chinese Read Speech )4.THCHS305.ST-CMDS6.MAG

语谱图(一) Spectrogram 的定义与机理

语谱图就是语音频谱图,一般是通过处理接收的时域信号得到频谱图,因此只要有足够时间长度的时域信号就可。专业点讲,那是频谱分析视图,如果针对语音数据的话,叫语谱图。语谱图的横坐标是时间,纵坐标是频率,坐标点值为语音数据能量。由于是采用二维平面表达三维信息,所以能量值的大小是通过颜色来表示的,颜色深,表示

基于树莓派的智能家居项目整理

智能家居用到的硬件有:树莓派4B、LD3320语音识别模块、pi 摄像头、继电器组、火焰传感器、蜂鸣器、电磁锁采用了简单工厂模式的一个设计方式。稳定,拓展性更强,在C语言中,因为没有接口、类这一说法,所以这里采用了结构体来“等效替换”。有四个灯,所以我创建了四个灯控制.c程序。每一个程序文件中,都有

【语音算法】wav2vec系列原理和使用

wav2vec系列工作由facebook AI Research团队提出,包括wav2vec、vq-wav2vec、wav2vec2.0,效仿nlp上的word2vec,是语音的一种通用特征提取器。本文重点讲解wav2vec2.0模型及其使用方法。

【Google语音转文字】Speech to Text 超级好用的语音转文本API

Google speech to text api 语音转文本

SU-03T语音模块的使用(小智语音控制LED灯)

SU-03T语音模块控制LED灯的亮灭以及亮度调节;

使用OpenAI的Whisper 模型进行语音识别

Whisper模型是在68万小时标记音频数据的数据集上训练的,其中包括11.7万小时96种不同语言的演讲和12.5万小时从”任意语言“到英语的翻译数据。该模型利用了互联网生成的文本,这些文本是由其他自动语音识别系统(ASR)生成而不是人类创建的。该数据集还包括一个在VoxLingua107上训练的语

半小时用ChatGPT构建你的虚拟形象

大家好,欢迎来到我的频道,今天我来教大家如何用ChatGPT创建一个虚拟形象,如下图和视频所示。

提速300%,PaddleSpeech语音识别高性能部署方案重磅来袭!

PaddleSpeech 1.3版本正式发布,ASR与TTS支持高性能部署

人工智能交互系统界面设计(Tkinter界面设计)

本平台利用Tkinter模块搭建了一个人工智能系统界面,用户在界面按下按钮或者输入文本框内容,可以与系统进行数据交互,使用户能够在一个界面就完成本平台基本的Python程序功能。

分享本周所学——人工智能语音识别模型CTC、RNN-T、LAS详解

本人是一名人工智能初学者,最近一周学了一下AI语音识别的原理和三种比较早期的语音识别的人工智能模型,就想把自己学到的这些东西都分享给大家,一方面想用浅显易懂的语言让大家对这几个模型有所了解,另一方面也想让大家能够避免我所遇到的一些问题。然后因为我也只是一名小白,所以有错误的地方还希望大佬们多多指正。

MFCC特征提取

在语音识别方面,最常用到的语音特征就是梅尔倒谱系数(Mel-scaleFrequency Cepstral Coefficients,简称MFCC)。 MFCC的提取过程包括预处理、快速傅里叶变换、Mei滤波器组、对数运算、离散余弦变换、动态特征提取等步骤。