Data-driven articulatory modelling: foundations for a new generation of speech synthesis

数据驱动的发音建模:新一代语音合成的基础

基本信息

  • 批准号:
    EP/E027741/1
  • 负责人:
  • 金额:
    $ 36.55万
  • 依托单位:
  • 依托单位国家:
    英国
  • 项目类别:
    Research Grant
  • 财政年份:
    2006
  • 资助国家:
    英国
  • 起止时间:
    2006 至 无数据
  • 项目状态:
    已结题

项目摘要

Technology to automatically generate artificial speech (speech synthesis) has come to sound natural enough within the past five years that its use has widened dramatically. Leaders in industry have integrated text-to-speech (TTS) systems into useful real-world applications, such as automated call-centres and call routing, telephone-based information systems (e.g. telephone banking or news services), readers for the visually impaired, and hands-free interfaces, such as car navigation systems.However, in spite of this success, state-of-the-art TTS systems are still severely limited in terms of control. In short, we can readily control what synthesisers say, but not how they say it. Therefore, although such systems are suitable for giving factual information in speech form, they are completely inadequate where a high level of expressiveness is required. By expressiveness we mean the ability to indicate questions or emphasis on selected words, or to convey emotion. Furthermore, the process of generating new synthetic voices is costly and labour-intensive. It is the aim of this project to develop an alternative to current speech synthesis technology with a comparable level of intelligibility and naturalness, but which affords far greater flexibility and control.Unit selection uses large collections of pre-recorded speech to perform synthesis by merely gluing together appropriate fragments in sequence. There is in effect little or no modelling of speech involved. In contrast, this project aims to develop a new model which is trained on pre-recorded speech and interprets it in a novel way: on the basis of its underlying articulation. The aim of this model is to produce synthetic speech which not only retains the qualities of the original speech used for training, but which also is much more versatile and therefore has the potential to be used in new and exciting ways.
在过去的五年里,自动生成人工语音的技术(语音合成)听起来已经足够自然,其使用范围已经大大扩大。工业界的领导者已经将文本到语音(TTS)系统集成到有用的实际应用中,例如自动呼叫中心和呼叫路由、基于电话的信息系统(例如电话银行或新闻服务)、视障者阅读器和免提接口(例如汽车导航系统)。简而言之,我们可以很容易地控制合成器说什么,但不能控制它们如何说,因此,尽管这种系统适合以语音形式提供事实信息,但在需要高水平表达力的地方,它们完全不够用。我们所说的表现力是指指出问题或强调所选词语的能力,或传达情感的能力。此外,产生新的合成声音的过程是昂贵和劳动密集型的。这个项目的目的是开发一种替代目前的语音合成技术,具有可比的清晰度和自然度,但它提供了更大的灵活性和控制。单元选择使用大量的预先录制的语音集合来执行合成,只需将适当的片段按顺序粘合在一起。实际上,很少或根本没有涉及语音建模。相比之下,该项目旨在开发一种新的模型,该模型在预先录制的语音上进行训练,并以一种新的方式对其进行解释:基于其潜在的清晰度。该模型的目的是产生合成语音,它不仅保留了用于训练的原始语音的质量,而且更加通用,因此具有以新的和令人兴奋的方式使用的潜力。

项目成果

期刊论文数量(8)
专著数量(0)
科研奖励数量(0)
会议论文数量(0)
专利数量(0)
Predicting tongue shapes from a few landmark locations
从一些标志性位置预测舌头形状
  • DOI:
  • 发表时间:
    2008
  • 期刊:
  • 影响因子:
    0
  • 作者:
    C Qin
  • 通讯作者:
    C Qin
Preliminary inversion mapping results with a new EMA corpus
  • DOI:
    10.21437/interspeech.2009-724
  • 发表时间:
    2009
  • 期刊:
  • 影响因子:
    0
  • 作者:
    Korin Richmond
  • 通讯作者:
    Korin Richmond
Announcing the Electromagnetic Articulography (Day 1) Subset of the mngu0 Articulatory Corpus
  • DOI:
    10.21437/interspeech.2011-316
  • 发表时间:
    2011-08
  • 期刊:
  • 影响因子:
    0
  • 作者:
    Korin Richmond;P. Hoole;Simon King
  • 通讯作者:
    Korin Richmond;P. Hoole;Simon King
HMM-based speech synthesiser using the LF-model of the glottal source
Glottal spectral separation for parametric speech synthesis
  • DOI:
    10.21437/interspeech.2008-176
  • 发表时间:
    2008-09
  • 期刊:
  • 影响因子:
    0
  • 作者:
    João P. Cabral;S. Renals;Korin Richmond;J. Yamagishi
  • 通讯作者:
    João P. Cabral;S. Renals;Korin Richmond;J. Yamagishi
{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi }}
  • 发表时间:
    {{ item.publish_year }}
  • 期刊:
  • 影响因子:
    {{ item.factor }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

数据更新时间:{{ journalArticles.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ monograph.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ sciAawards.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ conferencePapers.updateTime }}

{{ item.title }}
  • 作者:
    {{ item.author }}

数据更新时间:{{ patent.updateTime }}

Steve Renals其他文献

Are extractive text summarisation techniques portable to broadcast news?
提取文本摘要技术是否可以移植到广播新闻中?
HMM音声合成における変分ベイズ法に基づく線形回帰
HMM语音合成中基于变分贝叶斯方法的线性回归
  • DOI:
  • 发表时间:
    2012
  • 期刊:
  • 影响因子:
    0
  • 作者:
    橋本佳;山岸順一;Peter Bell;Simon King;Steve Renals;徳田恵一
  • 通讯作者:
    徳田恵一
Improved average-voice-based speech synthesis usinggender-mixed modeling and a parameter generation algorithm considBring GV
使用性别混合建模和参数生成算法改进基于平均语音的语音合成
  • DOI:
  • 发表时间:
    2007
  • 期刊:
  • 影响因子:
    0
  • 作者:
    Junichi Yamagishi;Takao Kobayashi;Steve Renals;Simon King;Heiga Zen;Tomoki Toda;Keiichi Tokuda
  • 通讯作者:
    Keiichi Tokuda
音声の障害患者のための音声合成枝術 : Voice banking and reconstruction
适用于语音障碍患者的语音合成技术:语音库和重建
  • DOI:
    10.20697/jasj.67.12_587
  • 发表时间:
    2011
  • 期刊:
  • 影响因子:
    0
  • 作者:
    山岸 順一;Christophe Veaux;S. King;Steve Renals
  • 通讯作者:
    Steve Renals
EURASIP Journal on Applied Signal Processing 2003:2, 128–139 c ○ 2003 Hindawi Publishing Corporation A Statistical Approach to Automatic Speech Summarization
EURASIP 应用信号处理杂志 2003:2, 128–139 c ○ 2003 Hindawi Publishing Corporation 自动语音摘要的统计方法
  • DOI:
  • 发表时间:
    2002
  • 期刊:
  • 影响因子:
    0
  • 作者:
    B. Kolluru;Heidi Christensen;Y. Gotoh;Steve Renals
  • 通讯作者:
    Steve Renals

Steve Renals的其他文献

{{ item.title }}
{{ item.translation_title }}
  • DOI:
    {{ item.doi }}
  • 发表时间:
    {{ item.publish_year }}
  • 期刊:
  • 影响因子:
    {{ item.factor }}
  • 作者:
    {{ item.authors }}
  • 通讯作者:
    {{ item.author }}

{{ truncateString('Steve Renals', 18)}}的其他基金

SpeechWave
语音波
  • 批准号:
    EP/R012180/1
  • 财政年份:
    2018
  • 资助金额:
    $ 36.55万
  • 项目类别:
    Research Grant
Ultrax2020: Ultrasound Technology for Optimising the Treatment of Speech Disorders.
Ultrax2020:优化言语障碍治疗的超声技术。
  • 批准号:
    EP/P02338X/1
  • 财政年份:
    2017
  • 资助金额:
    $ 36.55万
  • 项目类别:
    Research Grant
Natural Speech Technology
自然语音技术
  • 批准号:
    EP/I031022/1
  • 财政年份:
    2011
  • 资助金额:
    $ 36.55万
  • 项目类别:
    Research Grant
Ultrax: Real-time tongue tracking for speech therapy using ultrasound
Ultrax:使用超声波进行言语治疗的实时舌头追踪
  • 批准号:
    EP/I027696/1
  • 财政年份:
    2011
  • 资助金额:
    $ 36.55万
  • 项目类别:
    Research Grant
MultiMemoHome: Multimodal Reminders Within the Home
MultiMemoHome:家庭内的多模式提醒
  • 批准号:
    EP/G060614/1
  • 财政年份:
    2009
  • 资助金额:
    $ 36.55万
  • 项目类别:
    Research Grant

相似国自然基金

Data-driven Recommendation System Construction of an Online Medical Platform Based on the Fusion of Information
  • 批准号:
  • 批准年份:
    2024
  • 资助金额:
    万元
  • 项目类别:
    外国青年学者研究基金项目
基于Cache的远程计时攻击研究
  • 批准号:
    60772082
  • 批准年份:
    2007
  • 资助金额:
    28.0 万元
  • 项目类别:
    面上项目

相似海外基金

Understanding the Impact of Outdoor Science and Environmental Learning Experiences Through Community-Driven Outcomes
通过社区驱动的成果了解户外科学和环境学习体验的影响
  • 批准号:
    2314075
  • 财政年份:
    2024
  • 资助金额:
    $ 36.55万
  • 项目类别:
    Continuing Grant
CAREER: CAS: Organic Photochemistry for Light-Driven CO2 Capture and Release
职业:CAS:光驱动二氧化碳捕获和释放的有机光化学
  • 批准号:
    2338206
  • 财政年份:
    2024
  • 资助金额:
    $ 36.55万
  • 项目类别:
    Continuing Grant
Collaborative Research: OAC CORE: Federated-Learning-Driven Traffic Event Management for Intelligent Transportation Systems
合作研究:OAC CORE:智能交通系统的联邦学习驱动的交通事件管理
  • 批准号:
    2414474
  • 财政年份:
    2024
  • 资助金额:
    $ 36.55万
  • 项目类别:
    Standard Grant
CC* Networking Infrastructure: YinzerNet: A Multi-Site Data and AI Driven Research Network
CC* 网络基础设施:YinzerNet:多站点数据和人工智能驱动的研究网络
  • 批准号:
    2346707
  • 财政年份:
    2024
  • 资助金额:
    $ 36.55万
  • 项目类别:
    Standard Grant
Collaborative Research: Material Simulation-driven Electrolyte Designs in Intermediate-temperature Na-K / S Batteries for Long-duration Energy Storage
合作研究:用于长期储能的中温Na-K / S电池中材料模拟驱动的电解质设计
  • 批准号:
    2341994
  • 财政年份:
    2024
  • 资助金额:
    $ 36.55万
  • 项目类别:
    Standard Grant
Convergence Accelerator Track M: Bio-Inspired Design of Robot Hands for Use-Driven Dexterity
融合加速器轨道 M:机器人手的仿生设计,实现使用驱动的灵活性
  • 批准号:
    2344109
  • 财政年份:
    2024
  • 资助金额:
    $ 36.55万
  • 项目类别:
    Standard Grant
Collaborative Research: Data-Driven Elastic Shape Analysis with Topological Inconsistencies and Partial Matching Constraints
协作研究:具有拓扑不一致和部分匹配约束的数据驱动的弹性形状分析
  • 批准号:
    2402555
  • 财政年份:
    2024
  • 资助金额:
    $ 36.55万
  • 项目类别:
    Standard Grant
Cooperativity Driven Communication through Noncovalent Networks in Biomimetic Systems
仿生系统中通过非共价网络的协作驱动通信
  • 批准号:
    2404149
  • 财政年份:
    2024
  • 资助金额:
    $ 36.55万
  • 项目类别:
    Standard Grant
NeTS: Small: ML-Driven Online Traffic Analysis at Multi-Terabit Line Rates
NeTS:小型:ML 驱动的多太比特线路速率在线流量分析
  • 批准号:
    2331111
  • 财政年份:
    2024
  • 资助金额:
    $ 36.55万
  • 项目类别:
    Standard Grant
CAREER: Data-Driven Hardware and Software Techniques to Enable Sustainable Data Center Services
职业:数据驱动的硬件和软件技术,以实现可持续的数据中心服务
  • 批准号:
    2340042
  • 财政年份:
    2024
  • 资助金额:
    $ 36.55万
  • 项目类别:
    Continuing Grant
{{ showInfoDetail.title }}

作者:{{ showInfoDetail.author }}

知道了