Detail projektu

NTT - Speech enhancement front-end for robust automatic speech recognition with large amount of training data

Období řešení: 1.1.2019 — 31.12.2019

Zdroje financování

Neveřejný sektor - Přímé kontrakty - smluvní výzkum, neveřejné zdroje

O projektu

The purpose of the Joint Research is to develop Speech enhancement front-end for robust automatic speech recognition with large amount of training data through the cooperation of NTT and BUT. The work is relying on embeddings produced by neural networks in various places of the processing chain.

Popis česky
Cílem společného výzkumu je vyvinout technologie parametrizace s obohacováním řeči pro robustní automatické rozpoznávání řeči s velkým objemem trénovacích dat v rámci spolupráce mezi VUT a NTT. Práce je založena na nízkodimenzionálních reprezentacích dat (embeddings) produkovaných neuronovými sítěmi v různých místech řetězce zpracování.

Klíčová slova
speech recognition, robustness, large data, DNN embeddings

Klíčová slova česky
rozpoznávání řeči, odolnost, velký objem dat,

Originální jazyk

angličtina

Řešitelé

Útvary

Ústav počítačové grafiky a multimédií
- odpovědné pracoviště (14.12.2018 - nezadáno)
NTT Corporation
- objednatel (14.12.2018 - 31.12.2019)
Ústav počítačové grafiky a multimédií
- příjemce (14.12.2018 - 31.12.2019)

Výsledky

DELCROIX, M.; ŽMOLÍKOVÁ, K.; OCHIAI, T.; KINOSHITA, K.; ARAKI, S.; NAKATANI, T. Compact Network for Speakerbeam Target Speaker Extraction. In Proceedings of ICASSP. Brighton: IEEE Signal Processing Society, 2019. p. 6965-6969. ISBN: 978-1-5386-4658-8.
Detail

DELCROIX, M.; ŽMOLÍKOVÁ, K.; OCHIAI, T.; KINOSHITA, K.; ARAKI, S.; NAKATANI, T. Evaluation of SpeakerBeam target speech extraction in real noisy and reverberant conditions. THE JOURNAL OF THE ACOUSTICAL SOCIETY OF JAPAN, 2019, vol. 2019, no. 2, p. 1-2. ISSN: 0369-4232.
Detail

ROHDIN, J.; SILNOVA, A.; DIEZ SÁNCHEZ, M.; PLCHOT, O.; MATĚJKA, P.; BURGET, L.; GLEMBEK, O. End-to-end DNN based text-independent speaker recognition for long and short utterances. COMPUTER SPEECH AND LANGUAGE, 2020, vol. 2020, no. 59, p. 22-35. ISSN: 0885-2308.
Detail