From the same archive

Mettre en temps une structure musicale : l'activité de composition de Voi(rex) par Philippe Leroux - Nicolas Donin, Jacques Theureau

April 14, 2005 01 h 01 min

Mettre en temps une structure musicale : l'activité de composition de Voi(rex) par Philippe Leroux - Nicolas Donin, Jacques Theureau

April 14, 2005 24 min

L'estimation de fréquences fondamentales multiples

May 12, 2005 52 min

La harpe électroacoustique

February 4, 2005 01 h 18 min

Utilisation de Modalys pour le projet VoxStruments, lutherie numérique intuitive et expressive - Nicholas Ellis, Joël Bensoam

October 17, 2007 49 min

Présentation des travaux l'équipe PdS dans le cadre du projet européen CLOSED : "Closing the Loop of Sound Evaluation and Design" - Olivier Houix

June 27, 2007 01 h 12 min

Sparse overcomplete methods, matching pursuit and basis pursuit - Bob L. Sturm

July 11, 2007 48 min

Transformations de type et de nature de la voix - Snorre Farner, Axel Roebel, Xavier Rodet

September 12, 2007 01 h 07 min

Segmentations et reconnaissances automatiques de phonèmes de la voix, temps différé, temps réel - Pierre Lanchantin, Julien Bloit, Xavier Rodet

September 19, 2007 01 h 13 min

Synthèse de la parole à partir du texte et construction d'une base de données d'unités de la voix - Christophe Veaux, Grégory Beller, Xavier Rodet

September 26, 2007 01 h 00 min

Projet ECOUTE - Jerome Barthelemy, Nicolas Donin, Geoffroy Peeters, Samuel Goldszmidt

October 3, 2007 01 h 12 min

Projet MusicDiscover - David Fenech Saint Genieys

October 10, 2007 01 h 10 min

Projet CASPAR - Jerome Barthelemy, Alain Bonardi

October 24, 2007 50 min

Projet CONSONNES 1ère partie - René Caussé, Vincent Freour, David Roze

November 21, 2007 57 min

Synthèse articulatoire : approche globale et synthèse par copie

0:00/0:00

La synthèse articulatoire consiste à simuler numériquement les phénomènes articulatoires, mécaniques, et acoustiques mis en jeu lors de la production de la parole. Située à l'opposé de l'approche concaténative, elle permet à la fois d'étudier ces phénomènes, de modifier le rendu de parole en modifiant virtuellement les paramètres physiologiques du locuteur, et également de lier les indices acoustiques à l'origine de l'identification des sons à leur origine articulatoire. L'approche globale présentée ici s'appuie sur une modélisation fine de la production de la parole à différents niveaux, à savoir une modélisation articulatoire de la déformation de la géométrie du conduit vocal au cours du temps, une modélisation mécanique aéroacoustique et géométrique de la glotte, ainsi qu'une modélisation numérique de la propagation acoustique à l'intérieur du conduit vocal.

La modélisation articulatoire s'appuie sur les premiers modes de déformation des différents articulateurs (langue, lèvres, mâchoire, vélum, et larynx) calculés à partir de leurs contours extraits de coupes médio-sagittales du conduit vocal obtenues par IRM statiques. Une nouvelle approche utilisant une reconstruction de films articulatoires obtenus en temps-réel par IRM sera également présentée. Une vue médio-sagittale du conduit vocal est ainsi modélisée à l'aide d'un petit nombre de paramètres.

Ensuite un modèle de glotte est spécialement conçu pour reproduire le caractère auto-entretenu des oscillations des plis vocaux. Ainsi, leurs mouvements sont pilotés par les conditions aéroacoustiques au voisinage de la glotte. Le modèle présenté permet également l'ajout en parallèle d'une fente glottique nécessaire à la simulation de fricatives voisées ou de voix soufflées. La propagation acoustique au sein du conduit vocal est alors assurée à l'aide d'une méthode de résolution des équations de l'acoustique à chaque pas temporel. Elle se base sur l'analogie électrique-acoustique de Maeda adaptée à réseau de guides d'onde.

Enfin, des exemples de synthèse par copie sont présentés. Ils ont pour but de reproduire la parole naturelle d'un locuteur à partir de l'acquisition simultanée du signal audio et des images du conduit vocal ou de l'estimation des données géométriques du conduit vocal par l'intermédiaire de techniques inverses.

:::::::::::::::::::::::::::::::::::::

Biographie

Benjamin Elie est post-doctorant CNRS au Laboratoire Lorrain de Recherche en Informatique et ses Applications (LORIA) au sein de l'équipe MULTISPEECH du centre Inria Nancy-Grand Est. Il travaille également au laboratoire Imagerie Adaptative Diagnostique Interventionnelle (IADI) basé au CHU de Nancy. Ses recherches portent sur la simulation numérique des phénomènes articulatoires, mécaniques et acoustiques à l'origine de la production de la parole, ainsi que l'acquisition temps-réel de données articulatoires par IRM à l'aide de méthodes parcimonieuses. Il est titulaire du Master ATIAM (Acoustique, Traitement de signal et Informatique Appliqués à la Musique) de l'université Paris VI et d'une thèse de doctorat en acoustique délivrée par l'université du Maine. Sa thèse, portant sur la caractérisation acoustique et mécanique des instruments de musique à cordes pour l'aide à la facture instrumentale, sous la direction de François Gautier et Bertrand David, a été soutenue en 2012.

speakers

information

Type
Séminaire / Conférence
performance location
Ircam, Salle Igor-Stravinsky (Paris)
duration
01 h 28 min
date
December 9, 2015

IRCAM

1, place Igor-Stravinsky
75004 Paris
+33 1 44 78 48 43

opening times

Monday through Friday 9:30am-7pm
Closed Saturday and Sunday

subway access

Hôtel de Ville, Rambuteau, Châtelet, Les Halles

Institut de Recherche et de Coordination Acoustique/Musique

Copyright © 2022 Ircam. All rights reserved.