Les médias liés à cet évènement

Mettre en temps une structure musicale : l'activité de composition de Voi(rex) par Philippe Leroux - Nicolas Donin, Jacques Theureau

14 avril 2005 01 h 01 min

Mettre en temps une structure musicale : l'activité de composition de Voi(rex) par Philippe Leroux - Nicolas Donin, Jacques Theureau

14 avril 2005 24 min

L'estimation de fréquences fondamentales multiples

12 mai 2005 52 min

La harpe électroacoustique

4 février 2005 01 h 18 min

Utilisation de Modalys pour le projet VoxStruments, lutherie numérique intuitive et expressive - Nicholas Ellis, Joël Bensoam

17 octobre 2007 49 min

Présentation des travaux l'équipe PdS dans le cadre du projet européen CLOSED : "Closing the Loop of Sound Evaluation and Design" - Olivier Houix

27 juin 2007 01 h 12 min

Sparse overcomplete methods, matching pursuit and basis pursuit - Bob L. Sturm

11 juillet 2007 48 min

Transformations de type et de nature de la voix - Snorre Farner, Axel Roebel, Xavier Rodet

12 septembre 2007 01 h 07 min

Segmentations et reconnaissances automatiques de phonèmes de la voix, temps différé, temps réel - Pierre Lanchantin, Julien Bloit, Xavier Rodet

19 septembre 2007 01 h 13 min

Synthèse de la parole à partir du texte et construction d'une base de données d'unités de la voix - Christophe Veaux, Grégory Beller, Xavier Rodet

26 septembre 2007 01 h 00 min

Projet ECOUTE - Jerome Barthelemy, Nicolas Donin, Geoffroy Peeters, Samuel Goldszmidt

3 octobre 2007 01 h 12 min

Projet MusicDiscover - David Fenech Saint Genieys

10 octobre 2007 01 h 10 min

Projet CASPAR - Jerome Barthelemy, Alain Bonardi

24 octobre 2007 50 min

Projet CONSONNES 1ère partie - René Caussé, Vincent Freour, David Roze

21 novembre 2007 57 min

Synthèse articulatoire : approche globale et synthèse par copie

0:00/0:00

La synthèse articulatoire consiste à simuler numériquement les phénomènes articulatoires, mécaniques, et acoustiques mis en jeu lors de la production de la parole. Située à l'opposé de l'approche concaténative, elle permet à la fois d'étudier ces phénomènes, de modifier le rendu de parole en modifiant virtuellement les paramètres physiologiques du locuteur, et également de lier les indices acoustiques à l'origine de l'identification des sons à leur origine articulatoire. L'approche globale présentée ici s'appuie sur une modélisation fine de la production de la parole à différents niveaux, à savoir une modélisation articulatoire de la déformation de la géométrie du conduit vocal au cours du temps, une modélisation mécanique aéroacoustique et géométrique de la glotte, ainsi qu'une modélisation numérique de la propagation acoustique à l'intérieur du conduit vocal.

La modélisation articulatoire s'appuie sur les premiers modes de déformation des différents articulateurs (langue, lèvres, mâchoire, vélum, et larynx) calculés à partir de leurs contours extraits de coupes médio-sagittales du conduit vocal obtenues par IRM statiques. Une nouvelle approche utilisant une reconstruction de films articulatoires obtenus en temps-réel par IRM sera également présentée. Une vue médio-sagittale du conduit vocal est ainsi modélisée à l'aide d'un petit nombre de paramètres.

Ensuite un modèle de glotte est spécialement conçu pour reproduire le caractère auto-entretenu des oscillations des plis vocaux. Ainsi, leurs mouvements sont pilotés par les conditions aéroacoustiques au voisinage de la glotte. Le modèle présenté permet également l'ajout en parallèle d'une fente glottique nécessaire à la simulation de fricatives voisées ou de voix soufflées. La propagation acoustique au sein du conduit vocal est alors assurée à l'aide d'une méthode de résolution des équations de l'acoustique à chaque pas temporel. Elle se base sur l'analogie électrique-acoustique de Maeda adaptée à réseau de guides d'onde.

Enfin, des exemples de synthèse par copie sont présentés. Ils ont pour but de reproduire la parole naturelle d'un locuteur à partir de l'acquisition simultanée du signal audio et des images du conduit vocal ou de l'estimation des données géométriques du conduit vocal par l'intermédiaire de techniques inverses.

:::::::::::::::::::::::::::::::::::::

Biographie

Benjamin Elie est post-doctorant CNRS au Laboratoire Lorrain de Recherche en Informatique et ses Applications (LORIA) au sein de l'équipe MULTISPEECH du centre Inria Nancy-Grand Est. Il travaille également au laboratoire Imagerie Adaptative Diagnostique Interventionnelle (IADI) basé au CHU de Nancy. Ses recherches portent sur la simulation numérique des phénomènes articulatoires, mécaniques et acoustiques à l'origine de la production de la parole, ainsi que l'acquisition temps-réel de données articulatoires par IRM à l'aide de méthodes parcimonieuses. Il est titulaire du Master ATIAM (Acoustique, Traitement de signal et Informatique Appliqués à la Musique) de l'université Paris VI et d'une thèse de doctorat en acoustique délivrée par l'université du Maine. Sa thèse, portant sur la caractérisation acoustique et mécanique des instruments de musique à cordes pour l'aide à la facture instrumentale, sous la direction de François Gautier et Bertrand David, a été soutenue en 2012.

intervenants

informations

Type
Séminaire / Conférence
Lieu de représentation
Ircam, Salle Igor-Stravinsky (Paris)
durée
01 h 28 min
date
9 décembre 2015

IRCAM

1, place Igor-Stravinsky
75004 Paris
+33 1 44 78 48 43

heures d'ouverture

Du lundi au vendredi de 9h30 à 19h
Fermé le samedi et le dimanche

accès en transports

Hôtel de Ville, Rambuteau, Châtelet, Les Halles

Institut de Recherche et de Coordination Acoustique/Musique

Copyright © 2022 Ircam. All rights reserved.