April 14, 2005 01 h 01 min
April 14, 2005 24 min
May 12, 2005 52 min
February 4, 2005 01 h 18 min
October 17, 2007 49 min
June 27, 2007 01 h 12 min
July 11, 2007 48 min
September 12, 2007 01 h 07 min
September 19, 2007 01 h 13 min
September 26, 2007 01 h 00 min
October 3, 2007 01 h 12 min
October 10, 2007 01 h 10 min
October 24, 2007 50 min
November 21, 2007 57 min
0:00/0:00
Introduction à deux thèses en cours autour des signaux de voix, Yann TEYTAUT et Clément LE MOINE-VEILLON, doctorants dans l’équipe Analyse et synthèse des sons, STMS (Ircam, Sorbonne Université, CNRS, Ministère de la Culture) présentent leurs travaux ainsi que leur collaboration sur ce thème dans la troisième partie :
Résumé :
S’écouter, se répondre, se coordonner, se suivre, s’adapter, se synchroniser, s’aligner... Le vocabulaire de la performance musicale —— mais aussi de toute conversation orale —— est intrinsèquement lié à son organisation temporelle. L’analyse de la parole et du chant dépend donc fortement de notre capacité à pouvoir expliciter quel événement se produit à quel instant. Dans ce but, ces travaux visent à développer des modèles pour l’alignement automatique (ou synchronisation temporelle) de signaux vocaux. Notre cœur de propos concerne l’alignement phonème-à-audio, particulièrement exigeant de par la haute précision temporelle nécessaire, et riche de par ses applications à la synthèse sonore ou à l’étude du style de chant.
Les humains disposent d'une remarquable capacité à communiquer des signaux sociaux avec leur voix, notamment leurs attitudes. Permettre aux machines de comprendre, reproduire et interpréter ces signaux est un enjeu crucial. Cette recherche vise à élaborer un système de conversion des attitudes vocales et à valider ses performances à l'aide de critères objectifs — en évaluant sa capacité à reproduire des stratégies dites de "production" — et subjectifs — en évaluant la perception individuelle des conversions qui en sont issues.
Enfin, ce séminaire présente un cas d’étude applicatif de l’alignement phonétique sur la base de voix expressive Att-HACK. Grâce à des méthodes d'analyse de la parole couplées aux synchronisations temporelles, les stratégies de production de diverses attitudes vocales sont mises en évidence.