Les médias liés à cet évènement

Mettre en temps une structure musicale : l'activité de composition de Voi(rex) par Philippe Leroux - Nicolas Donin, Jacques Theureau

14 avril 2005 01 h 01 min

Mettre en temps une structure musicale : l'activité de composition de Voi(rex) par Philippe Leroux - Nicolas Donin, Jacques Theureau

14 avril 2005 24 min

L'estimation de fréquences fondamentales multiples

12 mai 2005 52 min

La harpe électroacoustique

4 février 2005 01 h 18 min

Utilisation de Modalys pour le projet VoxStruments, lutherie numérique intuitive et expressive - Nicholas Ellis, Joël Bensoam

17 octobre 2007 49 min

Présentation des travaux l'équipe PdS dans le cadre du projet européen CLOSED : "Closing the Loop of Sound Evaluation and Design" - Olivier Houix

27 juin 2007 01 h 12 min

Sparse overcomplete methods, matching pursuit and basis pursuit - Bob L. Sturm

11 juillet 2007 48 min

Transformations de type et de nature de la voix - Snorre Farner, Axel Roebel, Xavier Rodet

12 septembre 2007 01 h 07 min

Segmentations et reconnaissances automatiques de phonèmes de la voix, temps différé, temps réel - Pierre Lanchantin, Julien Bloit, Xavier Rodet

19 septembre 2007 01 h 13 min

Synthèse de la parole à partir du texte et construction d'une base de données d'unités de la voix - Christophe Veaux, Grégory Beller, Xavier Rodet

26 septembre 2007 01 h 00 min

Projet ECOUTE - Jerome Barthelemy, Nicolas Donin, Geoffroy Peeters, Samuel Goldszmidt

3 octobre 2007 01 h 12 min

Projet MusicDiscover - David Fenech Saint Genieys

10 octobre 2007 01 h 10 min

Projet CASPAR - Jerome Barthelemy, Alain Bonardi

24 octobre 2007 50 min

Projet CONSONNES 1ère partie - René Caussé, Vincent Freour, David Roze

21 novembre 2007 57 min

Structuration automatique et semi-automatique de signaux

0:00/0:00

Jules Françoise : "Apprentissage automatique du couplage geste–son dans des systèmes interactifs"

Mon projet de thèse s’attache à modéliser le couplage geste–son dans les systèmes interactifs sonores et musicaux. Les domaines d’applications de tels systèmes s’étendent aujourd’hui au-delà du contexte musical, concernant par exemple des applications aux jeu, à la sonification interactive ou à la rééducation.

La conception du couplage geste–son (mapping) est centrale au design de tels systèmes, en ce qu’elle conditionne les possibilités d’interaction. Cette thèse vise à développer des méthodes d’apprentissage automatique permettant la définition d’un tel mapping de manière interactive et par démonstration (c’est-à-dire à partir d’exemples d’associations geste–son fournis par l’utilisateur).

Deux exemples de développements récents seront présentés. Le premier concerne l’extension des méthodes de suivi de gestes à des structures temporelles complexes par le biais d’un modèle hiérarchique. Le second présente un modèle statistique multimodal (HMM multimodal), permettant la modélisation conjointe de séquences geste–son.

Ianis Lallemand : "Structuration automatique et semi-automatique de signaux"

Je présenterai deux directions de travail récemment abordées durant ma thèse, liées à la structuration automatique ou semi-automatique de signaux sonores. Cette problématique s'inscrit notamment dans le contexte applicatif de la synthèse concaténative par corpus, dont il s'agit ici d'étendre les méthodes de traitement et de contrôle interactif.

Dans un premier temps, mon travail s'est porté sur la représentation multi-échelles de textures sonores. La problématique afférente est celle du développement d'une description « agnostique », susceptible d'être adaptée à des textures variées. Nous inspirant de méthodes développées dans le domaine des textures visuelles, j'ai présenté à la conférence SMC 2012 une mesure quantitative de similarité entre textures basée sur la décomposition en ondelettes. J'ai également constitué une base de données d'évaluation à partir de la banque de sons Sound Ideas, susceptible d'être utilisée dans d'autres travaux de recherches.

Je présenterai ensuite mes directions de travail actuelles, relatives à la problématique d'apprentissage interactif. Je détaillerai les perspectives de développement de mes travaux au sein de ce domaine récent de l'apprentissage automatique, visant à prendre explicitement en compte la nature humaine de l'«entraîneur» dans l'apprentissage d'un agent informatique.

intervenants

informations

Type
Conférence scientifique et/ou technique
Lieu de représentation
Ircam, Salle Igor-Stravinsky (Paris)
durée
01 h 00 min
date
27 mars 2013

Structuration automatique et semi-automatique de signaux

Ianis LALLEMAND et Jules FRANÇOISE de l'équipe Interactions musicales temps réel, présentent :

1/ Jules Françoise : "Apprentissage automatique du couplage geste–son dans des systèmes interactifs"

Mon projet de thèse s’attache à modéliser le couplage geste–son dans les systèmes interactifs sonores et musicaux. Les domaines d’applications de tels systèmes s’étendent aujourd’hui au-delà du contexte musical, concernant par exemple des applications aux jeu, à la sonification interactive ou à la rééducation.

La conception du couplage geste–son (mapping) est centrale au design de tels systèmes, en ce qu’elle conditionne les possibilités d’interaction. Cette thèse vise à développer des méthodes d’apprentissage automatique permettant la définition d’un tel mapping de manière interactive et par démonstration (c’est-à-dire à partir d’exemples d’associations geste–son fournis par l’utilisateur).

Deux exemples de développements récents seront présentés. Le premier concerne l’extension des méthodes de suivi de gestes à des structures temporelles complexes par le biais d’un modèle hiérarchique. Le second présente un modèle statistique multimodal (HMM multimodal), permettant la modélisation conjointe de séquences geste–son.

2/ Ianis Lallemand : "Structuration automatique et semi-automatique de signaux"

Je présenterai deux directions de travail récemment abordées durant ma thèse, liées à la structuration automatique ou semi-automatique de signaux sonores. Cette problématique s'inscrit notamment dans le contexte applicatif de la synthèse concaténative par corpus, dont il s'agit ici d'étendre les méthodes de traitement et de contrôle interactif.

Dans un premier temps, mon travail s'est porté sur la représentation multi-échelles de textures sonores. La problématique afférente est celle du développement d'une description « agnostique », susceptible d'être adaptée à des textures variées. Nous inspirant de méthodes développées dans le domaine des textures visuelles, j'ai présenté à la conférence SMC 2012 une mesure quantitative de similarité entre textures basée sur la décomposition en ondelettes. J'ai également constitué une base de données d'évaluation à partir de la banque de sons Sound Ideas, susceptible d'être utilisée dans d'autres travaux de recherches.

Je présenterai ensuite mes directions de travail actuelles, relatives à la problématique d'apprentissage interactif. Je détaillerai les perspectives de développement de mes travaux au sein de ce domaine récent de l'apprentissage automatique, visant à prendre explicitement en compte la nature humaine de l'«entraîneur» dans l'apprentissage d'un agent informatique.

Je présenterai ensuite mes directions de travail actuelles, relatives à la problématique d'apprentissage interactif. Je détaillerai les perspectives de développement de mes travaux au sein de ce domaine récent de l'apprentissage automatique, visant à prendre explicitement en compte la nature humaine de l'«entraîneur» dans l'apprentissage d'un agent informatique.

IRCAM

1, place Igor-Stravinsky
75004 Paris
+33 1 44 78 48 43

heures d'ouverture

Du lundi au vendredi de 9h30 à 19h
Fermé le samedi et le dimanche

accès en transports

Hôtel de Ville, Rambuteau, Châtelet, Les Halles

Institut de Recherche et de Coordination Acoustique/Musique

Copyright © 2022 Ircam. All rights reserved.