Vous constatez une erreur ?
58 résultats
Cette séance présentera les fonctionnalités d'AudioSculpt 3.0 : les récentes améliorations apportées pour la manipulation et l'édition des Bpf (« break point function ») dans l'éditeur, l'exportation de fichiers audio « splittés », et l'int
16 novembre 2011 37 min
Actualités AudioSculpt 3 / Super VP - C.Picasso/A.Roebel
29 novembre 2012 35 min
This seminar presents research undertaken by the Analysis/Synthesis team in the European project 3DTVS (3D TV Content Search). This projet deals with multimodal search and indexing in 3D TV Content and IRCAM contributes to the project w
6 mars 2013 01 h 12 min
PrĂ©sentation de la derniĂšre version de SuperVP avec son nouvel algorithme pour adaptation automatique de la rĂ©solution temps-frĂ©quence, et les derniers rĂ©sultats de recherche sur la synthĂšse expressive de son dâinstrument Ă lâissue du proje
20 novembre 2013 55 min
Presentation of latest development on SuperVP technologies by Axel Roebel (Analysis/Synthesis Team, Ircam) featuring the latest algorithm for automatic adaptation of the time-frequency resolution, and latest results on expressive synthesis
20 novembre 2013 55 min
- Utilisation dâAudioSculpt pour le traitement de la parole - Alignement texte/parole avec ircamAlign - Improvisation vocale avec OMax - Projets artistique rĂ©cents
20 novembre 2013 37 min
- Introduction to speech analysis and transformation in AudioSculpt - Speech/text alignment with ircamAlign - Speech improvisation with OMax - Recent artistic projects
20 novembre 2013 37 min
HDR "Spectral domain analysis, modelling and transformation of sound" devant un jury composé de : Philippe Depalle, Schulich School of Music, McGill University, Canada, Rapporteur Thierry Dutoit, numediart, University of Mo
5 décembre 2013 02 h 41 min
29 novembre 2006 01 h 07 min
30 novembre 2006 01 h 04 min
12 septembre 2007 01 h 07 min
7 novembre 2007 01 h 00 min
11 juin 2008 01 h 15 min
26 mars 2008 01 h 01 min
12 novembre 2008 46 min
10 septembre 2008 01 h 08 min
12 juin 2007 59 min
13 juin 2007 51 min
25 juin 2025
31 janvier 2014 54 min
Transformation de la voix, synthĂšse du chant, synthĂšse expressive par modĂšles dâinstruments, sĂ©paration de sources sonores, synthĂšse de textures sonores, description des contenus musicaux, transcription automatique de la musique, traitement
14 juin 2014 01 h 03 min
19 novembre 2014 27 min
19 novembre 2014 27 min
Le projet ANR « ChaNTeR » (Chant NumĂ©rique Temps RĂ©el) est un projet de recherche collaboratif, ayant pour but la synthĂšse de la voix chantĂ©e avec possibilitĂ©s de contrĂŽle offline et temps rĂ©el. Dans ce projet, lâIrcam a pour mission la mis
11 février 2015 01 h 20 min
Transformation de la voix, synthĂšse du chant, synthĂšse expressive par modĂšles dâinstruments, sĂ©paration de sources sonores, synthĂšse de textures sonores, description des contenus musicaux, transcription automatique de la musique, traitement
6 juin 2015 54 min
La soutenance de thÚse se fera devant un jury composé de : Prof. Josh McDermott - Lab. for Computational Audition, MIT (Rapporteur, via Skype) Prof. Shlomo Dubnov - Dep. of Music, UCSD - (Rapporteur, via Skype) Prof. Laurent Daudet - I
15 juillet 2015 01 h 33 min
4 septembre 2017 20 min
14 octobre 2017 53 min
14 octobre 2017 53 min
21 novembre 2017 01 h 27 min
8 février 2018 37 min
7 mars 2018 34 min
7 mars 2018 58 min
6 mars 2018 54 min
Lâextension de la voix chanteÌe a eÌteÌ au cĆur de la reÌsidence de recherche de Marta Gentilucci en 2017 aÌ lâIrcam, et plus particulieÌrement la micro/macro eÌvolution dans le temps du vibrato, du treÌmolo et des techniques eÌtendues. La
6 mars 2018 32 min
© Ircam-Centre Pompidou, 2018
6 mars 2018 01 min
28 juin 2018 01 h 55 min
8 janvier 2019 42 min
5 avril 2019 01 h 10 min
Alice Cohen-Hadria soutient en anglais sa thĂšse de doctorat rĂ©alisĂ©e au sein de lâĂ©quipe Analyse et synthĂšse des sons (STMS - CNRS/Ircam/Sorbonne UniversitĂ©), intitulĂ©e : "Music and Speech Description Estimation with Deep Learning » dev
28 octobre 2019 01 h 32 min
6 décembre 2019 01 h 00 min
Cette présentation portera sur deux thÚmes : PremiÚrement, nous présenterons les derniÚres modifications du logiciel ISiS (version 1.2.7) qui sera rendu disponible pendant le Forum. DeuxiÚmement nous résumeront les résultats de nos travaux
4 mars 2020 26 min
Neural style transfer applied to images has received considerable interest and has triggered many research activities aiming to use the underlying strategies for manipulation of music or sound. While the many fundamental differences between
19 mars 2021 20 min
Deep Neural Networks are increasingly dominating the research activities in the Analysis/Synthesis team and elsewhere. The session will present some of the recent results of the research activities related to voice processing with deep neur
19 mars 2021 32 min
19 mars 2021 20 min
Judith Deschamps, artiste en rĂ©sidence au sein de lâĂ©quipe Analyse & SynthĂšse des sons du laboratoire STMS et doctorante ArTeC Ă Paris 8, prĂ©sente avec les chercheurs Axel Roebel, Frederik Bous et le compositeur AntĂłnio SĂĄ-Dantas, leur tr
26 janvier 2022 01 h 12 min
This session will present recent results of the Analysis/Synthesis team. The session will start with a short presentation of the new features of the Version 1.3.0 of the Ircam Singing Synthesis Software ISiS and will continue with more pros
23 mars 2022 45 min
For some years, the state-of-the-art in speech synthesis and processing has been dominated by data-driven methods and deep neural networks. The use of ever larger amounts of data allows the exploitation of ever more parameters, leading to e
20 octobre 2022 56 min
16 min
12 septembre 2023 01 h 42 min
7 juillet 2023 01 h 29 min
21 septembre 2023 01 h 50 min
Audio synthesizers are electronic systems capable of generating artificial sounds under a set of parameters dependent on their architecture. Despite various developments transforming synthesizers from mere sonic curiosities in the 1960s and
8 décembre 2023 01 h 03 min
The ARS modules, are one of the main results of the ANR project ARS (Analysis and tRansformation of Singing Style,http://ars.ircam.fr) These modules integrate three deep neural networks : the RIU Separator, a deep neural network for sing
19 mars 2024 30 min
Vous nâavez pas idĂ©e de ce que peut une voix ! La Fictions-Science de janvier se consacre Ă la manipulation de la voix. Celle quâon identifie comme le propre dâun individu est devenue un objet de prĂ©dilection de lâintelligence artificielle.
13 janvier 2023 01 h 21 min
Un documentaire écrit et réalisé par Isabelle Ingold et Vivianne Perelmuter.
1 avril 2021 26 min
26 mars 2025
8 juillet 2024
Vous constatez une erreur ?
1, place Igor-Stravinsky
75004 Paris
+33 1 44 78 48 43
Du lundi au vendredi de 9h30 Ă 19h
Fermé le samedi et le dimanche
HĂŽtel de Ville, Rambuteau, ChĂątelet, Les Halles
Institut de Recherche et de Coordination Acoustique/Musique
Copyright © 2022 Ircam. All rights reserved.