\r\nLa première génération qui entre de plein droit dans la base est donc celle constituée par John Cage, Olivier Messiaen ou encore Elliott Carter.\r\n\u003C/p>\r\n\r\n\u003Ch3>Contenus\u003C/h3>\r\n\r\n\u003Cp style=\"text-align: justify;\">\r\nLes données sont progressivement mises à jour depuis juillet 2007, en remplacement de celles de l’ancienne version de la base, développée entre 1996 et 2001 par Marc Texier. L’information peut donc être incomplète pour certains compositeurs non encore traités : dans ce cas l’indication « ! Informations antérieures à 2002 » apparaît en haut de page. Pour tous les autres documents, la date de dernière mise à jour est indiquée en haut de page.\r\n\u003C/p>\r\n\r\n\u003Ch3>Mises à jour et nouvelles entrées\u003C/h3>\r\n\r\n\r\n\u003Cp style=\"text-align: justify;\">Les mises à jour se font compositeur par compositeur. Pour un compositeur donné, sont systématiquement revus ou créés les documents suivants :\r\n\u003C/p>\r\n\u003Cul style=\"text-align: justify;\">\r\n \u003Cli>la biographie\u003C/li>\r\n \u003Cli>le catalogue exhaustif de ses œuvres (y compris, si possible, les œuvres disparues, retirées ou posthumes)\u003C/li>\r\n \u003Cli>une liste de ressources bibliographiques, discographiques et internet,\u003C/li>\r\n \u003Cli>des éventuels documents attachés (Parcours de l’œuvre, interviews, analyses, notes de programme etc.)\u003C/li>\r\n\u003C/ul>\r\n\u003Cp style=\"text-align: justify;\">\r\nLa définition des priorités de mises à jour et nouvelles entrées des compositeurs s’opèrent suivant une méthodologie basée sur l’observation de la vie culturelle européenne :\r\n\u003C/p>\r\n\u003Cul style=\"text-align: justify;\">\r\n \u003Cli>Avant chaque saison, nous relevons les programmations à venir des principaux festivals, institutions et ensembles musicaux européens investis dans le domaine de la création musicale. Cette observation s’opère par cercles concentriques en partant de l’activité propre de l’Ircam (année n-2), puis de celle des partenaires privilégiés (année n-1) jusqu’aux grandes institutions et festivals européens de création (année n) ;\u003C/li>\r\n \u003Cli>Chaque compositeur est crédité de points en fonction de l’importance et de l’intensité de l’activité musicale le concernant. Ce classement permet de définir les priorités pour chaque trimestre ;\u003C/li>\r\n \u003Cli>Si un compositeur n’a pas obtenu assez de points pour figurer dans les priorités, il cumule ceux-ci sur le trimestre suivant ; et ainsi remonte progressivement dans la liste des priorités.\u003C/li>\r\n \u003Cli>Une fois mis à jour, les documents attachés à un compositeur sont valables trois ans, après lesquels le processus décrit ci-dessus reprend.\u003C/li>\r\n\u003C/ul>\t\r\n\r\n\u003Ch3>Erreurs ou omissions\u003C/h3>\t\r\n\t\t\t\t\r\n\u003Cp style=\"text-align: justify;\">\r\nSi la mise à jour est déjà effectuée (date postérieure à juin 2007) : nous invitons les musicologues, les compositeurs (ou leur éditeur) à nous signaler toute erreur ou omission importante. Elle sera corrigée, dans la mesure du possible, au cours du trimestre suivant. De même, nous les invitons à nous faire connaître leurs œuvres nouvelles, en mentionnant tous les éléments nécessaires à la création d’une fiche œuvre nouvelle.\r\n\u003C/p>\r\n\u003Cp style=\"text-align: justify;\">\t\t\r\nSi la mise à jour n’est pas encore effectuée (indication : « mise à jour à venir ») : Les compositeurs peuvent nous signaler des erreurs ou omissions importantes. Ces indications seront prises en compte au moment de la mise à jour à venir. Un compositeur peut également demander le retrait de sa biographie dans l’attente de la mise à jour.\r\n\u003C/p>\r\n\u003Cp style=\"text-align: justify;\">\r\nPour cela : \u003Ca href=\"mailto:brahms-contenu[at]ircam[dot]fr\">écrire\u003C/a> à l’administrateur de publication\r\n\u003C/p>\r\n",{"id":14,"url":15,"titleFr":16,"titleEn":11,"contentFr":17,"contentEn":11},"a3cd05aa-3447-487a-b4fc-213ba0f77e6b","/copyrights/","Mention Légale","La reproduction de contenus de ce site Web, en tout ou partie, est formellement interdite sans la permission écrite de l'Ircam. Les textes, images, logos, codes sources sont la propriété de l'Ircam, ou de détenteurs avec lesquels l'Ircam a négocié les droits de reproduction à sa seule fin d'utilisation dans le cadre du site Brahms. Tout contrevenant s'expose à des poursuites judiciaires. ",{"id":19,"url":20,"titleFr":21,"titleEn":11,"contentFr":22,"contentEn":11},"9162642e-ea99-48c3-8d3b-2dc2a3f8ba45","/repertoire/about/","Projet Répertoire Ircam","\u003Cp>Le Projet Répertoire Ircam est une collection d’analyses musicales en ligne d’environ 70 œuvres crées à l’Ircam et considérées comme représentatives de la culture de l’institut tant sur le plan artistique que technologique.\u003C/p>\r\n\r\n\u003Cp>Ce projet a débuté en 2006-2008 avec la création d’outils auteurs mises en œuvre par le département Interfaces Recherche/Création en collaboration avec le secteur recherche de l’institut. Les premières analyses ont été mises en ligne fin 2010 et il est prévu que la collection s’élargisse à un rythme de deux ou trois nouvelles analyse par an.\u003C/p>\r\n\r\n\u003Cp>Plusieurs objectifs sont poursuivis par ce projet :\u003C/p>\r\n\r\n\u003Cul>\r\n\t\u003Cli>faire connaître les œuvres produites à l’Ircam à un public plus large,\u003C/li>\r\n\t\u003Cli>montrer la relation entre l’idée musicale et les technologies utilisés,\u003C/li>\r\n\t\u003Cli>identifier les nouveaux éléments du vocabulaire musical qui émergent à travers ces œuvres,\u003C/li>\r\n\t\u003Cli>offrir un support d’information aux interprètes.\u003C/li>\r\n\u003C/ul>\r\n\r\n\u003Cp>Chaque analyse est structurée en trois parties :\u003C/p>\r\n\r\n\u003Col>\r\n\t\u003Cli>description générale de l’œuvre,\u003C/li>\r\n\t\u003Cli>analyse des extraits de l’œuvre avec mise en relation de l’idée musicale et de l’écriture électronique,\u003C/li>\r\n\t\u003Cli>la liste de ressources spécifiques (type de problème musical abordé, technologies utilisées, œuvres abordant le même type de problématique) et générales (biographique, historique, technique).\u003C/li>\r\n\u003C/ol>\r\n\r\n\u003Cp>Les analyses seront également mises en relation avec :\u003C/p>\r\n\r\n\u003Cul>\r\n\t\u003Cli>Brahms : une base de données encyclopédique en ligne de compositeurs de musique contemporaine de toutes les nationalités dont les œuvres ont été créées après 1945. Cette base contient actuellement environ 600 références. Pour chaque compositeur, il y a une partie biographique accompagnée des sources d’information, et une autre partie qui situe l’orientation esthétique, les phases principales et le contexte historique de l’œuvre.\u003C/li>\r\n\t\u003Cli>Images d’une œuvre : une collection des interviews filmés des compositeurs.\u003C/li>\r\n\t\u003Cli>Sidney : une base de données qui contient les éléments techniques (programmes informatiques, sons etc. ) nécessaires pour l’exécution de l’œuvre.\u003C/li>\r\n\u003C/ul>\r\n\r\n\u003Cp>A plus long terme, les analyses des nouvelles œuvres créés à l’Ircam viendront se rajouter au corpus donné dans l’annexe citée ci-dessus.\u003C/p>",{"data":24},{"eventBySlug":25},{"title":26,"start":27,"end":11,"type":11,"slug":11,"programnote":11,"location":11,"medias":28},"Avancées méthodologiques pour la Réalité Augmentée Audio et ses Applications","2024-12-06",[29,36,40,45,49,54,59,64,69],{"id":30,"slug":31,"title":32,"description":33,"duration":34,"type":35,"timestamp":27},"45b99384-b445-4f8f-9f11-ac2df5ba6d6f","6b7ee7b7d83fa6d431de"," - Antoine Deleforge","Estimating acoustic parameters, such as the localization of a sound source, the geometry, or the acoustical properties of an environment from audio recordings, is a crucial component of audio augmented reality systems. These tasks become especially challenging in the blind setting, e.g., when using noisy recordings of human speakers. Significant progress has been made in recent years thanks to the advent of supervised machine learning. However, these methods are often hindered by the limited availability of real-world annotated data for such tasks. A common strategy has been to use acoustic simulators to train such models, a framework we refer to as \"Virtually Supervised Learning.\" In this talk, we will explore how the realism of simulation impacts the generalizability of virtually-supervised models to real-world data. We will focus on the tasks of sound source localization, room geometry estimation, and reverberation time estimation from noisy multichannel speech recordings. Our results suggests that enhancing the realism of the source, microphone, and wall responses during simulated training by making them frequency- and angle-dependent significantly improves generalization performance.","","video",{"id":37,"slug":38,"title":39,"description":11,"duration":34,"type":35,"timestamp":27},"c9e4a476-5038-44bb-8cc2-e643ef860db9","8fdc172698c746c2f66c"," - Olivier Warusfel, Benoît Alary",{"id":41,"slug":42,"title":43,"description":44,"duration":34,"type":35,"timestamp":27},"5f7338f5-b024-4671-b8d0-2986fafee8d5","aea3e8262cac2c7ec727"," - Toon van Waterschoot","The room impulse response (RIR) provides a fundamental representation of room acoustics for a spatially invariant source-observer combination. Dynamic audio rendering in extended reality (XR) applications however requires a room acoustics modelling framework that is capable of representing movements of (virtual) sources and observers. In this talk, we will highlight our recent research efforts in developing such modelling framework by introducing various methods for spatial interpolation and extrapolation of RIRs. In addition, we will present a novel and unique dataset that is specifically targeted at the training and evaluation of room acoustics models with moving observers, as well as a real-life XR case study of dynamic audio rendering.",{"id":46,"slug":47,"title":48,"description":11,"duration":34,"type":35,"timestamp":27},"76eed6d6-256a-4cb9-85a8-e44452e739f9","9d7f2f840135921d0638","Avancées méthodologiques pour la Réalité Augmentée Audio et ses Applications : Introduction - Olivier Warusfel",{"id":50,"slug":51,"title":52,"description":53,"duration":34,"type":35,"timestamp":27},"7c81e3a1-754e-45f7-99b8-0bdf7f25f048","40c1a559796f5d6d9d09"," - Cagdas Tuna","Knowledge of geometric properties of a room may be very beneficial for many audio applications, including sound source localization, sound reproduction, and augmented and virtual reality. Room geometry inference (RGI) deals with the problem of acoustic reflector localization based on room impulse responses recorded between loudspeakers and microphones.\n\nRooms with highly absorptive walls or walls at large distances from the measurement setup pose challenges for RGI methos. In the first part of the talk, we present a data-driven method to jointly detect and localize acoustic reflectors that correspond to nearby and/or reflective walls. We employ a multi-branch convolutional recurrent neural network whose input consists of a time-domain acoustic beamforming map, obtained via Radon transform from multi-channel room impulse responses. We propose a modified loss function forcing the network to pay more attention to walls that can be estimated with a small error. Simulation results show that the proposed method can detect nearby and/or reflective walls and improve the localization performance for the detected walls.\n\nData-driven RGI methods generally rely on simulated data since the RIR measurements in a diverse set of rooms may be a prohibitively time-consuming and labor-intensive task. In the second part of the talk, we explore regularization methods to improve RGI accuracy when deep neural networks are trained with simulated data and tested with measured data. We use a smart speaker prototype equipped with multiple microphones and directional loudspeakers for real-world RIR measurements. The results indicate that applying dropout at the network’s input layer results in improved generalization compared to using it solely in the hidden layers. Moreover, RGI using multiple directional loudspeakers leads to increased estimation accuracy when compared to the single loudspeaker case, mitigating the impact of source directivity.",{"id":55,"slug":56,"title":57,"description":58,"duration":34,"type":35,"timestamp":27},"8e0ede02-62ff-40a4-863a-af13e9a701a0","729620e0da0efbf4ac6f"," - François Ollivier","This presentation covers the design, characteristics and implementation of a spherical microphone array using 256 Mems cells (HOSMA). This HOSMA is designed for directional analysis of room acoustics at order 15. The array uses advanced techniques to capture spatial audio with high accuracy, enabling 3D acoustic analysis and sound field decomposition in the spherical harmonics (SH) domain. Design considerations include optimal microphone placement on the spherical surface, ensuring uniform spatial sampling and minimizing aliasing effects. The characteristics of the HOSMA are evaluated using simulations and real experiments. Implementation challenges, such as calibration and signal processing, are discussed. Applications in room acoustics, such as the estimation of directional room impulse responses (DRIRs) and sound source localization, are presented. They enable us to estimate the HOSMA's potential in both research and practical scenarios. The first developments in a research project using the HOSMA for machine-learning-based DRIR interpolation are also presented.",{"id":60,"slug":61,"title":62,"description":63,"duration":34,"type":35,"timestamp":27},"f6ae904f-650f-4619-b3b6-fe7dba68a31e","308185535ea12671edcf"," - Annika Neidhardt","Systems for Augmented and Extended Reality (AR/XR) aim at rendering virtual content into the user’s natural environment or seemingly modify the properties of the actual environment. A future vision, for example, is to replace a person’s speech with the same text spoken in foreign language, or offering users more control over which parts of the actual environment they want to hear. Such ideas require analysing the natural acoustic environment and render the contents accordingly in the best case without any noticeable delay. Achieving high physical accuracy of the simulated content, remains challenging under these circumstances. How accurately does it need to be?\nThe expectations and perceptual require a lot on the specific content and application.\nHow can we make use of that? Is there a simple technical solution?\nThis presentation will discuss different technical approaches that seem very promising.\n\n",{"id":65,"slug":66,"title":67,"description":68,"duration":34,"type":35,"timestamp":27},"8a31df85-f316-47ee-84e7-d486736fe180","290fd01f55ef871c7c8a","Common-slope modelling for 6DoF Audio - Sebastian Schlecht","In spatial audio, accurately modelling sound field decay is critical for realistic 6DoF audio experiences. This talk introduces the common-slope model, a compact approach that utilizes an energetic sound field description to represent spatial energy decay smoothly and efficiently. We will explore the derivation of this model, demonstrating estimation techniques based on measured or simulated impulse responses (IRs). Particular focus will be given to applications in complex environments, such as coupled room systems, and unique phenomena like fade-in behaviour at the onset of reverberation. Additionally, we’ll discuss how common-slope parameters can be directly derived from room acoustic geometry using acoustic radiance transfer, offering insights into practical implementations in virtual and augmented reality audio.",{"id":70,"slug":71,"title":72,"description":73,"duration":34,"type":35,"timestamp":27},"a5c11af8-50a5-45de-b327-c411c45f3ace","a79d256e532db2a25365"," - Olivier Warusfel","AAR aims to seamlessly merge virtual sound events into the listener’s real environment. To this end, various audio rendering models can be used to spatialise virtual sound events in real time and apply reverberation effects that match the acoustic properties of the real environment. The quality of experience of the listeners will strongly depend on the coherence between the acoustical cues conveyed by the real sound sources and the perception of the spatial processing applied to the virtual events. On the basis of an experiment simulating an AAR use case, the presentation compares the respective merits and constraints of two rendering approaches and analyses the objective and perceptual factors that contribute to the overall quality of the experience, particularly from the point of view of ‘plausibility’.",["Reactive",75],{"$si18n:cached-locale-configs":76,"$si18n:resolved-locale":82,"$snuxt-seo-utils:routeRules":83,"$ssite-config":84},{"fr":77,"en":80},{"fallbacks":78,"cacheable":79},[],true,{"fallbacks":81,"cacheable":79},[],"en",{"head":-1,"seoMeta":-1},{"_priority":85,"currentLocale":89,"defaultLocale":90,"description":91,"env":92,"name":93,"url":94},{"name":86,"env":87,"url":88,"description":86,"defaultLocale":88,"currentLocale":88},-3,-15,-2,"en-US","fr-FR","Ressources IRCAM est une plateforme de ressources musicales et sonores, développée par l'IRCAM, pour les artistes, les chercheurs et les passionnés de musique.","production","Ressources IRCAM","https://ressources.ircam.fr",["Set"],["ShallowReactive",97],{"/event/avancees-methodologiques-pour-la-realite-augmentee-audio-et-ses-applications-2024/":-1,"flat pages":-1},"/en/event/avancees-methodologiques-pour-la-realite-augmentee-audio-et-ses-applications-2024"]