informations générales

date
6 décembre 2024

- Antoine Deleforge

Estimating acoustic parameters, such as the localization of a sound source, the geometry, or the acoustical properties of an environment from audio recordings, is a crucial component of audio augmented reality systems. These tasks become es

6 décembre 2024

Vidéo

- Olivier Warusfel, Benoît Alary

6 décembre 2024

Vidéo

- Toon van Waterschoot

The room impulse response (RIR) provides a fundamental representation of room acoustics for a spatially invariant source-observer combination. Dynamic audio rendering in extended reality (XR) applications however requires a room acoustics m

6 décembre 2024

Vidéo

Avancées méthodologiques pour la Réalité Augmentée Audio et ses Applications : Introduction - Olivier Warusfel

6 décembre 2024

Vidéo

- Cagdas Tuna

Knowledge of geometric properties of a room may be very beneficial for many audio applications, including sound source localization, sound reproduction, and augmented and virtual reality. Room geometry inference (RGI) deals with the problem

6 décembre 2024

Vidéo

- François Ollivier

This presentation covers the design, characteristics and implementation of a spherical microphone array using 256 Mems cells (HOSMA). This HOSMA is designed for directional analysis of room acoustics at order 15. The array uses advanced tec

6 décembre 2024

Vidéo

- Annika Neidhardt

Systems for Augmented and Extended Reality (AR/XR) aim at rendering virtual content into the user’s natural environment or seemingly modify the properties of the actual environment. A future vision, for example, is to replace a person’s spe

6 décembre 2024

Vidéo

Common-slope modelling for 6DoF Audio - Sebastian Schlecht

In spatial audio, accurately modelling sound field decay is critical for realistic 6DoF audio experiences. This talk introduces the common-slope model, a compact approach that utilizes an energetic sound field description to represent spati

6 décembre 2024

Vidéo

- Olivier Warusfel

AAR aims to seamlessly merge virtual sound events into the listener’s real environment. To this end, various audio rendering models can be used to spatialise virtual sound events in real time and apply reverberation effects that match the a

6 décembre 2024

Vidéo

IRCAM

1, place Igor-Stravinsky
75004 Paris
+33 1 44 78 48 43

heures d'ouverture

Du lundi au vendredi de 9h30 à 19h
Fermé le samedi et le dimanche

accès en transports

Hôtel de Ville, Rambuteau, Châtelet, Les Halles

Institut de Recherche et de Coordination Acoustique/Musique

Copyright © 2022 Ircam. All rights reserved.