\r\nLa première génération qui entre de plein droit dans la base est donc celle constituée par John Cage, Olivier Messiaen ou encore Elliott Carter.\r\n\u003C/p>\r\n\r\n\u003Ch3>Contenus\u003C/h3>\r\n\r\n\u003Cp style=\"text-align: justify;\">\r\nLes données sont progressivement mises à jour depuis juillet 2007, en remplacement de celles de l’ancienne version de la base, développée entre 1996 et 2001 par Marc Texier. L’information peut donc être incomplète pour certains compositeurs non encore traités : dans ce cas l’indication « ! Informations antérieures à 2002 » apparaît en haut de page. Pour tous les autres documents, la date de dernière mise à jour est indiquée en haut de page.\r\n\u003C/p>\r\n\r\n\u003Ch3>Mises à jour et nouvelles entrées\u003C/h3>\r\n\r\n\r\n\u003Cp style=\"text-align: justify;\">Les mises à jour se font compositeur par compositeur. Pour un compositeur donné, sont systématiquement revus ou créés les documents suivants :\r\n\u003C/p>\r\n\u003Cul style=\"text-align: justify;\">\r\n \u003Cli>la biographie\u003C/li>\r\n \u003Cli>le catalogue exhaustif de ses œuvres (y compris, si possible, les œuvres disparues, retirées ou posthumes)\u003C/li>\r\n \u003Cli>une liste de ressources bibliographiques, discographiques et internet,\u003C/li>\r\n \u003Cli>des éventuels documents attachés (Parcours de l’œuvre, interviews, analyses, notes de programme etc.)\u003C/li>\r\n\u003C/ul>\r\n\u003Cp style=\"text-align: justify;\">\r\nLa définition des priorités de mises à jour et nouvelles entrées des compositeurs s’opèrent suivant une méthodologie basée sur l’observation de la vie culturelle européenne :\r\n\u003C/p>\r\n\u003Cul style=\"text-align: justify;\">\r\n \u003Cli>Avant chaque saison, nous relevons les programmations à venir des principaux festivals, institutions et ensembles musicaux européens investis dans le domaine de la création musicale. Cette observation s’opère par cercles concentriques en partant de l’activité propre de l’Ircam (année n-2), puis de celle des partenaires privilégiés (année n-1) jusqu’aux grandes institutions et festivals européens de création (année n) ;\u003C/li>\r\n \u003Cli>Chaque compositeur est crédité de points en fonction de l’importance et de l’intensité de l’activité musicale le concernant. Ce classement permet de définir les priorités pour chaque trimestre ;\u003C/li>\r\n \u003Cli>Si un compositeur n’a pas obtenu assez de points pour figurer dans les priorités, il cumule ceux-ci sur le trimestre suivant ; et ainsi remonte progressivement dans la liste des priorités.\u003C/li>\r\n \u003Cli>Une fois mis à jour, les documents attachés à un compositeur sont valables trois ans, après lesquels le processus décrit ci-dessus reprend.\u003C/li>\r\n\u003C/ul>\t\r\n\r\n\u003Ch3>Erreurs ou omissions\u003C/h3>\t\r\n\t\t\t\t\r\n\u003Cp style=\"text-align: justify;\">\r\nSi la mise à jour est déjà effectuée (date postérieure à juin 2007) : nous invitons les musicologues, les compositeurs (ou leur éditeur) à nous signaler toute erreur ou omission importante. Elle sera corrigée, dans la mesure du possible, au cours du trimestre suivant. De même, nous les invitons à nous faire connaître leurs œuvres nouvelles, en mentionnant tous les éléments nécessaires à la création d’une fiche œuvre nouvelle.\r\n\u003C/p>\r\n\u003Cp style=\"text-align: justify;\">\t\t\r\nSi la mise à jour n’est pas encore effectuée (indication : « mise à jour à venir ») : Les compositeurs peuvent nous signaler des erreurs ou omissions importantes. Ces indications seront prises en compte au moment de la mise à jour à venir. Un compositeur peut également demander le retrait de sa biographie dans l’attente de la mise à jour.\r\n\u003C/p>\r\n\u003Cp style=\"text-align: justify;\">\r\nPour cela : \u003Ca href=\"mailto:brahms-contenu[at]ircam[dot]fr\">écrire\u003C/a> à l’administrateur de publication\r\n\u003C/p>\r\n",{"id":14,"url":15,"titleFr":16,"titleEn":11,"contentFr":17,"contentEn":11},"a3cd05aa-3447-487a-b4fc-213ba0f77e6b","/copyrights/","Mention Légale","La reproduction de contenus de ce site Web, en tout ou partie, est formellement interdite sans la permission écrite de l'Ircam. Les textes, images, logos, codes sources sont la propriété de l'Ircam, ou de détenteurs avec lesquels l'Ircam a négocié les droits de reproduction à sa seule fin d'utilisation dans le cadre du site Brahms. Tout contrevenant s'expose à des poursuites judiciaires. ",{"id":19,"url":20,"titleFr":21,"titleEn":11,"contentFr":22,"contentEn":11},"9162642e-ea99-48c3-8d3b-2dc2a3f8ba45","/repertoire/about/","Projet Répertoire Ircam","\u003Cp>Le Projet Répertoire Ircam est une collection d’analyses musicales en ligne d’environ 70 œuvres crées à l’Ircam et considérées comme représentatives de la culture de l’institut tant sur le plan artistique que technologique.\u003C/p>\r\n\r\n\u003Cp>Ce projet a débuté en 2006-2008 avec la création d’outils auteurs mises en œuvre par le département Interfaces Recherche/Création en collaboration avec le secteur recherche de l’institut. Les premières analyses ont été mises en ligne fin 2010 et il est prévu que la collection s’élargisse à un rythme de deux ou trois nouvelles analyse par an.\u003C/p>\r\n\r\n\u003Cp>Plusieurs objectifs sont poursuivis par ce projet :\u003C/p>\r\n\r\n\u003Cul>\r\n\t\u003Cli>faire connaître les œuvres produites à l’Ircam à un public plus large,\u003C/li>\r\n\t\u003Cli>montrer la relation entre l’idée musicale et les technologies utilisés,\u003C/li>\r\n\t\u003Cli>identifier les nouveaux éléments du vocabulaire musical qui émergent à travers ces œuvres,\u003C/li>\r\n\t\u003Cli>offrir un support d’information aux interprètes.\u003C/li>\r\n\u003C/ul>\r\n\r\n\u003Cp>Chaque analyse est structurée en trois parties :\u003C/p>\r\n\r\n\u003Col>\r\n\t\u003Cli>description générale de l’œuvre,\u003C/li>\r\n\t\u003Cli>analyse des extraits de l’œuvre avec mise en relation de l’idée musicale et de l’écriture électronique,\u003C/li>\r\n\t\u003Cli>la liste de ressources spécifiques (type de problème musical abordé, technologies utilisées, œuvres abordant le même type de problématique) et générales (biographique, historique, technique).\u003C/li>\r\n\u003C/ol>\r\n\r\n\u003Cp>Les analyses seront également mises en relation avec :\u003C/p>\r\n\r\n\u003Cul>\r\n\t\u003Cli>Brahms : une base de données encyclopédique en ligne de compositeurs de musique contemporaine de toutes les nationalités dont les œuvres ont été créées après 1945. Cette base contient actuellement environ 600 références. Pour chaque compositeur, il y a une partie biographique accompagnée des sources d’information, et une autre partie qui situe l’orientation esthétique, les phases principales et le contexte historique de l’œuvre.\u003C/li>\r\n\t\u003Cli>Images d’une œuvre : une collection des interviews filmés des compositeurs.\u003C/li>\r\n\t\u003Cli>Sidney : une base de données qui contient les éléments techniques (programmes informatiques, sons etc. ) nécessaires pour l’exécution de l’œuvre.\u003C/li>\r\n\u003C/ul>\r\n\r\n\u003Cp>A plus long terme, les analyses des nouvelles œuvres créés à l’Ircam viendront se rajouter au corpus donné dans l’annexe citée ci-dessus.\u003C/p>",{"data":24},{"numericDocumentBySlug":25},{"id":26,"slug":27,"title":28,"titleEn":11,"textFr":29,"textEn":11,"source":30,"publishingStartDate":31,"authors":32,"copyrights":37},"cbb072ac-37da-4bad-a44a-95d18eaff300","fr-entretien-avec-pascal-dusapin-thierry-coduys-et-jerome-nika-et-chantent-les-nuages-!-et-chantent-les-nuees-!","Entretien avec Pascal Dusapin, Thierry Coduys et Jérôme Nika ; Et chantent les nuages ! Et chantent les nuées !","\u003Cp style=\"text-align:justify\">\u003Cstrong>Pascal Dusapin, \u003Cem>\u003Ca data-ckeditor-link=\"true\" data-content_object=\"47229\" href=\"/works/work/47229/\">Lullaby Experience\u003C/a> \u003C/em>est à la croisée de trois préoccupations majeures de votre œuvre\u003C/strong> \u003Cstrong>: l’univers de l’enfance, la voix et la recherche d’un autre rapport à la scène. \u003C/strong>\u003C/p>\n\n\u003Cp style=\"text-align:justify\">\u003Cstrong>Pascal Dusapin\u003C/strong> \u003Cstrong>: \u003C/strong> Oui, j’ai toujours été poursuivi par l’enfance. C’est une question à laquelle j’ai été confronté avec force pendant toute ma vie professionnelle. J’ai même fait un petit opéra pour enfants : \u003Cem>\u003Ca data-ckeditor-link=\"true\" data-content_object=\"14339\" href=\"/works/work/14339/\">Momo\u003C/a>. \u003C/em>Dans certaines de mes œuvres, mes opéras notamment, j’ai utilisé de petites mélodies, comme des comptines ou des berceuses – sans aucune citation, mais, parfois, tout d’un coup, de petites chansons qui surgissent. Ce qui était du domaine de la pulsion, j’ai eu un jour l’idée d’en faire un projet spécifique. L’aspect scénique est venu plus tard, en réalité, lorsque l’Ensemble Modern s’est lancé, il y a maintenant deux ans, et que nous avons convaincu Claus Guth de s’embarquer dans l’affaire. Dès lors que l’équipe s’agrandit, il est bien naturel que le projet change de nature. Mais, dans sa version originelle, \u003Cem>Lullaby Experience \u003C/em>était plus proche des arts plastiques. C’était en 2006, et le projet devait alors se faire dans le cadre d’une commande d’un musée de Houston, aux États-Unis.\u003C/p>\n\n\u003Cp style=\"text-align:justify\">\u003Cstrong>Qu’est-ce qui vous séduit tant dans ces «\u003C/strong> \u003Cstrong>Lullabies\u003C/strong> \u003Cstrong>», ces comptines ou berceuses\u003C/strong> \u003Cstrong>? \u003C/strong>\u003C/p>\n\n\u003Cp style=\"text-align:justify\">\u003Cstrong>P.D.\u003C/strong> \u003Cstrong>: \u003C/strong> Cela relève de l’origine de notre mémoire musicale : quand on s’immerge dans cet océan de petites chansons, on se rend compte de leur puissance organique.\u003C/p>\n\n\u003Cp style=\"text-align:justify\">\u003Cstrong>Cette puissance est-elle liée au fait qu’elles ont bercé notre enfance ou, inversement, ont-elles bercé notre enfance parce qu’elles sont par leur nature si puissantes\u003C/strong> \u003Cstrong>? \u003C/strong>\u003C/p>\n\n\u003Cp style=\"text-align:justify\">\u003Cstrong>P.D.\u003C/strong> \u003Cstrong>: \u003C/strong> Cela va sans doute dans les deux sens. Cependant, on aime une mélodie parce qu’on l’aime, je ne prétends pas analyser nos goûts. Je pense toutefois qu’elles ont une capacité très particulière à s’imprimer dans notre mémoire, dans notre chair même, et d’y prendre une place singulière, jusqu’à jouer un rôle dans notre rela- tion au réel et au symbolique. C’est un monde onirique d’une puissance extraordinaire.\u003Cbr />\nC’est la raison pour laquelle je me suis absolument refusé à les retoucher, par transformation ou traitement électronique. Contrairement à Claus Guth qui, dans sa mise en scène, a pris une certaine distance vis-à-vis de l’univers de l’enfance (au travers du prisme psychanalytique notamment) : il a même imaginé un univers assez sombre – il m’a dit un jour que ce qui l’intéresse le plus dans l’onirisme enfantin, c’est sa dimension « cauchemardesque » essentielle, cette dualité entre rêve et cauchemar, qui est une part presque rhétorique de la vie psychique enfantine. Moi, non : je n’ai pris aucune distance. J’aime ces mélodies comme elles sont. Je voulais que le matériau d’origine soit toujours reconnaissable, quand bien même nous l’avons coupé, monté, mixé, spatialisé. Il n’est jamais transformé ou traité.\u003C/p>\n\n\u003Cp style=\"text-align:justify\">\u003Cstrong>À partir de là, comment est né \u003Cem>Lullaby Experience\u003C/em>\u003C/strong> \u003Cstrong>? \u003C/strong> \u003Cstrong>\u2028\u003C/strong>\u003C/p>\n\n\u003Cp style=\"text-align:justify\">\u003Cstrong>P.D.\u003C/strong> \u003Cstrong>: \u003C/strong> Mon rêve était de créer un « nuage de mélodies », susceptibles de se connecter entre elles pour en créer de nouvelles sur la base de paramètres que j’aurais imaginés (comme le ton, la nuance, le timbre de la voix...). L’idée première était celle d’une nuée d’oiseaux en mouvement, chacun d’eux chantant selon différentes modalités, un chœur animé de mille voix volantes. Bref, un « nuage chantant ». C’était le concept de base, qui a beaucoup évolué depuis.\u003C/p>\n\n\u003Cp style=\"text-align:justify\">\u003Cstrong>Comment avez-vous collecté ce matériau\u003C/strong> \u003Cstrong>? \u003C/strong>\u003C/p>\n\n\u003Cp style=\"text-align:justify\">\u003Cstrong>P.D.\u003C/strong> \u003Cstrong>: \u003C/strong> Je tenais à avoir une grande variété de mélodies, issues de communautés très différentes – c’était du reste un aspect très « politiquement correct » qui avait beaucoup plu à l’époque au musée de Houston. D’où l’idée d’une application pour smartphones et tablettes. Je ne pensais pas que l’exercice de la musique m’amènerait un jour à superviser le développement d’une « app » !\u003Cbr />\n\u003Cstrong>Thierry Coduys\u003C/strong> \u003Cstrong>: \u003C/strong>Avec Guillaume Jacquemin (Buzzing Light), qui a développé cette application, le téléphone comme médium d’enregistrement nous est rapidement apparu comme un très bon choix de par sa mobilité et sa facilité d’utilisation, toutefois cela pouvait poser un certain nombre de questions quant à la qualité des enregistrements, la synchronisation des données, la traçabilité des contenus et une ergonomie sans reproche, afin de faciliter la collecte des données.\u2028\u003Cbr />\n\u003Cstrong>P.D.\u003C/strong> \u003Cstrong>: \u003C/strong>Cet aspect participatif du projet était évidemment très séduisant. Dans les faits, nous nous sommes aperçus que cela n’allait pas de soi. D’abord parce que chanter, et plus encore chanter une berceuse ou une comptine, est un acte très intime, quasi tabou. Beaucoup de gens s’autocensurent, au prétexte qu’ils pensent ne pas savoir chanter.\u2028 Cette collecte a soulevé de nombreuses problématiques auxquelles nous ne nous attendions pas !\u003Cbr />\nMais j’ai aussi découvert des tas de mélodies que je ne connaissais pas, issues de cultures du monde entier. Parfois on ne reconnaît même pas la langue – et, croyez-moi, nous nous sommes renseignés ! Car c’est la langue qui crée l’espace de l’intonation de ces berceuses, à la manière d’un substrat architectural. Dans certaines contributions, les gens oublient les paroles et ne font que fredonner la mélodie, mais on peut, par la forme de l’intonation, déduire la langue d’origine.\u003Cbr />\nCe qui est assez drôle, c’est que, pour créer notre nuage chantant, l’ordinateur lui-même crée comme des chimères linguistiques, en associant certains chants de langues différentes.\u003C/p>\n\n\u003Cp style=\"text-align:justify\">\u003Cstrong>L’ordinateur dont vous parlez est un moteur informatique développé à l’Ircam\u003C/strong> \u003Cstrong>: comment se sont passés les premiers contacts avec les chercheurs de l’institut\u003C/strong> \u003Cstrong>? \u003C/strong>\u003C/p>\n\n\u003Cp style=\"text-align:justify\">\u003Cstrong>P.D.\u003C/strong> \u003Cstrong>: \u003C/strong> Lors des premières rencontres, j’ai découvert que le projet tel que je l’avais imaginé n’était pas réalisable technologiquement : aucune « machine pensante », à l’heure actuelle, n’est capable de connecter toutes ces mélodies, tous ces modes et toutes ces cultures, à la manière d’un corps biologique naturel. J’avais beaucoup fantasmé sur les possibilités des fameuses « intelligences artificielles » dont on nous rebat les oreilles – mais non. On pense trop facilement que la technologie va suppléer à l’imaginaire. Mon expérience m’a appris que c’est à mon imaginaire de solliciter la technologie et non le contraire. En réalité, comme souvent, la machine peut donner des réponses intéressantes, mais seulement lorsqu’on lui pose de bonnes questions.\u003Cbr />\n\u003Cstrong>T.C.\u003C/strong> \u003Cstrong>: \u003C/strong> En l’occurrence, la question était : peut-on transformer, mixer, faire du collage et même davantage sur un tel matériau? Nous avons d’abord tenté de comprendre ce qui était du domaine du possible, notamment auprès des équipes Analyse et synthèse des sons et Représentations musicales. Nous nous sommes rapidement intéressés au travail de Jérôme Nika.\u003Cbr />\n\u003Cstrong>Jérôme Nika\u003C/strong> \u003Cstrong>: \u003C/strong>Il se trouve effectivement que DYCI2, la librairie d’agents génératifs que nous utilisons, et que j’ai développée pendant ma thèse et mon post-doc à l’Ircam, fait partie de cette famille d’outils qui permettent de « meta-composer », c’est-à-dire de composer à l’échelle de la narration, de la structure (par opposition à la composition habituelle à l’échelle du matériau). Mes travaux de recherche portaient initialement sur la co-improvisation humain/machine, à la suite de ce qui a été fait sur le logiciel OMax. Le principe de cette librairie, et en particulier des agents développés pour ce projet en collaboration avec Jean Bresson (équipe Représentations musicales Ircam-STMS), est d’articuler une mémoire (ici les comptines \u003Cem>a capella\u003C/em>) et des scé- narios (des structures temporelles) composés ou eux-mêmes générés. Pour donner un exemple simple, on peut envoyer la requête suivante à un agent génératif : en piochant dans ta mémoire, compose-moi un chœur à \u003Cem>n \u003C/em>voix, qui chantent toutes une mélodie proche de telle mélodie « cible », en ne choisissant que des timbres clairs, et en commençant par des éléments très harmoniques et doux pour aller vers du plus bruité et pointilliste.\u003C/p>\n\n\u003Cp style=\"text-align:justify\">\u003Cstrong>La machine analyse donc le matériau selon une série de critères choisis à l’avance, et, en réponse à une série d’instructions, ce que vous appelez un «\u003C/strong> \u003Cstrong>scénario\u003C/strong> \u003Cstrong>», fournit une grande forme... \u003C/strong>\u003C/p>\n\n\u003Cp style=\"text-align:justify\">\u003Cstrong>J.N.\u003C/strong> \u003Cstrong>: \u003C/strong> La métaphore de scénario est pertinente : c’est une évolution à haut niveau, une trajectoire à suivre, pour organiser le matériau. La machine choisit alors parmi le matériau qu’elle a en mémoire ce qui se rapproche le plus des spécifications du scénario voulu pour générer un discours musical. Le matériau original est ainsi utilisé tel quel dans chaque fragment choisi par la machine, même si une comptine est rarement prise dans son entier, mais en tranches plus ou moins fines. Une syllabe unique peut ainsi être la concaténation de plusieurs fragments de syllabes issus de plusieurs mélodies. Le matériau des comptines est un « vivier ».\u003Cbr />\nÀ plusieurs niveaux, d’ailleurs, car la machine va un peu plus loin : les scénarios dont nous parlons ne sont eux-mêmes pas réellement composés « à la main », mais par un autre agent musical, en début de chaîne, qui fonctionne exactement de la même manière, mais s’applique non pas aux mélodies elles-mêmes, mais bien plutôt au produit de l’analyse qu’en a fait la machine selon les critères que nous avons choisis.\u003C/p>\n\n\u003Cp style=\"text-align:justify\">\u003Cstrong>C’est donc un autre agent, un «\u003C/strong> \u003Cstrong>méta-agent\u003C/strong> \u003Cstrong>», qui crée le nouveau scénario qui va à son tour générer le discours musical\u003C/strong> \u003Cstrong>? \u003C/strong> \u003Cstrong>\u2028\u003C/strong>\u003C/p>\n\n\u003Cp style=\"text-align:justify\">\u003Cstrong>J.N. : \u003C/strong> Oui. Les comptines sont découpées et analysées par Axel Roebel et Nicolas Obin (équipe Analyse et synthèse des sons), selon une série de descripteurs audio (que nous pouvons choisir). Et c’est le résultat de cette analyse que le « méta-agent » utilise comme « mémoire ». Cette mémoire étant « symbolique », ce qu’il produira en sortie sera une suite temporelle de symboles (auxquels correspondent des descripteurs audio)... un scénario donc. \u2028Le processus est donc le suivant : un premier agent se promène dans des analyses de \u003Cem>lullabies\u003C/em> pour générer un scénario, et ce scénario est à son tour utilisé par un second agent pour générer le discours musical lui-même. Composer un nuage chantant revient donc à demander à l’ordinateur un nuage dont la structure temporelle est construite à partir d’un sous-corpus (les analyses), réalisé à partir d’un autre sous-corpus (les comptines). Les deux sous-corpus étant en réalité le même, l’un présenté sous forme symbolique, l’autre sous forme de signal audio.\u003C/p>\n\n\u003Cp style=\"text-align:justify\">\u003Cstrong>Le résultat n’est toutefois pas nécessairement bon\u003C/strong> \u003Cstrong>!\u003C/strong> \u003Cstrong>\u2028\u003C/strong>\u003C/p>\n\n\u003Cp style=\"text-align:justify\">\u003Cstrong>J.N.\u003C/strong> \u003Cstrong>: \u003C/strong> Non. Bien sûr. Ce n’est qu’une proposition. Et la machine ne sortira jamais deux fois la même. Il faut donc faire son choix. C’est pour ça que ça reste très composé et qu’il faut aussi apprivoiser l’instrument pour arriver à en jouer.\u003C/p>\n\n\u003Cp style=\"text-align:justify\">\u003Cstrong>C’est donc un instrument\u003C/strong> \u003Cstrong>?\u003C/strong> \u003Cstrong>\u2028\u003C/strong>\u003C/p>\n\n\u003Cp style=\"text-align:justify\">\u003Cstrong>J.N.\u003C/strong> \u003Cstrong>: \u003C/strong> Oui, c’est un outil et non une intelligence artificielle autonome. Pour composer une heure de musique, nous avons dû générer au moins dix fois dix heures de musique, le tout non construit, en plusieurs blocs de plusieurs minutes. Il a fallu écouter tout cela, ne conserver que ce qui fait sens, et composer enfin une forme à partir de ces éléments. À la main, cette fois.\u003C/p>\n\n\u003Cp style=\"text-align:justify\">\u003Cstrong>Pascal, comment avez-vous appréhendé l’outil\u003C/strong> \u003Cstrong>?\u003C/strong> \u003Cstrong>\u2028\u003C/strong>\u003C/p>\n\n\u003Cp style=\"text-align:justify\">\u003Cstrong>P.D.\u003C/strong> \u003Cstrong>: \u003C/strong> J’ai joué avec. On peut le dire. Je suggérais d’introduire de nouveaux paramètres d’analyses, d’en écarter d’autres. Thierry en a même inventé !\u003Cbr />\n\u003Cstrong>J.N.\u003C/strong> \u003Cstrong>: \u003C/strong> Le choix de ces descripteurs est essentiel : ils fournissent non seulement les critères d’analyse du matériau par la machine, mais ils constituent aussi et surtout le vocabulaire que l’on utilise pour écrire nos scénarios. Si on analyse le matériau uniquement selon des critères d’énergie, on ne pourra jamais demander à la machine un scénario qui joue sur des hauteurs : la machine en sera tout simplement incapable !\u003C/p>\n\n\u003Cp style=\"text-align:justify\">\u003Cstrong>Qu’avez-vous fait ensuite de ce que fournit la machine\u003C/strong> \u003Cstrong>?\u003C/strong> \u003Cstrong>\u2028\u003C/strong>\u003C/p>\n\n\u003Cp style=\"text-align:justify\">\u003Cstrong>P.D.\u003C/strong> \u003Cstrong>: \u003C/strong> En réalité, la même chose que d’habitude. Quand je compose, je sais où je vais, je sais ce que je fais. J’imagine parfois des systèmes que je mets en œuvre, mais jamais le système ne fera la musique : celle-ci se construit par décisions successives, note après note.\u003C/p>\n\n\u003Cp style=\"text-align:justify\">\u003Cstrong>La grammaire dans laquelle on écrit ne détermine pas le sujet, le verbe et le complément de la phrase qu’on écrit. \u003C/strong> \u003Cstrong>\u2028\u003C/strong>\u003C/p>\n\n\u003Cp style=\"text-align:justify\">\u003Cstrong>P.D.\u003C/strong> \u003Cstrong>: \u003C/strong> Exactement. Et, rétrospectivement, un projet comme celui-là reste assez traditionnel puisqu’il revient à construire une composition, une dramaturgie. À partir des dizaines d’heures produites par la machine, la pièce a été produite, minute par minute, à la main.\u003C/p>\n\n\u003Cp style=\"text-align:justify\">\u003Cstrong>La pièce n’est pas donc pas produite «\u003C/strong> \u003Cstrong>en temps réel\u003C/strong> \u003Cstrong>».\u003C/strong> \u003Cstrong>\u2028\u003C/strong>\u003C/p>\n\n\u003Cp style=\"text-align:justify\">\u003Cstrong>P.D.\u003C/strong> \u003Cstrong>: \u003C/strong> Pas du tout. Quelques jours avant les représentations, nous arrêtons le corpus de \u003Cem>Lullabies\u003C/em> que nous utilisons ensuite pour générer le discours. Le spectacle tel que présenté à Paris sera donc différent de celui qu’on a créé à Francfort, car le corpus s’est enrichi entre-temps.\u003C/p>\n\n\u003Cp style=\"text-align:justify\">\u003Cstrong>Une chose se fait toutefois en temps réel\u003C/strong> \u003Cstrong>: la spatialisation. Quelle a été votre démarche, en relation notamment avec ce que produit la machine\u003C/strong> \u003Cstrong>? \u003C/strong>\u003C/p>\n\n\u003Cp style=\"text-align:justify\">\u003Cstrong>T.C.\u003C/strong> \u003Cstrong>: \u003C/strong> Les spectateurs déambulant dans l’espace, il fallait imaginer un dispositif immersif et sans référence à une position d’écoute. La question était : comment écrire l’espace avec une masse sonore générée aussi importante, et des composantes additionnées aussi nombreuses (prosodie, harmonie, énergie, rythme, bruit, etc.) pour les berceuses, ainsi qu’avec les différentes interventions des musiciens en direct ?\u003Cbr />\nLe travail a consisté à fixer les différentes sources sonores dans l’espace suivant des critères de répartition liés à la perception, puis à modifier la scène sonore dans sa globalité. Le dispositif de diffusion sonore dessinant une demi-sphère dans l’espace, on peut la déplacer selon ses trois axes, par homothéties ou angulations, à vitesses variables, comme des « pendules » en trois dimensions. On perturbe l’espace sonore, on crée des accélérations ou on donne un sentiment de vertige, mais en préservant l’identité de la scène sonore.\u003Cbr />\nC’est ainsi qu’on a « écrit l’espace » comme un nuage sonore intrigant, qui sollicite le cerveau et invite à un mode déambulatoire, à une « expérience » à l’intérieur du nuage. Les pendules virtuels pouvant être déclenchés et paramétrés en temps réel, cela nous laisse une latitude qui procède de la liberté d’interprétation.\u003C/p>","\u003Cp>Note de programme du concert du 1er juin 2019 au CentQuatre, Paris.\u003C/p>\n","2019-07-02T00:00:00.000Z",[33],{"firstName":34,"lastName":35,"slug":36},"Jérémie","Szpirglas","jeremie-szpirglas",[38],{"nameC":39},"Ircam-Centre Pompidou",["Reactive",41],{"$si18n:cached-locale-configs":42,"$si18n:resolved-locale":48,"$snuxt-seo-utils:routeRules":49,"$ssite-config":50},{"fr":43,"en":46},{"fallbacks":44,"cacheable":45},[],true,{"fallbacks":47,"cacheable":45},[],"en",{"head":-1,"seoMeta":-1},{"_priority":51,"currentLocale":55,"defaultLocale":56,"description":57,"env":58,"name":59,"url":60},{"name":52,"env":53,"url":54,"description":52,"defaultLocale":54,"currentLocale":54},-3,-15,-2,"en-US","fr-FR","Ressources IRCAM est une plateforme de ressources musicales et sonores, développée par l'IRCAM, pour les artistes, les chercheurs et les passionnés de musique.","production","Ressources IRCAM","https://ressources.ircam.fr",["Set"],["ShallowReactive",63],{"/numericDocument/fr-entretien-avec-pascal-dusapin-thierry-coduys-et-jerome-nika-et-chantent-les-nuages-!-et-chantent-les-nuees-!":-1,"flat pages":-1},"/en/numericdocument/fr-entretien-avec-pascal-dusapin-thierry-coduys-et-jerome-nika-et-chantent-les-nuages-!-et-chantent-les-nuees-!"]