La première édition des Résonances organisée par l'Ircam fut à n'en point douter un succès. Organisation (presque) parfaite pour une première édition, conférences et intervenants de qualité, ceux qui s'intéressent à la musique et à son évolution se devaient d'y être. Et vous savez quoi ? Nous y étions ! Les événements se sont enchaînés pendant huit jours sans interruption, et il fallait souvent courir entre les étages pour ne rien rater, d'autant plus qu'au moment fort des Résonances pas moins de trois conférences avaient lieu simultanément ! Voici donc le résumé de cette semaine palpitante où grand public et scientifiques se sont rencontrés pour la plus grande joie de tous.

L'Ircam, ce haut lieu de recherche musicale, fondé en 1969 par Pierre Boulez et dirigé, depuis par Bernard Stiegler, se situe sous le bassin de la place Igor Stravinsky. De l'extérieur, difficile de se rendre compte de l'activité qu'il s'y trame, cependant, des hommes et des femmes y mènent de multiples recherches et autres expérimentations pour explorer des voies artistiques innovatrices.

A l'instar du GRM, les musiciens de l'Ircam traînent souvent une image de musico-scientifiques retranchés dans leur forteresse et déconnectés du monde réel. Les Résonances sont au contraire une belle preuve de leur ouverture sur le grand public.

Ateliers logiciels
Colloque : L'écoute instrumentée
Journée d'étude à la cité de la musique
Installations Sonores
Week-end nouveaux instruments
Les stands
La salle insonorisée de l'Ircam
Le concert



Ateliers logiciels

Atelier CUIDADO

Ce groupe de recherche chapeauté par l'Ircam se focalise sur les moyens de recherche, de classification, d'analyse et de transformation de fichiers son en en analysant le contenu sonore, ceci pour permettre aux musiciens de rechercher facilement et intuitivement des sons dans une base de données conséquente, mais également pour faciliter la recherche et la reconnaissance de morceaux dans une base de données. Ce genre de programme intéresse particulièrement les sociétés d'auteurs, les maisons d'édition musicale, voire leurs clients.

Dans un premier temps, on nous présenta le moteur de recherche SoundPalette online, qui fonctionne, comme son nom l'indique, en réseau. Il permet, grâce à une interface intuitive, de faire ses courses dans une base de données de sons et de les rapatrier sur son ordinateur.
L'intérêt de ce logiciel étant de proposer des recherches poussées, notamment grâce à une taxinomie bien pensée. On peut rechercher un son en fonction de sa tonalité, de sa structure, de son origine et d'autres paramètres inhérents au son recherché. Un espace personnel permet à l'utilisateur de classer ses trouvailles, ou bien de gérer un projet multi-users grâce aux connections sécurisés.

Le projet SoundPalette offline quant à lui est réalisé conjointement avec la société Creamw@re. Le but est de proposer un logiciel offrant les mêmes caractéristiques que son pendant online, mais avec en prime des fonctionnalités accrues, comme la possibilité d'analyser un son, puis de le décomposer en créant une piste par entité sonore.
Théoriquement, en lui donnant à analyser une boucle, le logiciel est capable de sortir chaque instrument sur une piste séparée. Je dis théoriquement car le logiciel est encore en développement, et comme l'aura rappelé un membre du public, il est très difficile, voire impossible de séparer deux sons qui ont été joués simultanément.
Cependant, le système a l'air de très bien fonctionner avec des boucles simples, vous serez à même de remplacer un son défini (caisse claire, grosse caisse, etc.) par un autre de votre choix.
Malheureusement, dans son état actuel, Soundpalette offline ne gère pas le MIDI. Le logiciel sera compatible PC/Mac et sera vendu avec les cartes SCOPE.

Une autre partie du projet CUIDADO cible particulièrement les bornes audio que l'on peut trouver dans les magasins de disque et qui sont un vecteur d'achats important. Comment améliorer ce système pour le rendre vraiment efficace ? Une des réponses possibles est le résumé audio.
On nous présenta un logiciel qui après analyse d'un morceau fut capable d'en faire le résumé en tirant des extraits triés par couplets, refrains, intros. Ces extraits sont présentés à l'utilisateur qui peut donc prendre connaissance des passages principaux du morceau, sans être obligé de rester appuyé sur avance rapide. Ce système débouche sur une autre utilisation possible, à savoir proposer une visualisation graphique d'un morceau d'une manière beaucoup plus intéressante que les affichages abstraits que proposent généralement les logiciels comme winamp. Il suffit pour cela d'afficher en temps réel la structure du morceau par objets (refrain couplet etc) pour que l'auditeur puisse reconnaître une correlation entre l'image et le son.

Web music monitoring system

On s'en serait douté, les MP3 disponibles en libre téléchargement sur Internet ne sont pas du goût des majors. Elles ont donc besoin d'outils permettant de détecter les fichiers ou flux audio indésirables pour savoir à qui envoyer les avocats. Les avancées dans ce domaine sont assez impressionnantes : aujourd'hui les logiciels de recherche automatique ne s'intéressent plus seulement au nom des fichiers (facilement modifiables), mais également à leur contenu. En faisant une capture audio de dix secondes d'un fichier audio, le logiciel en fait un « fingerprint » puis le compare à une grosse base de données. Dans ce cas-là, le taux de réussite approche les 99% ! Le logiciel indique même l'endroit exact de la capture dans le morceau. Ces algorithmes seront évidemment utilisés pour scanner les flux des radios online et les fichiers audios trouvés sur des serveurs.

Musicbrowser

Ce fut ensuite au tour de Sony CSL, partenaire de CUIDADO et représenté par François Planchet, de nous présenter Musicbrowser, un logiciel de navigation dans de grosses bases de données musicales.
A l'instar des logiciels Peer to Peer, ce logiciel permet d'effectuer des recherches par de multiples critères classiques comme le titre et l'artiste, mais innove en proposant des recherches par similarité timbrale et culturelle, les résultats étant classés par ordre de probabilité. Comme son nom l'indique, la similarité timbrale cherche des morceaux se rapprochant musicalement du morceau initial. Le résultat peut être inattendu, comme lors de la démo où la recherche à partir d'un morceau de musette ramena une reprise des Sex Pistols à l'accordéon par un artiste français.
La similarité culturelle se calcule grâce aux bases google et FIP. Il s'agit de faire une recherche sur ces moteurs avec le nom de l'artiste initial, puis de chercher dans les pages trouvées des noms qui renvoient à nouveau vers d'autre fichiers musicaux. Cette méthode permet de découvrir le monde proche de l'artiste.

Ces nouveaux outils de recherche permettent d'introduire les notion de hasard et de suprise, tout en conservant une cohérence par rapport au choix de départ. Cette surprise peut être cultivée, puisque le logiciel peut créer des playlists à la demande, pour que vous choisissiez un morceau de départ. Tel un programmateur radio, il essayera de proposer une playlist homogène, sans pour autant tomber dans l'ennuyeux. En proposant un morceau de début et de fin, le logiciel pourra également chercher les transitions.

Conférence sur le logiciel de modélisation instrumentale de l'IRCAM : Modalys.

L'IRCAM est un institut de recherche, ne l'oublions pas, et qui dit recherche, dit une avance considérable sur ….tout le monde !
Les premiers synthétiseurs virtuels destinés au « grand public » sont relativement récents (1997). A l'Ircam, cela fait des années que les chercheurs se sont penchés sur ce sujet. Le logiciel Modalys résume à lui seul le fruit de ce long et extraordinaire travail fourni depuis plus de quinze ans.
En effet, imaginez-vous que Modalys est capable de créer des instruments virtuels à partir d'objets physiques simples tels que des cordes, des plaques, des tubes, des membranes, des plectres, des archets et des marteaux. L'utilisateur construit ainsi un instrument (choix du résonateur, choix du matériau, choix de la note de départ…) et décide ensuite de la manière dont il va en jouer (plusieurs notes, choix du point d'impact sur l'instrument).

Les nouvelles versions de Modalys (anciennement Mosaïc) prennent en compte une approche plus instrumentiste. Vous ne programmez pas, vous vous placez dans un contexte musical, vous fabriquez réellement un instrument de musique avec la forme que vous voulez (ou presque), vous choisissez ensuite la manière dont vous allez vous en servir. L'ordinateur fait ensuite le reste. Certes, les ressources exigées sont importantes, très souvent le rendu demande plusieurs secondes de calcul, mais avec le temps, nous pouvons imaginer des applications en temps réel. A ce jour, les nouveautés présentées par Richard Polfremann de l'université de Hertfordshire font état pour Modalys-ER de matériaux colorés, de la conversion note à fréquence dans des objets, de la possibilité d'effectuer les calculs en tâche de fond (background processing) et d'un " Instrument Wizard " pour l'aide au design instrumental. MfOM intègre les fonctionnalités de Modalys à OpenMusic et met à disposition un ensemble de classes et de fonctions pour créer et contrôler des instruments. Un éditeur graphique de type Modalys-ER permet la création d'instruments via des classes prédéfinies selon l'approche OMChroma. Des instruments peuvent, jusqu'à une certaine mesure, être créés et modifiés de façon algorithmique. La librairie inclut aussi un ensemble de fonctions primaires utiles pour l'interfaçage entre des chord-seqs et d'autres objets musicaux vers des paramètres de contrôle d'instruments. Des instruments peuvent être importés de Modalys-ER et être automatiquement convertis en patches OMModalys.
Ce programme est disponible uniquement sur une plateforme Mac. Si vous désirez plus d'informations sur ce produit, je vous invite à cliquer sur ce lien :

http://www.ircam.fr/produits/logiciels/modalys.html

Conférence Arturia

Lors de cette conférence, Gilles Pommereuil de la société française Arturia a présenté une modélisation numérique du Moog 55. Ce célébrissime synthétiseur modulaire créé par Robert Moog dès 1967 est rapidement devenu une véritable star.

Aujourd'hui, Arturia nous annonce une version modélisée sous la forme d'un plug-in VST. Le constructeur français veut se démarquer des émulations analogiques existantes. En effet, un grand nombre d'entre elles souffrent d'aliasing (apparition de résidu harmonique). Fort d'une expérience acquise avec le logiciel Storm, Arturia annonce aujourd'hui qu'ils sont capables de produire une émulation sans aliasing grâce à un nouveau procédé baptisé TAE.
Le but est, d'après Arturia, de conquérir un marché du studio « pro » toujours réticent à l'aspect virtuel du synthétiseur, d'où une volonté certaine en terme de qualité. Nous avons pu entendre plusieurs exemples sonores et le rendu obtenu est fort prometteur, monsieur Bob Moog en personne parraine le projet.

Au cours de la présentation, Gilles Pommereuil a abordé les différentes techniques mises en œuvre dans le logiciel permettant d'atteindre ces résultats : oscillateurs sans aliasing, modélisation de l'instabilité des oscillateurs analogiques, modélisation des filtres 24 dB Moog, modélisation du soft-clipping, etc.

Faute de présentation visuelle, Arturia a précisé que cette émulation devrait posséder 9 oscillateurs, 3 filtres et 2 LFOs. Son prix devrait être fixé autour des 300 euros,. Enfin, il fonctionnera en mode « Stand Alone » et sera compatible VST, DXi, MAS et RTAS. Quant à une date de sortie, Gilles Pommereuil nous a gentiment annoncé janvier 2003.
Il va falloir donc patienter, et au moment venu, nous prendrons le temps d'apprécier ce nouveau jouet d'un peu plus près.

Projet AGNULA

La société Red Hat était présente pour nous révéler AGNULA, un package dédié à la création musicale professionnelle ou amateur basée sur la distribution linux Red Hat.

Qui dit Linux dit logiciel libre et donc gratuit. Cette distribution contiendra donc une centaine de logiciels dédiés aux musiciens, et sera disponible gratuitement en téléchargement, (ou pour une petite somme en CD-ROM) vers la fin de l'année 2002 sur www.agnula.org

A surveiller de très près.

Retour au menu

Colloque : L'écoute instrumentée

Le phonographe fut le point de départ d'un nouveau type d'écoute musicale : une écoute désinstrumentée, c'est-à-dire non informée par l'expérience d'une pratique musicale. Cependant, plusieurs artistes venant d'univers différents (jazz, electro-acoustique…) y trouvèrent au contraire un élargissement de la capacité d'écouter car il permettait de réentendre à loisir, de sélectionner, de comparer des moments disjoints.
Ce colloque avait donc pour but d'examiner les conséquences de ces mutations pour l'auditeur-explorateur, pour le compositeur et le musicologue.

Pour Bernard Stiegler, directeur de L'Ircam, « l'écoute est devenue une notion politique ». Avant le phonographe, et pour le non-musicien, il était impossible de rejouer un morceau de la même façon. On écoutait un morceau dans l'instant (rétention primaire), puis on ne pouvait que s'en souvenir (rétention secondaire). L'apparition du phonographe a permis pour la première fois de cristalliser un morceau sur un bout de plastique et donc de pouvoir le repasser, le rejouer, sélectionner un passage précis etc. Cette « rétention tertiaire » est une petite révolution pour l'auditeur puisqu'il peut dorénavant travailler son écoute, découvrir à chaque fois quelque chose de nouveau (tout du moins pour les très bons morceaux).

Tout ceci aboutit, pour Bernard Stiegler, au paradoxe du phonographe, qui provoque à la fois la « desinstrumentation des oreilles » (plus besoin d'être musicien pour entendre de la musique), et en même temps un « réarmement des oreilles », comme par exemple Charlie Parker qui s'empare de ce qu'il entend pour l'interpréter à sa manière jusqu'à en inventer le bee bop.

Evidemment, cette rétention tertiaire peut être négative pour l'oreille, car il suffit qu'un marché s'empare du phénomène pour commencer une massification de la musique. C'est le cas des médias comme les radios qui bien souvent, lorsqu'elles veulent imposer un titre particulier, le ressassent, et donc modifient, à grande échelle, la rétention des auditeurs, et par incidence, les goûts de la masse.

Serge Pouts Lajus, expert auprès du ministère de la culture, présenta quant à lui une étude réalisée sur une trentaine de musiciens amateurs utilisant un ordinateur.
« Composer sur son ordinateur. Les pratiques musicales en amateur liées à l'informatique » est une étude qui permet de se rendre compte que c'est une activité extrêmement répandue : environ 500 000 personnes en France s'y adonnent. Cette étude révèle également que l'ordinateur n'a été en aucun cas vecteur d'une envie, que chaque personne interrogée en est venue à l'utiliser par besoin. L'ordinateur reste un outil pour arriver à ses fins. L'étude complète mérite le coup d'oeil et peut être téléchargée sur le site du Ministère de la culture : http://www.culture.gouv.fr/dep.

Vincent Maestracci, inspecteur général de l'éducation nationale chargé de l'éducation musicale, aborda les programmes d'éveil à la musique mis en place par l'éducation nationale. Toutes les infos sont disponibles en cliquant sur ce lien :
http://www.educnet.education.fr/musique/accueil/index.htm

Guy Reibel, compositeur et professeur au Conservatoire de Paris, introduit le concept de «zapping» musical. Il est entre autre l'inventeur de l'OMNI, un instrument géant qui n'est ni plus ni moins qu'un sampleur épuré en forme de soucoupe (d'où son subtil nom). Cet instrument permet à n'importe qui (et donc à ceux qui n'ont jamais fait de musique) de jouer d'un instrument intuitivement, sans avoir besoin d'un apprentissage préalable. Les multiples capteurs colorisés déclenchent des sons que l'utilisateur agence comme il l'entend, sans être freiné par une interface compliquée.
Certaines personnes présentes dans la salle lui reprochèrent cependant de « démonter des chefs d'œuvres », en proposant à n'importe qui des bouts de phrases d'un morceau, qui étant séparées l'une des autres, font perdre toute cohérence au morceau initial.
Pour Guy Reibel, il peut être intéressant au contraire de démonter un morceau pour l'étudier précisement, se l'approprier et le réinterpréter à sa manière.

Puis ce fut le tour de François Pachet, responsable de la recherche musicale chez Sony CSL, qui fit plusieurs prestations remarquées lors de ces Résonances. Ce colloque fut l'occasion pour lui de présenter les travaux de recherche de son équipe, dont laproblématique étant la suivante : « Peut on inventer de nouveaux moyens de contrôles du son pour le grand public ».

Il rappela qu'au tout début, le phonographe ne proposait aucun contrôle (pas même le volume), hormis peut être la spatialisation du son puisqu'on pouvait diriger la corolle.
Puis au fil des années, on a commencé à pouvoir modifier le volume, la panoramique, les aigus, les graves et les médiums. Cependant, et bien que plusieurs tentatives aient été tentées, elles furent toutes rejetées au bout du compte par le public. Rien de vraiment innovant depuis.
Alors, peut-on trouver de nouveaux moyens pour modifier la musique ? Et surtout, est-ce utile pour l'auditeur ? La réponse est oui, mais implique que ces « nouveaux boutons » soient intuitifs pour l'utilisateur, et surtout qu'ils ne dénaturent pas l'esprit de l'œuvre originale.

La solution proposée est celle-ci : pourquoi ne pas donner la possibilité de bouger les sources sonores ? En effet, qui n'a jamais rêvé un jour de pouvoir isoler un instrument pour l'écouter plus attentivement ? Cette hypothèse d'étude a donné naissance au logiciel Musicspace, qui permet donc à l'utilisateur de bouger les différentes sources sonores d'un morceau suivant plusieurs contraintes déterminées par les développeurs pour ne pas dénaturer l'œuvre originale. François Pachet démontra en effet que l'utilisateur pouvait vite déborder sur l'expérimentation, si trop de liberté lui était offerte : rotation dans l'espace, mouvement sur un plan, séparation des pistes…Il faut donc privilégier les actions naïves qui ne demandent pas de réflexion mais qui obéissent néanmoins à des contraintes.

Son équipe se focalise également sur le développement de « nouveaux boutons » pour faciliter la recherche dans de grosses bases de données. Il prit comme exemples les premiers Jukebox qui proposaient à l'utilisateur que l'interactivité du choix du morceau (120 titres à l'époque). Mais aujourd'hui comment faire pour que l'utilisateur s'y retrouve au regard des catalogues musicaux existants ? La réponse renvoie au projet CUIDADO présenté dans les ateliers logiciels.

François Pachet termina son intervention en soulignant que l'on se souvient également d'un morceau par les images qu'il renvoie (clips, émotions etc) et donc que « le futur de l'écoute active de l'audio, ce sera peut-être la vidéo ».

Ce colloque fut clôturé par Douglas Hofstadter, professeur de sciences cognitives et informatiques à l'Indiana University et compositeur, qui aborda l'écoute passive avec pour thème : du sublime au subliminal. Il mit l'accent sur l'abus de la musique dans les milieus publics en racontant plusieurs anecdotes personnelles assez amusantes. Il dénonça le gâchis des musiques de fond, souvent choisies par des experts en marketing, qui polluent notre univers quotidien. Pour illustrer son propos, il fit jouer en fond sonore pendant sa prestation des morceaux de musique classique afin que tout le monde puisse en prendre conscience.

Retour au menu

Journée d'étude à la cité de la musique

Alors que je naviguais entre les conférences à l'Ircam, une journée d'études avait lieu à la Cité de la musique. Je ne pouvais évidemment pas être présent aux deux, mais j'ai pu, grâce à la retransmission en direct à l'Ircam, intercepter l'excellente intervention de François Pachet, décidemment bien actif lors de ces Résonances. Son exposé avait pour titre : « L'internaute , le mélomane et la technologie musicale »

Il commença par démontrer assez justement que les MP3 modifiaient subtilement la façon de procéder des utilisateurs, puisque la disponibilité et la quantité leur faisait passer plus de temps à collectionner qu'à écouter. De nouvelles angoisses en sont nées : ai-je toutes les versions ? Mon disque dur va-t-il crasher ? Chaque utilisateur passe donc son temps à ranger ses MP3, bien souvent en suivant un classement très personnel qu'un autre utilisateur peut contester ou ne pas comprendre.

Pour François Pachet, les logiciels de Peer to Peer ont crée « le syndrôme d'Ali Baba », comme dans les rêves d'enfants ou l'on tombe dans une piscine remplie de chocolat, la quantité et disponibilité des MP3 n'étaient pas censées être accessibles.

Le classement devient donc primordial. Il donna l'exemple d'un disque de Céline Dion (la BO de Titanic) qui fut classé par erreur dans la catégorie musique classique en 98, ce qui produisit une fausse/vraie augmentation des ventes mondiales de musique classique de 25% ! Tout ceci à cause d'un problème de « rangement dans la bonne case ». Il y a donc un problème de fond. Sur exemple précis, la qestion est la suivante: « qu'est ce que la musique classique intrinsèquement ? ». Cette question en amène une autre : « Quelle taxinomie utiliser pour ne plus faire d'erreurs ?  Avant toute chose, il faut que la réponse à cette question soit consensuelle pour éviter que tout le monde puisse donner son propre descripteur. François Pachet pense qu'il serait judicieux de s'intéresser par exemple à l'intensité d'un morceau, une notion qui n'a que faire du style, mais qui définit « l'énergie » du morceau, notion sur laquelle la majorité des personnes tombe d'accord. Une autre des possibilités serait le timbre global du morceau (cf CUIDADO).

Comme la musique doit être un plaisir, et non une angoisse, il est donc primordial de chercher de nouveaux descripteurs qui permettront de classer les morceaux autrement que par le titre ou le style. Mais comme le dit François Pachet, les utilisateurs auront-ils envie d'utiliser ces systèmes de classement ?

Retour au menu

Installations sonores

STM_SQ^3, un projet d'Aymeric Mansoux :

Ces Résonances furent l'occasion de très belles rencontres, notamment celle-ci. Aymeric Mansoux est l'auteur d'une oeuvre fascinante, un " Hyper instrument " basé sur une traduction visuelle et sonore d'un traceroute, qui propose au spectateur un voyage électronique : l'étude d'un processus de création à travers la représentation (visuelle et sonore) d'une source de données numériques. Cette rencontre donna lieu à une passionnante interview que vous pourrez lire ici :
http://www.musicrun.com/interviews/aymeric/stmsq3.php3

Le carillon Concertomatique et la Caméra Musicale de Jacques Rémus :

Le Carillon Concertomatique n°3 est composé d'un ensemble de 37 tubes de grande taille résonnants accordés. Chaque tube est actionné mécaniquement par un robot. L'ensemble de ces 37 robots (distincts les uns des autres) est commandé par la caméra musicale. Celle-ci est un instrument "immatériel", issu d'une interface conçue par Sylvain Aubin. Elle permet de créer de la musique avec les mouvements des mains sans aucun contact avec des capteurs physiques. Libre à vous de comprendre la programmation du concepteur ou de vous laisser aller à une improvisation de votre corps devant la caméra, celle-ci analyse en temps réel et va retranscrire votre « danse » en musique, et non plus l'inverse.

 
Plan large
 
Gros plan

A gauche : Sylvain Aubin, le créateur du carillon

 

Ellès d' Emmanuelle Huynh et de Cécile Le Prado :

Imaginez une pièce, un espace quasi opaque, une table conçue pour s'asseoir ou dormir, trois sources sonores et une ambiance musicale new age. Vous y êtes presque. Si vous avez la possibilité de voir ce travail, je vous invite à ne pas rater l'occasion (en cours d'acquisition, Frac Champagne-Ardenne, Reims). Quelques mots de Cécile Le Prado (compositrice) au sujet de ce travail : "Ellès est le témoin de l'entrelacs dans lequel nous nous tenons. Le monde imprime ses événements dans nos corps en même temps que ceux-ci ne cessent de le reconfigurer. Il est donc question des répercussions du vaste corps du monde en nous-mêmes ainsi que de la résonance de nos corps singuliers dans ce monde."


SOUNDB1TS, composition pour mur de haut-parleurs (2002) de Robin Minard et Norbert Schnell :

Si le 5.1 vient juste perturber notre conception de la restitution d'un signal enregistré dans l'espace, alors cette expérience va certes beaucoup plus loin. En effet, c'est un ensemble de 192 haut-parleurs qui compose ce « mur de haut-parleurs ». Bien loin, les allusions aux murs d'enceintes des concerts de trash. Ici, il faut faire travailler ses oreilles et se laisser guider par le « déplacement » du son à travers ce mur.

Ce travail est le fruit d'une rencontre entre Robin Minard (compositeur) et Norbert Schnell (équipe temps-réel Ircam). Robin Minard travaille depuis de nombreuses années sur des installations sonores conçues pour des centaines (parfois des milliers) de haut-parleurs piézoélectriques alimentés par des systèmes audio 16 pistes. Ne cherchons pas à comprendre un langage musical en particulier, ici l'intérêt auditif/musical est créé par l'aspect de la spatialisation. C'est pour cette raison que le signal choisi est simple ( trains d'impulsions électriques ou bruit). La fiche technique résume en quelques lignes ce travail fort intéressant : SoundB1ts utilise un support “ tout numérique ”, c'est-à-dire sans convertisseur numérique/analogique pour transporter des canaux codés sur 24 bits en détournant le protocole original et en associant chaque bit d'un canal à un haut-parleur contrôlé de manière binaire (0 ou 1). Le protocole ADAT permet de faire passer huit canaux mono de 24 bits, résultant en un système de contrôle pour 192 haut-parleurs pour chaque sortie ADAT utilisée. L'installation originale (basée dans une piscine en Allemagne) emploie normalement 3 sorties ADAT pour un total de 576 haut-parleurs. La synthèse des “ signaux ” numériques et leur localisation sur la matrice de haut-parleurs sont programmés en jMax.

 
Le mur d'enceinte de profil
 
Le mur d'enceinte...de face

Extrêêêêêême gros plannnnnn !!!!!!!

 

Réflexions, Emmanuel Deruty et Pierre-Yves Macé

Cette installation s'appuie sur des techniques de diffusion originales qui proposent un espace sonore mobile et délocalisé réparti sur les trois dimensions de l'espace. Pour cela, deux systèmes sont associés. Le « cube » développé par l'Ircam, et « l'Audiospotlight » développé par le MIT. Le cube est... un cube proposant un haut parleur sur chacune de ses faces, le son est ainsi propulsé dans l'espace et le mouvement de l'utilisateur influera sur les sons perçus. L'audiospotlight, quant à lui, est un haut-parleur à ultrasons. Ce dernier est capable de projeter à 50 mètres un faisceau sonore qui ne sera entendu que si la personne le traverse. Pour les Résonances, le faisceau fut projeté sur un mur, ce qui donnait littéralement l'impression que le son sortait de celui-ci. Une expérience très étrange qui laisse présager de multiples utilisations publiques... mais aussi militaires.

 
Le cube
 
L'audiospotlight

 

Retour au menu


Week-end nouveaux instruments

Ce week end fut l'occasion pour les compositeurs de présenter certaines de leur créations, comme l'OMNI de Patrice MOULLET et Guy REIBEL. Ce sampleur géant a été construit dans l'optique de permettre aux novices de jouer d'un instrument sans apprentissage préalable. Malgré quelques critiques émises sur la réelle utilité de son instrument, il suffisait de regarder les enfants l'utiliser pour se rendre compte que le concept fonctionnait totalement.

http://www.citypercussion.com

 
L'Omni
 
Guy Reibel en plein discourt

Guy Reibel présentait également l'imposante Stretch Machine (né également de la collaboration de Patrice Moullet et de Guy Reibel), que l'on pourrait qualifier d'instrument à corde. Pour en jouer il faut tirer sur des cordelettes, ce qui actionne des pistons en fonction de la force émise et envoie les informations aux synthétiseurs qui produisent les sons. Chaque corde étant associée à un son, en tirant un groupe de cordes entremêlées, il est possible de déclencher plusieurs sons en même temps.Vous vous apercevrez en regardant les photos que les instruments utilisés comme bases sonores sont le Nord Rack et le Nord Modular.

 
     
 
Gros plan sur les pistons
 
Les sources sonores

 

Les créations de Patrice Moullet

Michael Waisvisz fit une démonstration très impressionnante de « The hands », une création se matérialisant par des interfaces manuelles contrôlant la lecture de plusieurs sources sonores en fonction des mouvements, de la position des mains dans l'espace et de la pression sur des boutons. Grâce aux capteurs à ultrasons, il est possible de se déplacer dans un son en écartant ou en rapprochant les mains, de selectionner une zone précise du son (plus les mains sont rapprochées, plus le grain selectionné est petit). Ce système laisse une liberté très grande au compositeur, et on espère qu'il dépassera l'état de prototypel.

http://www.xs4all.nl/~mwais/

 
Michael Waisvisz en pleine action
     
 
" The hands "
 
Une interface en gros plan

 

Richard Zolfo est musicien et concepteur sonore. Pour T.I.M (Total Interactive Music), il développe une grande quantité d'instruments utilisant différentes techniques, détecteurs de mouvements, de vitesse, de pression, instruments traditionnels modifiés.

 
Richard Zolfo

Suguru Goto a imaginé Superpalm, un contrôleur MIDI se rapprochant du violon. L'instrument en lui même ne produit aucun son mais pilote l'ordinateur grâce aux multiples capteurs de pression le composant. Suivez ce lien pour plus d'informations.

http://www.ircam.fr/produits/technologies/violonmid.html

 
Suguru Goto
 
Le Superpalm et l'interface
atomic pro (en haut) de l'Ircam.

 

On pouvait également s'essayer au théremin, l'ancêtre des synthétiseurs actuels qui se contrôle avec les deux mains. Une antenne détermine la hauteur du son tandis que la seconde permet d'en modifier l'amplitude. Les sons sont donc produits par les mouvements des mains dans l'espace. Cet instrument est redevenu à la mode ces temps ci, certains artistes l'utilisant sur scène (Jean Michel Jarre, AIR, Hooverphonic, Apollo 440, etc.).

Malgré son âge le théremin fait toujours des émules

Retour au menu


Les stands

Creamw@re

La société Creamw@re, partenaire de l'Ircam dans le projet CUIDADO, développe une station de travail audio comprenant le logiciel SCOPE et des cartes spécialisées telles que les cartes PULSAR. C'est dans cet environnement qu'est prototypé la palette sonore CUIDADO pour la recherche, la classification et le traitement d'échantillons sonores. Par ailleurs, à l'occasion des Résonances, Creamw@re présentera sur son stand la dernière version du synthétiseur par modélisation physique Noah. L'architecture de ce synthétiseur est modulaire, ce qui permet à l'utilisateur de rajouter des modules hardware et de construire ses propres instruments virtuels, par exemple les vieux synthés analogiques tel que le Minimoog, les pianos électriques type Prophet VS, les synthés à table d'ondes, un modèle de guitare à six cordes ou de basse à quatre cordes, des orgues Hammond type B3, des percussions, des vocodeurs de type Vocodizer...

 
L'équipe de creamw@re représenté par Rembert Gantke

Arkaos

La société Arkaos, représentée par la charmante Agnès Wojewoda, était présente avec la nouvelle version de logiciel de création vidéo « temps réel », le VJ 2.2 d'Arkaos qui améliore et facilite encore la création de séquences visuelles live ou enregistrées. Le VJ 2.2 d'Arkaos est le premier logiciel multimédia à proposer l'édition et le traitement d'images et de video en temps réel.

L'équipe d'Arkaos

Yacast/Tekano

Responsable du stand : Olivier Lévy

Le groupe Yacast et son centre de recherche Tekano développent de nouvelles technologies d'interprétation et d'analyse des médias en grande partie basées sur la reconnaissance automatique du contenu audio et vidéo. Ces technologies sont mises en œuvre à ce jour pour plusieurs types de service : classements, surveillance des titres, analyse des stratégies de programmation, comparaison des rotations, top scores.. Muzicast donne aux professionnels une vision globale de l'offre musicale en radio et en télévision. Les données Muzicast sont réactualisées en temps réel et disponibles en continu (consultation via un site internet sécurisé B to B, WAP et PDA).

Pour les téléphones mobiles, YACAST propose dès aujourd'hui la distribution de données sur SMS, WAP ou kiosque Audiotel, mais aussi des solutions multimédia embarquées permettant notamment l'écoute des radios et la visualisation de vidéos sur un simple PDA. A terme, la localisation des mobiles permettra de personnaliser le contenu à destination de l'utilisateur en fonction de son environnement et de ses centres d'intérêt. http://www.yacast.com

Fraunhofer AEMT Ilmenau Metadaten

Responsable du stand : Christian Richter

Le Fraunhofer Institut, reconnu dans le monde entier pour la qualité de ses travaux de recherche sur la compression du son, s'est particulièrement fait connaître avec l'invention du format MP3. Par la suite, des travaux sur la reconnaissance de la musique (AudioID) ont été conduits par cet institut dans le cadre de la normalisation MPEG7. A l'occasion des Résonances, le laboratoire AEMT de Ilmenau, spécialisé dans l'étude et le développement d'applications utilisant les méta données, présenta une des applications les plus spectaculaires dans le domaine de la recherche par le contenu : la recherche par chantonnement (Query by Humming) ou par l'introduction d'une mélodie avec un instrument (Query by Playing). Cette recherche se fait en trois phases. Tout d'abord, le signal audio est enregistré et sa fréquence fondamentale est analysée dans le domaine temporel. Ensuite, les fréquences fondamentales sont transformées en contours de hauteur divisés en plusieurs notes. Chaque note est caractérisée par sa durée et sa hauteur moyenne. Enfin, les notes analysées sont comparées avec la base de données de fichiers MIDI. Sur l ‘écran s'affichent les titres trouvés par ordre de proximité. Le système s'adapte aux mélodies mal chantées et au bruit de fond. Les erreurs de rythme affectent moins la recherche que les erreurs de hauteur. Le taux de réussite est de 95% avec différents types d'instruments. Le développement se poursuit en configuration Internet et utilisera le schéma de description de la mélodie de MPEG7.

Retour au menu

Visite des locaux de l'Ircam

Le week end fut également l'occasion pour l'Ircam de faire visiter ses locaux, dont la fameuse salle insonorisée qui coupe le souffle une fois que l'on se trouve à l'intérieur. Il fut d'ailleurs assez drôle de s'apercevoir que l'isolement sonore total que produit la pièce provoque différentes réactions chez les gens : certains ne supportent pas ce soudain silence et en ressortent angoissés, d'autres en profitent pour écouter leur corps qui devient alors la seule source sonore.

Dans cette salle réside le silence pure

Retour au menu


Concert

Après une semaine de théorie, il était temps de passer à la pratique ! Pour nous les Résonances se terminèrent en beauté par la prestation de Bernard Lubat et de François Pachet.

Ils firent une démonstration du « continuator », un système informatique développé par François Pachet qui analyse en temps réel le style de jeux du musicien : les notes, les accords , les patterns, et la dynamique . Cette analyse lui permet de produire de manière autonome des phrases musicales dans ce même style suivant différents modes de jeux : continuation, questions réponses ou textures sonores reconstituées à partir des éléments fournis par le musicien.Celui-ci se retrouve donc dans une position nouvelle : face à un miroir amplifiant sa personnalité musicale, il peut donc jouer avec lui-même ou de lui meme. Pour François Pachet, l'expérience est une manière de mettre en scène la question suivante : « qu'est ce qu'une interaction musicale intéressante ?»

Pour Bernard Lubat, le système est une contrainte de plus avec laquelle il joue pour tenter de se dépasser et ainsi nous faire entendre à l'avance ce qu'il n'a pas encore eu le temps de composer. Une prestation sous le signe de la bonne humeur et de la remise en question constante.

Pour avoir une vue d'ensemble de ces Résonances, vous pouvez également vous diriger vers le site officiel à l'adresse suivante : http://resonances.ircam.fr

Rendez-vous l'année prochaine pour la deuxième édition des Résonances !

Retour au menu

Texte : Cyril Colom / Nicolas Ancelot
Photos : Cyril Colom











Copyright 2002-2004 : Musicrun Editions
Hit-Parade