Entre l’idée et l’oeuvre : Parcours de l’informatique musicale

La totalité du texte est de Marc Battier

Entre l’idée et l’oeuvre : Parcours de l’informatique musicale est publié cette année dans: Esthétique des arts médiatiques sous la direction de Louise Poissant, Presses de l’Université du Québec, 1995. Nous en publions ici un large extrait grâce à l’aimable autorisation de Mme Poissant.

Introduction

Si l’informatique musicale nous importe tant aujourd’hui, c’est qu’elle a progressivement créé des outils qui sont en train de modifier radicalement la manière de penser la musique. Pourtant, son histoire est courte. Elle se confond avec le développement des technologies numériques: des ordinateurs, d’abord, accompagnés par la création des langages symboliques destinés à la programmation, puis avec toute une cohorte d’inventions en technologie numérique. Assez tôt dans son histoire, l’informatique se montrera suffisamment mûre pour accueillir des préoccupations de toutes sortes, allant de la comptabilité à la recherche scientifique, en passant naturellement par ce qui nous intéresse, la création artistique. Et les musiciens s’enorgueillissent d’avoir été les premiers parmi les artistes à s’approprier l’ordinateur.

Et c’est sans doute là qu’il faut distinguer ce qui ressort de l’informatique proprement dite, et ce qui appartient plutôt au monde plus large de la technologie numérique. La musique puise amplement dans ces deux domaines ses nouvelles ressources. Toutefois, puisque le domaine du son est aujourd’hui converti en audionumérique, la distinction s’impose. L’informatique musicale naît de la rencontre des préoccupations musicales et de l’environnement issu des technologies numériques et de la spécificité de l’ordinateur, d’une part, et des domaines scientifiques qui éclairent ses thèmes de recherche. Si la composition musicale y figure en bonne place, pratiquement toutes les autres activités de la musique s’y retrouvent. Et la recherche musicale recouvre en partie le terrain défriché par l’informatique, l’acoustique, le traitement du signal, voire la psychologie cognitive: c’est ainsi que l’informatique musicale se situe au centre de plusieurs champs musicaux, scientifiques et techniques.

Mais c’est le recours aux apports spécifiques de l’informatique qui caractérise sa démarche. De nouveaux outils conceptuels sont sans cesse fournis par l’intelligence artificielle, qui se concrétisent par des langages tels que Lisp ou Prolog. Ils sont aussitôt mis au service de l’analyse musicologique ou de l’aide à la composition. La recherche en systèmes temps réel et sur les interfaces interactifs permet de concevoir de nouvelles liaisons entre l’instrumentiste et l’univers électronique.

Grandes étapes de l’informatique musicale

A l’origine de l’informatique musicale, on trouve deux types d’activités, indépendantes l’une de l’autre. Si ces activités perdurent aujourd’hui, c’est d’une autre manière que la vision originelle qui a provoqué leur naissance pouvait laisser prévoir. Ces deux types d’activités sont: la composition musicale, et la production du son. Dans les deux cas, la fabrication du résultat souhaité est assuré par l’ordinateur. Ces deux types d’activités sont sensiblement contemporaines. Les premiers essais sérieux de composition musicale par ordinateur remontent à 1956: c’est à cette date que Lejaren Hiller a calculé une partition à l’aide de règles encodées sous forme d’algorithmes sur l’ordinateur Illiac I de l’université de l’Illinois. Il s’agit de la Illiac Suite for String Quartet, dont les trois premiers mouvements sont exécutés cette année-là par le quatuor à cordes WQXR. Dans un ouvrage célèbre, publié en 1959 et qui porte le titre de Experimental Music-Composition with an Electronic Computer, Lejaren Hiller expose en détail les procédures qu’il a appliquées à l’ordinateur Illiac afin de produire la partition de son quatuor à cordes.

Pour situer cette période, c’est aussi en 1956 que John McCarthy forgea le terme d’intelligence artificielle. Un an plus tard, Max Mathews, chercheur aux laboratoires du Telephone Bell, dans le New Jersey, écrit un premier programme de synthèse numérique du son pour l’ordinateur IBM 704. Connu aujourd’hui sous le nom de Music I, il est le premier d’une grande famille de compilateurs acoustiques; un psychologue, Newman Guttman, génère une première étude d’une durée de 15 secondes, In the Silver Scale. C’est aussi en 1957 que les quatre mouvements de la Illiac Suite for String Quartet de Lejaren Hiller sont publiés; la même année naît la version primitive du célèbre langage de programme Fortran (FORmula TRANslator). Notons que lors de la création de l’oeuvre de Hiller par le quatuor à cordes WQXR, c’est Max Mathews qui organisa un enregistrement, ce qui donna lieu, par la suite, à la publication de cet enregistrement dans un disque réalisé en 1960 par les Laboratoires Bell, et intitulé Music from Mathematics: même si les voies tracées par ces deux inventeurs sont indépendantes, il ne sera pas dit qu’elles ne se croisèrent pas…

A partir de ces deux événements quasiment contemporains, le développement va se poursuivre, progressivement, dans les directions tracées: la composition et la production du son. Nous en verrons plus bas les parcours. Mais une troisième voie ne tarde pas à apparaître: elle naît de la même constatation qu’avait faite Hiller: l’ordinateur est avant tout, à cette époque, une formidable machine à calculer. D’ailleurs, le terme anglais de computer choisi désignait, avant l’apparition de ces machines, les employés chargés d’opérer des calculs. Mais en même temps, avec un brin d’effroi, on parlait volontiers à l’époque de cerveaux électroniques. Un artiste ne pouvait s’approcher de l’ordinateur non sans une certaine émotion, qui explique sans aucun doute l’attrait parfois terrifiant qu’exercera l’informatique sur les artistes des décennies suivantes. Mais ce sont deux scientifiques qui sont à l’origine de ces expériences: Hiller pratiquait la chimie, tandis que Mathews était un chercheur déjà renommé. C’est sans doute ce qui explique les remarquables méthodologies qu’ils mirent en place, chacun de leur côté, et dans des buts tout à fait indépendants.

Aux laboratoires Bell, Max Mathews, de son côté, écrit en 1957 un premier programme de synthèse numérique du son pour l’ordinateur IBM 704, équipé de 4096 mots de mémoire. Connu aujourd’hui sous le nom de Music I, il est le premier d’une grande famille. Le programme Music III (1960) introduit le concept d’instrument modulaire. Le modèle imaginé par Max Mathews s’inspire plus d’un appareillage de laboratoire ou d’un studio de musique électronique que d’une lutherie acoustique. Le programme offre une gamme de modules indépendants (Unit Generators), chargés chacun d’une fonction élémentaire: oscillateur à forme d’onde programmable, additionneur de signaux, multiplicateur, générateur d’enveloppes et de signaux aléatoires, etc… Le musicien construit un instrument en reliant une sélection de modules entre eux. Les signaux produits par les oscillateurs ou les générateurs sont conduits vers d’autres modules pour y être modifiés ou mélangés. Plusieurs instruments peuvent être réunis au sein d’un orchestre , chaque instrument possédant sa propre identité. Contrairement à ce qui se passe dans l’univers matériel, il n’y pas de limite au nombre de modules utilisables simultanément, sauf peut-être la mémoire de l’ordinateur. Le résultat de la mise en oeuvre de l’instrument est le calcul progressif du son sous la forme d’une séquence de nombres qui, mis bout à bout, représentent une onde sonore complexe. Ces nombres sont appelés des échantillons . Aujourd’hui, le nombre d’échantillons représentant une seconde de son a été établi à 44 100 par canal pour les applications grand public, et à 48 000 pour le domaine professionnel.

Du fait de la relative lenteur des machines et de la masse de calculs à effectuer, le temps mis à générer l’onde sonore est bien supérieur à la durée des sons; le fonctionnement de ces programmes est dit en temps différé . A l’origine, les ondes sonores calculées sous forme numérique étaient stockées sur une bande numérique se déroulant au fur et à mesure de la fin d’un bloc de calcul d’échantillons. Ce mode de production du son est appelé synthèse directe . Ainsi se crée un fichier de son ; une fois achevé, le musicien fait appel à un second programme, chargé de lire le fichier de son en temps réel et d’envoyer les échantillons vers un convertisseur numérique-analogique, qui est relié à un amplificateur et à des haut-parleurs.

Pour activer l’orchestre, le musicien doit rédiger une partition , dans laquelle sont spécifiés tous les paramètres réclamés par les modules de l’instrument. Cette partition se présente comme une liste de nombres ou de codes symboliques, chaque note ou chaque événement faisant l’objet d’une liste particulière. Ces listes sont ordonnées dans le temps.

Mais spécifier chaque paramètre est une tâche ardue, d’autant plus que les musiciens ne sont pas formés pour donner des valeurs mesurées aux dimensions sonores qu’ils manipulent. Pour lutter contre cet obstacle, des langages d’aide à l’écriture de partitions ont été conçus; le plus connu est le programme Score de Leland Smith (1972). Score n’est pas un programme de composition automatique: il permet de spécifier les paramètres à l’aide de termes issus de la pratique musicale (hauteurs, nuances, durées), de calculer automatiquement des changements de tempo ou de nuances, voire même de compléter des sections avec des notes correspondant à une trajectoire donnée par le compositeur.

Le modèle instrument-partition fut fermement établi avec l’arrivée de Music IV (1962). De ce programme naquirent de nombreuses variantes, dont certaines existent bel et bien encore aujourd’hui. Parmi ces avatars, citons Music 4BF (1966-67), dont il existe de nos jours une version pour Macintosh (Music 4C, 1989), et surtout Music 360 de Barry Vercoe (1968); ce descendant de Music IV a pour caractéristique de se présenter comme un véritable langage de programmation, ce qui explique sans doute qu’il est devenu aujourd’hui avec C-Music le compilateur acoustique le plus utilisé. Il fut d’abord adapté au mini-ordinateur PDP-11 de Digital en 1973, puis, entièrement réécrit en langage C en 1985, il prit le nom de Csound, et fut rapidement adapté à toutes sortes de plates-formes informatiques, y compris les ordinateurs personnels comme Atari, Macintosh et IBM. En 1969 apparaît Music V, un programme qui est conçu pour faciliter la programmation musicale des instruments et des partitions; de nos jours, Music V est encore largement employé, le plus souvent sous la forme de l’adaptation qu’en a faite Richard Moore, Cmusic (1980).

L’ordinateur connut aussi un succès certain dans un domaine fortement spéculatif, l’analyse musicologique. Aux yeux du public intéressé au début des années soixante, l’informatique, encore assez mystérieuse et inaccessible, laissait entrevoir d’étranges travaux musicaux; en composition, en musicologie et enfin, limitée aux laboratoires Bell, de la production de son. Un grand bouleversement musical de cette décennie devait venir du monde de l’électronique, avec l’apparition en 1964 des synthétiseurs modulaires, dits analogiques puisqu’ils ne contiennent pas d’électronique numérique. Conçus indépendamment par Paolo Ketoff (Rome), Robert Moog et Donald Buchla (Etats-Unis), les synthétiseurs apportent la réponse aux aspirations technologiques de nombreux musiciens, surtout après le succès populaire du disque Switched on Bach de Walter Carlos qui fit véritablement connaître ces instruments auprès d’un large public. Pendant ce temps, le programme de Mathews connaît des adaptations sur d’autres sites, tels que les universités de New York, de Princeton ou de Stanford.

Une autre application de l’ordinateur apparaît avec le pilotage d’instruments analogiques. La machine génère des signaux à variation lente qui modifient les réglages de dispositifs de studio: fréquence d’oscillateurs, gain d’amplificateurs, fréquences de coupure de filtres. Le premier exemple de ce système qu’on nomme synthèse hybride fut établi en 1970 au Elektron Musik Studio de Stockholm, fondation indépendante depuis 1969, financée par l’Académie Royale de Musique, et placée sous la direction de Knut Wiggen. Un ordinateur PDP 15/40 y pilotait vingt-quatre générateurs de fréquence, un générateur de bruit blanc, deux filtres tiers d’octave, des modulateurs: en anneau, d’amplitude et des réverbérations. L’originalité du système de Stockholm résidait dans une console de commande extrêmement ergonomique, avec laquelle le compositeur pouvait spécifier les paramètres de synthèse en balayant un panneau de chiffres à l’aide d’une brossette métallique. Un autre studio est à citer: celui de Peter Zinovieff à Londres (1969), placé sous le contrôle d’un mini-ordinateur Digital PDP 8 pour lequel Peter Grogono écrivit le langage de pilotage Musys.

Une autre réalisation remarquable est le système Groove (Generated Real-time Operations On Voltage-controlled Equipment, ca. 1969) conçu aux laboratoires Bell par Max Mathews et Richard Moore. Groove est un instrument destiné au contrôle de paramètres d’interprétation d’un dispositif de synthèse. En ce sens, il place le musicien plus près de la position d’un chef d’orchestre que d’un compositeur ou d’un instrumentiste, encore qu’on puisse considérer que le compositeur de musique électronique doive souvent se placer en position de chef, en interprétant directement la musique qui est composée.

C’est le milieu des années soixante-dix qui marque la transition vers un élargissement désormais inexorable de la vie de l’informatique musicale, avec l’apparition du microprocesseur. Une lutherie informatique deviendra progressivement envisageable avec la conception d’ordinateurs complets sur un circuit intégré: les microprocesseurs. Il faudra aussi que s’améliore l’interface avec l’utilisateur, et que soient remplacées les cartes perforées par un mode d’entrées de données plus interactif: ce sera le clavier et l’écran cathodique qui l’emporteront.

Le principe de la synthèse hybride continua à être appliqué tout au long des années soixante-dix, avant d’être supplanté définitivement par les synthétiseurs numériques à l’aube des années quatre-vingt. La société américaine Intel commercialise dès 1971 le premier microprocesseur, le circuit 4004, qui permet la conception de véritables ordinateurs miniatures, les micro-ordinateurs: Intellec 8 (conçu à partir du microprocesseur 8008 de 1972), Apple I, Altair (1975), bientôt regroupés sous le nom d’ordinateurs personnels.

Les expérience musicales du Groupe Art et Informatique de Vincennes (GAIV) illustrent bien cette époque de transition. Cette équipe, fondée à l’université de Paris 8 par Patrick Greussay et une équipe d’artistes et d’architectes, connue pour la publication d’un bulletin diffusant les travaux de recherche en art et informatique les plus récents, confia au compositeur Giuseppe Englert la coordination musicale de ses activités. C’est l’Intellec 8, micro-ordinateur à mots de huit bits, commandée par un ruban perforé et un clavier, qui servit aux activités compositionnelles et de recherche sur la formalisation musicale; des synthétiseurs anglais EMS-VCS3 étaient pilotés par le micro-ordinateur, via des convertisseurs numériques-analogiques chargés de fournir des tensions de commande en échange des données binaires calculées par des programmes interactifs.

Le second effet de l’arrivée des micro-ordinateur fut la conception de la synthèse mixte , synthétiseurs numériques, véritables ordinateurs adaptés au calcul de l’onde sonore en temps réel, placés sous le contrôle d’un ordinateur. A partir de la seconde moitié des années soixante-dix apparaissent plusieurs réalisations de ce type; nous retiendrons les travaux de James Beauchamp, de Jean-François Allouis, de William Buxton, entre autres, ainsi que ceux de Peter Samson (synthétiseur de Systems Concept, conçu pour le centre de recherche – CCRMA – de l’université de Stanford), le Synclavier de New England Digital Corporation, conçu par Syd Alonso et Cameron Jones sous l’impulsion du compositeur Jon Appleton, la conception, sous l’impulsion de Luciano Berio, d’un banc d’oscillateurs à Naples par Giuseppe di Giugno, qui poursuivit ses travaux à l’Ircam (série 4A, 4B, 4C et 4X) sous la direction de Pierre Boulez; plus récemment, le Fly 30 du Centre de recherchse musicales de Rome. Notons qu’avec la 4X de l’Ircam (1980), le terme de synthétiseur disparaît, remplacé par celui de processeur numérique de signal, ce qui sans doute déplace l’accent sur la généralité de la machine.

L’industrie de l’instrument électronique n’est pas longue à s’adapter à ces nouveaux développements. La première étape consista à introduire des microprocesseurs à l’intérieur de synthétiseurs analogiques (synthétiseurs Prophet de la firme Sequential Circuits), chargés de contrôler les modules commandés en tension; c’est encore de la synthèse hybride . La seconde étape suit bientôt: elle consiste à concevoir de véritables instruments de musique entièrement numériques. C’est l’arrivée remarquée du Synclavier II, puis du Fairlight.

Le domaine industriel est aujourd’hui constitué d’abord par le marché des synthétiseurs et des appareils de traitement du son, et par les logiciels qui permettent de les exploiter. Aujourd’hui, tous les synthétiseurs sont numériques, et répondent nécessairement à la norme Midi. Le domaine des synthétiseurs est double: d’une part des appareils, souvent munis d’un clavier, qui proposent un choix de sons pré-programmés dont on peut varier certains paramètres par un procédé élémentaire de programmation; d’autre part, les machines qui sont destinées à reproduire des sons préalablement enregistrés et mémorisés, ou stockés sur mémoire de masse: les échantillonneurs, ou samplers .

Il faut noter que toutes ces technologies deviennent accessibles au musicien privé, dans le cadre de ce qu’on appelle communément le studio personnel (home studio).

Mais ces machines, et a fortiori le studio personnel ne fonctionnent pas sans logiciel adapté: les séquenceurs pilotent l’exécution d’un morceau directement à partir d’un ordinateur, les éditeurs de son sont destinés au traitement, au montage et au mixage de séquences sonores. Des programmes permettent d’écrire une partition, ce qui est désormais employé couramment par l’édition musicale. Enfin, les machines peuvent aussi être placées sous le contrôle de programmes d’aide à la composition.

Le caractère le plus original de la lutherie informatique contemporaine est la station de travail . Concevoir une station de travail consiste à rassembler des programmes de natures diverses, destinés à l’analyse ou à la synthèse du son, au contrôle du son ou à la composition. Ces programmes sont intégrés au sein d’un environnement informatique organisé autour d’un ordinateur et de ses périphériques, destinés au traitement du son en direct. C’est le cas des cartes enfichables qui, couplées à un logiciel, permettent de lire des fichiers de son stockés sur un disque, en échange d’une commande, provenant par exemple d’une source Midi. Ce système, si nouveau qu’il n’a pas encore trouvé de nom véritable, est le plus souvent désigné comme disque dur ou direct-to-disk .

Parmi les premières réalisations, on retiendra l’adaptation des compilateurs acoustiques Cmusic, originellement développé à partir de Music V par Richard Moore, et C-sound conçu par Barry Vercoe comme une branche de Music IV. L’intégration, qui justifie l’appellation de station de travail, consiste à connecter les données Midi avec les programmes mentionnés ci-dessus, tout en travaillant au sein d’un environnement unique, associant temps réel et temps différé. D’une manière plus générale, la micro-informatique offre tant aux institutions qu’aux particuliers des outils de synthèse et de traitement de son de haut niveau. Certains permettent, en temps différé, la manipulation de fichiers de sons. Citons une nouvelle C-Sound du MIT, le vocodeur de phase Audio-Sculpt de l’Ircam, Soundhack de Tom Erbe, etc… D’autres programmes autorisent l’interaction temps réel avec la manipulation de sons. Ces logiciels se développent surtout dans les années 90: GRM Tools de l’Ina-GRM, Hyperprism de Son Réel, tous deux à Paris, modules insérés dans des programmes généraux tel que Sound Designer de la firme californienne Digidesign, etc… Tous ces programmes donnent accès à de puissants moyens de synthèse et de traitement, jusque là reservés aux seules institutions, et désormais implantés sur ordinateurs personnels: ces machines ne se contentent plus de piloter des synthétiseurs Midi.

Au cours des années quatre-vingt, le terme de station de travail fut rapidement galvaudé. Un synthétiseur quelconque était affublé de cette appellation à des fins purement commerciales, sans répondre aux critères d’intégration évoqués. Aujourd’hui, l’intégration s’ouvre au domaine de l’image, avec l’irruption du multimédia, et prend une nouvelle dimension.

La représentation musicale

Puisque l’ordinateur, à la différence de la musique électronique de studio, réclame une spécification des données, et donc une écriture, la question de la représentation musicale est une préoccupation constante du domaine. Nous verrons deux réponses. La première illustre une démarche a priori compositionnelle: celle de Xenakis. La seconde, plus générale, est la norme Midi.

Iannis Xenakis innove avec la conception de l’UPIC (Unité Polyagogique Informatique du CEMAMu). Conçu au milieu des années soixante-dix, ce système découle naturellement de l’approche de la synthèse du son par ce compositeur: au sein de l’équipe qu’il avait réunie, baptisée d’abord Emamu (Equipe de Mathématiques et d’Automatique Musicale, 1966), et avec le financement de la Fondation Gulbenkian, Xenakis avait fait construire un convertisseur numérique-analogique de haute qualité. L’UPIC représente un environnement complet de composition avec, en résultat, la synthèse sonore de la page de musique composée. Devenu en 1971 le CEMAMu (Centre de Mathématiques et d’Automatique Musicale) en raison de la création d’un lieu destiné à abriter ses recherches, l’équipe réunie autour de Xenakis conçoit un système permettant au compositeur de dessiner sur une large table d’architecte des arcs temps-hauteur , en choisissant pour chaque arc une trajectoire temporelle, une forme d’onde, une nuance. La musique est donc d’abord représentée sous forme graphique. Les programes du premier UPIC sont écrits pour un mini-ordinateur Solar 16/65, relié à deux organes de bandes magnétiques pour stocker les programmes et les échantillons, un convertisseur numérique-analogique, un écran cathodique permettant d’afficher les formes d’ondes, mais aussi de dessiner ces ondes à l’aide d’un crayon graphique. Pour entendre la page qu’il vient de dessiner, le compositeur doit attendre que l’ordinateur ait terminé de calculer tous les échantillons; la génération du son est assurée par une convertisseur numérique-analogique de haute qualité. Plus récemment, l’UPIC a été redessiné pour micro-ordinateur, et fonctionne sans délai.

Représenter le son sous la forme d’une image modifiable, c’est le but du programme Phonogramme, conçu à l’université Paris 8 par Vincent Lesbros. A la manière d’un sonogramme, le programme affiche l’analyse spectrale comme un dessin, qui peut être modifié; la nouvelle représentation peut ensuite être synthétisée, soit par Midi, soit sous la forme d’un fichier de son, ou bien encore transformé en fichier Midi.

On entend souvent aujourd’hui le reproche que la génération de jeunes musiciens qui abordent la technologie au travers de l’environnement créé autour de la norme Midi n’ont pas une conscience satisfaisante du passé de l’informatique musicale et de ses problèmes. Mais c’est oublier que, dans un sens, la naissance de la norme Midi s’est faite sans véritable filiation avec les étapes précédentes du domaine que l’on nommera l’informatique musicale. Le phénomène que représente Midi n’est aucunement un avatar de ce domaine.

Le standard Midi a été mis au point en 1983 pour permettre le pilotage de plusieurs synthétiseurs à partir d’un seul clavier; les messages sont transmis en format numérique, selon un protocole bien défini. A l’origine, Midi est donc bien basé sur le contrôle gestuel instrumental: c’est une méthode pour représenter non le son, mais le geste du musicien qui joue d’un instrument Midi. En 1983 sort le premier synthétiseur à posséder une interface Midi, le Prophet 600 de la Sequential Circuits. Ce qui n’avait pas été défini, par contre, c’est le succès qu’allait rapidement remporter cette norme, qui aujourd’hui sert à interconnecter toutes les machines d’un studio de musique électronique, et même les jeux de lumières d’une scène.

La recherche musicale

Les travaux entrepris dès 1956 par Lejaren Hiller pour la composition de la Illiac Suite for String Quartet marquent à la fois la véritable naissance de l’informatique musicale et l’ancrage de ce domaine dans la recherche, appliquée dans ce cas à la composition automatique. L’ordinateur apparaissait alors comme une machine permettant de traiter les suites d’opérations complexes qui caractérisent la composition d’oeuvres musicales ambitieuses. Ce chemin allait être renforcé dès 1958 par le compositeur français Pierre Barbaud, qui fonde à Paris le Groupe Algorithmique en liaison avec la compagnie Bull-General Electric et entreprend ses recherches de composition automatique; dès l’année suivante, la première oeuvre algorithmique de Barbaud était composée: Imprévisibles nouveautés (Algorithme 1), avec la collaboration de Pierre Blanchard. Le programme Musicomp de Lejaren Hiller et Robert Baker, de la même époque, conçu pour l’ordinateur Illiac après la composition de la Suite Illiac, faisant de l’université de l’Illinois l’un des centres de l’informatique musicale à cette époque. Et lorsqu’en 1962, Iannis Xenakis crée ST/10, 080262, oeuvre écrite grâce au programme stochastique ST développé à partir de 1958 sur une ordinateur IBM 7090, la composition à l’aide de l’ordinateur entre dans son âge d’or. Aux Pays-Bas, Gottfried Michael Koenig rédige en 1964 le programme de composition Project I (1964), suivit bientôt de Project II (1970). La composition assistée par ordinateur s’appuie sur les mathématiques et la stochastique, puisant largement dans les ressources des processus de Markov (Hiller, Barbaud, Xenakis, Chadabe, Manoury).

Avec l’arrivée des ordinateurs personnels se développe une nouvelle tendance: l’aide à la composition, puis la conception assistée par ordinateur de la composition (CAO). Au programme démiurge, capable d’engendrer une composition entière succède le modèle d’un environnement d’outils informatiques chargés de traiter des problèmes musicaux précis. Citons parmi les principaux: HMSL (Hierarchical Music Specification Language, 1985) à Mills College en Californie, Formes, créé par Xavier Rodet, Esquisse et PatchWork, développés à l’Ircam sous l’impulsion de Jean-Baptiste Barrière, Experiment in Musical Intelligence de David Cope, à l’université de Santa Cruz en Californie. Ces programmes sont ouverts: ils dialoguent avec le compositeur d’une manière interactive, et sont reliés à l’univers des dispositifs Midi. A l’exception de M et Jam Factory de Joel Chadabe et David Zicarelli, ils sont structurés par l’emploi de langages non numériques, issus du domaine de l’intelligence artificielle, tels que Forth, et surtout Lisp, ce qui explique qu’ils reposent non sur les mathématiques, comme ce fut le cas pour la première génération de composition assistée par ordinateur, mais sur les langages formels et les grammaires génératives.

D’autres démarches illustrent particulièrement bien la nature de l’informatique musicale, et sa liaison permanente à la recherche: c’est le cas de la psycho-acoustique, avec les travaux de John Chowning sur la spatialisation et la synthèse du son, de Jean-Claude Risset sur l’analyse de sons instrumentaux et les illusions acoustiques, de David Wessel sur la catégorisation et le classement du timbre, ou bien encore de Stephen McAdams sur la perception de flux sonores et son interaction avec le timbre. Le Computer Music Journal et les actes des congrès ICMC (voir plus bas) rendent régulièrement compte des avancées de ces recherches. Il faut souligner que ces travaux sont menés le plus souvent au sein d’institutions universitaires pour la plupart (M.I.T. au Massachusetts, Berkeley, Stanford et San Diego en Californie, Berlin en Allemagne, Vancouver au Canada, Kunitachi au Japon, Padoue en Italie pour ne citer que quelques-uns parmi les plus connus), ou bien d’organismes spécialisés (Ircam ou INA-GRM à Paris, CMR à Rome, CDMC à Madrid, EMS à Stockholm, DIEM au Danemark, etc…). Ils ont pris la place des studios de musique électronique des années cinquante et soixante comme lieux de recherche et de création. L’informatique crée un lien entre tous les protagonistes, qu’ils soient musiciens, techniciens ou scientifiques. Ils sont désormais moins consacrés à l’offre de ressources, comme l’étaient les studios, mais plutôt à l’échange, la communication, le travail conceptuel. C’est d’ailleurs dans la quête de nouveaux modèles de synthèse du son que l’informatique musicale s’est illustrée: synthèse par modulation de fréquence, synthèse par modèles physiques, etc… En outre, le progrès de la micro-informatique musicale permet désormais aux musiciens d’installer à domicile un instrumentarium de composition et de traitement du son de qualité professionnelle; c’est, toute proportion gardée, avec l’avènement du studio personnel que l’institution doit compter, afin de situer son action beaucoup plus sur le terrain de l’invention et de la recherche que sur celui de l’appareillage.

Le temps réel: ordinateur et univers instrumental

Les années quatre-vingt voient se développer l’emploi de l’ordinateur en situation de concert; grâce à l’arrivée des synthétiseurs numériques en temps réel, ou, plus généralement, des processeurs numériques de son, et des langages de contrôle temps réel, les conditions sont mûres pour revisiter cette ancienne aire de la musique du XXe siècle: la musique électronique en direct (live electronic music). Dans la plupart des cas, il s’agit d’abord d’imaginer un moyen de relier l’ordinateur et sa puissance de calcul à des dispositifs de synthèse ou de traitement de son, avec, si, possible, l’interaction de musiciens. Répons (1981), de Pierre Boulez, par l’intégration des procédures de traitement à l’écriture elle-même, a montré en quoi l’ordinateur est devenu un instrument, parfaitement intégré à l’orchestre. A la suite de cette oeuvre apparaissent des travaux sur le suivi, par l’ordinateur, du jeu de l’instrumentiste, opération connue sous le nom de suivi de partition . Citons les apports de Roger Dannenberg dans l’accompagnement automatique et les langages offrant les conditions de la communication ordinateur-instrument, ceux de Max Mathews, d’abord avec le système Groove, puis plus récemment avec ses travaux sur la Radio Drum et la simulation de la baguette du chef s’orchestre, Miller Puckette avec le programme Max.

L’interaction réclame des instruments adaptés au transfert de données à l’ordinateur. Ce sont les claviers qui ont surtout joué ce rôle; c’est ainsi que sont apparus des pianos équipés de détecteurs Midi, puis capables de jouer selon des messages Midi (Disklavier de Yamaha). D’autres dispositifs sont couramment employés: boutons, potentiomètres, interrupteurs, mais ils ne peuvent pas rivaliser avec la souplesse et les degrés de liberté d’un véritable instrument de musique, pour lequel l’instrumentiste a développé une virtuosité. Certains, comme Michel Waisvisz, ont imaginé des organes tactiles, capables de transmettre leur position, leur angle de rotation, leur vitesse; mais ce sont en général des prototypes, et seul le temps dira s’ils seront acceptés par la communauté musicale. C’est pourquoi on s’est intéressé par ailleurs à donner à des instruments d’orchestre cette capacité, en les munissant de capteurs, permettant à l’ordinateur de suivre l’exécution (flûte, vibraphone, etc…). Toute l’industrie musicale est concernée par cette tendance, bien que le procédé à employer ne soit pas encore décidé: sera-t-il électromécanique (capteurs matériels placés à des endroits stratégiques de l’instrument, membranes conductrices, etc…), ou bien faudra-t-il avoir recours à l’analyse à la volée des sons eux-mêmes pour en connaître la hauteur, la structure spectrale et le mode de jeu?

La communauté s’organise

Le mûrissement de l’informatique musicale s’est accompagné d’une prise en charge de la communauté des musiciens et des chercheurs par eux-mêmes. Progressivement, la conscience d’appartenance à un champ se fait jour. Les congrès internationaux apparaissent, suivis plus tard de conférences locales. Les communications qui y sont prononcées sont publiées dans des recueils disponibles pour toute la communauté. Ces réunions donnent lieu aussi à la présentation de concerts, ce qui tend à souder plus fortement entre eux la conscience d’un champ nouveau, aux composantes scientifiques et artistiques. C’est le début des International Computer Music Conferences (ICMC). En 1978 naît une organisation destinée à faciliter la communication et à aider la tenue des congrès, la Computer Music Association , qui devient en 1991 International Computer Music Association (ICMA). Les organisateurs cherchent à tenir le congrès une année en Amérique du Nord, et l’année suivante sur un autre continent. Ces congrès voient l’ICMA prendre un rôle croissant dans l’assistance apportée aux organisateurs locaux, ainsi que dans la diffusion des publications issues de ces rencontres, allant jusqu’à passer des commandes d’oeuvres qui seront exécutées au cours des ICMC (ICMA Commission Awards, 1991).

Un autre véhicule qui soude la conscience d’appartenance à un domaine commun est le Computer Music Journal. Apparu en Californie en 1977, il est repris par MIT Press à partir du volume 4 (1980). Le journal s’impose comme la référence en matière de publications scientifiques du domaine. L’association ICMA publie un bulletin, Array, qui est devenu un organe très apprécié d’information et de discussion sur les thèmes actuels de l’informatique musicale. La revue néerlandaise Interface, qui devient à partir de 1994 Journal of New Music Research, publie régulièrement des articles sur l’informatique musicale. Au Canada, Musicworks, guidé par Gayle Young, assure l’information sur un éventail large de préoccupations des nouvelles musiques. En France, les publications de l’Ircam, InHarmonique, puis Les cahiers de l’Ircam ouvrent leurs colonnes aux considérations esthétiques, théoriques et critiques qui accompagnent le surgissement des nouvelles technologies dans les arts.

En 1991 le journal Leonardo, publié par l’association internationale pour les arts, la science et la technologie, fondé en 1968 par Frank Malina, lance, sous la direction de Roger Malina, le Leonardo Music Journal, qui apporte une vision ample de la pratique musicale liée aux nouvelles technologies, grâce aussi à la publication, avec chaque numéro, d’un disque compact. Plus théorique, la revue Languages of Design, sous la direction de Raymond Lauzzana, s’intéresse à la formalisation dans les procédures artistiques, et accorde une large place à l’informatique musicale. A ces supports traditionnels de l’information s’ajoute la communication directe entre musiciens et chercheurs par le moyen des réseaux informatiques, permettant le courrier électronique instantané. Enfin, le besoin d’accroître la vitesse de communication a fait naître les journaux électroniques, diffusés par les réseaux tel que Internet; dégagés de la structure de fabrication, d’impression et d’acheminement, ils permettent le même type d’accès à l’information que les banques de données qui, elles aussi, se multiplient en informatique musicale.

Biographie et discographie

Marc Battier, compositeur, est né en France, le 21 décembre 1947.

Dès la fin des années soixante, il a été irrésistiblement attiré vers la musique électronique. De là, il fut conduit, dès le début des années soixante-dix, vers l’informatique musicale.

Il a créé plusieurs oeuvres dans lesquelles la voix est traitée comme élément porteur de forme, et est transformée pour devenir matériau musical: Verbes comme cueillir (1980), Action-variation (1984), Les mots y sont (1986), Transparence – Sur un audiopoème de Henri Chopin (1994).

Après un passage comme chercheur au Groupe de Recherches Musicales de l’Ina où il travaille aux côtés de François Bayle dans les studios numériques, il rejoint l’Ircam à la fin de l’année 1979. En dehors de ses activités à l’Ircam, il enseigne la musique électroacoustique à l’université de Paris VIII et à l’université de Californie à San Diego (1984-86). Son intérêt pour la musique électronique l’a par ailleurs poussé vers la recherche sur la technologie musicale du XXe siècle, et il a conçu la collection d’instruments du XXe siècle pour le Musée de la musique de la Cité de la Musique, il poursuit cette activité en tant que chercheur associé au C.N.R.S. Il est membre de l’équipe doctorale du programme universitaire Musique et musicologie du XXe siècle, et contribue à plusieurs journaux s’occupant d’informatique musicale et de nouvelles technologies (Cahiers de l’Ircam-Recherche et musique, Contemporary Music Journal (Londres), Organised Sound (G.-B.), Leonardo Music Journal (Berkeley, USA) Computer Music Journal (Cambridge, USA), et participe à l’activité de différentes organisations musicales et multimédia internationales.

A obtenu le prix Villa Médicis Hors Les Murs en 1984.

Son compact-disc, Transparence – Sur un audiopoème de Henri Chopin, est sorti en mars 1995. Il a donné lieu à une exposition de partitions graphiques réalisées avec le programme Phonogramme de Vincent Lesbros à la galerie Lara Vincy, rue de Seine à Paris. (Ce CD est disponible auprès de Metamkine. Ref: BRCD 9595)

Ink on Polyester est inclus dans la compilation Anthology of Music for the 21st Century, Leonardo/Isast, Ref. LMJ 1 (1991)

Le texte dans son intégralité ici

About The Author

Jean-Bernard

Other posts by

Author his web sitehttp://mustudio.fr

10

05 2007

Your Comment

You must be logged into post a comment.


Yashfa ver. 1.7 created by WP GPL

--->