EP-ROM PROGRAMMER PKW-3000

J’ai vendu (Je vends) deux programmeur d’EPROM (2716, 2532, 2764) modèle PKW-3000 de marque AVAL.
Ce sont des programmeurs autonome, c’est a dire qu’ils sont capable de travailler (lecture/écriture) sans ordinateur hôte.
Ils fonctionnent tous les deux parfaitement !
La documentation est livré avec une version originale ou une photocopie de la première.

Faire proposition d’achat a jbemond.no-spam@free.fr (retirer le no-spam).

Quelques images :






Au revoir Simone

Un groupe de fille qui sonne bien ! Cela change des cris et hurlements habituels… Nous sommes dans notre période cool 😉 enfin ça fait maintenant un paquet d’années ! On y trouve un petit goût de Air -French Band- 😉 avec une touche artisanale très féminine.

Bon, assez parlé, voici quelques vidéos du groupe :


« Fallen Snow » de l’album « The Bird of Music ».


« Sad Song » de l’album « The Bird of Music ».

Les mêmes sur scène, plutôt jeunes ça saute de partout ! Mais, là aussi c’est agréable, il y en mare des gens qui ont la grosse tête, et trop souvent des problèmes de chevilles !

Et également ces deux vidéos issues d’un concept intéressant www.blogotheque.net ou Les concerts a emporter :


« Stay Golden » de l’album « Verses of Comfort, Assurance & Salvation ».


« Night Majestic » de l’album « The Bird of Music ».

Et pour terminer le site web du groupe : aurevoirsimone.com

Fostex Foundation 2000 et 2000RE

J’ai décidé avec plusieurs amis que, comme Fostex ne se bougeait pas beaucoup (c’est le moins que l’on puisse dire!), de mettre en ligne sur le Web quelques informations à propos de ces merveilleuses machines que sont les Foundation 2000 (Digital Recorder – Editor – Mixer) et 2000RE (Digital Recorder – Editor)… et de publier quelques anciennes documentations sur les Foundation 2000 (à venir)!

Il y a eu deux versions. La première version, la Foundation 2000 était déclinée en quatre sous versions : Maximum Configuration, Standard Configuration, Foundation 2000 ‘LS’, Foundation 2000 ‘LX’, et était très poussée au niveaux des entrées/sorties et des protocoles supportés ! La deuxième la Foundation 2000RE, était plus simplifiée avec l’essentiel du moment, mais qui reste d’ailleurs beaucoup d’actualité ! La F2000 était en avance sur son temps, et le prix était en rapport avec ses capacitées/performances : 39 990$ de 1992 pour la configuration maximum ! Pour les utilisateurs, les Foundation 2000 ont un nom simplifié c’est F2K…

Fostex Foundation 2000

Une Foundation 2000 avec son « Edit controller » et le « DFM – Dancing Fader Mixing »

Foundation 2000RE

Une Foundation 2000RE avec son « Edit controller »

Vous avez sûrement remarqué que les deux boîtiers n’ont pas grand chose à voir. Celui de la 2000RE est environ deux fois moins épais que celui de la F2000 ! La F2000 a été conçue pour être modulaire et ainsi évolutive ! Ce qui n’est pas le cas de la 2000RE !

Encore deux photos d’un système Foundation 2000 au complet, accompagné d’un Fairlight CMI II ou IIx (difficile à voir en façade…).

F2K + CMI

F2K + CMI

Foundation 2000 et un bon copain de jeu, un Fairlight CMI !

Sur les deux dernières photos, il y a également deux DCM100 (posés sur la F2K) et une mixtab (à coté du clavier noir sur le fairlight) de Fostex… Potentiellement intéressante à brancher à la Foundation 2000 pour en contrôler les effets, pistes et mixages !

Les photos proviennent d’ici un blog trés intéressant sur les synthétiseurs, etc.

Nous sommes, quelques Français à avoir acheter ces machines via Ebay aux USA. Nos machines viennent de chez SoundStorm, qui les a vendu à un Broker, à qui nous les avons achetées !

A propos de SoundStorm :

SOUND DESIGN

For Batman Forever; SoundStorm set up its first-ever sound design station, based around the Fostex Foundation 2000 and the E-mu E-IV, and helmed primarily by Lance Brown. SoundStorm is the only Hollywood editorial house to make such a large commitment to the Fostex workstation, having purchased eight systems, with plans to add up to 8 more, probably the scaled-down RE for brute editing. Across the board, the editors raved about the unit, for everything from its tactile feel, to its ability to make changes, to the fact that there’s no mouse and you don’t have to maneuver through windows. It was, they say, built for film sound editors, and they ought to know-their input, led by president Gordon Ecker, was instrumental in the unit’s development. Most of the 2000s are used simply for editing; Brown’s is the only souped-up station at this point, with full mix capabilities and the just-released TimeFlex time compression/expansion.

La suite ici.

Revenons aux caractéristiques et au fonctionnement de ces machines.
Les Foundation sont des enregisteurs multipistes numériques sur disque dur. Ils fonctionnent avec une capacité de montage non destructive, c’est à dire qu’il y a 8 niveaux d’édition (copy/undo/cut).

Publicité de Fostex France

Quelques liens :

A propos de S/Link utile aux F2K et également à d’autres machines et en particulier aux Synclavier :

A consulter sur le papier, car la suite de l’article n’est pas en ligne :

Sound On Sound « FOUNDATION & EMPIRE » Reviews : Multitrack Recorder – December 1993
Fostex Foundation 2000: An unlikely amalgamation of Japanese enterprise and American engineering expertise points the way towards Fostex’s future. Paul White visited their US R&D headquarters to see their Foundation 2000 – not so much a stepping stone as a bridge to a digital age.

Maison boule ou l’architecture des sphères !

Il y a une dizaine d’années, j’ai travaillé au TESCA, c’est-à-dire le Télescope de Schmidt de l’Observatoire de la Côte d’Azur (O.C.A.). C’était ma grosse période Astronomie / Spéléologie…

 

 

Sur le même site de Calern (sur les hauteurs de Grasse) il y avait, et il y a toujours un laboratoire qui a une architecture passionnante ! C’est le grand interféromètre à deux télescopes GI2T

GI2T

L’intérieur :

Cette architecture, je l’avais déjà rencontré dans le passé étant plus jeune en région parisienne… Mais, je ne me souviens plus exactement où, il me semble que c’était vers Orsay ?

Donc, impressionné par ces boules, j’ai essayé d’en savoir plus, j’ai eu rapidement (comme c’est facile de lire le cartouche d’un plan) le nom de l’architecte !

Antti LOVAG. J’ai amassé pendant une longue période des documentations sur le sujet, et en 2004 avec ma femme nous avons même participé à un stage d’architecture de terrain avec comme professeur Antti lui-même ! Pour en savoir plus sur le travail d’Antti voir ici.

Mais en fait Antti Lovag n’est pas le premier ni le seul à avoir travaillé sur le sujet des maisons bulles/boules. Il y aussi Pascal Häusermann, Guy Rottier, Joël Unal, Joël Vernier, et beaucoup d’autres…

Quelques liens sur le sujet :

Il y aussi le travail de Javier Senosiain qui se rapproche de celui de Antoni Gaudi !

Javier Senosiain

Je retourne à l’O.C.A., pour les curieux la webcam qui est installée au sommet de la tour du gardien… Pour les animations c’est ici. Autrement voir à la ligne suivante :

Webcam CALERN - OCA

MuStudio notre "home studio" !

MuStudio
Le Studio

Depuis toujours passionné de musique électronique, j’ai commencé très jeune à écouter de la musique électro-acoustique : Jarre, Kraftwerk, Tangerine Dreams, Vangelis, Philip Glass, PinkFloyd, etc.. En grandissant, je me suis orienté vers des formations techniques : électronique, informatique, les ordinateurs… Et ainsi naturellement, je me suis franchement plongé dans le « ventre » des synthétiseurs ! En 1989, j’ai entrepris de monter avec mes modestes moyens de l’époque un environnement de composition sonore avec au début, des machines plutôt dites numériques (Akai S950, Fairlight CMI IIx, Yamaha SY77). Au fur et à mesure, j’ai agrandi et complété la famille ! En suite, avec ma femme nous avons acquis toujours dans le numérique un Synclavier II, et j’ai récupéré avant la benne (et oui c’est possible!) et restauré un Synclavier I, également un Emulator II (qui ne fonctionne toujours pas), un Emulator IIIXP et un Yamaha TG77, le petit dernier le Moog Etherwave et quelques autres bricoles…

Les claviers
Les claviers

Maintenant, nous allons essayer d’équilibrer cette collection avec de l’analogique, peut être un modulaire (Korg PS3300 ou Studio-66 Synthesizer System). Mais c’est une autre histoire…

Les machines en rack
Les machines en rack

Mais un studio ce n’est pas que des machines pour faire du « son », il faut l’équipement qui va autour, et pour l’instant, chez nous c’est plutôt pauvre… Humm, en fait, plutôt peu cohérent !

Pour l’enregistrement, nous avons l’excellent « direct 2 disk » Fostex Foundation 2000 (F2K), et son merveilleux contrôleur à écran tactile. Cette machine a été conçue par l’ancienne équipe de développement des Synclavier de Ned.

Nous avons également, pour les manipulations et divers traitements sonores, une sgi Octane2 qui incorpore l’Adat nativement… et donc s’interface parfaitement avec la F2K.

La partie informatique...
La musique électronique sans ordinateur, c’est pas pour demain…

Depuis peu (après un gros travail de remise en état), nous avons une station NeXT Cube avec trois cartes ISPW couplées avec Max/FTS. Cette machine historique a été développée pour l’IRCAM et par ces équipes de recherche. Elle est très intéressante (même si pour certains potentiellement obsolète, mais, j’affectionne particulièrement, ces vielles machines de légende) pour ces capacités à créer visuellement via Max/FTS des « patch » permettant de manipuler facilement le son et les événements MIDI !

Max/FTS au travail
La NeXT fait tourner Max/FTS

Pour le MIDI, nous utilisons encore pour l’instant une interface Opcode Studio 4(8in,8out) qui fait office d’interface « patchbay » entre les différents intruments. Nous avons un ancien Macintosh Quadra 840av (et oui) pour faire tourner Opcode Vision Pro comme séquenceur et Galaxy plus comme éditeur de son (SY et TG), et d’autres outils pour les Emulator.

Octane et 840av
Octane et 840av

Au niveau de la table, c’est franchement la misère ! Nous n’avons qu’une très très modeste Fostex 2016, elle fait son travail, mais c’est vraiment limite…

Derrière cette petite chose, un très bon amplificateur NAD 2200 couplé à un système expérimental Stéréolith et à un caisson de basse…

Un Theremin pour quoi faire ?

On a craqué ! On a fini par acheter un Theremin !

Theremin Moog Etherwave

Je fabriquerai le mien quand j’aurai beaucoup plus de temps…

Petite histoire : Le Theremin est l’un des premiers instruments de musique électronique. Développé par le musicien et physicien russe Léon Theremin dans les années 1920, cet instrument exceptionnel répond aux seuls gestes du musicien, qui contrôlent le volume et la hauteur des sons. Grâce à ses sons uniques, entre violon, violoncelle et voix humaine, le Theremin fut utilisé par les plus grands. N’est-ce pas au Theremin que les Beach Boys faisaient allusion dans « Good Vibrations » ?

Une leçon par le maître créateur !


Leon Theremin donne une leçon à Paul Lansky pour jouer Glinka’s Skylark, il avait fait la même chose avec Lénine. Moscou, février 1991. Theremin a 95 ans dans cette vidéo !

Mais, un Theremin pour quoi faire?
Quelques éléments de réponse en vidéo :

Ressusciter un vieux programmeur universel

Il y a plusieurs mois, j’ai acheté en Suisse via Ebay un ensemble de 4 programmeurs de composants. Pourquoi acheter de pareilles vieilleries? Et bien tous simplement, dans le but de sauver/copier/modifier le contenu d’un certains nombre de PROM bi-polaire (entre autre) de vieux synthétiseurs musicaux évidement : Fairlight, Synclavier, etc…

voila la bête :
DATA I/O 29B + UniPack 2B

Ces composants (les PROM bi-polaire) sont maintenant parfaitement obsolète (~1979), car dépassés en vitesse (45ns), en contenance(32×8 bits, 256×4 bits, etc), en méthode de programmation(0v, 5v, 20.5v, 2.4v-4.0v, en 0.18ms par bit) mais maleureusement pas si facilement remplacable physiquement !

Ceux qui m’intéressent sont les :

    32×8 bits :

  • HARRIS 7603
    256×4 bits :

  • HARRIS 7611
  • FAIRCHILD 93427
  • MMI 63S141

J’achète ces composants si vous en avez de disponible a la vente !

Pour se faire, après une rapide petite étude des machines a prix raisonnable disponible sur le marché… J’avais sélectionné le programmeur DATA I/O 29B Mainframe et son module UniPak 2B qui est normalement capable de gérer ces composants !

Depuis, j’ai essayé de programmer des PROM bi-polaire avec lui et la (pour l’instant) pas de bonne réactions ! Je ne réussi pas programmer ces foutus composants, j’ai essayé avec des HARRIS 7611 et des TESLA 74S287 (normalement compatible avec les National 74S287).

J’ai pensé a un moment que c’était l’électronique du 29B ou de l’UniPack 2B qui était en cause, donc, j’ai procédé au test de calibration de l’ensemble, mais la aussi, rien d’anormal !
29B calibration

Entre temps, j’avais contacté Matthieu Benoit qui a un excellent site web sur les programmeurs de composants, auparavant, j’avais déjà échangé avec lui quelques mail a propos d’un Stag PP39, vendu depuis ! Donc, a propos du 29B, Il m’a donné quelques information sur la bête… et a ma grande surprise ma donné son 29b, car, il faisait du « ménage » dans sa cave 😉 Merci encore !

Il y a deux jours, le mainframe 29B qu’il m’a donné a fait de la fumée et des mauvaises odeurs :(. J’ai tout coupé en urgence… mais en fait, le 29B était déjà éteint ! Ca n’a pas empêcher le filtre anti parasite de commencer a fondre, et a un fusible de brûler ! Trés curieux car cette machine a bien fonctionné sans problémes plusieurs fois !

Une petite image pour le fun :
Aie, 29B brule...

C’est la première fois que cela m’arrive… un truc a mettre le feu à la maison ! Ca calme ! Du coup, j’ai entièrement démonté le mainframe…
29B en piece

Phonogramme et Sonographe de Vincent Lesbros

Phonogramme

Phonogramme est un programme permettant de créer, de transformer, de composer des sons et des formes musicales. Ce logiciel a été développé de 1993 à 1996 au GAIV (Groupe Art et Informatique de Vincennes à St Denis, Université Paris VIII) par Vincent LESBROS.

phonogramme pour Macintosh sous Mac OS/9

Un lien intéressant sur le sujet et aussi le sonagramme dans différents logiciels.

Sonographe

Développé au GAIV (Groupe Art et Informatique de Vincennes à St Denis) Sonographe est un outil pour la création de sons musicaux à partir de différentes représentations graphiques : Les Sound Potatoes permettent de créer des sons de cordes pincées en un tour de souris, Les Graphes de couplages élastiques permettent de créer des oscillateurs et des filtres et enfin, les images (bmp, jpeg…) peuvent être interprétés comme des sonagrammes pour produire des fichiers de son (.wav) ou être directement interprétés en MIDI. Des pinceaux spécialisés permettent de dessiner directement des harmoniques et des répétitions. Les fichiers MIDI peuvent être utilisés pour contrôler les tracés des pinceaux. Cette version est une adaptation/recréation de l’application Phonogramme dans l’environnement .NET, elle est entièrement écrite en C# et utilise DirectX managé pour les entrées sortie audio.

sonographe pour PC sous Windows

Pour en savoir plus sur le travail de Vincent Lesbros consulter sa thèse ici.

ALMIR – Un Atelier de Lutherie Modulaire Interactif temps Réel

Présentation

ALMIR est un logiciel qui permet de créer et de jouer en temps réel des systèmes instrumentaux virtuels modulaires. Ces systèmes instrumentaux sont constitués de modules de production et de traitements interconnectés qui véhiculent et traitent des signaux sonores. Ils sont virtuels dans le sens où tous les traitements du signal sont effectués uniquement par logiciel.
Le terme atelier identifie un espace avec un ensemble d’outils permettant de créer des objets complexes à partir d’objets de base. La lutherie met l’accent sur la création d’instruments. La modularité désigne l’architecture basée sur des modules interconnectés. L’interactivité désigne la possibilité pour un opérateur d’interagir sur le comportement de l’instrument. Enfin, le temps réel désigne la propriété d’exécuter les traitements du son en temps réel, c’est à dire avec un temps de réponse non perceptible à l’échelle humaine.
ALMIR est constitué d’une bibliothèque de classes entièrement développée en C++. Bien que la version actuelle soit écrite pour Windows, le logiciel pourrait être aisément porté sur d’autres systèmes et plate-formes, car seules les entrées / sorties sur les périphériques de sons sont dépendantes du système. ALMIR s’exécute sur tout PC standard pourvu d’un système Windows 32 bits (95, 98, 2000, XP) et du composant système DirectSound, ainsi que d’une carte son standard. Il ne nécessite aucun autre matériel spécifique.

Historique

L’histoire d’ALMIR remonte au début des années 1980. Après une introduction aux pratiques musicales électro-acoustiques dans le cadre d’études universitaires en musicologie, nous avons abordé l’informatique musicale au sein du GAIV (Groupe Art et Informatique de Vincennes) dirigé par G.G. Englert (ENGLERT 1980).
Nous utilisions à l’époque le système de synthèse sonore numérique hybride Synclavier 1 de la firme New England Digital (NEDCO 1978). Ce système comprenait un synthétiseur numérique permettant de jouer simultanément 16 canaux de sons, avec la possibilité de définir pour chacun la forme d’onde, la fréquence, une enveloppe audio et une enveloppe modulante sous forme d’une suite de segments, le signal modulant permettant de moduler en fréquence un autre canal.
A la fin des années 1980, désireux d’exploiter les ressources disponibles sur les ordinateurs individuels PC (système, graphique, environnement de développement logiciel), mais soucieux de continuer à utiliser un dispositif de synthèse sonore permettant de définir précisément les paramètres de base du son, nous avons conçu avec A. Llop une interface matérielle et logicielle permettant de piloter le synthétiseur du Synclavier depuis un PC.
Nous avons ensuite développé un  » atelier logiciel d’informatique musicale interactif temps-réel  » (MARTINEZ 1996) utilisant cette interface. Avec l’accroissement en puissance des ordinateurs PC au milieu des années 1990, il est devenu possible d’effectuer la synthèse directe du son en temps réel sur l’ordinateur. Cela nous a conduit dans un premier temps à développer le logiciel V5 permettant d’émuler un Synclavier amélioré sur un PC.
ALMIR constitue l’aboutissement actuel de cette activité de recherche sur l’interactivité temps-réel et la synthèse sonore directe. Notre objectif est de créer des systèmes instrumentaux génériques et modulaires qui satisfont les contraintes du temps-réel sans matériel spécifique.

Nos influences ont été :

  • MUSIC V pour le concept de modularité généralisé (MATHEWS 1969).
  • Le synthétiseur analogique EMS VCS3 pour sa modularité, son interactivité temps-réel et son principe de commandes en tensions généralisé (GAIV 1977).
  • Le système NED Synclavier 1 pour son procédé de synthèse sonore numérique offrant l’accès aux paramètres de base du son (NEDCO 1978).
  • L’ISPW (IRCAM Signal Processing Workstation) pour sa modularité et ses possibilités de traitements du signal en temps-réel entièrement virtuels (LINDEMAN 1990, LIPPE, PUCKETTE 1991, 1993).

    Le texte intégrale de Lirio Martinez est disponible ici :
    L11_Martinez.pdf

  • Entre l’idée et l’oeuvre : Parcours de l’informatique musicale

    La totalité du texte est de Marc Battier

    Entre l’idée et l’oeuvre : Parcours de l’informatique musicale est publié cette année dans: Esthétique des arts médiatiques sous la direction de Louise Poissant, Presses de l’Université du Québec, 1995. Nous en publions ici un large extrait grâce à l’aimable autorisation de Mme Poissant.

    Introduction

    Si l’informatique musicale nous importe tant aujourd’hui, c’est qu’elle a progressivement créé des outils qui sont en train de modifier radicalement la manière de penser la musique. Pourtant, son histoire est courte. Elle se confond avec le développement des technologies numériques: des ordinateurs, d’abord, accompagnés par la création des langages symboliques destinés à la programmation, puis avec toute une cohorte d’inventions en technologie numérique. Assez tôt dans son histoire, l’informatique se montrera suffisamment mûre pour accueillir des préoccupations de toutes sortes, allant de la comptabilité à la recherche scientifique, en passant naturellement par ce qui nous intéresse, la création artistique. Et les musiciens s’enorgueillissent d’avoir été les premiers parmi les artistes à s’approprier l’ordinateur.

    Et c’est sans doute là qu’il faut distinguer ce qui ressort de l’informatique proprement dite, et ce qui appartient plutôt au monde plus large de la technologie numérique. La musique puise amplement dans ces deux domaines ses nouvelles ressources. Toutefois, puisque le domaine du son est aujourd’hui converti en audionumérique, la distinction s’impose. L’informatique musicale naît de la rencontre des préoccupations musicales et de l’environnement issu des technologies numériques et de la spécificité de l’ordinateur, d’une part, et des domaines scientifiques qui éclairent ses thèmes de recherche. Si la composition musicale y figure en bonne place, pratiquement toutes les autres activités de la musique s’y retrouvent. Et la recherche musicale recouvre en partie le terrain défriché par l’informatique, l’acoustique, le traitement du signal, voire la psychologie cognitive: c’est ainsi que l’informatique musicale se situe au centre de plusieurs champs musicaux, scientifiques et techniques.

    Mais c’est le recours aux apports spécifiques de l’informatique qui caractérise sa démarche. De nouveaux outils conceptuels sont sans cesse fournis par l’intelligence artificielle, qui se concrétisent par des langages tels que Lisp ou Prolog. Ils sont aussitôt mis au service de l’analyse musicologique ou de l’aide à la composition. La recherche en systèmes temps réel et sur les interfaces interactifs permet de concevoir de nouvelles liaisons entre l’instrumentiste et l’univers électronique.

    Grandes étapes de l’informatique musicale

    A l’origine de l’informatique musicale, on trouve deux types d’activités, indépendantes l’une de l’autre. Si ces activités perdurent aujourd’hui, c’est d’une autre manière que la vision originelle qui a provoqué leur naissance pouvait laisser prévoir. Ces deux types d’activités sont: la composition musicale, et la production du son. Dans les deux cas, la fabrication du résultat souhaité est assuré par l’ordinateur. Ces deux types d’activités sont sensiblement contemporaines. Les premiers essais sérieux de composition musicale par ordinateur remontent à 1956: c’est à cette date que Lejaren Hiller a calculé une partition à l’aide de règles encodées sous forme d’algorithmes sur l’ordinateur Illiac I de l’université de l’Illinois. Il s’agit de la Illiac Suite for String Quartet, dont les trois premiers mouvements sont exécutés cette année-là par le quatuor à cordes WQXR. Dans un ouvrage célèbre, publié en 1959 et qui porte le titre de Experimental Music-Composition with an Electronic Computer, Lejaren Hiller expose en détail les procédures qu’il a appliquées à l’ordinateur Illiac afin de produire la partition de son quatuor à cordes.

    Pour situer cette période, c’est aussi en 1956 que John McCarthy forgea le terme d’intelligence artificielle. Un an plus tard, Max Mathews, chercheur aux laboratoires du Telephone Bell, dans le New Jersey, écrit un premier programme de synthèse numérique du son pour l’ordinateur IBM 704. Connu aujourd’hui sous le nom de Music I, il est le premier d’une grande famille de compilateurs acoustiques; un psychologue, Newman Guttman, génère une première étude d’une durée de 15 secondes, In the Silver Scale. C’est aussi en 1957 que les quatre mouvements de la Illiac Suite for String Quartet de Lejaren Hiller sont publiés; la même année naît la version primitive du célèbre langage de programme Fortran (FORmula TRANslator). Notons que lors de la création de l’oeuvre de Hiller par le quatuor à cordes WQXR, c’est Max Mathews qui organisa un enregistrement, ce qui donna lieu, par la suite, à la publication de cet enregistrement dans un disque réalisé en 1960 par les Laboratoires Bell, et intitulé Music from Mathematics: même si les voies tracées par ces deux inventeurs sont indépendantes, il ne sera pas dit qu’elles ne se croisèrent pas…

    A partir de ces deux événements quasiment contemporains, le développement va se poursuivre, progressivement, dans les directions tracées: la composition et la production du son. Nous en verrons plus bas les parcours. Mais une troisième voie ne tarde pas à apparaître: elle naît de la même constatation qu’avait faite Hiller: l’ordinateur est avant tout, à cette époque, une formidable machine à calculer. D’ailleurs, le terme anglais de computer choisi désignait, avant l’apparition de ces machines, les employés chargés d’opérer des calculs. Mais en même temps, avec un brin d’effroi, on parlait volontiers à l’époque de cerveaux électroniques. Un artiste ne pouvait s’approcher de l’ordinateur non sans une certaine émotion, qui explique sans aucun doute l’attrait parfois terrifiant qu’exercera l’informatique sur les artistes des décennies suivantes. Mais ce sont deux scientifiques qui sont à l’origine de ces expériences: Hiller pratiquait la chimie, tandis que Mathews était un chercheur déjà renommé. C’est sans doute ce qui explique les remarquables méthodologies qu’ils mirent en place, chacun de leur côté, et dans des buts tout à fait indépendants.

    Aux laboratoires Bell, Max Mathews, de son côté, écrit en 1957 un premier programme de synthèse numérique du son pour l’ordinateur IBM 704, équipé de 4096 mots de mémoire. Connu aujourd’hui sous le nom de Music I, il est le premier d’une grande famille. Le programme Music III (1960) introduit le concept d’instrument modulaire. Le modèle imaginé par Max Mathews s’inspire plus d’un appareillage de laboratoire ou d’un studio de musique électronique que d’une lutherie acoustique. Le programme offre une gamme de modules indépendants (Unit Generators), chargés chacun d’une fonction élémentaire: oscillateur à forme d’onde programmable, additionneur de signaux, multiplicateur, générateur d’enveloppes et de signaux aléatoires, etc… Le musicien construit un instrument en reliant une sélection de modules entre eux. Les signaux produits par les oscillateurs ou les générateurs sont conduits vers d’autres modules pour y être modifiés ou mélangés. Plusieurs instruments peuvent être réunis au sein d’un orchestre , chaque instrument possédant sa propre identité. Contrairement à ce qui se passe dans l’univers matériel, il n’y pas de limite au nombre de modules utilisables simultanément, sauf peut-être la mémoire de l’ordinateur. Le résultat de la mise en oeuvre de l’instrument est le calcul progressif du son sous la forme d’une séquence de nombres qui, mis bout à bout, représentent une onde sonore complexe. Ces nombres sont appelés des échantillons . Aujourd’hui, le nombre d’échantillons représentant une seconde de son a été établi à 44 100 par canal pour les applications grand public, et à 48 000 pour le domaine professionnel.

    Du fait de la relative lenteur des machines et de la masse de calculs à effectuer, le temps mis à générer l’onde sonore est bien supérieur à la durée des sons; le fonctionnement de ces programmes est dit en temps différé . A l’origine, les ondes sonores calculées sous forme numérique étaient stockées sur une bande numérique se déroulant au fur et à mesure de la fin d’un bloc de calcul d’échantillons. Ce mode de production du son est appelé synthèse directe . Ainsi se crée un fichier de son ; une fois achevé, le musicien fait appel à un second programme, chargé de lire le fichier de son en temps réel et d’envoyer les échantillons vers un convertisseur numérique-analogique, qui est relié à un amplificateur et à des haut-parleurs.

    Pour activer l’orchestre, le musicien doit rédiger une partition , dans laquelle sont spécifiés tous les paramètres réclamés par les modules de l’instrument. Cette partition se présente comme une liste de nombres ou de codes symboliques, chaque note ou chaque événement faisant l’objet d’une liste particulière. Ces listes sont ordonnées dans le temps.

    Mais spécifier chaque paramètre est une tâche ardue, d’autant plus que les musiciens ne sont pas formés pour donner des valeurs mesurées aux dimensions sonores qu’ils manipulent. Pour lutter contre cet obstacle, des langages d’aide à l’écriture de partitions ont été conçus; le plus connu est le programme Score de Leland Smith (1972). Score n’est pas un programme de composition automatique: il permet de spécifier les paramètres à l’aide de termes issus de la pratique musicale (hauteurs, nuances, durées), de calculer automatiquement des changements de tempo ou de nuances, voire même de compléter des sections avec des notes correspondant à une trajectoire donnée par le compositeur.

    Le modèle instrument-partition fut fermement établi avec l’arrivée de Music IV (1962). De ce programme naquirent de nombreuses variantes, dont certaines existent bel et bien encore aujourd’hui. Parmi ces avatars, citons Music 4BF (1966-67), dont il existe de nos jours une version pour Macintosh (Music 4C, 1989), et surtout Music 360 de Barry Vercoe (1968); ce descendant de Music IV a pour caractéristique de se présenter comme un véritable langage de programmation, ce qui explique sans doute qu’il est devenu aujourd’hui avec C-Music le compilateur acoustique le plus utilisé. Il fut d’abord adapté au mini-ordinateur PDP-11 de Digital en 1973, puis, entièrement réécrit en langage C en 1985, il prit le nom de Csound, et fut rapidement adapté à toutes sortes de plates-formes informatiques, y compris les ordinateurs personnels comme Atari, Macintosh et IBM. En 1969 apparaît Music V, un programme qui est conçu pour faciliter la programmation musicale des instruments et des partitions; de nos jours, Music V est encore largement employé, le plus souvent sous la forme de l’adaptation qu’en a faite Richard Moore, Cmusic (1980).

    L’ordinateur connut aussi un succès certain dans un domaine fortement spéculatif, l’analyse musicologique. Aux yeux du public intéressé au début des années soixante, l’informatique, encore assez mystérieuse et inaccessible, laissait entrevoir d’étranges travaux musicaux; en composition, en musicologie et enfin, limitée aux laboratoires Bell, de la production de son. Un grand bouleversement musical de cette décennie devait venir du monde de l’électronique, avec l’apparition en 1964 des synthétiseurs modulaires, dits analogiques puisqu’ils ne contiennent pas d’électronique numérique. Conçus indépendamment par Paolo Ketoff (Rome), Robert Moog et Donald Buchla (Etats-Unis), les synthétiseurs apportent la réponse aux aspirations technologiques de nombreux musiciens, surtout après le succès populaire du disque Switched on Bach de Walter Carlos qui fit véritablement connaître ces instruments auprès d’un large public. Pendant ce temps, le programme de Mathews connaît des adaptations sur d’autres sites, tels que les universités de New York, de Princeton ou de Stanford.

    Une autre application de l’ordinateur apparaît avec le pilotage d’instruments analogiques. La machine génère des signaux à variation lente qui modifient les réglages de dispositifs de studio: fréquence d’oscillateurs, gain d’amplificateurs, fréquences de coupure de filtres. Le premier exemple de ce système qu’on nomme synthèse hybride fut établi en 1970 au Elektron Musik Studio de Stockholm, fondation indépendante depuis 1969, financée par l’Académie Royale de Musique, et placée sous la direction de Knut Wiggen. Un ordinateur PDP 15/40 y pilotait vingt-quatre générateurs de fréquence, un générateur de bruit blanc, deux filtres tiers d’octave, des modulateurs: en anneau, d’amplitude et des réverbérations. L’originalité du système de Stockholm résidait dans une console de commande extrêmement ergonomique, avec laquelle le compositeur pouvait spécifier les paramètres de synthèse en balayant un panneau de chiffres à l’aide d’une brossette métallique. Un autre studio est à citer: celui de Peter Zinovieff à Londres (1969), placé sous le contrôle d’un mini-ordinateur Digital PDP 8 pour lequel Peter Grogono écrivit le langage de pilotage Musys.

    Une autre réalisation remarquable est le système Groove (Generated Real-time Operations On Voltage-controlled Equipment, ca. 1969) conçu aux laboratoires Bell par Max Mathews et Richard Moore. Groove est un instrument destiné au contrôle de paramètres d’interprétation d’un dispositif de synthèse. En ce sens, il place le musicien plus près de la position d’un chef d’orchestre que d’un compositeur ou d’un instrumentiste, encore qu’on puisse considérer que le compositeur de musique électronique doive souvent se placer en position de chef, en interprétant directement la musique qui est composée.

    C’est le milieu des années soixante-dix qui marque la transition vers un élargissement désormais inexorable de la vie de l’informatique musicale, avec l’apparition du microprocesseur. Une lutherie informatique deviendra progressivement envisageable avec la conception d’ordinateurs complets sur un circuit intégré: les microprocesseurs. Il faudra aussi que s’améliore l’interface avec l’utilisateur, et que soient remplacées les cartes perforées par un mode d’entrées de données plus interactif: ce sera le clavier et l’écran cathodique qui l’emporteront.

    Le principe de la synthèse hybride continua à être appliqué tout au long des années soixante-dix, avant d’être supplanté définitivement par les synthétiseurs numériques à l’aube des années quatre-vingt. La société américaine Intel commercialise dès 1971 le premier microprocesseur, le circuit 4004, qui permet la conception de véritables ordinateurs miniatures, les micro-ordinateurs: Intellec 8 (conçu à partir du microprocesseur 8008 de 1972), Apple I, Altair (1975), bientôt regroupés sous le nom d’ordinateurs personnels.

    Les expérience musicales du Groupe Art et Informatique de Vincennes (GAIV) illustrent bien cette époque de transition. Cette équipe, fondée à l’université de Paris 8 par Patrick Greussay et une équipe d’artistes et d’architectes, connue pour la publication d’un bulletin diffusant les travaux de recherche en art et informatique les plus récents, confia au compositeur Giuseppe Englert la coordination musicale de ses activités. C’est l’Intellec 8, micro-ordinateur à mots de huit bits, commandée par un ruban perforé et un clavier, qui servit aux activités compositionnelles et de recherche sur la formalisation musicale; des synthétiseurs anglais EMS-VCS3 étaient pilotés par le micro-ordinateur, via des convertisseurs numériques-analogiques chargés de fournir des tensions de commande en échange des données binaires calculées par des programmes interactifs.

    Le second effet de l’arrivée des micro-ordinateur fut la conception de la synthèse mixte , synthétiseurs numériques, véritables ordinateurs adaptés au calcul de l’onde sonore en temps réel, placés sous le contrôle d’un ordinateur. A partir de la seconde moitié des années soixante-dix apparaissent plusieurs réalisations de ce type; nous retiendrons les travaux de James Beauchamp, de Jean-François Allouis, de William Buxton, entre autres, ainsi que ceux de Peter Samson (synthétiseur de Systems Concept, conçu pour le centre de recherche – CCRMA – de l’université de Stanford), le Synclavier de New England Digital Corporation, conçu par Syd Alonso et Cameron Jones sous l’impulsion du compositeur Jon Appleton, la conception, sous l’impulsion de Luciano Berio, d’un banc d’oscillateurs à Naples par Giuseppe di Giugno, qui poursuivit ses travaux à l’Ircam (série 4A, 4B, 4C et 4X) sous la direction de Pierre Boulez; plus récemment, le Fly 30 du Centre de recherchse musicales de Rome. Notons qu’avec la 4X de l’Ircam (1980), le terme de synthétiseur disparaît, remplacé par celui de processeur numérique de signal, ce qui sans doute déplace l’accent sur la généralité de la machine.

    L’industrie de l’instrument électronique n’est pas longue à s’adapter à ces nouveaux développements. La première étape consista à introduire des microprocesseurs à l’intérieur de synthétiseurs analogiques (synthétiseurs Prophet de la firme Sequential Circuits), chargés de contrôler les modules commandés en tension; c’est encore de la synthèse hybride . La seconde étape suit bientôt: elle consiste à concevoir de véritables instruments de musique entièrement numériques. C’est l’arrivée remarquée du Synclavier II, puis du Fairlight.

    Le domaine industriel est aujourd’hui constitué d’abord par le marché des synthétiseurs et des appareils de traitement du son, et par les logiciels qui permettent de les exploiter. Aujourd’hui, tous les synthétiseurs sont numériques, et répondent nécessairement à la norme Midi. Le domaine des synthétiseurs est double: d’une part des appareils, souvent munis d’un clavier, qui proposent un choix de sons pré-programmés dont on peut varier certains paramètres par un procédé élémentaire de programmation; d’autre part, les machines qui sont destinées à reproduire des sons préalablement enregistrés et mémorisés, ou stockés sur mémoire de masse: les échantillonneurs, ou samplers .

    Il faut noter que toutes ces technologies deviennent accessibles au musicien privé, dans le cadre de ce qu’on appelle communément le studio personnel (home studio).

    Mais ces machines, et a fortiori le studio personnel ne fonctionnent pas sans logiciel adapté: les séquenceurs pilotent l’exécution d’un morceau directement à partir d’un ordinateur, les éditeurs de son sont destinés au traitement, au montage et au mixage de séquences sonores. Des programmes permettent d’écrire une partition, ce qui est désormais employé couramment par l’édition musicale. Enfin, les machines peuvent aussi être placées sous le contrôle de programmes d’aide à la composition.

    Le caractère le plus original de la lutherie informatique contemporaine est la station de travail . Concevoir une station de travail consiste à rassembler des programmes de natures diverses, destinés à l’analyse ou à la synthèse du son, au contrôle du son ou à la composition. Ces programmes sont intégrés au sein d’un environnement informatique organisé autour d’un ordinateur et de ses périphériques, destinés au traitement du son en direct. C’est le cas des cartes enfichables qui, couplées à un logiciel, permettent de lire des fichiers de son stockés sur un disque, en échange d’une commande, provenant par exemple d’une source Midi. Ce système, si nouveau qu’il n’a pas encore trouvé de nom véritable, est le plus souvent désigné comme disque dur ou direct-to-disk .

    Parmi les premières réalisations, on retiendra l’adaptation des compilateurs acoustiques Cmusic, originellement développé à partir de Music V par Richard Moore, et C-sound conçu par Barry Vercoe comme une branche de Music IV. L’intégration, qui justifie l’appellation de station de travail, consiste à connecter les données Midi avec les programmes mentionnés ci-dessus, tout en travaillant au sein d’un environnement unique, associant temps réel et temps différé. D’une manière plus générale, la micro-informatique offre tant aux institutions qu’aux particuliers des outils de synthèse et de traitement de son de haut niveau. Certains permettent, en temps différé, la manipulation de fichiers de sons. Citons une nouvelle C-Sound du MIT, le vocodeur de phase Audio-Sculpt de l’Ircam, Soundhack de Tom Erbe, etc… D’autres programmes autorisent l’interaction temps réel avec la manipulation de sons. Ces logiciels se développent surtout dans les années 90: GRM Tools de l’Ina-GRM, Hyperprism de Son Réel, tous deux à Paris, modules insérés dans des programmes généraux tel que Sound Designer de la firme californienne Digidesign, etc… Tous ces programmes donnent accès à de puissants moyens de synthèse et de traitement, jusque là reservés aux seules institutions, et désormais implantés sur ordinateurs personnels: ces machines ne se contentent plus de piloter des synthétiseurs Midi.

    Au cours des années quatre-vingt, le terme de station de travail fut rapidement galvaudé. Un synthétiseur quelconque était affublé de cette appellation à des fins purement commerciales, sans répondre aux critères d’intégration évoqués. Aujourd’hui, l’intégration s’ouvre au domaine de l’image, avec l’irruption du multimédia, et prend une nouvelle dimension.

    La représentation musicale

    Puisque l’ordinateur, à la différence de la musique électronique de studio, réclame une spécification des données, et donc une écriture, la question de la représentation musicale est une préoccupation constante du domaine. Nous verrons deux réponses. La première illustre une démarche a priori compositionnelle: celle de Xenakis. La seconde, plus générale, est la norme Midi.

    Iannis Xenakis innove avec la conception de l’UPIC (Unité Polyagogique Informatique du CEMAMu). Conçu au milieu des années soixante-dix, ce système découle naturellement de l’approche de la synthèse du son par ce compositeur: au sein de l’équipe qu’il avait réunie, baptisée d’abord Emamu (Equipe de Mathématiques et d’Automatique Musicale, 1966), et avec le financement de la Fondation Gulbenkian, Xenakis avait fait construire un convertisseur numérique-analogique de haute qualité. L’UPIC représente un environnement complet de composition avec, en résultat, la synthèse sonore de la page de musique composée. Devenu en 1971 le CEMAMu (Centre de Mathématiques et d’Automatique Musicale) en raison de la création d’un lieu destiné à abriter ses recherches, l’équipe réunie autour de Xenakis conçoit un système permettant au compositeur de dessiner sur une large table d’architecte des arcs temps-hauteur , en choisissant pour chaque arc une trajectoire temporelle, une forme d’onde, une nuance. La musique est donc d’abord représentée sous forme graphique. Les programes du premier UPIC sont écrits pour un mini-ordinateur Solar 16/65, relié à deux organes de bandes magnétiques pour stocker les programmes et les échantillons, un convertisseur numérique-analogique, un écran cathodique permettant d’afficher les formes d’ondes, mais aussi de dessiner ces ondes à l’aide d’un crayon graphique. Pour entendre la page qu’il vient de dessiner, le compositeur doit attendre que l’ordinateur ait terminé de calculer tous les échantillons; la génération du son est assurée par une convertisseur numérique-analogique de haute qualité. Plus récemment, l’UPIC a été redessiné pour micro-ordinateur, et fonctionne sans délai.

    Représenter le son sous la forme d’une image modifiable, c’est le but du programme Phonogramme, conçu à l’université Paris 8 par Vincent Lesbros. A la manière d’un sonogramme, le programme affiche l’analyse spectrale comme un dessin, qui peut être modifié; la nouvelle représentation peut ensuite être synthétisée, soit par Midi, soit sous la forme d’un fichier de son, ou bien encore transformé en fichier Midi.

    On entend souvent aujourd’hui le reproche que la génération de jeunes musiciens qui abordent la technologie au travers de l’environnement créé autour de la norme Midi n’ont pas une conscience satisfaisante du passé de l’informatique musicale et de ses problèmes. Mais c’est oublier que, dans un sens, la naissance de la norme Midi s’est faite sans véritable filiation avec les étapes précédentes du domaine que l’on nommera l’informatique musicale. Le phénomène que représente Midi n’est aucunement un avatar de ce domaine.

    Le standard Midi a été mis au point en 1983 pour permettre le pilotage de plusieurs synthétiseurs à partir d’un seul clavier; les messages sont transmis en format numérique, selon un protocole bien défini. A l’origine, Midi est donc bien basé sur le contrôle gestuel instrumental: c’est une méthode pour représenter non le son, mais le geste du musicien qui joue d’un instrument Midi. En 1983 sort le premier synthétiseur à posséder une interface Midi, le Prophet 600 de la Sequential Circuits. Ce qui n’avait pas été défini, par contre, c’est le succès qu’allait rapidement remporter cette norme, qui aujourd’hui sert à interconnecter toutes les machines d’un studio de musique électronique, et même les jeux de lumières d’une scène.

    La recherche musicale

    Les travaux entrepris dès 1956 par Lejaren Hiller pour la composition de la Illiac Suite for String Quartet marquent à la fois la véritable naissance de l’informatique musicale et l’ancrage de ce domaine dans la recherche, appliquée dans ce cas à la composition automatique. L’ordinateur apparaissait alors comme une machine permettant de traiter les suites d’opérations complexes qui caractérisent la composition d’oeuvres musicales ambitieuses. Ce chemin allait être renforcé dès 1958 par le compositeur français Pierre Barbaud, qui fonde à Paris le Groupe Algorithmique en liaison avec la compagnie Bull-General Electric et entreprend ses recherches de composition automatique; dès l’année suivante, la première oeuvre algorithmique de Barbaud était composée: Imprévisibles nouveautés (Algorithme 1), avec la collaboration de Pierre Blanchard. Le programme Musicomp de Lejaren Hiller et Robert Baker, de la même époque, conçu pour l’ordinateur Illiac après la composition de la Suite Illiac, faisant de l’université de l’Illinois l’un des centres de l’informatique musicale à cette époque. Et lorsqu’en 1962, Iannis Xenakis crée ST/10, 080262, oeuvre écrite grâce au programme stochastique ST développé à partir de 1958 sur une ordinateur IBM 7090, la composition à l’aide de l’ordinateur entre dans son âge d’or. Aux Pays-Bas, Gottfried Michael Koenig rédige en 1964 le programme de composition Project I (1964), suivit bientôt de Project II (1970). La composition assistée par ordinateur s’appuie sur les mathématiques et la stochastique, puisant largement dans les ressources des processus de Markov (Hiller, Barbaud, Xenakis, Chadabe, Manoury).

    Avec l’arrivée des ordinateurs personnels se développe une nouvelle tendance: l’aide à la composition, puis la conception assistée par ordinateur de la composition (CAO). Au programme démiurge, capable d’engendrer une composition entière succède le modèle d’un environnement d’outils informatiques chargés de traiter des problèmes musicaux précis. Citons parmi les principaux: HMSL (Hierarchical Music Specification Language, 1985) à Mills College en Californie, Formes, créé par Xavier Rodet, Esquisse et PatchWork, développés à l’Ircam sous l’impulsion de Jean-Baptiste Barrière, Experiment in Musical Intelligence de David Cope, à l’université de Santa Cruz en Californie. Ces programmes sont ouverts: ils dialoguent avec le compositeur d’une manière interactive, et sont reliés à l’univers des dispositifs Midi. A l’exception de M et Jam Factory de Joel Chadabe et David Zicarelli, ils sont structurés par l’emploi de langages non numériques, issus du domaine de l’intelligence artificielle, tels que Forth, et surtout Lisp, ce qui explique qu’ils reposent non sur les mathématiques, comme ce fut le cas pour la première génération de composition assistée par ordinateur, mais sur les langages formels et les grammaires génératives.

    D’autres démarches illustrent particulièrement bien la nature de l’informatique musicale, et sa liaison permanente à la recherche: c’est le cas de la psycho-acoustique, avec les travaux de John Chowning sur la spatialisation et la synthèse du son, de Jean-Claude Risset sur l’analyse de sons instrumentaux et les illusions acoustiques, de David Wessel sur la catégorisation et le classement du timbre, ou bien encore de Stephen McAdams sur la perception de flux sonores et son interaction avec le timbre. Le Computer Music Journal et les actes des congrès ICMC (voir plus bas) rendent régulièrement compte des avancées de ces recherches. Il faut souligner que ces travaux sont menés le plus souvent au sein d’institutions universitaires pour la plupart (M.I.T. au Massachusetts, Berkeley, Stanford et San Diego en Californie, Berlin en Allemagne, Vancouver au Canada, Kunitachi au Japon, Padoue en Italie pour ne citer que quelques-uns parmi les plus connus), ou bien d’organismes spécialisés (Ircam ou INA-GRM à Paris, CMR à Rome, CDMC à Madrid, EMS à Stockholm, DIEM au Danemark, etc…). Ils ont pris la place des studios de musique électronique des années cinquante et soixante comme lieux de recherche et de création. L’informatique crée un lien entre tous les protagonistes, qu’ils soient musiciens, techniciens ou scientifiques. Ils sont désormais moins consacrés à l’offre de ressources, comme l’étaient les studios, mais plutôt à l’échange, la communication, le travail conceptuel. C’est d’ailleurs dans la quête de nouveaux modèles de synthèse du son que l’informatique musicale s’est illustrée: synthèse par modulation de fréquence, synthèse par modèles physiques, etc… En outre, le progrès de la micro-informatique musicale permet désormais aux musiciens d’installer à domicile un instrumentarium de composition et de traitement du son de qualité professionnelle; c’est, toute proportion gardée, avec l’avènement du studio personnel que l’institution doit compter, afin de situer son action beaucoup plus sur le terrain de l’invention et de la recherche que sur celui de l’appareillage.

    Le temps réel: ordinateur et univers instrumental

    Les années quatre-vingt voient se développer l’emploi de l’ordinateur en situation de concert; grâce à l’arrivée des synthétiseurs numériques en temps réel, ou, plus généralement, des processeurs numériques de son, et des langages de contrôle temps réel, les conditions sont mûres pour revisiter cette ancienne aire de la musique du XXe siècle: la musique électronique en direct (live electronic music). Dans la plupart des cas, il s’agit d’abord d’imaginer un moyen de relier l’ordinateur et sa puissance de calcul à des dispositifs de synthèse ou de traitement de son, avec, si, possible, l’interaction de musiciens. Répons (1981), de Pierre Boulez, par l’intégration des procédures de traitement à l’écriture elle-même, a montré en quoi l’ordinateur est devenu un instrument, parfaitement intégré à l’orchestre. A la suite de cette oeuvre apparaissent des travaux sur le suivi, par l’ordinateur, du jeu de l’instrumentiste, opération connue sous le nom de suivi de partition . Citons les apports de Roger Dannenberg dans l’accompagnement automatique et les langages offrant les conditions de la communication ordinateur-instrument, ceux de Max Mathews, d’abord avec le système Groove, puis plus récemment avec ses travaux sur la Radio Drum et la simulation de la baguette du chef s’orchestre, Miller Puckette avec le programme Max.

    L’interaction réclame des instruments adaptés au transfert de données à l’ordinateur. Ce sont les claviers qui ont surtout joué ce rôle; c’est ainsi que sont apparus des pianos équipés de détecteurs Midi, puis capables de jouer selon des messages Midi (Disklavier de Yamaha). D’autres dispositifs sont couramment employés: boutons, potentiomètres, interrupteurs, mais ils ne peuvent pas rivaliser avec la souplesse et les degrés de liberté d’un véritable instrument de musique, pour lequel l’instrumentiste a développé une virtuosité. Certains, comme Michel Waisvisz, ont imaginé des organes tactiles, capables de transmettre leur position, leur angle de rotation, leur vitesse; mais ce sont en général des prototypes, et seul le temps dira s’ils seront acceptés par la communauté musicale. C’est pourquoi on s’est intéressé par ailleurs à donner à des instruments d’orchestre cette capacité, en les munissant de capteurs, permettant à l’ordinateur de suivre l’exécution (flûte, vibraphone, etc…). Toute l’industrie musicale est concernée par cette tendance, bien que le procédé à employer ne soit pas encore décidé: sera-t-il électromécanique (capteurs matériels placés à des endroits stratégiques de l’instrument, membranes conductrices, etc…), ou bien faudra-t-il avoir recours à l’analyse à la volée des sons eux-mêmes pour en connaître la hauteur, la structure spectrale et le mode de jeu?

    La communauté s’organise

    Le mûrissement de l’informatique musicale s’est accompagné d’une prise en charge de la communauté des musiciens et des chercheurs par eux-mêmes. Progressivement, la conscience d’appartenance à un champ se fait jour. Les congrès internationaux apparaissent, suivis plus tard de conférences locales. Les communications qui y sont prononcées sont publiées dans des recueils disponibles pour toute la communauté. Ces réunions donnent lieu aussi à la présentation de concerts, ce qui tend à souder plus fortement entre eux la conscience d’un champ nouveau, aux composantes scientifiques et artistiques. C’est le début des International Computer Music Conferences (ICMC). En 1978 naît une organisation destinée à faciliter la communication et à aider la tenue des congrès, la Computer Music Association , qui devient en 1991 International Computer Music Association (ICMA). Les organisateurs cherchent à tenir le congrès une année en Amérique du Nord, et l’année suivante sur un autre continent. Ces congrès voient l’ICMA prendre un rôle croissant dans l’assistance apportée aux organisateurs locaux, ainsi que dans la diffusion des publications issues de ces rencontres, allant jusqu’à passer des commandes d’oeuvres qui seront exécutées au cours des ICMC (ICMA Commission Awards, 1991).

    Un autre véhicule qui soude la conscience d’appartenance à un domaine commun est le Computer Music Journal. Apparu en Californie en 1977, il est repris par MIT Press à partir du volume 4 (1980). Le journal s’impose comme la référence en matière de publications scientifiques du domaine. L’association ICMA publie un bulletin, Array, qui est devenu un organe très apprécié d’information et de discussion sur les thèmes actuels de l’informatique musicale. La revue néerlandaise Interface, qui devient à partir de 1994 Journal of New Music Research, publie régulièrement des articles sur l’informatique musicale. Au Canada, Musicworks, guidé par Gayle Young, assure l’information sur un éventail large de préoccupations des nouvelles musiques. En France, les publications de l’Ircam, InHarmonique, puis Les cahiers de l’Ircam ouvrent leurs colonnes aux considérations esthétiques, théoriques et critiques qui accompagnent le surgissement des nouvelles technologies dans les arts.

    En 1991 le journal Leonardo, publié par l’association internationale pour les arts, la science et la technologie, fondé en 1968 par Frank Malina, lance, sous la direction de Roger Malina, le Leonardo Music Journal, qui apporte une vision ample de la pratique musicale liée aux nouvelles technologies, grâce aussi à la publication, avec chaque numéro, d’un disque compact. Plus théorique, la revue Languages of Design, sous la direction de Raymond Lauzzana, s’intéresse à la formalisation dans les procédures artistiques, et accorde une large place à l’informatique musicale. A ces supports traditionnels de l’information s’ajoute la communication directe entre musiciens et chercheurs par le moyen des réseaux informatiques, permettant le courrier électronique instantané. Enfin, le besoin d’accroître la vitesse de communication a fait naître les journaux électroniques, diffusés par les réseaux tel que Internet; dégagés de la structure de fabrication, d’impression et d’acheminement, ils permettent le même type d’accès à l’information que les banques de données qui, elles aussi, se multiplient en informatique musicale.

    Biographie et discographie

    Marc Battier, compositeur, est né en France, le 21 décembre 1947.

    Dès la fin des années soixante, il a été irrésistiblement attiré vers la musique électronique. De là, il fut conduit, dès le début des années soixante-dix, vers l’informatique musicale.

    Il a créé plusieurs oeuvres dans lesquelles la voix est traitée comme élément porteur de forme, et est transformée pour devenir matériau musical: Verbes comme cueillir (1980), Action-variation (1984), Les mots y sont (1986), Transparence – Sur un audiopoème de Henri Chopin (1994).

    Après un passage comme chercheur au Groupe de Recherches Musicales de l’Ina où il travaille aux côtés de François Bayle dans les studios numériques, il rejoint l’Ircam à la fin de l’année 1979. En dehors de ses activités à l’Ircam, il enseigne la musique électroacoustique à l’université de Paris VIII et à l’université de Californie à San Diego (1984-86). Son intérêt pour la musique électronique l’a par ailleurs poussé vers la recherche sur la technologie musicale du XXe siècle, et il a conçu la collection d’instruments du XXe siècle pour le Musée de la musique de la Cité de la Musique, il poursuit cette activité en tant que chercheur associé au C.N.R.S. Il est membre de l’équipe doctorale du programme universitaire Musique et musicologie du XXe siècle, et contribue à plusieurs journaux s’occupant d’informatique musicale et de nouvelles technologies (Cahiers de l’Ircam-Recherche et musique, Contemporary Music Journal (Londres), Organised Sound (G.-B.), Leonardo Music Journal (Berkeley, USA) Computer Music Journal (Cambridge, USA), et participe à l’activité de différentes organisations musicales et multimédia internationales.

    A obtenu le prix Villa Médicis Hors Les Murs en 1984.

    Son compact-disc, Transparence – Sur un audiopoème de Henri Chopin, est sorti en mars 1995. Il a donné lieu à une exposition de partitions graphiques réalisées avec le programme Phonogramme de Vincent Lesbros à la galerie Lara Vincy, rue de Seine à Paris. (Ce CD est disponible auprès de Metamkine. Ref: BRCD 9595)

    Ink on Polyester est inclus dans la compilation Anthology of Music for the 21st Century, Leonardo/Isast, Ref. LMJ 1 (1991)

    Le texte dans son intégralité ici

    Historique du projet 4X de l’Ircam

    A la suite d’une demande du compositeur Luciano BERIO, qui souhaitait disposer de « mille oscillateurs numériques en temps réel » pour synthétiser des sons complexes, le physicien Giuseppe DI GIUGNO développa à l’IRCAM , à partir de 1975, plusieurs versions successives de processeurs numériques: 4A, 4B, 4C, pour aboutir en 1981, au très performant processeur 4X (200 Mops).

    Ce processeur permettait aussi bien l’analyse que la synthèse en temps réel de signaux sonores (à la norme audio professionnelle ; 16 bits et 20KHz de bande passante).

    Pouvant être reconfiguré par logiciel, il permettait la mise en oeuvre de toutes les techniques connues de synthèse et d’un grand nombre de techniques d’analyse du signal.

    L’IRCAM a disposé jusqu’au début des années 90, de 4 stations de travail musical 4X, comportant chacune :

    • un calculateur de développement UNIX,
    • un calculateur temps réel muni de périphériques de contrôle,
    • un processeur 4X et son système de convertisseurs numériques/analogiques et analogiques/numériques.

    Le système 4X a été utilisé tout au long de son histoire par plusieurs compositeurs dont Pierre BOULEZ qui en fit la première application dans Répons et aussi Clarence BARLOW, Marc BATTIER, François BAYLE, George BENJAMIN, Denis COHEN, Thierry LANCINO, Cort LIPPE, Tod MACHOVER, Philippe MANOURY, Tristan MURAIL, Ichiro NODAIRA, Emmanuel NUNES, Robert ROWE et Karlheinz STOCKHAUSEN.

    Brève description du processeur 4X :
    Ce système pouvait comporter jusqu’à 8 plaques universelles de traitement du signal « 4U », une carte de contrôle, ainsi qu’une interface avec le calculateur hôte (calculateur temps-réel).

    Chaque 4U était programmable individuellement, notamment pour la fréquence d’échantillonnage. Une 4U travaillait en arithmétique virgule fixe sur 16 bits selon des cycles de 60ns et comprenait :

    • une unité logique et arithmétique (ALU en anglais),
    • un multiplieur MUL,
    • ume mémoire de fonction FUN de 64 Kmots de 16 bits,
    • une mémoire de données DM 1 Kmots de 24 bits,
    • une mémoire d’adresses MA sur 10 bits,
    • une mémoire de microcode MMP de 1 Kmots de 48 bits.

    La carte de contrôle contenait :

    • 256 horloges programmables, capables de déclencher des interruptions sur le calculateur hôte,
    • une double mémoire tampon permettant l’enregistrement et la reproduction simultanée de signaux sur le disque dur de l’hôte,
    • un arbitrage du bus interne de la 4X,
    • la gestion des entrées/sorties.

    Un assembleur-optimiseur et un compilateur avaient été développés à l’IRCAM. La programmation se faisait normalement, le parallèlisme n’apparaissant nullement dans le langage et l ‘assembleur pouvait travailler en mode compilé ou interprété.

    Ce petit historique du projet 4X vient d’une note d’Olivier Koechlin.

    Par la suite, j’ai récupéré un ancien texte (~1981) de Marc Battier où il décrit le fonctionnement des 4n (A, B, C et X) :

    Les machines 4A, 4B, 4C, 4X

    Des projets où les oscillateurs se comptent par centaines ont été réalisés (machine 4A de Giuseppe Di Giugno, comprenant 256 oscillateurs en temps réel), ou très récemment comme la machine 4X, offrant la faculté de traiter des signaux extérieurs, et capable d’être configurée en banc d’oscillateurs ou de modules quelconques. L’idée qui a d’abord conduit au développement de la machine 4A a été de fournir au musicien la possibilité d’activer et de commander une masse de fréquences simultanées, mais indépendantes, non reliées entre elles par des contraintes de rapports de hauteurs et d’amplitudes fixes. Il s’agit d’un dispositif de synthèse additive, développé autour du multiplexage d’un système numérique de synthèse. Le synthétiseur est piloté par un ordinateur-hôte, un Dec PDP 11. Le nombre virtuel d’oscillateurs dépend de la fréquence d’échantillonnage choisie [Di Giugno, n.d.].

    4A

    nombre d’oscillateurs fréquence d’échantillonnage amplitude
    16 256kHz 1024

    Une table d’onde, choisie parmi un ensemble conservé sur disque, est chargée dans le synthétiseur en quelques millisecondes. Cette opération peut se réaliser en cours de jeu. Le logiciel de pilotage du synthétiseur a été écrit par DiGiugno, et consiste en un ensemble de courtes routines, réunies dans le programme pepmus. A l’aide d’un code que l’utilisateur entre au clavier alphanumérique du terminal, un Goto calculé permet d’accéder au bloc de commande choisi. Après évaluation des données, le programme envoie ses ordres à un logiciel spécialement chargé du dialogue avec le synthétiseur, 4ASYS, écrit en macro-assembleur pour l’efficacité de la communication. En ce sens, Pepmus serait un programme d’utilisation, et 4ASYS un programme de commande. Le programme utilisateur se borne à passer à 4ASYS les indications du numéro d’oscillateur à modifier, et ses nouvelles valeurs, dans un code interne : la fréquence, l’amplitude et la phase. La structure de Pepmus en blocs indépendants ressemble à un ensemble de sous-programmes : les musiciens peuvent augmenter la bibliothèque commune en y incorporant leurs propres algorithmes. Cette architecture a été choisie afin d’économiser le temps que prend un appel et un retour de sous-programme.
    Le musicien qui veut utiliser ses propres procédures a alors le choix d’écrire une sous-routine que Pepmus peut appeler en échange d’un code qu’il faut déterminer dans le Goto calculé ou dans un test sur des valeurs d’entrées, ou bien de placer son bloc d’instructions dans le corps du programme. Nous donnons ici l’exemple d’un tel processus, réalisé pour une brève structure de la pièce récente de York Höller, Resonance. Il s’agit du glissando descendant d’un accord de quatre notes, dont les bornes sont déterminées.
    La structure doit durer 35 secondes, après quoi l’état final atteint par le mouvement de l’accord doit rester fixe pendant 1 minute. Cette dernière spécification ne pose aucune difficulté : Le synthétiseur ne s’interrompt que si l’on lui en donne l’ordre, sinon les valeurs des registres de fréquence et d’amplitude sont lus en permanence. Nous avons écrit, avec Jean Holleville, un bloc d’instructions capable de faire varier une fréquence sur un temps déterminé, grâce à une procédure d’interruption écrite par Jean Kott. L’interruption est engendrée par une horloge à fréquence fixe.

    Une limite du système vient de la table d’onde.
    Celle-ci est d’une longueur de 2k-mots, et le synthétiseur y prélève des échantillons sans effectuer d’interpolation, comme dans la plupart des systèmes temps réel. Cette dimension s’avère trop courte et provoque un bruit de quantification important. Les machines qui lui ont succédé ont en partie remédié à ce problème.

    A la suite du synthétiseur 4A fut entreprise une recherche sur un système qui serait plus souple, en offrant le moyen de programmer les ressources de la machine [Alles, DiGiugno 1977]. La machine 4B est attachée à un processeur hôte LSI-11, qui la pilote en lui communicant les valeurs de ses registres. Elle offre 64 oscillateurs, contrôlables séparément, bien qu’il s’agisse là aussi d’un multiplexage, avec une discrimination de fréquence de l’ordre de 0,002 Hz. Les oscillateurs sont modulés en amplitude et en fréquence par des générateurs de rampe, et la fréquence d’échantillonnage est de 32 kHz. Le dispositif offre la possibilité de réaliser des interconnexions entre les oscillateurs, au moyen de 15 registres. La machine a été suffisamment achevée pour permettre à des logiciels d’utilisation de naître, tel que celui que le compositeur Neil Rolnick et Philippe Prevot ont mis au point, le langage SYN4B [Rolnick 1978]. Il permet un jeu interactif en temps réel à partir de périphériques, tels qu’un banc de 4B potentiomètres linéaires, un potentiomètre en X-Y, et une pédale. [Lawson, Mathews 1977] ont consacré un article à la discussion des possibilités musicales simples d’un tel système, et à l’implémentation des modèles de synthèse de J.-C. Risset (synthèse additive) et de J. Chowning (modulation de fréquence). La première méthode offrirait dans ce contexte 4 voix indépendantes, se composant chacune de 16 partiels indépendants, tandis que la seconde pourrait combiner 32 voix de modulation de fréquence. Toutefois, cette conclusion est discutée par [Rolnick 1978, 18]. Cet auteur montre en effet que le moyen le plus rapide d’effectuer des opérations arithmétiques telles que les mises à l’échelle des données d’enveloppe ou de périphériques d’entrées, est de les réaliser dans le synthétiseur même, au moyen des oscillateurs employés comme des multiplicateurs câblés. Cela conduit à réduire considérablement les ressources de la synthèse, et les voix de FM, au sein de ce contexte, se réduisent alors à 8.

    Le développement de la machine 4C a été mené à l’Ircam par Giuseppe di Giugno, à la suite du travail sur le modèle expérimental 4B. Les programmes de commande du synthétiseur sont aujourd’hui développés. Il s’agit précisément de livrer aux compositeurs des programmes qui, bien qu’en état de fonctionnement, demandent à être confrontés à des situations en vraie grandeur. Il est clair que la mise en chantier de projets musicaux a pour effet d’enrichir ces programmes qui, pour la plupart, ont été écrits par des programmeurs ayant de sérieuses notions musicales personnelles, et une bonne intuition des désirs et des souhaits des compositeurs.

    Les synthétiseurs numériques offrent des moyens d’interagir avec leur fonctionnement, dans le temps même où se déroule la synthèse des sons. Il s’agira, par exemple, de périphériques analogiques, tels que des potentiomètres, ou des bancs de potentiomètres, des commutateurs, un clavier de type piano, ou encore le clavier du terminal, dont les touches enfoncées seront décodées dans le programme et bien entendu des sources provenant d’autres machines analogiques, tels que des démodulateurs d’enveloppes ou d’amplitude, ou tout simplement des microphones et des filtres. Il existe aussi des périphériques numériques pouvant servir à de telles commandes, tels qu’un écran graphique muni d’un crayon lumineux (Light pen), ou une tablette graphique (bit pad). Les informations recueillies sur ces périphériques demandent à être traitées au fur et à mesure de leur saisie. L’un des problèmes soulevés par l’emploi des synthétiseurs numériques en temps réel est que leur accès est réservé à un seul musicien à la fois. Le système d’opération est choisi de telle manière qu’il assure dans les meilleures conditions un dialogue continu et instantané avec le synthétiseur. C’est donc un système d’opération orienté vers les tâches temps réel qui est nécessaire. Par ailleurs, l’interaction qu’on vient d’évoquer, et qui se passe en temps réel, demande bien entendu que pendant la durée de l’échange le système d’opération soit en dialogue avec cette seule tache, c’est-à-dire avec un seul utilisateur. C’est ce qui explique le choix du système RT-11 pour les ordinateurs Dec PDP-11, commandant les 4C, et celui de Unix pour les systèmes les plus récents. Cependant, une large proportion du temps qu’un musicien passe aux cotés d’une machine de ce type est consacré à l’écriture, l’implémentation et le test des programmes de pilotage.
    L’évaluation avec le synthétiseur ne prend que peu de temps, et conduit dans les étapes de développement logiciel à revenir au programme, afin d’apporter les corrections. Cette situation a conduit l’équipe de l’université de Stanford a connecter le synthétiseur de Peter Samson comme périphérique d’un système multi-utilisateur. Plusieurs musiciens peuvent travailler simultanément sur la mise au point des programmes de synthèse. C’est seulement une fois compilées que les commandes sont passées à la machine Sambox, qui effectue alors la synthèse en temps réel [Samson 1980]. Ce mode de pilotage interdit pour l’instant l’interaction pendant l’exécution. Le système du SSSP de l’université de Toronto a déjà été mentionné plus haut.
    Une équipe de compositeurs et de techniciens a mis au point un système, non seulement de synthèse de sons, mais aussi d’écriture et de modification de partitions. Ce système abondamment décrit [Buxton 1976], met en scène un logiciel compositionnel, destiné à un ordinateur Dec PDP-11, sous le système d’opération Unix, écrit en langage C, qui semble offrir bien des avantages aux musiciens [Abbott 1978], et une configuration de périphériques associant différents modules d’entrée à un synthétiseur numérique.
    Là, le système a été pensé pour donner aux musiciens un instrument dont l’accès est orienté vers un type de dialogue dans lequel la machine propose des réponses à leurs sollicitations. La distinction entre les dispositifs et la tache compositionnelle est soigneusement établie. Le musicien doit savoir poser convenablement ses problèmes musicaux, et non tenter de répondre aux contraintes de la machine. Ce sera à elle d’évaluer les propositions du musicien selon sa propre configuration.

    Qui dit 4X dit… Matrix 32.

    https://i0.wp.com/www.karadar.com/Jpg/The_IRCAM.jpg?w=525

    Le système « MATRIX 32 » développé à l’IRCAM dans les années 83-85, par Didier RONCIN et Michel STARKIER, avait pour objectif initial de remplacer le « Hallophone », système allemand utilisé lors des premières executions de Répons de Pierre BOULEZ.

    Toutefois, il s’est avéré, de par sa souplesse d’emploi et sa versatilité, qu’ il était à même de résoudre la quasi totalité des problèmes de brassage audio, statique ou dynamique.

    « MATRIX32 » était un système analogique commandé numériquement à partir d’un pupitre à base de micro-calculateur VME, ou par un ordinateur via une ligne série. Par la suite, une liaison MIDI a été ajoutée, pour piloter le système.

    Deux types de brassage étaient utilisables séparément ou conjointement :

    • par commutation à gain programmable de 0 à 100dB par pas de 0,4dB gr‚ce à des modules VCA 8 entrées vers 4 sorties,
    • par commutation en tout ou rien, via des modules 8 entrées vers 8 sorties, avec absence totale de bruit de commutation (en présence ou non de signaux) et possibilité de sommer plusieurs signaux d’entrée vers une sortie.

    Ces modules pouvaient être associés, pour former des matrices allant jusqu’à 32 par 32 en tout ou rien, ou 32 par 16 en gain contrôlé. Un circuit de moniteur permettait l’écoute et la mesure de toutes ces entrées sorties.

    Un logiciel écrit par Andrew GERZSO, offrait les fonctions suivantes :

    • édition des fichiers de configuration depuis le pupitre,
    • édition des fichiers de configuration conservés en mémoire secourue, sur disque dur ou sur disquette,
    • édition des séquences de configuration,
    • bibliothèque de fonctions courantes (rampes, sinus, cosinus, exponentielle etc. ) , pouvant être augmentée.

    Deux nouveaux liens à propos de la famille 4(n) : le 1er sur le site de l’IRCAM et un l’autre sur le site du Centro di Sonologia Computazionale.

    Sites de réferences pour Synthétiseurs

    Un de mes loisirs est la remise en état de synthétiseurs musicaux. Et pour ce faire, depuis plusieurs années, j’ai glané à droite et à gauche, et surtout sur le web, des informations techniques concernant certaines de ces machines. Je vous livre ici, une petite compilation de sites que je considère, sans exagération comme des références. A oui, j’ai un penchant pour les machines dites numériques (à cause de leur partie calculateur, souvent comme de vrais micro-ordinateurs). Parmis tous ces liens, il y a évidement des références à des machines que je connais, que je possède et également beaucoup d’autres qui me font rêver !

    Les synthétiseurs numériques :

    Il y a bien entendu d’autres machines dont la synthèse additive m’intéresse particulièrement. J’en connais l’existence ou j’en posséde certaines documentations mais malheureusement pour l’instant, ces machines n’ont pas encore de site dédié sur le web : kurzweil (K150, K250), kawai (K5, K5000)

    J’aime également ces synthétiseurs analogiques :

    …liste à venir

    Logiciels pour NeXT

    Je continue mes recherches sur le web pour mettre à neuf et compléter les softs de mon NeXT Computer…

    Musées de l’informatique…

    J’ai trouvé sur le Web quelques beaux musées virtuels de l’informatique.

  • Sûrement le plus complet, la référence (en anglais mais créé et géré par des Français):
    http://www.old-computers.com
  • Un autre très bon site (français) :
    http://www.silicium.org
  • Encore un bon site (français) :
    http://www.wda-fr.org
  • Beau site (suisse) :
    http://www.bolo.ch
  • Un excellent site (américain) :
    http://www.computerhistory.org
  • La référence pour toutes machines de Hewlett-Packard :
    http://www.hpmuseum.org
  • Et pour finir une exposition à la Défense à coté de Paris (qui porte a controverse):
    http://www.antememoire.org
  • La 4X de l’IRCAM

    Mise au point du système 4X (1981), dernier maillon de la série des processeurs de son numériques développées et réalisées à l’Ircam depuis 1976.

    Real Time Digital Signal Processor 4X

    L’unité de calcul.

    4X gras plan

    La salle « machines » où l’on trouve les calculateurs ici des digital PDP-10 (Programmed Data Processor model 10), VAX 11/750 et VAX 11/780 (Virtual Adress eXtension). Pourquoi ces machines ?

    Les 4X étaient capable de faire 200 million opérations par seconde, une 4X était composée de 8 cartes processeur, chacune d’entre elle, pouvait être programmée indépendamment des autres avec plusieurs type d’algorithme de traitement numérique. Par exemple avec la synthèse additive un son musical est constitué de la somme d’un grand nombre de signaux sinusoïdaux. Chaque carte électronique de la 4X était capable de générer 129 de ces formes d’ondes ! Chaque carte pouvait également appliquer 128 filtres différents, qui étaient applicables pour modifier le son en temps réel. Les cartes processeurs avaient leur propre mémoire pour stoker les forme d’ondes, avec une capacité représentant 4 secondes de sons.
    Mais les 4X sont ce qu’on appel des calculateurs, et uniquement… Ils n’ont pas d’unité de stockage disque ou bande, etc, c’est pour cela qu’il y avait des midi-ordinateurs plus conventionnel comme les pdp et vax.

    Par analogie on peut dire que par exemple dans la station musicale de l’IRCAM la 4X à été remplacée par une cartes ISPW, et que le pdp ou vax par la carte mere du NeXT Computer. Evidement les armoires de Disque dur, Bandes, etc… par l’équivalent de l’époque : Disque dur 5.25″, Magnéto-optique, et bande DAT (Digital Audio Tape).

    Vous remarquerez qu’il y a deux 4X !

    2 4X

    Salle machine

    Salle machine

    Pour les curieux d’histoire d’informatique…

    Le nouveau VAX de chez digital est le successeur de la lignée PDP-11 avec laquelle il assure une relative compatibilité matérielle et logicielle. L’acronyme VAX (Virtual Adress eXtension) désigne à la fois le processeur et l’architecture générale de la machine qui est une évolution de l’architecture PDP-11.

    Cette nouvelle gamme de machines 32 bits représente aussi un gros progrès au niveau de son excellent système d’exploitation, VMS, écrit par Dave Cuttler. Il s’agit d’un système multi-taches, multi-utilisateurs à mémoire virtuelle avec une très bonne gestion de la sécurité et de l’allocation des ressources disque, mémoire et processeur entre les utilisateurs. Son interface en ligne de commande, son aide en ligne et son langage de commande (DCL) très simples et conviviaux facilitent grandement l’utilisation de la machine. Le VAX 11/780 fut vendu jusqu’en 1988.

    Le digital PDP-10

    PDP 10

    Le digital VAX 11/750

    VAX 750

    Et le plus moderne le VAX 11/780

    VAX 780