Calculateur HP9825B(T)

Depuis cet été, en fait juste après le dé-confinement (j’aurais du le récupérer au début …), j’ai un calculateur HP9825B (il est étiqueté en « B » mais en fait est une version « T », j’expliquerais cela plus loin…), merci encore a mon amis François qui m’en a fait cadeau en même temps que d’autres merveilles antiques.

Cette machine est vraiment étonnante, je dirais même incroyable. La première chose a prendre en compte et qu’il ne faut pas oublier c’est que la conception de cette machine date du milieu des années 1970, le premier modèle de la série est sortie en 1976, et ce modèle vraisemblablement de 1982 !
Et en 1976 avoir un ordinateur aussi puissant transportable ça devait vraiment le summum.

Rapidement, j’ai diagnostiqué ce qui était hors service, et comme pour toutes les machines qui rentre dans ma collection, elle a eu droit a une révision / réparation totale et un nettoyage complet. Pour en savoir plus sur ces étapes voir la suite sur le forum Silicium.

Comme, je suis d’une nature relativement joueuse, je me suis pris au jeu et du coup j’ai adapté / porté quelques variantes de programmes et d’algorithmes de calcul des nombres premiers vers le HPL (« High Performance Language »), qui est le langage natif de cette machine.

En voici le résultat du fonctionnement a travers ces quelques vidéos :

Voici une compilation des liens les plus intéressants a propos de cette machine 😉

Comme avec la machine je n’ai eu qu’une bande, et aucune documentation, même le petit livret qui est normalement dans son support (dans le logement imprimante) est absent.

J’ai trouvé sur le net l’essentiel dans cette documentation, mais il a plusieurs volumes dédiés a cartouches et aux périphériques :
http://www.bitsavers.org/pdf/hp/98xx/09 … _nov80.pdf

Il y a les très bons sites suivants :

l’incontournable : http://www.hp9825.com/

des liens sur des réparations (en vidéo) : http://hpmuseum.net/display_item.php?hw=171

des tonnes de documents et vidéo chez Marc Verdiell : https://www.curiousmarc.com/computing/h … c-computer

comment ouvrir les cartouches : http://www.series80.org/HP9825/

pleins de documents et pas que pour les HP9825 :slime: : http://www.hpcc.org/cdroms/schematics5.0/index.html

 

 

La SIM de l’IRCAM un petit film…

Voici une petit film qui présente plusieurs SIM (Station d’Informatique Musicale). La bande son « brute » est totalement issue de cette station, il n’y a aucun traitement additionnel !

A propos du travail réalisé avec les SIM (Station d’Informatique Musciales) ou ISPW (Ircam Signal Processing Workstation) vous pouvez consulter mon blog, une rubrique lui est consacrée !

En simplifiant très rapidement on peut dire que la SIM est une version évoluée et intégrée des 4A, 4B, 4C et fameuses 4X développées et utilisées a l’IRCAM dans les années 70 a 90. La SIM a permis la démocratisation de la partie « DSP » (MSP) du logiciel Max !

Et au niveau volume physique et prix un cube NeXT avec 1, 2 ou 3 cartes M860 c’était beaucoup plus abordable (15K$) que l’achat d’une 4X (???$) et l’obligation impérative d’avoir une salle machine pour héberger la 4X plus le VAX nécessaire a son fonctionnement !

Lorsque l’on parle de cette carte dans la littérature technique c’est souvent sous l’un de ces acronymes : S.P.W. (Signal Processing Workstation), I.S.P.W. (IRCAM Signal Processing Workstation) et S.I.M. (Station d’Informatique Musicale) mais ceux-ci induisent en erreur. En effet le nom correct est plutôt certainement carte M860. Il faut comprendre que ces acronymes représentent en fait le nom de la solution complète; c’est-à-dire un NeXTComputer (cube) et une ou plusieurs (au maximum 3) cartes M860 ainsi que d’autres périphériques (interface MIDI, interface audio pour DSP, etc), ainsi que les logiciels (Max/FST, SpecDraw, Spat, Circle, Animal, etc… ) de l’IRCAM nécessaires au fonctionnement de l’ensemble !

Ces logiciels permettent de traiter dynamiquement tous événements MIDI et audio. De faire de la synthèse numérique (VST avant l’heure, granulaire, etc) de la spatialisation multi-canaux, etc…

Farinelli une voix de castrat à l’IRCAM

En continuant mes recherches sur les ISPW, j’ai fouillé dans les productions et collaborations de l’IRCAM, et j’ai ressorti un de mes DVD…

Il y a quelques années, grâce au visionnement du film Farinelli de Gérard Corbiau j’avais trouvé un excellent exemple d’utilisation de Max et d’autres outils de l’IRCAM dont le vocodeur de phase SVP sur des stations DEC et NeXT.

Farinelli le DVD
Je conseille ce film qui est plaisant pour ceux qui s’intéressent à la musique sous toutes ses formes !

Le film retrace la vie en partie romancée du castrat Farinelli. Mais, ce qui nous intéresse ici, enfin surtout moi, c’est le travail du département « Analyse et Synthèse de la Voix » de l’IRCAM qui, pour tenter de se rapprocher du mieux possible de la voix d’un castrat, a réalisé l’association de deux voix (une soprano et un contre-ténor) pour n’en faire qu’une à l’aide d’outils logiciels.

Ainsi, ils ont crée, à partir de ces deux voix, une voix artificielle, juvénile, puissante et agile. Ils ont fait cela à partir des enregistrements des deux chanteurs aux voix complémentaires : la Polonaise Ewa Godlewska (soprano colorature) et l’Américain Derek Lee Ragin (contralto) ont enregistré les mêmes airs, Ewa prenant le relais de Derek dans les aigus et inversement dans les graves. Grâce aux techniques de synthèse de l’Ircam, Philippe Depalle et Marc David-Calvet ont poli les différences de timbre pour fournir l’impression d’une voix unique.

Donc, dans ce film, il y a une utilisation massive du traitement et de synthèse de la voix, et cerise sur le gâteau dans les bonus, il y a un reportage sur la naissance de cette voix mixte (humaine et de synthèse). Voici un lien vers un extrait de ce reportage Nostalgie d’une voix perdue, making-of du film Farinelli, il castrato

Et visiblement, l’ensemble du document est disponible « illégalement ? » sur youtube :


Part 1/3


Part 2/3 (IRCAM a partir de 4’58 ».)


Part 3/3

Quelques images extraites du reportage :

Studio IRCAM
Un des studios d’étude de l’IRCAM, les claviers sont des Yamaha DX7.

IRCAM at works
Les protagonistes du traitement audio du film au travail, à gauche devant Philippe Depalle une des ISPW (NeXT).

IRCAM
Philippe Depalle expliquant le traitement.

IRCAM
L’équipe au travail, au fond un empilement d’échantillonneurs Akai S1000 et S1000PB.

Quelques lectures :

Spatialisation du son

Une des applications les plus intéressantes que j’ai découverte avec la mise en œuvre de la S.I.M. de l’IRCAM est l’utilisation de plusieurs logiciels associés en interaction à l’usage de Max/FTS pour générer une spatialisation paramétrable et dynamique du son.

Dans cet article, je vais lister les quelques outils de spatialisation dont j’ai pu trouver des traces (articles, programme) sur le W.E.B. ou dans les publications. J’avoue qu’un fois de plus j’ai orienté ma recherche vers ce qui concerne l’IRCAM et sa S.I.M. même si au final, il y a une dérive de part ma curiosité et mon butinage sur le W.E.B.; j’ai ainsi étudié et noté ce qui se faisait ailleurs.

Court rappel sur la spatialisation du son

Plutôt que de réinventer la roue, je vous propose de lire un article intéressant d’Ariane Dutto sur l’histoire de « La mise en espace de la musique » et plus particulièrement le paragraphe « Une technologie au service de la spatialisation », il y a même des exemples sonores du travail de Pierre Boulez sur « Répons » (1984) et de Xu Yi sur « Le plein du vide » (1997).

Mais qu’est-ce que la spatialisation ?

Il existe plusieurs définitions de la spatialisation… Ici je ne m’intéresserai qu’à une seule de ces définition, à savoir : La spatialisation du son dans l’espace, via l’utilisation d’un modèle virtuel d’analyse et de la positionnement des sources de restitution dans l’espace sonore. Sachant qu’avec cette technique le positionnement peut être en 3D, c’est-à-dire définit dans l’espace virtuel d’un volume, et, définir des sources de restitution allant de deux jusqu’à huit voir plus par multiplication des systèmes !

Pour spatialiser un son, il faut deux dispositifs (logiciel ou/et matériel). Un permettant le calcul en temps réel des effets au quel sera soumis le son a traiter, c’est ce que je nome le spatialisateur et un autre pour gérer dynamiquement ou statiquement la positon des sources et de l’écoutant, ce dernier je l’appel contrôleur.

Le spatialisateur

Le spatialisateur est la partie calcul de l’application, c’est lui qui permet la virtualisation du ou des canaux audio d’origine vers les « n » sources de restitutions ! A l’IRCAM le projet qui permet cela, a eu comme nom en fonction du temps et de son évolution / conception : Spat~, spatialisateur~ et maintenant spatialisateur. Mais en fait c’est le même moteur logiciel qui se cache derrière cette suite de programmes et de librairies pour Max/FTS et Max/MSP !

Ce logiciel est issu d’une collaboration entre l’IRCAM et France Télécom R&D, a pour objet la conception de modèles et de programmes de traitement du signal dédiés à la spatialisation sonore.

Voici une description succincte du Spatialisateur, il se compose d’un ensemble de modules logiciels de traitement du signal en temps réel. Il intègre, dans un même environnement, la synthèse de la localisation des sources sonores et celle de l’effet de salle (réverbération artificielle). L’architecture modulaire du Spatialisateur permet de s’adapter à la puissance de calcul disponible sur l’ordinateur hôte et de couvrir les différents formats de restitution classiques ou récents (stéréo, panoramiques d’intensité 2D ou 3D, binaural, transaural, ambisonic, wave field synthesis). Cette librairie existe, d’une part, sous la forme d’objets compatibles avec les environnements temps réel Max (FTS / MSP) et jMax sous les systemes d’exploitations MacOs (9 et X), Windows (Px, XP et Vista), Irix et Linux, et d’autre part, sous la forme d’une librairie de fonctions écrites en C/C++ utilisable avec d’autre logiciels.

La spatialisation du son est un domaine qui a fait l’objet de recherches intensives en informatique musicale. La plupart de ces études ont abouti à des systèmes qui permettent de simuler des espaces acoustiques en filtrant des signaux sonores. Ces travaux sont fondés sur des études psychoacoustiques qui permettent de modéliser la perception auditive de l’espace par un nombre limité de paramètres perceptifs. Ces modèles perceptifs ont abouti à un ensemble de techniques permettant de recréer la sensation de localisation sonore tridimensionnelle en utilisant un nombre limité de haut-parleurs par exemple. Ces techniques exploitent typiquement trois paramètres: la différence d’amplitude entre les canaux, les délais entre les canaux, et le contenu spectral des signaux de chaque canal. Combinés ensembles, ces trois paramètres permettent d’obtenir des impressions de direction et de distance tout à fait réalistes.

Par exemple, le Spatialisateur Ircam (Jot & Warusfel, 1995) est un processeur d’acoustique virtuelle qui réalise la synthèse de la localisation des sources sonores et de l’effet de salle (réverbération artificielle). L’une des originalités de ce processeur est d’offrir un paramétrage de la scène sonore synthétisée sous la forme d’un jeu de facteurs perceptifs qui comprennent les angles d’azimut et d’élévation et d’orientation des sources sonores par rapport à l’auditeur et des descripteurs de la qualité acoustique (effet de salle) associée à chaque source. Le Spatialisateur s’adapte automatiquement au mode de reproduction et à la configuration du système électroacoustique : reproduction tridimensionnelle sur casque ou couple de hautparleurs, systèmes multi-canaux incluant les configurations stéréo-3/2 et mode de reproduction Ambisonics.

La technologie du Spatialisateur (de l’IRCAM / France Télécom R&D ) a fait l’objet de plusieurs brevets et est utilisée dans de nombreuses productions musicales en concert, dans des installations artistiques ou dans la post-production discographique.

Le contrôleur

Je n’ai trouvé trace pour Max/FTS que deux famille de contrôleurs : en 2D et en 3D !

Circ qui a été développé par Gerhard Eckel à l’IRCAM dans les années 1992-1993, est un contrôleurs qui ne travail qu’en 2D c’est à dire dans un plan ! Il est assez simple, il n’y aucune fonction de mémorisation ou d’enregistrement d’un parcours… Il est fait pour le directe ! Il ne fonctionne qu’avec Max/FTS et les librairies Spat~.


About Circ… (March 1995)

Circ is a two-dimensional controller implemented as a Max/FTS client by Gerhard Eckel in August 1993. To use Circ with Max, you have to start it when Max is already running. If you quit Circ while Max is running you have to close down Max before you may restart Circ. Whenever you move the free point Circ will send a list of values to Max which can be received with a receive box. The symbol for the receive box is the name of the Circ document (without extension, if there is one: e.g. test.circ sends to test, Untitled sends to Untitled).

Circ was extended in March 1995 for applications to spatial sound processing, maintaining compatibility with the original implementation: if the Circ document does not have parameter points (black dots) on the circle, Circ sends a list of 4 values representing the coordinates of the free point [ x y distance angle ]. The free point is allowed to move out of the circle and the distance is 1 when the free point is on the circle. You can zoom in or out by control-clicking inside or outside the circle.


Voici une copie d’écran de l’application Circ en action :

Circ version trois sources :

Un exemple de patch Max/FTS nécessaire au traitement de Circ :

Circ est un logiciel développé par Gerhard Eckel à l’IRCAM en 1993 :

Circl

MoveInSpace lui a été développé par Todor Todoroff, Caroline Traube et Jean-Marc Ledent à la Faculté Polytechnique de Mons dans les années 1995-1998, est un contrôleurs qui travail en 3D c’est à dire dans le volume ! Il est complet, presque tous les paramètres sont modifiables. Il est possible de définir le nombre de sources et d’enregistrer un parcours. C’est la version la plus abouti des outils (sous NeXTStep) de génération de trajectoire sonore ! Il est interfaçable avec Max / FTS / Spat~ mais aussi directement avec des modules MIDI.

L’écran complet du logiciel MoveInSpace au travail, ici dans une configuration a deux HP, on remarque la fenetre de trajectoire dans le plan (a gauche) et celle en hauteur (en haut) :

Ici j’utilise Max/FTS :

MoveInSpace

MoveInSpace est un logiciel développé par Todor Todoroff, Caroline Traube et Jean-Marc Ledent à la Faculté Polytechnique de Mons dans les années 1995-1998 :

MoveInSpace

Le spatialisateur pour quoi faire ?

Le domaine d’applications du spatialisateur couvre la création musicale, les productions audio-visuelle, la réalité virtuelle et les télécommunications.

Quelques exemples sonores (échantillons bientôt en ligne…)

Un son seul sur une voix en mono :
Le son localisé a gauche en 2D (pas d’effet verticaux) :
Le son localisé a droite en 2D :
Le son en mouvement de gauche a droite en 2D :
Le son en mouvement de gauche a droite et de haut en bas en 3D :

Quelques références

J’ai noté la plupart des références, intéressantes de mon point de vu, c’est-à-dire là aussi orientées par ma recherche a la sauce IRCAM… Et avec un positionnement temporel assez ancien, disons des années ISPW (1992 à 1997). Heureusement, la aussi, j’ai gardé mon esprit curieux et donc noté quelques outils modernes ! Il faut que je modère mon coté archéo-musical !

Site traitant de la spatialisation

Multiphonie Vous trouverez beaucoup de liens vers des programmes et autres VST modernes pour la spatialisation sur ce site ! A fouiller impérativement !

Télécharger et acheter les logiciels

Le Spatialisateur Spat~ sur le forum IRCAM (prix en ligne)

Dégration des vieux équipements… Quelles solutions ?

Hier à l’occasion d’un ré-aménagement de ma « réserve-débarras », j’ai eu la mauvaise surprise de découvrir que certains de mes vieux équipements s’étaient dégradés. En effet, les anciens moniteurs qui avaient été stockés dans ma réserve pendant plusieurs années avaient un genre de bulles dans la partie visualisation des moniteurs.

Pourtant ces terminaux avaient été préalablement nettoyés avant leur stockage.

Vieux terminaux
Cela concerne en particulier un digital VT100 et un Lear Siegler INC ADM-3A.

Ils étaient à l’abri de la lumière et protégés contre l’humidité et la poussière. Mais ça n’a rien changé !

Le terminal « Lear Siegler INC » modèle ADM-3A fabriqué en 1977.
Lear Siegler INC ADM-3A

Le terminal « digital » modèle VT100 – VT640 de 1978 avec l’extension graphique « Retro-Graphics » Terminal Enhancement capable de traiter les primitives graphiques.
digital VT100

Maintenant, il y a semble-t-il des champignons qui se sont développés entre le tube du moniteur et la couche de protection renforcée (en résine ?). Ces champignons se développent dans des petites bulles coincées entre le tube et la couche de protection. Encore que… En regardant plus consciencieusement, j’ai l’impression que les bulles sont disposées sur plusieurs niveaux dans la couche de protection du tube. Je ne sais pas en quelle matière est composé cette protection (on dirait de la résine).

Une autre hypothèse plus logique serait liée à la dégradation naturelle des polymères composant cette résine de protection.

Voici ce que cela donne :

LSI ADM-3A

digital VT100

Que faire ?
LSI ADM-3A

Quelle sont les solutions pour stopper voire éliminer ces parasites ?

J’ai trouvé des informations dans l’article « Point de vue sur la conservation-restauration des matières plastiques » de Sylvie Ramel.

Conservation :

– La lumière est le premier risque majeur de dégradation chimique menant à la modification visuelle et à terme, une perte quasi totale de la matière. Les matières plastiques sont toutes susceptibles de posséder des défauts chromophores prêts à réagir avec une énergie lumineuse. Selon la nature des rayonnements, leur interaction avec la matière est plus ou moins importante. Les ultraviolets sont les plus redoutés car leur énergie est suffisante pour entraîner la scission de la chaîne macromoléculaire. Les infrarouges élèvent la température et peuvent catalyser les dégradations chimiques en cours. La première mesure de prévention consiste donc à contrôler la nature des rayonnements en éliminant a maxima les ultraviolets et en réduisant la quantité d’infrarouges.
– La limitation de l’humidité relative permet de réduire les risques de dégradation chimique par hydrolyse et la formation d’acides à la surface des objets.
– La température influe quant à elle sur la cinétique de dégradation chimique des plastiques et l’exsudation ou la sublimation des additifs tels que les plastifiants. Mais les matières plastiques moulées sont susceptibles de se déformer lors d’une exposition à une température trop basse.

= Les taux à respecter ne sont, pour l’instant, définis par aucune étude mais issus de l’observation et de la prise en compte de l’aspect composite des objets contenant des plastiques. Ils oscillent suivant la littérature entre 40 % et 55 % pour l’humidité relative et 15°C à 20°C pour la température. Parallèlement à la gestion des conditions environnementales, le suivi et le contrôle des facteurs aggravants telles que le confinement ou la mise en contact avec des matériaux inadéquats réduit les vitesses de dégradation.

Je vous conseil de lire ce document également : Etude de dégradations particulières sur deuxécrans cathodiques, un digital VT220 et digital VR201 conservés au Musée Bolo, EPFL

Du son sur les NeXT

Depuis toujours j’ai un intérêt prononcé pour le son et les dispositifs qui permettent d’en générer.

J’ai découvert les NeXT dans la revue Science et Vie Micro (SVM) dans le numéro double 63 de juillet-août 1989 1.

Mais la première fois que j’ai vu et touché des NeXTcomputers et NeXTstations, il me semble que c’était chez « Imago » (je ne suis plus sûr du nom) boulevard Saint-Germain dans le 6ème arrondissement de Paris (et ou au salon SICOB de 1990). Cette boutique était à l’époque l’un des rares points de vente voir peut-être le seul sur Paris qui commercialisait exclusivement le matériel NeXT. Ces machines furent un choc !

Elles étaient belles, avec un design élégant et cette couleur noire qui se démarquait des standards de l’époque, dominés par des nuances de beige et de gris. Et surtout, elles étaient performantes, alliant la robustesse et la puissance d’Unix à une superbe interface graphique rapide. Sans oublier l’intérêt novateur de leurs outils de développement et l’approche orientée objet du système.

Un de mes NeXT Cubes

Mes envies ont été stoppées net… À l’époque, je n’avais absolument pas le budget pour m’équiper à ces tarifs2. Par exemple, pour les deux modèles de base, cela donnait :

  • NeXTcube (68030 à 25MHz et rapidement 68040 à 25MHz) avec 8 Mo de RAM, un disque 105 Mo, écran MegaPixel, kit Starting Point (clavier, souris…), magnéto optique 256 Mo et NeXTSTEP 2 : 50 845 francs HT.
  • NeXTstation avec 8 Mo de RAM, un disque 105 Mo, écran MegaPixel, kit Starting Point (clavier, souris…), lecteur de disquettes 2,88 Mo et NeXTSTEP 2 : 31 765 francs HT.

De plus, si vous aviez besoin de développer, il ne fallait pas négliger (dans une moindre mesure) le prix des outils de développement et de la documentation. Il fallait également prévoir plus de mémoire, avec le changement de disque dur et de RAM, respectivement limités à 2 Go par partition et 64 Mo de RAM (avant l’arrivée des versions Turbo).

Le fait que ces machines aient des interfaces réseau n’était pas important pour moi… Avoir un réseau à la maison en 1990 était impensable. Déjà, avoir un accès Internet RTC était un luxe !

Les derniers modèles étaient beaucoup plus performants.

  • NeXTcube (68040 à 33MHz) avec 128 Mo de RAM, un disque 2 Go, écran MegaPixel, kit Starting Point (clavier, souris…), lecteur de disquettes 2,88 Mo et OpenStep (NeXTStep 4).
  • NeXTstation Turbo Color (68040 à 33MHz) avec 128 Mo de RAM, un disque 2 Go, écran MegaPixel, kit Starting Point (clavier, souris…), lecteur de disquettes 2,88 Mo et OpenStep.

Donc raisonnablement, j’ai attendu… bien longtemps avant d’en acquérir un (merci encore au don de mon ancien collègue et ami Thierry Besançon) ! La suite, c’est une cascade d’événements chanceux, et, entre autre la récupération (par échange de matériels) de deux NeXT stations N/B, deux NeXTcomputer (cube), et une multitude de périphériques, aussi variés les uns que les autres ! Mais très clairement mes machines viennent du monde de la recherche et académique musique / mathématique / médecine.

Ainsi, depuis que j’ai récupéré ces NeXT computer, et, plus particulièrement les NeXTcube (plus couramment appelé Cube), je m’intéresse d’une manière quasiment archéologique à tout ce qui permet de faire du traitement du son via ces machines… Et aux outils de recherche associés… Et oui, vous l’avez sans doute remarqué on glisse doucement vers l’IRCAM.

Quelques cubes a la maison

Mais avant je propose un petit retour en arrière. Je vais faire un saut dans le temps… Et ça ne sera pas autour du son., en effet tout a commencé à la fin de la première période « Apple Computer » de Steve Jobs… En 1985, Steve Jobs est limogé d’Apple.

En 1986 Steve Jobs rachète The Graphic Group à Georges Lucas pour 10 millions de dollars… et le renomme Pixar.

Steve jobs aime les Cubes ?

Pixar, à ses débuts, se consacrait à la vente de machines très puissantes (200 fois plus rapide qu’un ordinateur DEC VAX-11/780) pour l’époque, spécialisées dans la création et la visualisation graphique de données. Ces machines, connues sous le nom de Pixar Image Computers (PIC), étaient destinées à diverses entreprises et laboratoires ayant des besoins graphiques avancés. Parmi les clients potentiels figuraient les hôpitaux (pour la visualisation en trois dimensions des radiographies), l’industrie aéronautique, et même Disney, qui utilisait ces ordinateurs pour automatiser la colorisation de ses dessins animés.

Cependant, les deux versions du Pixar Image Computers étaient coûteuses (135 000 $) et peinaient à trouver preneurs. Pour démontrer les capacités exceptionnelles de leurs machines, Pixar décide de produire de petites animations de démonstration. Parmi ces créations se trouve Luxo Jr, un court métrage réalisé par John Lasseter. Ce film de promotion met en scène une petite lampe de bureau, devenue depuis l’emblème de Pixar. Luxo Jr a non seulement réussi à attirer l’attention sur les capacités technologiques de Pixar, mais il a également remporté un Oscar, renforçant ainsi la réputation de l’entreprise dans le domaine de l’animation.

Malgré un Oscar, le succès de la critique et la reconnaissance technique, les ventes des machines de Pixar ne décollent pas, elles restent décevantes. En réponse, Pixar se réinvente et se lance dans la réalisation de nombreuses publicités, utilisant leur expertise en animation pour créer des campagnes mémorables.

Pixar Image Computer I
Pixar Image Computer II
Pixar Image Computer II

Je vous conseil de visiter ce site car ils y expliquent beaucoup de chose à propos de cette machine mystérieuse. Il existe aussi une version PDF de la brochure du Pixar Image Computer3.

Pixar a vendu 300 ordinateurs PIC de 1986 jusqu’à la fermeture de son activité de matériel informatique en 1990. La division dédiée à la conception et à la fabrication de machines a été abandonnée et vendue à Vicom Systems, marquant un tournant pour l’entreprise.

Beaucoup de ces ordinateurs ont été vendus avec des logiciels personnalisés, permettant par exemple le traitement d’images provenant de scanners dans les hôpitaux ou le système d’encre et de peinture numérique de Disney Animation. Certains d’entre eux ont été utilisés par les clients jusqu’à la fin des années 1990.

Paul G. Allen le cofondateur de Microsoft a mis aux enchères chez Christie’s sa très vaste collection, qui est en quelque sorte un tour du monde des ordinateurs, allant du petit CPU, en passant par les mainframes, jusqu’aux superordinateurs. Et il vend, entre autres, un P.I.C.

NeXT

En parallèle de sont activité chez Pixar, et sans doute pour faire de l’ombre a Apple, Steve Jobs se lance dans la création d’une nouvelle société : NeXT.

Le but de cette société est de concevoir un nouveau type d’ordinateur qui empiéterait sur le segment des stations de travail et des ordinateurs personnels haut de gamme ! Jobs veut la puissance d’Unix, et une interface graphique ergonomique et conviviale.

En effet NeXTstep4 5, le système d’exploitation des NeXT est du type WYSIWYG (What You See Is What You Get) signifiant littéralement en français « ce que vous voyez est ce que vous obtenez » ou de façon plus concise « tel affichage, tel résultat » !

Comme Steve Jobs est perfectionniste, il lui fallait un ordinateur offrant des capacités haut de gamme et un design révolutionnaire ! Les NeXT sont nés !

Steve Jobs et un NeXTComputer
Steve Jobs le bouillonnant fondateur de NeXT et sa première création

Chez NeXT, il n’y a que deux types de machines : les cubes (NeXTcube6) et les stations (NeXTstations7, NeXTstations Color et NeXTstations Turbo Color8). Évidement, il y a des nuances entre ces différents modèles…

On parle souvent des Cubes, mais en réalité, on devrait se concentrer sur les cartes CPU des Cubes, car il y a eu plusieurs versions. Initialement, ces machines étaient équipées de processeurs Motorola 68030 tournant à 25 MHz. Plus tard, des mises à jour ont été proposées pour améliorer les performances, avec des processeurs Motorola 68040 à 25 MHz, puis à 33 MHz, et enfin une mise à jour à 50 MHz. Ces améliorations s’accompagnaient également d’un changement de carte mère pour augmenter la capacité de RAM, qui passait de 64 Mo maximum au début à 128 Mo à la fin. Et il y a eu aussi des variantes au niveau du PCB de fond de BUS / Alimentation.

Pour approfondir vos connaissances historiques et avoir une description plus sérieuse de ces machines, voir l’excellent site d’Éric Lévénez qui est sans aucun doute le meilleur site Français (voire, soyons modeste, du web) sur les NeXT et en français ! Et aussi l’incontournable site / forum https://www.nextcomputers.org/

Un NeXTcomputer devenu avec le temps NeXTcube (dit le « cube »)
NeXTstation
Une NeXTstation noir et blanc (dite « slabs »)
NeXTstation
Ma principale NeXTstation noir et blanc (dite « slabs »)
NeXTstationcolor
Une NeXTstation couleur (dite « slabs »)

Il faut savoir que les ordinateurs produits par NeXT (que l’on nomme maintenant « black hardware ») possèdent d’origine ce que l’on trouvait en option très onéreuse chez les constructeurs concurrents de l’époque. Il y a ainsi par exemple d’office sur toutes les cartes mère des ordinateurs NeXT un Digital Signal Processor (DSP) Motorola 56001. Ce processeur spécialisé dans le traitement numérique du signal est parfaitement adapté au traitement du son.

dsp-56001

Un processeurs de traitement du signal numérique (couramment appelé DSP) Motorola XSP56001 à 20MHz


Les capacités sonores internes des ordinateurs NeXT

Comme vous l’avez lu dans le paragraphe précédent, les NeXT ont de base un DSP fonctionnant à 25MHz et avec une mémoire de 24Ko extensible à 96Ko (on ne plaisante pas !). Ce processeur additionnel était la cerise sur le gâteau… Ces machines avaient des caractéristiques impressionnantes pour 1991 !

En plus de ces capacité audios stéréo, les NeXT embarquaient deux ports série RS423, qui les rendaient compatibles avec les interfaces MIDI standard apple. Au niveau de l’audio elles avaient un système d’acquisition et de restitution sonore mono ou stéréo en 16 bits ayant une fréquence maximale de 44100 kHz, ces machines étaient en avance ! Il y avait également, parmi les outils de développement, les « Music Kit™ » et « Sound Kit™ », des bibliothèques spécialisées pour gérer l’audio, le DSP et les événements MIDI. Il faut savoir que le DSP dispose d’un port d’entrées/sorties au format DB15 sur la carte mère, permettant ainsi l’adjonction des modules d’acquisition et de restitution externes.

La structure fonctionnelle des bibliothèques logicielles MusicKit et SndKit de NeXT

Les caractéristiques de ces machines (surtout les cubes) les destinaient naturellement à être employées dans un environnement musical. Malheureusement, en raison de leur prix prohibitif et de la non-vulgarisation latente de la M.A.O. à l’époque, ces merveilleuses machines ne furent exploitées qu’au sein de centres de recherche, notamment les deux plus grands : l’IRCAM à Paris, en France, et le CCRMA de Stanford, aux U.S.A. Elles étaient aussi utilisées dans d’autres centres de recherche en Hollande, en Allemagne, en Belgique, en Corée du Sud, au Japon, etc.

Les NeXT on un port DB19 qui est la sortie vidéo noir et blanc. Et comme vous pourrez le lire quelques paragraphes plus loin a propos des Sound Box c’est aussi le port de connexion des ces boites. Il faut juste comprendre que c’est par ce port que transitent les signaux des claviers / souris et audio et aussi vidéo noir et blanc.

Outre l’équipement audio natif via le port DB19 et les ports série et DSP, il existe trois possibilités pour étendre les capacités des NeXT : en interne, par l’adjonction d’une carte au format NeXTbus, ou en externe, via les connecteurs DB15 des DSP, mais aussi très curieusement via le port SCSI.

Nativement, les cubes et stations NeXT sont capables de gérer le son au niveau du logiciel système ; les différentes versions de claviers sont d’ailleurs équipées de touches spécifiques (augmenter, diminuer, sourdine).

Première version de clavier non ADB (le sigle rond barré de la touche Power est différent de la 2éme version). Les touches dédiées au son (haut-parleur avec des ondes) permettent de contrôler le volume. Vous pouvez également deviner la sérigraphie verte « Mute », activable en maintenant la touche [command] appuyée.

Seconde version de clavier non ADB (le sigle rond barré de la touche Power est différent de la 2éme version).

L’unique version de clavier ADB, avec des boutons ronds qui remplacent les touches et celui d’Alim vert.

Du son sur les moniteurs ?

Les moniteurs noir et blanc MegaPixel Display N4000, N4000A et N4000B, en plus de leurs fonctions d’affichage et de saisie (clavier et souris), sont équipés d’un haut-parleur et d’un micro. À l’arrière du moniteur, il y a des connecteurs RCA pour la sortie audio stéréo, ainsi que deux prises jack 3,5 mm : une pour un casque audio et l’autre pour brancher un micro externe. Cependant, en raison de contraintes d’espace à l’intérieur des moniteurs et pour éviter les perturbations de l’affichage, les moniteurs couleur qui en plus ne sont pas spécifiques aux machines NeXT ne sont pas équipés de haut-parleur et de micro intégrés.

Connecteurs d’un moniteur N4000
Connecteurs d'un moniteur N4000A
Connecteurs d’un moniteur N4000A
Connecteurs d’un moniteur N4000B (ADB)

Sound Box

Pour ajouter du son aux machines NeXT (Cube avec un unique moniteur couleur branché a une NeXT Dimension, NeXT Station Color et Turbo Color) qui ont des moniteurs couleurs, il faut utiliser la Sound Box adaptée. Il y a deux versions, la N4004 pour les premiers NeXT équipés de claviers et souris non ADB, et la N4004A pour les machines Turbo équipées en ADB. La boite est connectée sur le NeXT par le port DB19. C’est par ce port que transitent les signaux des claviers / souris et audio et aussi vidéo noir et blanc.

Sound box non ADB

Sound Box N4004
Sound Box N4004A (ADB)

NeXT-External CD-ROM Drive

C’est le lecteur de CD-ROM proposé par NeXT. Comme vous pouvez le constater, c’est un lecteur de CD SCSI assez classique pour l’époque, il est à cartouche (caddy). Vous pouvez brancher un casque audio dans la prise jack 3.5mm en façade, il est également possible de régler le volume grâce au potentiomètre qui est disposé juste à côté. Pour écouter sur des haut-parleurs il y a deux prises RCA (rouge et blanc) disposées à l’arrière du boitier. D’ailleurs de l’extérieur le NeXT-External CD-ROM Drive9 ressemble beaucoup (la différence c’est la couleur et le logo) au AppleCD 150 commercialisé par Apple à la même période, et qui intégrait un lecteur SONY CDU-514-25 en mode CD Caddy.

Lecteur de CD

Périphérique audio externes

Ces périphériques externes sont l’une des seules évolutions possibles et sont très utiles en particulier pour les NeXT station qui de part leur format physique ne sont pas extensibles (car n’ont pas de NeXTbus). Ils se branchent directement sur le port DSP des NeXT.

Ariel – DM-N Digital Microphone (595$)


Ariel – ProPort Model 656 (1295$)

Ce boitier externe est équipé de deux entrées et de deux sorties analogiques, il possède également des pré amplificateurs ainsi que deux entrées avec alimentation phantom. La fréquence d’échantillonnage est réglable de 8 KHz jusqu’à 96 KHz en 16 bits.


The Singular Solutions – A/D64x Audio Interface (1295$)

Le système Singular Solutions A/D64x comprend le matériel et le logiciel nécessaires à l’enregistrement professionnel direct sur disque et à la capture de données sur les ordinateurs NeXT. Le système comporte deux canaux de conversion analogique-numérique delta-sigma (ultralinéaire) de 16 bits avec un suréchantillonnage de 64 fois et un filtre numérique anti-alias à phase linéaire à trois étages. Il est équipé d’entrées symétriques et asymétriques et d’un préampli micro intégré à faible bruit avec une alimentation fantôme de 48 volts. Il offre également une entrée et une sortie audio numérique (AES/EBU et S/PDIF).

L’A/D64x prend en charge l’échantillonnage à 16KHz 22,05KHz 32KHz 44,1KHz et 48 KHz (plus externe). Il peut également fonctionner en mode autonome (entrée analogique vers sortie numérique). La synchronisation Multi-A/D64x est disponible ainsi que des équerres pour un montage en rack. Un logiciel est inclus pour l’enregistrement direct sur disque et l’édition audio non destructive.


Ariel – DatPort AES/EBU CP340 Digital Audio < -> DSP Port Interface (??? $)

Il s’agit d’une interface audio numérique IN / OUT, XLR, RCA, Optique qui fonctionne en mono ou en stéréo à des fréquences de 32, 44,1 et 48 kHz. Communique avec NeXT via le port DSP.


Ariel DAT-Link+ Townshend Computer Tools, Inc

Il s’agit d’une interface audio uniquement numérique IN / OUT en AES/EBU, SPDIF RCA, Optique et fonctionnant en mono ou stéréo à des fréquences de 32, 44.1, et 48 KHz. C’est vraiment étonnant, puisque la communication avec l’ordinateur se fait via le port SCSI pour les stations de travail de l’époque (sun, sgi, dec, pc), mais aussi sur NeXT.


MetaResearch – Digital Ears (595$)

MetaResearch – Digital Ears
MetaResearch – Digital Ears

Les Digital Ears prennent les signaux audio de niveau ligne (connecteurs rca) et les convertissent en informations numériques en 8 ou 16 bits, 5.512KHz, 11.025KHz, 22.05, 44.1 kHz en stéréo ou 88.2KHz en mono. Il transmet ensuite ces informations au processeur de signal numérique (DSP) de l’ordinateur NeXT.

Carte de calcul interne

Je précise immédiatement qu’ici je parle de « carte de calcul ». En effet ces cartes ne permettent pas dans leur version de base ou en l’absence de convertisseurs (analogique vers numérique et numérique vers analogique) de produire du son directement !

A ma connaissance, il n’existe que deux modèles de cartes, à savoir les cartes M860 de l’IRCAM et les Quint Processor du CCRMA construites toutes les deux en coopération avec la société Ariel.

Ariel / IRCAM – M860 (15000$)

m860a
IRCAM / Ariel – Une M860 toutes options
M860
IRCAM / Ariel – Une M860 sans les options
IRCAM / Ariel – Carte M860 sans dissipateur thermique, RAM et piggyboard
Zoom sur IRCAM / Ariel – Carte M860 sans RAM et piggyboard
A gauche a la verticale la « Piggy board » qui donne a la M860 8 entrées/sorties numériques, et 4 entrées analogiques ainsi que 4 sorties analogiques, a droite l’arrière coté connecteurs d’une M860 sans les ouvertures pour une Piggy board.
La carte d’extension « Piggy » qui de la gauche vers la droite et de bas vers le haut, ajoute 8 entrées/sorties numériques (connecteur D-Sub Micro-D) et 4 sorties analogiques (numérotées de droite a gauche de 1 a 4) ainsi que 4 sorties analogiques (connecteurs ronds)

La différence entre ces deux photos c’est les mêmes types de M860 avec les 64Mo de RAM (carte du milieu) et la carte d’entrées / sorties audio analogique (4in/4out) et numérique (8) aussi appelée « Pigggy Board » (carte du bas).

Lorsque l’on parle de cette carte dans la littérature technique c’est souvent sous l’un de ces acronymes : S.P.W. (Signal Processing Workstation), I.S.P.W. (IRCAM Signal Processing Workstation) et S.I.M. (Station d’Informatique Musicale) mais ceux-ci induisent en erreur. En effet le nom correct est plutôt certainement carte M860. Il faut comprendre que ces acronymes représentent en fait le nom de la solution complète; c’est-à-dire un NeXTComputer (cube) et une ou plusieurs (au maximum 3) cartes M860 ainsi que d’autres périphériques (interface MIDI, interface audio pour DSP, etc), ainsi que les logiciels (Max/FST, SpecDraw, Spat, Circle, Animal, etc… ) de l’IRCAM nécessaires au fonctionnement de l’ensemble !

Station de traitement du signal de l’IRCAM, sont connecter les ports E/S audio, alimentation, moniteur n&b, réseau RJ45 et SCSI.
8 versions de la carte M860, 2 cartes NeXT Cube CPU 68040, 4 cartes Piggy
Copie d’écran d’une SIM, ou Max/FTS est lancé, sur la droite il y a les icônes d’applications de plusieurs versions de Max/FTS, Animal, Signal Editor, Circle.

Pendant des années, jusqu’à la fermeture de l’IMEB 10 à Bourges, Mon épouse Myriam et moi avons présenté des compositions au festival international « Synthèse ». Ci-dessous, voici le patch d’une des compositions de ma femme, et juste après le lien vers le lecteur pour l’écouter.

Le patch Max/FTS du morceau Vagues à l’âme

Philippe Manoury – En écho

En fouillant dans les machines que j’ai récupérées et qui venaient de l’IRCAM, j’ai retrouvé des répertoires d’utilisateurs célèbres, notamment celui de Philippe Manoury.

Voici deux exemples de patchs Max/FTS (en fait, ils sont complexes et il y a plusieurs niveaux de patch) et les vidéos qui donnent une idée de ce à quoi ils aboutissent.

Pluton

En écho


IRCAM Signal Processing Workstation
Deux de mes S.I.M. en plein travail, remarquez l’utilisation des des ports de la Piggy Board, ProPort 656 et du RS423-MIDI.

Chaque carte est équipée de deux processeurs Intel i860 à 40 MHz, de 64Mo de RAM, et d’un DSP Motorola 56001 à 27 MHz.

Pour en savoir plus sur la carte M860, lire cet article.

Intel i860 CPU
Intel i860 CPU

Ariel – Quint Processor (7000$)

Ariel / CCRMA Quint-DSP
Ariel / CCRMA Quint-DSP


La QuintProcessor, est équipé de cinq DSP motorola 56001 à 27 MHz et avec un maximum de 16 Mo, chaque DSP a un port de communication externe. Il y aussi une interface SCSI intégrée à la carte et utilisable par les DSP.

Cette carte est concurrent de celle de l’IRCAM. La Quint Processor a été développée à la demande du CCRMA de l’Université de Stanford aux USA.

Pour en savoir plus : Real Time Sound Processing & Synthesis on Multiple DSPs Using the Music Kit and the Ariel QuintProcessor

The Ariel QuintProcessor [Ariel, 1990] is a board for the NeXT cube that contains five 27 MHz DSP56001 signal processing chips, each with its own bank of static RAM and pair of serial ports. The DSPs are arranged in a star configuration, with one “hub” and four “satellites.” The 56001 is well-known as a low-cost and powerful signal processor that is well-suited to musical uses. The QuintProcessor (“QP”) augments the power of the 56001 by providing the following additional capabilities:

  • 0 wait-state static RAM (32K words for each of the satellite DSPs and 8K words for the hub DSP).
  • 256K, 1M or 4M words of dynamic RAM for the hub DSP. Automatic refresh hardware for the DRAM.
  • Interprocessor communication hardware.
  • Two NeXT-compatible DSP ports and a larger connector that brings out six more serial ports.
  • SCSI controller and real-time clock for hub DSP.
  • Rapid NeXTbus access to the host interfaces of the DSPs and to the other QP hardware.

Interface MIDI

Sur les NeXT, il est possible de gérer les évènements MIDI. En effet sur la carte mère des NeXTcube et NeXTstation, il existe deux ports séries RS423 (avec des connecteurs au format mini din 8 pins). Ces ports séries sont directement interfaçables avec les périphériques séries MIDI conçus pour les anciens Apple Macintosh (ceux possédant un port série modem/imprimante).
Ces interfaces ne demandent pas de pilote particulier car ils sont pris en charge directement par le système !

Apple MIDI Interface Kit

Interface MIDI Apple originale pour les modèles Macintosh dotés de ports série à 8 broches de type mini DIN. Le kit est livré avec trois câbles : un câble série pour connecter l’interface au Mac, et deux câbles MIDI pour connecter les instruments de musique MIDI.

QUEST INC – MIDI LINK CONVERTORS (95$ a 160$)

midiman – MiniMacman 1 in/ 1 out)

midiman – Macman (1 in/ 3 out)

RCN – MIDI NeXT (1 in/ 2 out/ 1 thru)

RCN - MIDI NeXT avant
RCN – MIDI NeXT avant
RCN - MIDI NeXT arrière
RCN – MIDI NeXT arrière

Le matériel, c’est bien, mais il faut des logiciels !

Très rapidement, il y a eu beaucoup de développements dédiés à l’audio, autant pour des logiciels qui se limitaient à l’usage de l’audio natif des Cubes et Stations, mais aussi et surtout pour les boîtiers d’acquisition DSP et par la suite pour les cartes M860 et Quint.

Les logiciels fournis pas NeXT

Ces logiciels sont disponible dans les installations standards de NeXT Step.

MonsterScope

Le fameux MonsterScope, logiciel qui se définit à la fois comme un oscilloscope et un analyseur de spectre, utilise le DSP 56K de la carte mère. Il prend en compte les entrées analogiques du micro ainsi que les signaux provenant des DSP.

NeXT Monster Scope
Fenêtre principale

Sound

L’éditeur audio de base livré avec NeXTStep permet de lire et d’enregistrer de l’audio via le micro, ainsi que de faire du copier/coller avec insertion.

Il y a d’autres logiciels, comme par exemple CDPlayer…


Les logiciels des centres de recherches

Spectro3 permet d’analyser le spectre sonore d’un fichier audio.

Z-quencer

Un séquenceur MIDI.


Les logiciels commerciaux

Digital Audiometer

Digital Audiometer a été conçu pour tester l’audition. La qualité des signaux de test est beaucoup plus élevée que ce qui était normalement disponible à l’époque.

SoundWork

Un logiciel pour gérer l’acquisition du son à partir des sources audio sur port DSP, inclut des options telles que Digital Ears et Digital Microphone.

NoteAbility

Un éditeur de partition / séquenceur midi.

ModPlayer

Un logiciel qui gère des fichiers Mod, un format musical qui n’est plus très populaire de nos jours mais qui était à la mode au début des années 90.

Là il joue le morceau : Close to the edge du groupe Art Of Noise !

Digital Audiometer

Un audiomètre, ou acoumètre est un appareil utilisé en audiométrie permettant, de fait, de mesurer les capacités de l’ouïe d’un individu. Il établit un rapport sur l’acuité auditive, signalant une tendance vers la surdité ou l’hypoacousie.

Sequence

Un séquenceur relativement puissant qui gère à la fois le MIDI et l’audio.

Studio3 Setup

Un logiciel permettant de configurer les interfaces Opcode Studio3.


Les logiciels de l’IRCAM

Max / FTS

Max/FTS est un logiciel inventé et développé par Miller Puckette au milieu des années 1980 à l’Ircam initialement sur Macintosh et porté en 1990 sur NeXT spécifiquement pour les Cubes équipés des carte M860.

Il permet de gérer le MIDI et l’audio, il peut fonctionner sans carte DSP, mais il est pleinement efficace si il s’appuie sur des carte M860. Il est possible de mettre au maximum 3 cartes de ce type dans un cube.

Attention, en fait Max s’appuie sur le système d’exploitation CPOS (Co-Processor Operating System11), qui est spécifique aux cartes M860, et qui est injecté au moment où le bouton RESTART est appuyé dans la fenêtre FTS, lorsque les cartes et le nombre de CPU à utiliser ont été sélectionnés.

J’ai plusieurs versions de Max/FTS, allant de la 0.17 à la 1.3.22, mais la version ayant le meilleur ratio charge/efficacité est la 0.26.

La fenêtre permettant d’activer les carte M860 et de définir le nombre de CPU a utiliser. Ici il y a une seule carte M860 positionnée dans le logement 4 et forcement 2 CPU.
Ici il y a une trois cartes M860 positionnée dans les logements 4, 2 et 6 et ainsi 6 CPU.
Cette fenêtre permet de modifier les paramètres de chaque carte M860 et des Piggy, et cela à chaud, c’est-à-dire sans redémarrage. Toujours une seule M860 (en 4) et paramétrée pour faire du 32KHz et elle est équipée d’une Piggy.
Ici trois M860 (en slots 4, 2 et 6) et paramétrée pour faire du 32KHz et elles sont toutes équipées d’une Piggy.

Max a deux modes, un mode execution, et un mode édition. Cette bascule se fait en cliquant sur la clef qui est sur la gauche de la fenetre du patch (ici en rouge). Vous pouvez également remarquer l’activation ou pas des CPU (si il y a des CPU il n’y a pas de croix recouverte de rouge). J’ai ajouter les numéro des CPU en rouge. Si la case est grisée c’est que le patch qui est dans la fenetre est affecté a ce CPU.

mode execution

Lorsque le mode édition est actif, de nouvelles icones apparaissent.

mode édition
6 CPU
4 CPU
2 CPU

Max/FTS est un environnement de programmation graphique basé sur des boîtes modulaires et des jonctions qui permettent de créer des traitements complexes.

Les boîtes modulaires représentent des briques de base comme des opérateurs arithmétiques, booléens, et mathématiques, ainsi que des tables de données, des contrôleurs, boutons, et des interfaces d’entrée/sortie (analogiques, numériques, MIDI). Il offre également des outils d’affichage tels que du texte, des graphiques, et des matrices. Ce système est extrêmement puissant et flexible, permettant de concevoir et de manipuler des flux de données audio de manière intuitive.

Max/FTS se distingue par sa capacité à intégrer et synchroniser divers types de données et de médias, facilitant la création d’applications interactives complexes sans nécessiter une programmation textuelle traditionnelle. Depuis cette lointaine époque la communauté d’utilisateurs de Max continue de croître, contribuant à une bibliothèque vaste et diversifiée d’extensions et d’exemples, renforçant encore davantage sa position comme un outil incontournable pour les créateurs et les chercheurs.

Un patch typique de Max/FTS

Une petite compilation de patch Max :

Animal

Animal12 (Animated Language) est un logiciel spécifique à la carte M860 et qui est dédié au développement rapide de projets autour du traitement temps réel du signal.

Un patch animal

Spat

Spat est une couche logiciel qui permet la spatialisation du son, ce logiciel est toujours développé.

Circ

C’est un logiciel de spatialisation qui permet d’enregistrer une trajectoire sonore, mais uniquement sur le plan en 2D (à l’intérieur du disque qui est affiché sur la figure suivante). Il utilise Spat et un patch Max/FTS.

L’application Circ et un patch Max/FTS.

Générateur de trajectoires

C’est un logiciel de spatialisation qui permet d’enregistrer une trajectoire sonore en 3D. Pour fonctionner, il s’appuie sur Spat. Vous pouvez choisir le nombre de haut-parleurs (HP) et leur position dans le monde physique, ce qui permettra un très bon rendu dans une installation ou un mixage.

Signal Editor

Éditeur13 audio de l’IRCAM, capable de faire la même chose que l’éditeur de NeXT, mais il prend en compte les gros fichiers et permet d’agrandir la visualisation, offrant ainsi une meilleure finesse dans le copier/coller, dans .


Les logiciels du CCRMA

Music Kit et DSP Tools (fournis par NeXT)

Music kit est une suite de fonctions fournies par NeXT dans NeXTSTEP qui permet de gérer tous les événements MIDI, DSP, etc. Elle est largement utilisée par les développeurs du CCRMA car cette bibliothèque logicielle gère très bien le DSP 56K. De plus, la Quint du CCRMA est basée sur 5 DSP 56K.


InstrumentBuilder est un logiciel qui permet de facilité le travail de préparation a l’usage de cmusic.


SynthBuilder est un logiciel qui permet de fabriquer a la manière de Max des instruments de musiques mais aussi des traitements audios, il s’appuie sur la librairie logiciel MusicKit (et en particulier le DSP 56K).


Vocal Trac Editor permet de faire de la synthése vocale.


Quelques liens


A propos des outils de développement : MusicKit and SndKit Concepts

Liens à propos des DSP de Motorola et les CPU de Intel : sur le forum DSP NeXT. Les I860 semblaient étre difficile a programmer pour en obtenir la puissance maximum… Lire l’article suivant : Floating-point performance of the i860.
Je conseil, le très intéressant i860 64-Bit Microprocessor – THE ADVANCE INFORMATION 1989

D’après ce que j’ai lu sur les tests (Benchmark) un NeXT 68040 à 25 MHz avait un indice de 116 alors qu’un i860 à 40 un indice de 26. C’est-à-dire ~4,5 x plus rapide !

Des liens pour telecharger les programmes :

https://ftp.funet.fi/index/NeXT/Audio

Pour finir, voici une liste issue d’un catalogue NeXT de l’été 1992. On y trouve les références des périphériques audio pour NeXT suivant :

DATA ACQUISITION AND SIGNAL PROCESSING
55 ADA1800 Digital Audio Interface Stealth Technologies, Inc.
55 A/D64x Singular Solutions
56 Ariel DM-N Digital Microphone Ariel Corporation
56 Ariel/IRCAM Signal Processing Workstation Ariel Corporation
57 Ariel ProPort Model 656 Ariel Corporation
57 Ariel QuintProcessor Ariel Corporation
58 DataDisplay Dazzl
58 Dazzl Analog-to-Digital Convertors Dazzl
59 Digital Ears Metaresearch, Inc.
59 Midi Link Convertors Quest Inc.
60 SCSI488/N IOtech Inc.
60 SoundHouse MIDIapolis Systems

Products Available Soon
62 Ariel DatPort Ariel Corporation
62 LogicStream Lab Interface Board And Virtual Instrument Toolkit LogicStream
63 Model MZ-4 Four-channel Analog- to-Digital Converter Greeneridge Sciences Inc.
Applied Speech Technologies AST A/D16

Logiciels

103 CODA Music Software
104 Mark of the Unicorn, Inc. Performer

Merci à : Andreas, David Fischbach, IRCAM.

Mise à jour du :

  1. Le fichier PDF de Science et Vie Micro (SVM) – numéro double 63 de juillet-août 1989 ↩︎
  2. Le fichier PDF des Tarifs NeXT Printemps 1991 ↩︎
  3. La brochure PDF du Pixar Image Computer ↩︎
  4. Le fichier PDF NeXT 0.9-1.0 Release Description ↩︎
  5. Le fichier PDF NeXTSTEP 2.0-Release-Notes ↩︎
  6. La brochure PDF du Cube ↩︎
  7. La brochure PDF du NeXTstations ↩︎
  8. La brochure PDF du NeXTstation Color et NeXTstation Turbo Color ↩︎
  9. La brochure du NeXT-External-CDROM-Drive ↩︎
  10. Les publications de l’IMEB de 1970 à 2010 ↩︎
  11. Un article sur CPOS ↩︎
  12. Animal: Graphical Data Definition and Manipulation in Real Time ↩︎
  13. Un article sur Signal Editor ↩︎

Phonogramme et Sonographe de Vincent Lesbros

Phonogramme

Phonogramme est un programme permettant de créer, de transformer, de composer des sons et des formes musicales. Ce logiciel a été développé de 1993 à 1996 au GAIV (Groupe Art et Informatique de Vincennes à St Denis, Université Paris VIII) par Vincent LESBROS.

phonogramme pour Macintosh sous Mac OS/9

Un lien intéressant sur le sujet et aussi le sonagramme dans différents logiciels.

Sonographe

Développé au GAIV (Groupe Art et Informatique de Vincennes à St Denis) Sonographe est un outil pour la création de sons musicaux à partir de différentes représentations graphiques : Les Sound Potatoes permettent de créer des sons de cordes pincées en un tour de souris, Les Graphes de couplages élastiques permettent de créer des oscillateurs et des filtres et enfin, les images (bmp, jpeg…) peuvent être interprétés comme des sonagrammes pour produire des fichiers de son (.wav) ou être directement interprétés en MIDI. Des pinceaux spécialisés permettent de dessiner directement des harmoniques et des répétitions. Les fichiers MIDI peuvent être utilisés pour contrôler les tracés des pinceaux. Cette version est une adaptation/recréation de l’application Phonogramme dans l’environnement .NET, elle est entièrement écrite en C# et utilise DirectX managé pour les entrées sortie audio.

sonographe pour PC sous Windows

Pour en savoir plus sur le travail de Vincent Lesbros consulter sa thèse ici.

ALMIR – Un Atelier de Lutherie Modulaire Interactif temps Réel

Présentation

ALMIR est un logiciel qui permet de créer et de jouer en temps réel des systèmes instrumentaux virtuels modulaires. Ces systèmes instrumentaux sont constitués de modules de production et de traitements interconnectés qui véhiculent et traitent des signaux sonores. Ils sont virtuels dans le sens où tous les traitements du signal sont effectués uniquement par logiciel.
Le terme atelier identifie un espace avec un ensemble d’outils permettant de créer des objets complexes à partir d’objets de base. La lutherie met l’accent sur la création d’instruments. La modularité désigne l’architecture basée sur des modules interconnectés. L’interactivité désigne la possibilité pour un opérateur d’interagir sur le comportement de l’instrument. Enfin, le temps réel désigne la propriété d’exécuter les traitements du son en temps réel, c’est à dire avec un temps de réponse non perceptible à l’échelle humaine.
ALMIR est constitué d’une bibliothèque de classes entièrement développée en C++. Bien que la version actuelle soit écrite pour Windows, le logiciel pourrait être aisément porté sur d’autres systèmes et plate-formes, car seules les entrées / sorties sur les périphériques de sons sont dépendantes du système. ALMIR s’exécute sur tout PC standard pourvu d’un système Windows 32 bits (95, 98, 2000, XP) et du composant système DirectSound, ainsi que d’une carte son standard. Il ne nécessite aucun autre matériel spécifique.

Historique

L’histoire d’ALMIR remonte au début des années 1980. Après une introduction aux pratiques musicales électro-acoustiques dans le cadre d’études universitaires en musicologie, nous avons abordé l’informatique musicale au sein du GAIV (Groupe Art et Informatique de Vincennes) dirigé par G.G. Englert (ENGLERT 1980).
Nous utilisions à l’époque le système de synthèse sonore numérique hybride Synclavier 1 de la firme New England Digital (NEDCO 1978). Ce système comprenait un synthétiseur numérique permettant de jouer simultanément 16 canaux de sons, avec la possibilité de définir pour chacun la forme d’onde, la fréquence, une enveloppe audio et une enveloppe modulante sous forme d’une suite de segments, le signal modulant permettant de moduler en fréquence un autre canal.
A la fin des années 1980, désireux d’exploiter les ressources disponibles sur les ordinateurs individuels PC (système, graphique, environnement de développement logiciel), mais soucieux de continuer à utiliser un dispositif de synthèse sonore permettant de définir précisément les paramètres de base du son, nous avons conçu avec A. Llop une interface matérielle et logicielle permettant de piloter le synthétiseur du Synclavier depuis un PC.
Nous avons ensuite développé un  » atelier logiciel d’informatique musicale interactif temps-réel  » (MARTINEZ 1996) utilisant cette interface. Avec l’accroissement en puissance des ordinateurs PC au milieu des années 1990, il est devenu possible d’effectuer la synthèse directe du son en temps réel sur l’ordinateur. Cela nous a conduit dans un premier temps à développer le logiciel V5 permettant d’émuler un Synclavier amélioré sur un PC.
ALMIR constitue l’aboutissement actuel de cette activité de recherche sur l’interactivité temps-réel et la synthèse sonore directe. Notre objectif est de créer des systèmes instrumentaux génériques et modulaires qui satisfont les contraintes du temps-réel sans matériel spécifique.

Nos influences ont été :

  • MUSIC V pour le concept de modularité généralisé (MATHEWS 1969).
  • Le synthétiseur analogique EMS VCS3 pour sa modularité, son interactivité temps-réel et son principe de commandes en tensions généralisé (GAIV 1977).
  • Le système NED Synclavier 1 pour son procédé de synthèse sonore numérique offrant l’accès aux paramètres de base du son (NEDCO 1978).
  • L’ISPW (IRCAM Signal Processing Workstation) pour sa modularité et ses possibilités de traitements du signal en temps-réel entièrement virtuels (LINDEMAN 1990, LIPPE, PUCKETTE 1991, 1993).

    Le texte intégrale de Lirio Martinez est disponible ici :
    L11_Martinez.pdf

  • Entre l’idée et l’oeuvre : Parcours de l’informatique musicale

    La totalité du texte est de Marc Battier

    Entre l’idée et l’oeuvre : Parcours de l’informatique musicale est publié cette année dans: Esthétique des arts médiatiques sous la direction de Louise Poissant, Presses de l’Université du Québec, 1995. Nous en publions ici un large extrait grâce à l’aimable autorisation de Mme Poissant.

    Introduction

    Si l’informatique musicale nous importe tant aujourd’hui, c’est qu’elle a progressivement créé des outils qui sont en train de modifier radicalement la manière de penser la musique. Pourtant, son histoire est courte. Elle se confond avec le développement des technologies numériques: des ordinateurs, d’abord, accompagnés par la création des langages symboliques destinés à la programmation, puis avec toute une cohorte d’inventions en technologie numérique. Assez tôt dans son histoire, l’informatique se montrera suffisamment mûre pour accueillir des préoccupations de toutes sortes, allant de la comptabilité à la recherche scientifique, en passant naturellement par ce qui nous intéresse, la création artistique. Et les musiciens s’enorgueillissent d’avoir été les premiers parmi les artistes à s’approprier l’ordinateur.

    Et c’est sans doute là qu’il faut distinguer ce qui ressort de l’informatique proprement dite, et ce qui appartient plutôt au monde plus large de la technologie numérique. La musique puise amplement dans ces deux domaines ses nouvelles ressources. Toutefois, puisque le domaine du son est aujourd’hui converti en audionumérique, la distinction s’impose. L’informatique musicale naît de la rencontre des préoccupations musicales et de l’environnement issu des technologies numériques et de la spécificité de l’ordinateur, d’une part, et des domaines scientifiques qui éclairent ses thèmes de recherche. Si la composition musicale y figure en bonne place, pratiquement toutes les autres activités de la musique s’y retrouvent. Et la recherche musicale recouvre en partie le terrain défriché par l’informatique, l’acoustique, le traitement du signal, voire la psychologie cognitive: c’est ainsi que l’informatique musicale se situe au centre de plusieurs champs musicaux, scientifiques et techniques.

    Mais c’est le recours aux apports spécifiques de l’informatique qui caractérise sa démarche. De nouveaux outils conceptuels sont sans cesse fournis par l’intelligence artificielle, qui se concrétisent par des langages tels que Lisp ou Prolog. Ils sont aussitôt mis au service de l’analyse musicologique ou de l’aide à la composition. La recherche en systèmes temps réel et sur les interfaces interactifs permet de concevoir de nouvelles liaisons entre l’instrumentiste et l’univers électronique.

    Grandes étapes de l’informatique musicale

    A l’origine de l’informatique musicale, on trouve deux types d’activités, indépendantes l’une de l’autre. Si ces activités perdurent aujourd’hui, c’est d’une autre manière que la vision originelle qui a provoqué leur naissance pouvait laisser prévoir. Ces deux types d’activités sont: la composition musicale, et la production du son. Dans les deux cas, la fabrication du résultat souhaité est assuré par l’ordinateur. Ces deux types d’activités sont sensiblement contemporaines. Les premiers essais sérieux de composition musicale par ordinateur remontent à 1956: c’est à cette date que Lejaren Hiller a calculé une partition à l’aide de règles encodées sous forme d’algorithmes sur l’ordinateur Illiac I de l’université de l’Illinois. Il s’agit de la Illiac Suite for String Quartet, dont les trois premiers mouvements sont exécutés cette année-là par le quatuor à cordes WQXR. Dans un ouvrage célèbre, publié en 1959 et qui porte le titre de Experimental Music-Composition with an Electronic Computer, Lejaren Hiller expose en détail les procédures qu’il a appliquées à l’ordinateur Illiac afin de produire la partition de son quatuor à cordes.

    Pour situer cette période, c’est aussi en 1956 que John McCarthy forgea le terme d’intelligence artificielle. Un an plus tard, Max Mathews, chercheur aux laboratoires du Telephone Bell, dans le New Jersey, écrit un premier programme de synthèse numérique du son pour l’ordinateur IBM 704. Connu aujourd’hui sous le nom de Music I, il est le premier d’une grande famille de compilateurs acoustiques; un psychologue, Newman Guttman, génère une première étude d’une durée de 15 secondes, In the Silver Scale. C’est aussi en 1957 que les quatre mouvements de la Illiac Suite for String Quartet de Lejaren Hiller sont publiés; la même année naît la version primitive du célèbre langage de programme Fortran (FORmula TRANslator). Notons que lors de la création de l’oeuvre de Hiller par le quatuor à cordes WQXR, c’est Max Mathews qui organisa un enregistrement, ce qui donna lieu, par la suite, à la publication de cet enregistrement dans un disque réalisé en 1960 par les Laboratoires Bell, et intitulé Music from Mathematics: même si les voies tracées par ces deux inventeurs sont indépendantes, il ne sera pas dit qu’elles ne se croisèrent pas…

    A partir de ces deux événements quasiment contemporains, le développement va se poursuivre, progressivement, dans les directions tracées: la composition et la production du son. Nous en verrons plus bas les parcours. Mais une troisième voie ne tarde pas à apparaître: elle naît de la même constatation qu’avait faite Hiller: l’ordinateur est avant tout, à cette époque, une formidable machine à calculer. D’ailleurs, le terme anglais de computer choisi désignait, avant l’apparition de ces machines, les employés chargés d’opérer des calculs. Mais en même temps, avec un brin d’effroi, on parlait volontiers à l’époque de cerveaux électroniques. Un artiste ne pouvait s’approcher de l’ordinateur non sans une certaine émotion, qui explique sans aucun doute l’attrait parfois terrifiant qu’exercera l’informatique sur les artistes des décennies suivantes. Mais ce sont deux scientifiques qui sont à l’origine de ces expériences: Hiller pratiquait la chimie, tandis que Mathews était un chercheur déjà renommé. C’est sans doute ce qui explique les remarquables méthodologies qu’ils mirent en place, chacun de leur côté, et dans des buts tout à fait indépendants.

    Aux laboratoires Bell, Max Mathews, de son côté, écrit en 1957 un premier programme de synthèse numérique du son pour l’ordinateur IBM 704, équipé de 4096 mots de mémoire. Connu aujourd’hui sous le nom de Music I, il est le premier d’une grande famille. Le programme Music III (1960) introduit le concept d’instrument modulaire. Le modèle imaginé par Max Mathews s’inspire plus d’un appareillage de laboratoire ou d’un studio de musique électronique que d’une lutherie acoustique. Le programme offre une gamme de modules indépendants (Unit Generators), chargés chacun d’une fonction élémentaire: oscillateur à forme d’onde programmable, additionneur de signaux, multiplicateur, générateur d’enveloppes et de signaux aléatoires, etc… Le musicien construit un instrument en reliant une sélection de modules entre eux. Les signaux produits par les oscillateurs ou les générateurs sont conduits vers d’autres modules pour y être modifiés ou mélangés. Plusieurs instruments peuvent être réunis au sein d’un orchestre , chaque instrument possédant sa propre identité. Contrairement à ce qui se passe dans l’univers matériel, il n’y pas de limite au nombre de modules utilisables simultanément, sauf peut-être la mémoire de l’ordinateur. Le résultat de la mise en oeuvre de l’instrument est le calcul progressif du son sous la forme d’une séquence de nombres qui, mis bout à bout, représentent une onde sonore complexe. Ces nombres sont appelés des échantillons . Aujourd’hui, le nombre d’échantillons représentant une seconde de son a été établi à 44 100 par canal pour les applications grand public, et à 48 000 pour le domaine professionnel.

    Du fait de la relative lenteur des machines et de la masse de calculs à effectuer, le temps mis à générer l’onde sonore est bien supérieur à la durée des sons; le fonctionnement de ces programmes est dit en temps différé . A l’origine, les ondes sonores calculées sous forme numérique étaient stockées sur une bande numérique se déroulant au fur et à mesure de la fin d’un bloc de calcul d’échantillons. Ce mode de production du son est appelé synthèse directe . Ainsi se crée un fichier de son ; une fois achevé, le musicien fait appel à un second programme, chargé de lire le fichier de son en temps réel et d’envoyer les échantillons vers un convertisseur numérique-analogique, qui est relié à un amplificateur et à des haut-parleurs.

    Pour activer l’orchestre, le musicien doit rédiger une partition , dans laquelle sont spécifiés tous les paramètres réclamés par les modules de l’instrument. Cette partition se présente comme une liste de nombres ou de codes symboliques, chaque note ou chaque événement faisant l’objet d’une liste particulière. Ces listes sont ordonnées dans le temps.

    Mais spécifier chaque paramètre est une tâche ardue, d’autant plus que les musiciens ne sont pas formés pour donner des valeurs mesurées aux dimensions sonores qu’ils manipulent. Pour lutter contre cet obstacle, des langages d’aide à l’écriture de partitions ont été conçus; le plus connu est le programme Score de Leland Smith (1972). Score n’est pas un programme de composition automatique: il permet de spécifier les paramètres à l’aide de termes issus de la pratique musicale (hauteurs, nuances, durées), de calculer automatiquement des changements de tempo ou de nuances, voire même de compléter des sections avec des notes correspondant à une trajectoire donnée par le compositeur.

    Le modèle instrument-partition fut fermement établi avec l’arrivée de Music IV (1962). De ce programme naquirent de nombreuses variantes, dont certaines existent bel et bien encore aujourd’hui. Parmi ces avatars, citons Music 4BF (1966-67), dont il existe de nos jours une version pour Macintosh (Music 4C, 1989), et surtout Music 360 de Barry Vercoe (1968); ce descendant de Music IV a pour caractéristique de se présenter comme un véritable langage de programmation, ce qui explique sans doute qu’il est devenu aujourd’hui avec C-Music le compilateur acoustique le plus utilisé. Il fut d’abord adapté au mini-ordinateur PDP-11 de Digital en 1973, puis, entièrement réécrit en langage C en 1985, il prit le nom de Csound, et fut rapidement adapté à toutes sortes de plates-formes informatiques, y compris les ordinateurs personnels comme Atari, Macintosh et IBM. En 1969 apparaît Music V, un programme qui est conçu pour faciliter la programmation musicale des instruments et des partitions; de nos jours, Music V est encore largement employé, le plus souvent sous la forme de l’adaptation qu’en a faite Richard Moore, Cmusic (1980).

    L’ordinateur connut aussi un succès certain dans un domaine fortement spéculatif, l’analyse musicologique. Aux yeux du public intéressé au début des années soixante, l’informatique, encore assez mystérieuse et inaccessible, laissait entrevoir d’étranges travaux musicaux; en composition, en musicologie et enfin, limitée aux laboratoires Bell, de la production de son. Un grand bouleversement musical de cette décennie devait venir du monde de l’électronique, avec l’apparition en 1964 des synthétiseurs modulaires, dits analogiques puisqu’ils ne contiennent pas d’électronique numérique. Conçus indépendamment par Paolo Ketoff (Rome), Robert Moog et Donald Buchla (Etats-Unis), les synthétiseurs apportent la réponse aux aspirations technologiques de nombreux musiciens, surtout après le succès populaire du disque Switched on Bach de Walter Carlos qui fit véritablement connaître ces instruments auprès d’un large public. Pendant ce temps, le programme de Mathews connaît des adaptations sur d’autres sites, tels que les universités de New York, de Princeton ou de Stanford.

    Une autre application de l’ordinateur apparaît avec le pilotage d’instruments analogiques. La machine génère des signaux à variation lente qui modifient les réglages de dispositifs de studio: fréquence d’oscillateurs, gain d’amplificateurs, fréquences de coupure de filtres. Le premier exemple de ce système qu’on nomme synthèse hybride fut établi en 1970 au Elektron Musik Studio de Stockholm, fondation indépendante depuis 1969, financée par l’Académie Royale de Musique, et placée sous la direction de Knut Wiggen. Un ordinateur PDP 15/40 y pilotait vingt-quatre générateurs de fréquence, un générateur de bruit blanc, deux filtres tiers d’octave, des modulateurs: en anneau, d’amplitude et des réverbérations. L’originalité du système de Stockholm résidait dans une console de commande extrêmement ergonomique, avec laquelle le compositeur pouvait spécifier les paramètres de synthèse en balayant un panneau de chiffres à l’aide d’une brossette métallique. Un autre studio est à citer: celui de Peter Zinovieff à Londres (1969), placé sous le contrôle d’un mini-ordinateur Digital PDP 8 pour lequel Peter Grogono écrivit le langage de pilotage Musys.

    Une autre réalisation remarquable est le système Groove (Generated Real-time Operations On Voltage-controlled Equipment, ca. 1969) conçu aux laboratoires Bell par Max Mathews et Richard Moore. Groove est un instrument destiné au contrôle de paramètres d’interprétation d’un dispositif de synthèse. En ce sens, il place le musicien plus près de la position d’un chef d’orchestre que d’un compositeur ou d’un instrumentiste, encore qu’on puisse considérer que le compositeur de musique électronique doive souvent se placer en position de chef, en interprétant directement la musique qui est composée.

    C’est le milieu des années soixante-dix qui marque la transition vers un élargissement désormais inexorable de la vie de l’informatique musicale, avec l’apparition du microprocesseur. Une lutherie informatique deviendra progressivement envisageable avec la conception d’ordinateurs complets sur un circuit intégré: les microprocesseurs. Il faudra aussi que s’améliore l’interface avec l’utilisateur, et que soient remplacées les cartes perforées par un mode d’entrées de données plus interactif: ce sera le clavier et l’écran cathodique qui l’emporteront.

    Le principe de la synthèse hybride continua à être appliqué tout au long des années soixante-dix, avant d’être supplanté définitivement par les synthétiseurs numériques à l’aube des années quatre-vingt. La société américaine Intel commercialise dès 1971 le premier microprocesseur, le circuit 4004, qui permet la conception de véritables ordinateurs miniatures, les micro-ordinateurs: Intellec 8 (conçu à partir du microprocesseur 8008 de 1972), Apple I, Altair (1975), bientôt regroupés sous le nom d’ordinateurs personnels.

    Les expérience musicales du Groupe Art et Informatique de Vincennes (GAIV) illustrent bien cette époque de transition. Cette équipe, fondée à l’université de Paris 8 par Patrick Greussay et une équipe d’artistes et d’architectes, connue pour la publication d’un bulletin diffusant les travaux de recherche en art et informatique les plus récents, confia au compositeur Giuseppe Englert la coordination musicale de ses activités. C’est l’Intellec 8, micro-ordinateur à mots de huit bits, commandée par un ruban perforé et un clavier, qui servit aux activités compositionnelles et de recherche sur la formalisation musicale; des synthétiseurs anglais EMS-VCS3 étaient pilotés par le micro-ordinateur, via des convertisseurs numériques-analogiques chargés de fournir des tensions de commande en échange des données binaires calculées par des programmes interactifs.

    Le second effet de l’arrivée des micro-ordinateur fut la conception de la synthèse mixte , synthétiseurs numériques, véritables ordinateurs adaptés au calcul de l’onde sonore en temps réel, placés sous le contrôle d’un ordinateur. A partir de la seconde moitié des années soixante-dix apparaissent plusieurs réalisations de ce type; nous retiendrons les travaux de James Beauchamp, de Jean-François Allouis, de William Buxton, entre autres, ainsi que ceux de Peter Samson (synthétiseur de Systems Concept, conçu pour le centre de recherche – CCRMA – de l’université de Stanford), le Synclavier de New England Digital Corporation, conçu par Syd Alonso et Cameron Jones sous l’impulsion du compositeur Jon Appleton, la conception, sous l’impulsion de Luciano Berio, d’un banc d’oscillateurs à Naples par Giuseppe di Giugno, qui poursuivit ses travaux à l’Ircam (série 4A, 4B, 4C et 4X) sous la direction de Pierre Boulez; plus récemment, le Fly 30 du Centre de recherchse musicales de Rome. Notons qu’avec la 4X de l’Ircam (1980), le terme de synthétiseur disparaît, remplacé par celui de processeur numérique de signal, ce qui sans doute déplace l’accent sur la généralité de la machine.

    L’industrie de l’instrument électronique n’est pas longue à s’adapter à ces nouveaux développements. La première étape consista à introduire des microprocesseurs à l’intérieur de synthétiseurs analogiques (synthétiseurs Prophet de la firme Sequential Circuits), chargés de contrôler les modules commandés en tension; c’est encore de la synthèse hybride . La seconde étape suit bientôt: elle consiste à concevoir de véritables instruments de musique entièrement numériques. C’est l’arrivée remarquée du Synclavier II, puis du Fairlight.

    Le domaine industriel est aujourd’hui constitué d’abord par le marché des synthétiseurs et des appareils de traitement du son, et par les logiciels qui permettent de les exploiter. Aujourd’hui, tous les synthétiseurs sont numériques, et répondent nécessairement à la norme Midi. Le domaine des synthétiseurs est double: d’une part des appareils, souvent munis d’un clavier, qui proposent un choix de sons pré-programmés dont on peut varier certains paramètres par un procédé élémentaire de programmation; d’autre part, les machines qui sont destinées à reproduire des sons préalablement enregistrés et mémorisés, ou stockés sur mémoire de masse: les échantillonneurs, ou samplers .

    Il faut noter que toutes ces technologies deviennent accessibles au musicien privé, dans le cadre de ce qu’on appelle communément le studio personnel (home studio).

    Mais ces machines, et a fortiori le studio personnel ne fonctionnent pas sans logiciel adapté: les séquenceurs pilotent l’exécution d’un morceau directement à partir d’un ordinateur, les éditeurs de son sont destinés au traitement, au montage et au mixage de séquences sonores. Des programmes permettent d’écrire une partition, ce qui est désormais employé couramment par l’édition musicale. Enfin, les machines peuvent aussi être placées sous le contrôle de programmes d’aide à la composition.

    Le caractère le plus original de la lutherie informatique contemporaine est la station de travail . Concevoir une station de travail consiste à rassembler des programmes de natures diverses, destinés à l’analyse ou à la synthèse du son, au contrôle du son ou à la composition. Ces programmes sont intégrés au sein d’un environnement informatique organisé autour d’un ordinateur et de ses périphériques, destinés au traitement du son en direct. C’est le cas des cartes enfichables qui, couplées à un logiciel, permettent de lire des fichiers de son stockés sur un disque, en échange d’une commande, provenant par exemple d’une source Midi. Ce système, si nouveau qu’il n’a pas encore trouvé de nom véritable, est le plus souvent désigné comme disque dur ou direct-to-disk .

    Parmi les premières réalisations, on retiendra l’adaptation des compilateurs acoustiques Cmusic, originellement développé à partir de Music V par Richard Moore, et C-sound conçu par Barry Vercoe comme une branche de Music IV. L’intégration, qui justifie l’appellation de station de travail, consiste à connecter les données Midi avec les programmes mentionnés ci-dessus, tout en travaillant au sein d’un environnement unique, associant temps réel et temps différé. D’une manière plus générale, la micro-informatique offre tant aux institutions qu’aux particuliers des outils de synthèse et de traitement de son de haut niveau. Certains permettent, en temps différé, la manipulation de fichiers de sons. Citons une nouvelle C-Sound du MIT, le vocodeur de phase Audio-Sculpt de l’Ircam, Soundhack de Tom Erbe, etc… D’autres programmes autorisent l’interaction temps réel avec la manipulation de sons. Ces logiciels se développent surtout dans les années 90: GRM Tools de l’Ina-GRM, Hyperprism de Son Réel, tous deux à Paris, modules insérés dans des programmes généraux tel que Sound Designer de la firme californienne Digidesign, etc… Tous ces programmes donnent accès à de puissants moyens de synthèse et de traitement, jusque là reservés aux seules institutions, et désormais implantés sur ordinateurs personnels: ces machines ne se contentent plus de piloter des synthétiseurs Midi.

    Au cours des années quatre-vingt, le terme de station de travail fut rapidement galvaudé. Un synthétiseur quelconque était affublé de cette appellation à des fins purement commerciales, sans répondre aux critères d’intégration évoqués. Aujourd’hui, l’intégration s’ouvre au domaine de l’image, avec l’irruption du multimédia, et prend une nouvelle dimension.

    La représentation musicale

    Puisque l’ordinateur, à la différence de la musique électronique de studio, réclame une spécification des données, et donc une écriture, la question de la représentation musicale est une préoccupation constante du domaine. Nous verrons deux réponses. La première illustre une démarche a priori compositionnelle: celle de Xenakis. La seconde, plus générale, est la norme Midi.

    Iannis Xenakis innove avec la conception de l’UPIC (Unité Polyagogique Informatique du CEMAMu). Conçu au milieu des années soixante-dix, ce système découle naturellement de l’approche de la synthèse du son par ce compositeur: au sein de l’équipe qu’il avait réunie, baptisée d’abord Emamu (Equipe de Mathématiques et d’Automatique Musicale, 1966), et avec le financement de la Fondation Gulbenkian, Xenakis avait fait construire un convertisseur numérique-analogique de haute qualité. L’UPIC représente un environnement complet de composition avec, en résultat, la synthèse sonore de la page de musique composée. Devenu en 1971 le CEMAMu (Centre de Mathématiques et d’Automatique Musicale) en raison de la création d’un lieu destiné à abriter ses recherches, l’équipe réunie autour de Xenakis conçoit un système permettant au compositeur de dessiner sur une large table d’architecte des arcs temps-hauteur , en choisissant pour chaque arc une trajectoire temporelle, une forme d’onde, une nuance. La musique est donc d’abord représentée sous forme graphique. Les programes du premier UPIC sont écrits pour un mini-ordinateur Solar 16/65, relié à deux organes de bandes magnétiques pour stocker les programmes et les échantillons, un convertisseur numérique-analogique, un écran cathodique permettant d’afficher les formes d’ondes, mais aussi de dessiner ces ondes à l’aide d’un crayon graphique. Pour entendre la page qu’il vient de dessiner, le compositeur doit attendre que l’ordinateur ait terminé de calculer tous les échantillons; la génération du son est assurée par une convertisseur numérique-analogique de haute qualité. Plus récemment, l’UPIC a été redessiné pour micro-ordinateur, et fonctionne sans délai.

    Représenter le son sous la forme d’une image modifiable, c’est le but du programme Phonogramme, conçu à l’université Paris 8 par Vincent Lesbros. A la manière d’un sonogramme, le programme affiche l’analyse spectrale comme un dessin, qui peut être modifié; la nouvelle représentation peut ensuite être synthétisée, soit par Midi, soit sous la forme d’un fichier de son, ou bien encore transformé en fichier Midi.

    On entend souvent aujourd’hui le reproche que la génération de jeunes musiciens qui abordent la technologie au travers de l’environnement créé autour de la norme Midi n’ont pas une conscience satisfaisante du passé de l’informatique musicale et de ses problèmes. Mais c’est oublier que, dans un sens, la naissance de la norme Midi s’est faite sans véritable filiation avec les étapes précédentes du domaine que l’on nommera l’informatique musicale. Le phénomène que représente Midi n’est aucunement un avatar de ce domaine.

    Le standard Midi a été mis au point en 1983 pour permettre le pilotage de plusieurs synthétiseurs à partir d’un seul clavier; les messages sont transmis en format numérique, selon un protocole bien défini. A l’origine, Midi est donc bien basé sur le contrôle gestuel instrumental: c’est une méthode pour représenter non le son, mais le geste du musicien qui joue d’un instrument Midi. En 1983 sort le premier synthétiseur à posséder une interface Midi, le Prophet 600 de la Sequential Circuits. Ce qui n’avait pas été défini, par contre, c’est le succès qu’allait rapidement remporter cette norme, qui aujourd’hui sert à interconnecter toutes les machines d’un studio de musique électronique, et même les jeux de lumières d’une scène.

    La recherche musicale

    Les travaux entrepris dès 1956 par Lejaren Hiller pour la composition de la Illiac Suite for String Quartet marquent à la fois la véritable naissance de l’informatique musicale et l’ancrage de ce domaine dans la recherche, appliquée dans ce cas à la composition automatique. L’ordinateur apparaissait alors comme une machine permettant de traiter les suites d’opérations complexes qui caractérisent la composition d’oeuvres musicales ambitieuses. Ce chemin allait être renforcé dès 1958 par le compositeur français Pierre Barbaud, qui fonde à Paris le Groupe Algorithmique en liaison avec la compagnie Bull-General Electric et entreprend ses recherches de composition automatique; dès l’année suivante, la première oeuvre algorithmique de Barbaud était composée: Imprévisibles nouveautés (Algorithme 1), avec la collaboration de Pierre Blanchard. Le programme Musicomp de Lejaren Hiller et Robert Baker, de la même époque, conçu pour l’ordinateur Illiac après la composition de la Suite Illiac, faisant de l’université de l’Illinois l’un des centres de l’informatique musicale à cette époque. Et lorsqu’en 1962, Iannis Xenakis crée ST/10, 080262, oeuvre écrite grâce au programme stochastique ST développé à partir de 1958 sur une ordinateur IBM 7090, la composition à l’aide de l’ordinateur entre dans son âge d’or. Aux Pays-Bas, Gottfried Michael Koenig rédige en 1964 le programme de composition Project I (1964), suivit bientôt de Project II (1970). La composition assistée par ordinateur s’appuie sur les mathématiques et la stochastique, puisant largement dans les ressources des processus de Markov (Hiller, Barbaud, Xenakis, Chadabe, Manoury).

    Avec l’arrivée des ordinateurs personnels se développe une nouvelle tendance: l’aide à la composition, puis la conception assistée par ordinateur de la composition (CAO). Au programme démiurge, capable d’engendrer une composition entière succède le modèle d’un environnement d’outils informatiques chargés de traiter des problèmes musicaux précis. Citons parmi les principaux: HMSL (Hierarchical Music Specification Language, 1985) à Mills College en Californie, Formes, créé par Xavier Rodet, Esquisse et PatchWork, développés à l’Ircam sous l’impulsion de Jean-Baptiste Barrière, Experiment in Musical Intelligence de David Cope, à l’université de Santa Cruz en Californie. Ces programmes sont ouverts: ils dialoguent avec le compositeur d’une manière interactive, et sont reliés à l’univers des dispositifs Midi. A l’exception de M et Jam Factory de Joel Chadabe et David Zicarelli, ils sont structurés par l’emploi de langages non numériques, issus du domaine de l’intelligence artificielle, tels que Forth, et surtout Lisp, ce qui explique qu’ils reposent non sur les mathématiques, comme ce fut le cas pour la première génération de composition assistée par ordinateur, mais sur les langages formels et les grammaires génératives.

    D’autres démarches illustrent particulièrement bien la nature de l’informatique musicale, et sa liaison permanente à la recherche: c’est le cas de la psycho-acoustique, avec les travaux de John Chowning sur la spatialisation et la synthèse du son, de Jean-Claude Risset sur l’analyse de sons instrumentaux et les illusions acoustiques, de David Wessel sur la catégorisation et le classement du timbre, ou bien encore de Stephen McAdams sur la perception de flux sonores et son interaction avec le timbre. Le Computer Music Journal et les actes des congrès ICMC (voir plus bas) rendent régulièrement compte des avancées de ces recherches. Il faut souligner que ces travaux sont menés le plus souvent au sein d’institutions universitaires pour la plupart (M.I.T. au Massachusetts, Berkeley, Stanford et San Diego en Californie, Berlin en Allemagne, Vancouver au Canada, Kunitachi au Japon, Padoue en Italie pour ne citer que quelques-uns parmi les plus connus), ou bien d’organismes spécialisés (Ircam ou INA-GRM à Paris, CMR à Rome, CDMC à Madrid, EMS à Stockholm, DIEM au Danemark, etc…). Ils ont pris la place des studios de musique électronique des années cinquante et soixante comme lieux de recherche et de création. L’informatique crée un lien entre tous les protagonistes, qu’ils soient musiciens, techniciens ou scientifiques. Ils sont désormais moins consacrés à l’offre de ressources, comme l’étaient les studios, mais plutôt à l’échange, la communication, le travail conceptuel. C’est d’ailleurs dans la quête de nouveaux modèles de synthèse du son que l’informatique musicale s’est illustrée: synthèse par modulation de fréquence, synthèse par modèles physiques, etc… En outre, le progrès de la micro-informatique musicale permet désormais aux musiciens d’installer à domicile un instrumentarium de composition et de traitement du son de qualité professionnelle; c’est, toute proportion gardée, avec l’avènement du studio personnel que l’institution doit compter, afin de situer son action beaucoup plus sur le terrain de l’invention et de la recherche que sur celui de l’appareillage.

    Le temps réel: ordinateur et univers instrumental

    Les années quatre-vingt voient se développer l’emploi de l’ordinateur en situation de concert; grâce à l’arrivée des synthétiseurs numériques en temps réel, ou, plus généralement, des processeurs numériques de son, et des langages de contrôle temps réel, les conditions sont mûres pour revisiter cette ancienne aire de la musique du XXe siècle: la musique électronique en direct (live electronic music). Dans la plupart des cas, il s’agit d’abord d’imaginer un moyen de relier l’ordinateur et sa puissance de calcul à des dispositifs de synthèse ou de traitement de son, avec, si, possible, l’interaction de musiciens. Répons (1981), de Pierre Boulez, par l’intégration des procédures de traitement à l’écriture elle-même, a montré en quoi l’ordinateur est devenu un instrument, parfaitement intégré à l’orchestre. A la suite de cette oeuvre apparaissent des travaux sur le suivi, par l’ordinateur, du jeu de l’instrumentiste, opération connue sous le nom de suivi de partition . Citons les apports de Roger Dannenberg dans l’accompagnement automatique et les langages offrant les conditions de la communication ordinateur-instrument, ceux de Max Mathews, d’abord avec le système Groove, puis plus récemment avec ses travaux sur la Radio Drum et la simulation de la baguette du chef s’orchestre, Miller Puckette avec le programme Max.

    L’interaction réclame des instruments adaptés au transfert de données à l’ordinateur. Ce sont les claviers qui ont surtout joué ce rôle; c’est ainsi que sont apparus des pianos équipés de détecteurs Midi, puis capables de jouer selon des messages Midi (Disklavier de Yamaha). D’autres dispositifs sont couramment employés: boutons, potentiomètres, interrupteurs, mais ils ne peuvent pas rivaliser avec la souplesse et les degrés de liberté d’un véritable instrument de musique, pour lequel l’instrumentiste a développé une virtuosité. Certains, comme Michel Waisvisz, ont imaginé des organes tactiles, capables de transmettre leur position, leur angle de rotation, leur vitesse; mais ce sont en général des prototypes, et seul le temps dira s’ils seront acceptés par la communauté musicale. C’est pourquoi on s’est intéressé par ailleurs à donner à des instruments d’orchestre cette capacité, en les munissant de capteurs, permettant à l’ordinateur de suivre l’exécution (flûte, vibraphone, etc…). Toute l’industrie musicale est concernée par cette tendance, bien que le procédé à employer ne soit pas encore décidé: sera-t-il électromécanique (capteurs matériels placés à des endroits stratégiques de l’instrument, membranes conductrices, etc…), ou bien faudra-t-il avoir recours à l’analyse à la volée des sons eux-mêmes pour en connaître la hauteur, la structure spectrale et le mode de jeu?

    La communauté s’organise

    Le mûrissement de l’informatique musicale s’est accompagné d’une prise en charge de la communauté des musiciens et des chercheurs par eux-mêmes. Progressivement, la conscience d’appartenance à un champ se fait jour. Les congrès internationaux apparaissent, suivis plus tard de conférences locales. Les communications qui y sont prononcées sont publiées dans des recueils disponibles pour toute la communauté. Ces réunions donnent lieu aussi à la présentation de concerts, ce qui tend à souder plus fortement entre eux la conscience d’un champ nouveau, aux composantes scientifiques et artistiques. C’est le début des International Computer Music Conferences (ICMC). En 1978 naît une organisation destinée à faciliter la communication et à aider la tenue des congrès, la Computer Music Association , qui devient en 1991 International Computer Music Association (ICMA). Les organisateurs cherchent à tenir le congrès une année en Amérique du Nord, et l’année suivante sur un autre continent. Ces congrès voient l’ICMA prendre un rôle croissant dans l’assistance apportée aux organisateurs locaux, ainsi que dans la diffusion des publications issues de ces rencontres, allant jusqu’à passer des commandes d’oeuvres qui seront exécutées au cours des ICMC (ICMA Commission Awards, 1991).

    Un autre véhicule qui soude la conscience d’appartenance à un domaine commun est le Computer Music Journal. Apparu en Californie en 1977, il est repris par MIT Press à partir du volume 4 (1980). Le journal s’impose comme la référence en matière de publications scientifiques du domaine. L’association ICMA publie un bulletin, Array, qui est devenu un organe très apprécié d’information et de discussion sur les thèmes actuels de l’informatique musicale. La revue néerlandaise Interface, qui devient à partir de 1994 Journal of New Music Research, publie régulièrement des articles sur l’informatique musicale. Au Canada, Musicworks, guidé par Gayle Young, assure l’information sur un éventail large de préoccupations des nouvelles musiques. En France, les publications de l’Ircam, InHarmonique, puis Les cahiers de l’Ircam ouvrent leurs colonnes aux considérations esthétiques, théoriques et critiques qui accompagnent le surgissement des nouvelles technologies dans les arts.

    En 1991 le journal Leonardo, publié par l’association internationale pour les arts, la science et la technologie, fondé en 1968 par Frank Malina, lance, sous la direction de Roger Malina, le Leonardo Music Journal, qui apporte une vision ample de la pratique musicale liée aux nouvelles technologies, grâce aussi à la publication, avec chaque numéro, d’un disque compact. Plus théorique, la revue Languages of Design, sous la direction de Raymond Lauzzana, s’intéresse à la formalisation dans les procédures artistiques, et accorde une large place à l’informatique musicale. A ces supports traditionnels de l’information s’ajoute la communication directe entre musiciens et chercheurs par le moyen des réseaux informatiques, permettant le courrier électronique instantané. Enfin, le besoin d’accroître la vitesse de communication a fait naître les journaux électroniques, diffusés par les réseaux tel que Internet; dégagés de la structure de fabrication, d’impression et d’acheminement, ils permettent le même type d’accès à l’information que les banques de données qui, elles aussi, se multiplient en informatique musicale.

    Biographie et discographie

    Marc Battier, compositeur, est né en France, le 21 décembre 1947.

    Dès la fin des années soixante, il a été irrésistiblement attiré vers la musique électronique. De là, il fut conduit, dès le début des années soixante-dix, vers l’informatique musicale.

    Il a créé plusieurs oeuvres dans lesquelles la voix est traitée comme élément porteur de forme, et est transformée pour devenir matériau musical: Verbes comme cueillir (1980), Action-variation (1984), Les mots y sont (1986), Transparence – Sur un audiopoème de Henri Chopin (1994).

    Après un passage comme chercheur au Groupe de Recherches Musicales de l’Ina où il travaille aux côtés de François Bayle dans les studios numériques, il rejoint l’Ircam à la fin de l’année 1979. En dehors de ses activités à l’Ircam, il enseigne la musique électroacoustique à l’université de Paris VIII et à l’université de Californie à San Diego (1984-86). Son intérêt pour la musique électronique l’a par ailleurs poussé vers la recherche sur la technologie musicale du XXe siècle, et il a conçu la collection d’instruments du XXe siècle pour le Musée de la musique de la Cité de la Musique, il poursuit cette activité en tant que chercheur associé au C.N.R.S. Il est membre de l’équipe doctorale du programme universitaire Musique et musicologie du XXe siècle, et contribue à plusieurs journaux s’occupant d’informatique musicale et de nouvelles technologies (Cahiers de l’Ircam-Recherche et musique, Contemporary Music Journal (Londres), Organised Sound (G.-B.), Leonardo Music Journal (Berkeley, USA) Computer Music Journal (Cambridge, USA), et participe à l’activité de différentes organisations musicales et multimédia internationales.

    A obtenu le prix Villa Médicis Hors Les Murs en 1984.

    Son compact-disc, Transparence – Sur un audiopoème de Henri Chopin, est sorti en mars 1995. Il a donné lieu à une exposition de partitions graphiques réalisées avec le programme Phonogramme de Vincent Lesbros à la galerie Lara Vincy, rue de Seine à Paris. (Ce CD est disponible auprès de Metamkine. Ref: BRCD 9595)

    Ink on Polyester est inclus dans la compilation Anthology of Music for the 21st Century, Leonardo/Isast, Ref. LMJ 1 (1991)

    Le texte dans son intégralité ici

    Logiciels pour NeXT

    Je continue mes recherches sur le web pour mettre à neuf et compléter les softs de mon NeXT Computer…

    Musées de l’informatique…

    J’ai trouvé sur le Web quelques beaux musées virtuels de l’informatique.

  • Sûrement le plus complet, la référence (en anglais mais créé et géré par des Français):
    http://www.old-computers.com
  • Un autre très bon site (français) :
    http://www.silicium.org
  • Encore un bon site (français) :
    http://www.wda-fr.org
  • Beau site (suisse) :
    http://www.bolo.ch
  • Un excellent site (américain) :
    http://www.computerhistory.org
  • La référence pour toutes machines de Hewlett-Packard :
    http://www.hpmuseum.org
  • Et pour finir une exposition à la Défense à coté de Paris (qui porte a controverse):
    http://www.antememoire.org