A propos



Avec cette installation musicale, nous expérimentons, Jean-Luc Hervé et moi-même, l'idée d'une écologie informatique, ramification cybernétique, en réalisant un système musical interactif (quasi-)autonome, capable d'évolution et d'apprentissage, imitant en quelque sorte des organismes vivants, tels ceux de la faune plus ou moins sauvage rencontrée lors du Laché des sons, dans le Massif du Diois.
Dans l'installation Amplification / Synaptique, l'idée d'interactivité s'effectue sur plusieurs niveaux.
Du point de vue temporel, l'installation a été prévue pour fonctionner sur internet de manière continue pendant au moins un cycle des saisons (un an).
L'évolution de ce système, et son activité musicale, s'appréciera donc sur cet ordre de grandeurs temporelles, au fil des saisons, à l'instar de l'observation ornithologique par exemple, les chants des oiseaux, et leur apprentissage, étant le plus souvent installés sur une telle période...
L'observation dépend des outils d'écoute utilisés et du nombre d'observateurs, lesquels peuvent "malencontreusement" déclencher l
'interruption temporaire de l'observation : bien que permanente, l'émission des sons peut être fugitive et plus ou moins prévisible...

Le flux audio Amplification/Synaptique est généré en temps réel sur internet par un réseaux de plusieurs centaines de neurones formels qui "apprennent", par auto-adaptation de leurs connexions synaptiques, la partition originale de Jean-Luc, les gestes musicaux constitutifs qui la composent et les règles implicites qui s'y expriment.

Les gestes, les structures harmoniques et rythmiques sont appris par un réseau en forme de carte auto-organisatrice (SOM), tandis que la structure temporelle de la pièce est apprise et réalisée par un perceptron multi-couches récurrent (MLP récurrents).

L'apprentissage et la production sonore se font conjointement : le flux sur internet donne à entendre les activations du réseau de neurones tandis que celui-ci évolue en apprennant la partition originale,
continument et relativement aux cycles écologiques du lieu du Laché des sons, dans le Massif du Diois.

La synthèse sonore est effectuée en temps-réel au moyen de trois  synthétiseurs par modulation de fréquence ad-hoc, réalisés dans le programme Puredata.
La logique générale et les réseaux de neurones est exécutée dans le même temps, en langage LISP (SBCL).
L'ensemble du système (IA, synthèse sonore, diffusion, interface web), expérimental et aux ressources matérielles volontairement restreintes, est susceptible d'évoluer. Il met actuellement en oeuvre deux PC
recyclés, GNU Linux,  de type "Pentium 3", 256 Mo de mémoire, avec internet pour seule interface.

Documentation et code source sont mis à disposition, leurs mises à jour effectuées au cours de l'évolution de l'installation (cf. liens ci-dessous).


Frédéric Voisin
Annecy, novembre 2008



 Liens

> journal


> flux audio (streaming, format ogg/vorbis, how-to)


> Maquette originale : description technique

> Exemple d'imitation du pouillot fitis par un ROSOM
> Laché des sons (2ème Partie)
> Le lux, Scène Nationale de Valence
> fredvoisin.com : site de Frederic Voisin
> neuromuse.org : site du projet Neuromuse

 Publications

- Entretiens de Gérome Delormas avec Frédéric Voisin et Jean-Luc Hervé, revue de lux #2, 2008.
-  Jean-Luc Hervé & Frédéric Voisin, 2006 :
"Composing the Qualitative, on Encore Composition", The OM Composer's Book, vol. 1, IRCAM, éd. Delatour, Paris, 2006.
-  Frédéric Voisin & Robin Meier, 2004 :
"Playing Integrated Musical Knowledge Using Artificial Neural Networks", Sound and Music Computing 04, IRCAM, éd. Delatour, Paris 2005.
-  Frédéric Voisin, 2002 :
"Taire : version neuromimétique", Revu et Corrigé, #52, éd. Nota Bene, Grenoble 2002.
(version html)