Bonjour à tous,
j'ai conçu une app. web à la Shadertoy mais plutôt orienté synthèse audio additive, ça serait à cheval entre la Zik et le Code niveau section

Quelque démos sont dispo. ici :
https://www.youtube.com/playlist?list=PLYhyS2OKJmqe_PEimydWZN1KbvCzkjgeISon principe c'est de récupérer le contenu graphique RG (stéréo) ou A généré par un fragment shader et de produire du son avec, ce qui est visible c'est quasi le spectre audio en sortie en gros, l'image est capturé en temps-réel via une segmentation du canvas (représenté par des barres verticales), l'axe verticale représentant l'axe des fréquences, le reste c'est de la synthèse additive très brut avec une somme de sinusoïdes toute bête.
ça fonctionne mieux sous Chrome, ça supporte le MIDI, il y à un moteur de synthèse rapide écrit en C aussi dispo. sur plusieurs plate-formes, le programme en C permet de router les différents segments du spectre sur plusieurs canaux audio pour l'usage dans un séquenceur par exemple ou pour envoyer vers du hardware.
C'est collaboratif, plusieurs personnes peuvent "jam" en partageant le lien d'une session et le code est directement synchronisé ainsi que certain paramètres.
On peut aussi produire des visuels normaux en mettant le synthétiseur en mode monophonique, le canal alpha sera utilisé pour la synthèse additive.
C'est dispo ici :
http://www.fsynth.comEt la doc :
https://www.fsynth.com/documentation.htmlJe serait pas mal intéressé par des retours, notamment sur ce qu'il est possible de faire avec, j'ai toujours voulu faire une démo avec cette technique mais un peu trop lazy...!

Vu que l'exemple de base est un peu moyen niveau démo, j'ai crée une session demoscenefr avec du code produisant une soupe un peu plus digeste utilisant exclusivement le MIDI :
https://www.fsynth.com/app/demoscenefr