Auteur Sujet: Fragment - Synthé additif et live-coding  (Lu 594 fois)

0 Membres et 1 Invité sur ce sujet

Bonjour à tous,

j'ai conçu une app. web à la Shadertoy mais plutôt orienté synthèse audio additive, ça serait à cheval entre la Zik et le Code niveau section :)

Quelque démos sont dispo. ici :

https://www.youtube.com/playlist?list=PLYhyS2OKJmqe_PEimydWZN1KbvCzkjgeI

Son principe c'est de récupérer le contenu graphique RG (stéréo) ou A généré par un fragment shader et de produire du son avec, ce qui est visible c'est quasi le spectre audio en sortie en gros, l'image est capturé en temps-réel via une segmentation du canvas (représenté par des barres verticales), l'axe verticale représentant l'axe des fréquences, le reste c'est de la synthèse additive très brut avec une somme de sinusoïdes toute bête.

ça fonctionne mieux sous Chrome, ça supporte le MIDI, il y à un moteur de synthèse rapide écrit en C aussi dispo. sur plusieurs plate-formes, le programme en C permet de router les différents segments du spectre sur plusieurs canaux audio pour l'usage dans un séquenceur par exemple ou pour envoyer vers du hardware.

C'est collaboratif, plusieurs personnes peuvent "jam" en partageant le lien d'une session et le code est directement synchronisé ainsi que certain paramètres.

On peut aussi produire des visuels normaux en mettant le synthétiseur en mode monophonique, le canal alpha sera utilisé pour la synthèse additive.

C'est dispo ici : http://www.fsynth.com

Et la doc : https://www.fsynth.com/documentation.html

Je serait pas mal intéressé par des retours, notamment sur ce qu'il est possible de faire avec, j'ai toujours voulu faire une démo avec cette technique mais un peu trop lazy...! :)

Vu que l'exemple de base est un peu moyen niveau démo, j'ai crée une session demoscenefr avec du code produisant une soupe un peu plus digeste utilisant exclusivement le MIDI :

https://www.fsynth.com/app/demoscenefr

bien j'vais essayé de généré des sons avec ça,
j'y comprend rien mais j'vais essayé, je sais même pas si ont peut save en wav, apparemment ça fait du MIDI et enfaite pour du midi manipuler c'est pas mal ,
pour l'instant ça marche sur FF,
j'avais taffé des effets shader applicable sur un sample charger en texture , limité en précision 24bits mais potable et puissant ,  faudrait que j'mi remette, à uais sauf que ça veux dire arrêté de taffé de la 3D je sais pas si j'ai envie ,
ça vas faire 3 mois que j'ai pas faite de son ça commence à daté sec si ça continu je risque d'oublier que je suis un musicien !!
là s'poste c'est un signe ,le plant divin !  c'est pour me dire que la 3D personne en a rien à foutre comparé à écouté du son,
simple à comprendre une image a moins d’impacts sur le stresse alors que la musique en a un intense,
mais pareil j'ai trop faite des musiques complexe qui finalement non pas ...