Voir les contributions

Cette section vous permet de consulter les contributions (messages, sujets et fichiers joints) d'un utilisateur. Vous ne pourrez voir que les contributions des zones auxquelles vous avez accès.

Messages - Zavie

Pages: [1] 2 3 ... 11
1
Productions / Re : Ctrl-Alt-Test - H - Immersion
« le: 01 Novembre 2018 à 03:29:17  »
Merci. :)
Je ne sais pas encore si ça sera enregistré. En tout cas on mettra les slides à disposition sur le site.

2
Productions / Re : Ctrl-Alt-Test - H - Immersion
« le: 29 Octobre 2018 à 03:14:56  »
Salut,

Au risque de faire de l'autopromotion, notre 64k a été acceptée au SIGGRAPH Asia 2018, qui a lieu en début décembre à Tokyo.

Au début il y a eu un moment de surprise et d'interrogation quand on a appris avoir été acceptés, mais sans savoir exactement ce que l'on allait attendre de nous. Depuis le programme a été publié, et c'est comme ça qu'on a compris avoir un créneau de 1h45 (!) qui nous est réservé. Pas de pression du tout hein. :-)

Bon en gros on va couvrir le contenu de nos derniers articles su Immersion et la 64k en général.

Notre annonce officielle : http://www.ctrl-alt-test.fr/2018/talk-at-siggraph-asia-2018/

Bref, si d'aventure vous êtes au SIGGRAPH cet hiver, venez faire coucou. :)

3
Productions / Re : Ctrl-Alt-Test - H - Immersion
« le: 04 Janvier 2018 à 04:05:46  »
Merci les gens, ça fait plaisir de voir que vous appréciez. :)

Idéalement on aurait voulu laisser l'effet de propagation : dans le script original, le réveil était sensé se passer en deux temps, la lumière, puis l'émersion. Mais en pratique on ne voyait pas trop comment avoir les deux de façon satisfaisante, donc on est passé direct à l'émersion.

En tout cas si ça vous a plu, parlez-en autour de vous ! ;) Là on n'a plus l'effet Revision donc c'est difficile d'attirer l'attention.

4
Code / Re : Obtenir depth et albedo avec une photo
« le: 11 Juillet 2017 à 14:06:48  »
Wow, ça envoie du pâté ! Merci pour le lien, j'avais vu passer un extrait de la vidéo, mais je n'avais pas regardé plus en détail. Impressionnant de simplicité.

Bon par contre ça résout un segment du pipeline, mais il reste tout un tas de problèmes, dont la capture avec calibration des couleurs. Il me semble qu'en général pendant la prise de vue on essaie également d'avoir l'éclairage ambiant, mais j'imagine que leur outil doit faire une analyse statistique grâce à la normal map pour en déduire une approximation. Beau résultat en tout cas !

5
Code / Re : Obtenir depth et albedo avec une photo
« le: 25 Mai 2017 à 17:03:32  »
Je prends pas mal de photos de textures, et je me demande comment avoir une map d'albedo/diffuse et depth (voire shininess?) à partir d'une photo. Internet liste un certain nombres de logiciel mais je me demande comment font les gens de ce forum  :D

Le mot clé que tu cherches est "photogrammetry".
C'est à la mode ces dernières années (Starwars Battlefront de Dice, Kite demo de Epic...), donc tu devrais pouvoir trouver pas mal de publications sur le sujet. J'ai des collègues qui bossent là dessus, et apparemment c'est quand même assez complexe pour mettre en place tout le pipeline.

6
Code / Re : Je fait encore du desktop, rendu PBR wannabe
« le: 24 Février 2016 à 17:07:55  »
Pour plus de détail regarde la différence entre les modèles metal+roughness (base color, metallic, roughness) et specular+glossiness (diffuse, specular, glossiness).

Par exemple : https://forum.allegorithmic.com/index.php?topic=3243.0

7
Blabla de sceners / Re : Tokyodemofest 2015
« le: 30 Novembre 2014 à 16:55:58  »
@flure, @ntsc: bah j'espère qu'on aura quand même l'occasion de vous voir lors d'une édition par trop lointaine. ;)

@maracuja: c'est pour ça qu'on a bricolé cette page : http://tokyodemofest.jp/2014/?lang=en&page=location

8
Blabla de sceners / Re : Tokyodemofest 2015
« le: 24 Novembre 2014 à 13:32:01  »
Merci Den. :)

@flure: ils vous arrive quoi en février qui vous bloque ?

9
Blabla de sceners / Re : Tokyodemofest 2015
« le: 23 Novembre 2014 à 17:43:39  »
@flure : tu dis ça comme si tu étais venu les quatre années précédentes... :-]

@kaneel : je n'ai pas saisi la référence ?

@ntsc : ouais je sais bien. :-/ J'ai le même problème quand il s'agit d'assister à une demoparty en Europe.

@maracuja : ah ce serait super sympa si un groupe de français faisait le déplacement. Note qu'on organise ça à l'Institut français. :)

10
Blabla de sceners / Re : Tokyodemofest 2015
« le: 19 Novembre 2014 à 14:46:10  »
Les dates sont 21 et 22 février 2015.

https://twitter.com/TokyoDemoFestEN/status/535063787351470080

Alors, qui vient ?

11
Blabla de sceners / Re : Tokyodemofest 2015
« le: 19 Novembre 2014 à 14:46:02  »
Que j'aime ce genre de design retro-futurist. Bon choix de couleur.

Réalisé par mog, de TRBL. :)

12
Blabla de sceners / Re : Tokyodemofest 2015
« le: 18 Novembre 2014 à 14:51:26  »
Salut,

Petite update : un site "teaser" a été ouvert, en attendant tous les détails de l'évènement.
http://tokyodemofest.jp/2015-teaser/

Les dates notamment ne sont pas encore indiquées, si ce n'est "quelque part entre janvier et mars", mais elles devraient être annoncées dans les jours qui viennent.

Et toujours sur Twitter et Facebook :
http://twitter.com/TokyoDemoFestEN
http://www.facebook.com/TokyoDemoFest

13
Blabla de sceners / Re : Tokyodemofest 2015
« le: 28 Juillet 2014 à 04:05:49  »
Salut,

Il n'y a pas grand chose de particulier à noter pour venir au Japon. Pour les Européens il suffit d'avoir un passeport et prendre l'avion : un visa tourisme de trois mois est délivré à l'arrivée (sous forme de tampon sur le passeport).

Pour ce qui est des choses à savoir sur place, on a rassemblé un certain nombre d'infos ici :
http://tokyodemofest.jp/2014/?lang=en&page=location

Bref, viendez. :)

Les dates sont encore à décider par contre. C'est en cours.

14
Productions / Re : Ctrl-Alt-Test - F - Felix's Workshop
« le: 08 Décembre 2013 à 14:41:47  »
Salut, merci pour le commentaire. D'ailleurs merci à toi aussi flure, bientôt deux ans plus tard, ça fait toujours aussi plaisir à lire. :)

Comme on est en 64k utiliser un logiciel de modeling est difficile car enregistrer des données brutes n'est pas adapté aux restrictions de taille. Enfin on pourrait enregistrer quelques meshes, et peut-être convertir vers un format maison moins coûteux, rogner sur la qualité et la précision (IQ donne quelques pistes dans cette direction)... c'est à ma connaissance ce qui est fait dans des intros comme 195/95/256 ou Ars Nova, mais ce n'est pas l'approche qu'on a utilisé.

Les modèles sont des assemblages de formes simples : cubes et formes de révolution essentiellement. Toute l'astuce consiste à les déformer et assembler (et oui, cette partie là est en dur). Le tabouret par exemple est assez simple à comprendre. Le fauteuil est moins intuitif : ce sont des formes similaires à celles du tabouret, mais qui ont été étirées pour donner cet aspect pavé aux bords arrondis. L'ornement de la cheminée est également une forme de révolution avec seulement huit faces, et un motif assez complexe et beaucoup de faces dans le sens de l'axe. Pour tout ce qui est courbes 2D ou 3D, on a utilisé un petit outil simple pour décrire des splines.

Finalement il n'y a rien de très compliqué, juste beaucoup de petites choses simples mises bout à bout.

15
Code / Re : Volumetric light ?
« le: 06 Novembre 2013 à 13:10:50  »
Ca marche mais t'as encore plus simple c'est d'ajouter le Z des backfaces et soustraire le Z des frontfaces, et ça fonctionne que ton volume soit convexe ou concave...
Ah oui exact, excellent !

Citer
Sinon oui, raymarching d'une shadow map, c'est beaucoup plus simple que d'extraire les silhouettes et au moins ça te permet de varier la densité locale du milieu alors qu'avec l'autre méthode ton milieu est forcément homogène. Encore que vu l'image que t'as postée ça a l'air d'être homogène de toute manière...
Oui, oui, c'est clairement plus simple et plus souple. Seulement si tu es shading bound, tu es triste.

Mais maintenant que j'y pense, on peut combiner ces approches un peu comme on veut : mon histoire de stencil, finalement ça revient juste à déterminer les fragments qu'on veut shader, mais on reste libre quant au shading.

Donc une fois qu'on a nos fragments, selon comment on les a obtenu, on peut soit faire un rendu transparent (pou le cas de la série de plans transparents, et là tu paies ta facture en overdraw), soit utiliser la technique du Z buffer, soit passer ça au raymarcher (auquel cas on ne paie que la zone éclairée plutôt que tout l'écran ; évidemment calculer la silhouette pour en plus faire du raymarching, ça ne donne pas forcément envie :) mais avec l'autre méthode ça pourrait être rentable).

Pages: [1] 2 3 ... 11