La discrétisation de l’espace

Après une nouvelle gestion du temps et les choix qu’elle impose, la deuxième génération de logiciels AMAP nécessite aussi une nouvelle prise en compte de l’occupation de l’espace. Cette étape est nécessaire puisqu’il s’agit de faire gérer, par la simulation, la gène entre les parties de la plante et l’ombrage qu’elles occasionnent sur leurs voisines. Il s’agit vraiment de mettre en œuvre le fait que l’on a affaire dès la plante unique à une population d’individus qui se côtoient et se limitent mutuellement. C’est continuer à s’inscrire, pour l’AMAP, dans la lignée de l’article de synthèse de James White. Or, comme le remarque White 1909 , reprenant en cela une image du botaniste allemand E. Münch, une plante ne présente jamais la forme d’un « balai de sorcière » (witchbroom) : les méristèmes physiologiquement réunis ne sont pas indépendants. Le refus de l’image du balai figure cette idée que les branches d’un arbre ne sont pas rassemblées accidentellement, en vrac, mais que leur disposition dépend d’une histoire commune. Il faut donc traiter toutes les exclusions possibles : à l’intérieur d’une même plante, entre une plante et un obstacle inerte ou entre deux plantes. L’objectif principal est de simuler la croissance dans un environnement hétérogène et évolutif. Les simulations ne seront plus des maquettes de type « fil de fer ». Elles auront une épaisseur.

La solution préconisée est de poursuivre la tendance à discrétiser la nature. L’espace lui-même sera donc traité comme un amas de cubes élémentaires de côté fixe et les coordonnées géométriques des éléments de la plante seront arrondies pour tomber dans un de ces cubes : il faut logiciser le géométrique pour que logique et géométrie soient compatibles pas à pas, mais aussi pour que les calculs soient exécutables en un temps limité. En effet, les solutions de géométrie analytique, même si elles peuvent paraître élégantes et plus fidèles à la réalité des formes élémentaires (entrenœud, feuille, rameau, tige), exigent la mise en œuvre de calculs prohibitifs, étant donné le nombre d’éléments qu’il y aurait à considérer 1910 .

Aussi, Blaise reprend-il aux techniques d’imagerie médicale la notion d’espace voxel 1911 . Le voxel est l’analogue, pour les volumes, du pixel. C’est l’unité de volume minimale visible à l’écran. Selon Blaise, qui reprend en cela les arguments de Ned Greene 1912 , « grâce à cet espace discrétisé, il est plus facile et plus rapide de déterminer certaines relations, telles la proximité ou l’insertion, entre des objets géométriques que par la géométrie analytique » 1913  . Au fond, l’enjeu de cette discrétisation est de remplacer des relations métriques par des relations logiques de type présence/absence. Elles sont plus faciles et plus rapides à gérer pour les algorithmes qui s’occupent de la croissance ramifiée et stochastique. Il est donc utile de discrétiser très en amont et pas seulement dans la dernière phase de l’affichage sur écran bitmap. Ainsi le parallélisme du traitement (le passage incessant du topologique au métrique) est lui-même facilité. Mais il s’agit aussi de maintenir, moyennant ces conditions de modélisation, la performance de l’outil informatique disponible. On a donc affaire à une solution de compromis. Car ce remplacement est justifié par la moindre longueur des calculs mais aussi par une plus grande « facilité » conceptuelle pour le programmeur.

Pourquoi peut-on parler de plus grande facilité de conception du modèle dans ce cas ? Blaise le précise lui-même. La plupart du temps, un voxel est de nature binaire ; c’est-à-dire qu’à ses trois coordonnées discrétisées ne répond qu’une variable ayant seulement deux états possibles : « voxel déjà occupé » / « voxel non occupé ». Ainsi les conflits pour une occupation de l’espace sont-ils réduits à un principe d’exclusion des plus simples et le traitement informatique y devient facile à programmer et ultra-rapide dans son fonctionnement. Or, même si l’idée d’une simplification de ce type reste une perspective opérante, Blaise convient néanmoins que, dans le cas de la plante, « une information binaire s’avère trop primitive » 1914 . On doit en effet pouvoir gérer certaines cohabitations entre certaines parties bien définies de la plante : « Dans le cas d’un arbre, lors d’une ramification, l’axe porteur [sic] voit automatiquement sa première unité de croissance appartenir, au moins en partie, au voxel déjà occupé par l’unité de croissance de son axe porteur qui a ramifié. » 1915 Donc le principe du traitement de l’espace par présence/absence dans un réduit élémentaire ne suffit pas pour les arborescences sans discontinuité. Il faut que le voxel puisse signaler quel type de partie de plante l’occupe déjà afin que l’on puisse tempérer le principe d’exclusion.

Un autre problème spécifique doit être résolu par Blaise. C’est le problème de la discrétisation optimale d’un segment dans l’espace 3D. La solution qu’il propose consistera en une extension d’un algorithme classique de l’imagerie de synthèse 2D. L’intérêt de la technique retenue tient au fait qu’elle est analogue à une technique classique d’affichage de segment sur écran à pixels : l’algorithme de Bresenham 1916 . Or il faut bien comprendre ici que cette généralisation ne s’impose pas d’abord dans le but d’améliorer le rendu d’une image, mais dans le but de restituer le mieux possible dans le modèle les parties discrétisées d’une plante, et ce afin d’introduire le minimum d’erreur systématique.

Discrétisation de l’espace et erreur systématique
Il n’existe pas de solution générale au problème du passage de la géométrie euclidienne à l’espace discrétisé. Cette difficulté est devenue classique dans l’infographie dès lors qu’il s’est agi de faire contrôler par l’ordinateur un affichage sur écran bitmap ou sur une imprimante numérique (à distinguer des anciens plotters ou traceurs de courbes dont le signal de commande et le tracé étaient analogiques 1917 ). Le problème réside dans le choix des pixels à colorier lorsque l’on veut discrétiser un segment : on peut montrer qu’il n’est pas optimal (notamment pour la discrimination de différents segments) de choisir systématiquement tous les pixels traversés par le segment. En 1965, l’ingénieur américain J. E. Bresenham a proposé un algorithme général permettant de supprimer les pixels jugés surnuméraires en faisant le moins de calcul possible 1918 . C’est celui-ci que Blaise adapte au cas des voxels sans prétendre toutefois proposer un algorithme optimal, ce qui serait une tâche ardue et hors des limites de son travail : il peut compter sur des ressources en mémoire suffisantes.
On peut imaginer ici que Blaise mesure particulièrement bien le sens de ces difficultés parce que son professeur, Jean Françon, y a récemment réfléchi, avec son collègue Jean-Pierre Reveilles. Depuis la fin des années 1980, de manière assez provocante, ils proposent que les concepteurs de modèles ou de théories mathématiques passent directement à la géométrie discrète dès lors qu’ils envisagent d’utiliser l’ordinateur. Ils rappellent que l’algorithme de Bresenham oublie les coordonnées euclidiennes des morceaux de segment précédemment affichés : il y a donc perte d’information 1919 . Or, dans certains cas, on ne doit plus considérer cela comme une simple approximation du continu par le discret, car il surgit des phénomènes de propagation d’erreur d’arrondi qui ne sont pas du tout maîtrisés ni même maîtrisables en droit 1920  : « le fond de l’affaire est que les théorèmes de la géométrie euclidienne ne sont pas transportés par discrétisation. » 1921 Il n’y a pas d’invariance structurelle. Il n’y a pas d’isomorphisme entre la topologie ou la géométrie discrète et la géométrie euclidienne. La traduction de l’une en l’autre est toujours ambiguë. Il faut donc partir directement d’une géométrisation discrète du monde, selon eux, non pas parce que le monde est discret 1922 , mais parce que, à terme, on ne pourra calculer des modèles compliqués sur ordinateur, en maîtrisant les erreurs, qu’à cette seule condition : « il faut donc construire une géométrie sur des objets discrets dans laquelle on raisonne et on calcule rigoureusement. » 1923 Cette voie de recherche en géométrie dite « discrète » s’est considérablement développée dans les années 1990, notamment dans les laboratoires de l’INRIA.

L’algorithme de notation d’un segment dans un espace voxel 3D a donc pour but essentiel d’approcher au mieux, par les structures de données informatiques, la réalité de la plante, pour que le traitement des collisions soit le plus réaliste possible. Il est ainsi significatif que ce problème d’un rendu réaliste d’un objet 3D dans un espace abstrait, et à des fins de simulation la plus fine possible, soit analogue au problème d’un rendu réaliste pour l’œil d’une image 2D sur écran. Dans ce cas précis, comme l’espérait Françon, la simulation des formes végétales permet bien d’acquérir un regard nouveau et productif sur l’algorithmique.

Enfin, dans le but de montrer que le choix du pas de discrétisation spatiale ne crée pas d’artefact par rapport au modèle qu’on voudrait lui voir simuler, Blaise procède à des calculs réitérés de simulation en ne faisant varier que ce pas. C’est par ces expériences de simulation réitérées et en constatant la stabilité du point de vue statistique des simulations obtenues qu’il en conclut que la discrétisation de l’espace est correctement adaptée aux objectifs 1924 . Il faut noter que Blaise parle bien alors d’« expériences » 1925 . Il teste les propriétés statistiques des simulations en utilisant un logiciel d’analyse statistique d’usage courant, SAS, comme on le ferait pour un plan d’expériences réelles. Ce travail peut être considéré comme faisant partie du stade de vérification (innocuité de l’implémentation par rapport au modèle).

Notes
1909.

[White, J., 1979], pp. 121 et 134 : « La forme des arbres, bien qu’elle soit génétiquement déterminée, est un résultat de processus démographiques, la naissance et la mort des méristèmes. » Références de l’article de E. Münch cité par White, p. 121 : „ Untersuchungen über die Harmonie der Baumgestalt“, Jahrb. Wiss. Bot.,1938, 86, pp. 581-673.

1910.

[Blaise, F., 1991], p. 108.

1911.

La notion de voxel vient d’une contraction de l’anglais volume et element ou pixel (pixel = picture + element). Elle désigne un cube qui vaut comme élément de volume d’une image numérique. Elle apparaît, dans les années 1970, dans le contexte des techniques de reconstruction volumétrique nécessaire à la tomographie à rayons X assistée par ordinateur, dite tomographie computerisée (CT, apparue en 1972). Son emploi se généralise avec le développement des techniques d’IRM dans les années 1980. Voir [Demeure, R. J., 1999], p. 108. À la fin des années 1980, le secteur de la synthèse d’images s’en empare à son tour car les écrans bitmap sont disponibles et les images sont alors calculées bien plus rapidement avec ce formalisme qu’avec la géométrie analytique. Voir [Greene, N., 1989], p. 175.

1912.

Alors ingénieur au CGL. Après sa thèse de Master au NYIT, il est embauché par Apple en 1989.

1913.

[Blaise, F., 1991], p. 108. Voir également [Greene, N., 1989], p. 175.

1914.

[Blaise, F., 1991], p. 110.

1915.

[Blaise, F., 1991], p. 110. Nous pensons que Blaise a voulu écrire ici « rameau porté par l’axe » ou « axe d’un ordre supérieur » à la place du premier « axe porteur » de cette phrase. On peut la comprendre aisément toutefois.

1916.

[Gardan, 1983], cité par [Blaise, F., 1991], p. 113.

1917.

Grâce à un convertisseur de signal numérique/analogique qui pouvait équiper en sortie les premiers ordinateurs des années 1950-1960.

1918.

Voir [Bresenham, J. E., 1965], p. 25.

1919.

[Françon, J., et Reveilles, J. P., 1990], p. 5.

1920.

Dès lors que le programme peut ne pas se terminer. Voir [Françon, J., et Reveilles, J. P., 1990], p. 4.

1921.

[Françon, J., et Reveilles, J. P., 1990], p. 6.

1922.

Même si Jean Françon l’affirme parfois par provocation. Voir plus précisément [Françon, J., 1997], p. 29 : « Je remarque que l’informatique nous a amenés à penser en termes de processus discrets à temps discret ; que les problèmes posés par l’informatique géométrique et graphique ont obligé les chercheurs à penser le discret, et le discret par excellence qu’est le fini, autrement : non pas comme une approximation ou un échantillonnage du continu mais en soi… »

1923.

[Françon, J., et Reveilles, J. P., 1990], p. 8.

1924.

[Blaise, F., 1991], p. 152.

1925.

[Blaise, F., 1991], pp. 138 et 146.