Optimisation d’algorithme, nombres de Strahler et combinatoire énumérative

En 1980, malgré les rivalités qu’il éveille, Françon est tout de même nommé professeur d’informatique à l’Université de Haute-Alsace, à Mulhouse. Il y continue ses recherches en analyse d’algorithmes jusqu’en 1984 mais sans qu’on l’autorise à l’enseigner. C’est pourtant dans ce souci constant, qui lui est propre, de lier des réflexions d’informatique théorique avec des solutions existant dans la nature ou dans les théories des sciences de la nature, que Françon, sur les conseils d’un collègue américain, prend connaissance des travaux des hydrogéologues sur les arbres fluviaux. Il reconnaît là une manière de codifier une arborescence formelle qui peut apporter quelque chose pour la structuration des algorithmes. Il lit donc de près Horton, Léopold, Strahler et les combinatoriciens qui ont développé la théorie des nombres de Strahler 1813 . En septembre 1983, alors qu’il doit inopinément s’absenter, il fait prononcer par un collègue une conférence sur ce sujet à Nancy, au 101ème Congrès de l’Association Française pour l’Avancement des Sciences. Cette conférence sera ensuite publiée dans la Revue du Palais de la Découverte 1814 . Après y avoir rappelé le fait que les nombres de Strahler se retrouvent dans de nombreux secteurs des sciences de la nature et des sciences formelles (hydrogéologie, botanique, anatomie, biochimie, combinatoire et informatique), Françon précise que sa propre problématique est d’estimer le nombre de registres de mémoire nécessaires à l’évaluation d’une expression algébrique, cette dernière pouvant toujours être décomposée selon un arbre binaire de type Strahler 1815 . Il montre ainsi que l’informatique théorique a pour sa part fait progresser ce domaine formel transdisciplinaire. À la fin de ces rappels vulgarisés et présentés sous une forme pédagogique, il adresse cette question ouverte au lecteur :

‘« Les nombres de Strahler apparaissent en informatique comme solution d’un problème d’optimisation ; ne serait-il pas possible de faire apparaître les nombres de Strahler en hydrogéologie, botanique,…, comme solution d’un principe d’optimisation, peut-être en y transposant le problème informatique ? » 1816

Françon recherche donc les éventuelles solutions que la nature auraient de son côté spontanément apportées à des problèmes selon lui analogues à ceux qui se posent en algorithmique. Ayant hérité des nombres de Strahler développés au départ dans un secteur des sciences de la nature, l’informatique théorique pourrait en retour, selon lui, éclairer les théories biologiques de la morphogenèse, par exemple. Dans un esprit proche de celui qui a pu animer la bionique, Françon tend donc la main aux sciences de la nature. D’une certaine manière, il croit fermement en une analogie entre des analogies : de même qu’il existe des analogies formelles reconnues entre différentes sciences de la nature, et étant entendu que l’algorithmique est pour lui à traiter comme une science de la nature parmi les autres, notamment dans son rapport aux mathématiques, de même il doit exister des analogies directes entre certaines sciences de la nature et l’algorithmique. L’algorithmique doit donc aller à l’école des sciences de la nature : le fait qu’elle le puisse déjà pour les problèmes de tri ou de recherche de données est une preuve suffisante pour Françon qu’elle n’est pas réductible à un sous-secteur des mathématiques. Mais, à cette époque, il conçoit tout de même cette aide ou ce transfert conceptuel sur le mode, finalement classique en biologie théorique (ainsi qu’on peut le voir chez Lotka, Rashevsky, Cohn et Rosen, par exemple), d’une théorisation explicative au moyen d’un principe d’optimisation. Mais cette idée va évoluer chez lui.

Naissance de la synthèse d’images et naissance du NYIT
Ce n’est pas ici le lieu de retracer l’histoire détaillée des techniques matérielles et conceptuelles de synthèse d’images par ordinateur 1817 . Précisons simplement qu’elle présente, grosso modo, trois périodes 1818 . La première voit la naissance relativement discrète des techniques de synthèse d’image sur ordinateur, essentiellement dans un contexte militaire (années 1950-1970) 1819 . Dès 1953, en effet, une fois couplé aux techniques radar, le système de surveillance militaire SAGE est informatisé. Il recourt alors à des techniques de graphismes vectorielles permettant le suivi des aéronefs. Ce sont des électroniciens et des spécialistes du traitement des signaux analogiques puis numériques qui développent cette première forme de synthèse d’images en grande partie en concevant des machines dédiées à la reconnaissance de formes soit par des tests de modèles statistiques soit par analyse numérique à base de transformées de Fourier rapides. Mais, au début des années 1960, Ivan Sutherland, alors professeur d’informatique à l’Université de l’Utah et futur co-directeur de l’entreprise commerciale Evans & Sutherland (fondée en 1968), amplifie le côté synthèse, en concevant et en diffusant des machines permettant de visualiser, sur un écran à balayage et à rafraîchissement de signal (de type oscilloscope), 30000 à 40000 segments de droites en 1/25ème de seconde 1820 . Ces machines, fort coûteuses mais ultra-rapides, furent ensuite diffusées dans le domaine des simulateurs de vol, et plus tard dans celui de la conception graphique industrielle, en particulier en mécanique et en chimie. La « conception graphique » recourant à ce type de visualisation sera appelée CAO à la fin des années 1970.
En 1974, le riche entrepreneur Alexander Schure crée le Computer Graphics Lab (CGL) rattaché au New York Institute of Technology (NYIT) 1821 . Schure possède une propriété voisine d’un des membres de la famille Rockfeller qui lui-même appartient au comité de direction de Evans & Sutherland. Informé par son voisin et fasciné par les premiers résultats de cette société, Schure a la volonté de réaliser le premier long métrage d’animations synthétiques et de fonder pour cela un laboratoire de recherche à New York. Il ne peut débaucher Sutherland qui se trouve lié à l’Université de l’Utah. Mais il installe Ed Catmul à la tête du CGL. Catmul vient juste de terminer son PhD chez Sutherland. Le CGL va rapidement innover grâce à des moyens financiers considérables en fait apportés par la fortune personnelle de Schure. Car le film d’animation commercialisable se fait attendre : de nombreux problèmes techniques se posent, essentiellement liés à la puissance de calcul des machines. Le CGL va donc surtout être à l’origine de nombreuses recherches, innovations ou « trucs » technologiques et algorithmiques dans le domaine de l’image de synthèse. À la fin des années 1980, le CGL a essaimé considérablement : ses anciens chercheurs sont à l’origine de la naissance ou du développement de nombreuses sociétés d’informatiques (Apple, DEC) ou de production cinématographique dont PIXAR, Lucasfilm et NVIDIA. Ils seront notamment à l’origine de la conception du film Toy Story diffusé en 1995 par Disney-PIXAR.
La seconde période dans l’histoire de l’image de synthèse, donc celle des années 1980, sera celle d’un fort développement 1822 sous les effets simultanés 1- de progrès considérables dans les périphériques de visualisation, notamment avec les machines DEC puis les stations VAX 1823  ; 2- de la mise à disposition d’ordinateurs personnels grand public (PC), avec l’industrie des jeux qui ira bientôt de pair ; et 3- de la vogue des fractales (voir encadré suivant).
La troisième période commencera au début des années 1990 et verra notamment une normalisation en même temps qu’une complexification des techniques de synthèse sous l’effet de l’accroissement en puissance de calcul des machines mais aussi face à la demande des sciences de la nature de dépasser le simple simulacre visuel, le simple « truc » de programmeur.

Par la suite, en 1984, Françon s’intéresse en effet de plus en plus directement aux problèmes théoriques que pose la synthèse d’images proches de la réalité botanique. C’est qu’il souffre du défaut de chair des concepts issus de l’informatique théorique. Il reconnaît volontiers l’aridité et l’austérité de cette science. C’est aussi pour se sauver de cette aridité qu’il provoque lui-même, si nécessaire, une rencontre plus effective avec les sciences de la nature. Il décide donc de prospecter de ce côté-là. C’est alors qu’il tombe sur l’article de l’informaticien américain Alvy Ray Smith, qui vient d’être publié dans les actes du grand colloque annuel sur la synthèse d’image, le SIGGRAPH : « Plants, Fractals and Formal Languages ». Smith est un ancien chercheur du CGL (voir encadré) et il travaille pour l’entreprise Lucasfilm depuis le début des années 1980. Dans une approche qu’il qualifie d’« imagerie sur ordinateur » et qu’il distingue en cela nettement du « traditionnel graphisme sur ordinateur » (CAO) 1824 , Smith développe une méthode générale de synthèse de tous les types de plantes à partir de L-systèmes. Fusionnant l’approche formelle de Lindenmayer et la philosophie de visualisation de l’école de Sutherland, il est le premier à rendre les L-systèmes véritablement capables de simuler visuellement des plantes sur ordinateur. Jusque là, comme nous l’avons vu, le formalisme des L-systèmes n’apportait pas avec lui un moyen d’être immédiatement et rigoureusement plongé ni appliqué dans un espace géométrique. Il y avait bien eu les tentatives d’une élève néerlandaise de Lindenmayer, Pauline Hogeweg, en 1974 1825 . Mais la conformité aux plantes réelles de ses simulations était restée très fruste. Hogeweg considérait de toute façon que les L-systèmes ne pouvaient servir de modèles rigoureux qu’au niveau cellulaire ou pour les algues et que leur usage à l’échelle pluricellulaire et organique devait demeurer purement heuristique 1826 . Elle se fondait pour cela sur le fait qu’à ce niveau, la physiologie, de par la mobilité que les cellules acquièrent après leur différenciation, notamment chez l’animal, prenait un poids considérable et qu’on ne pouvait plus considérer les cellules filles comme restant durablement les voisines de leurs cellules sœurs. Identifier systématiquement la modélisation des « cycles de vie » à celle de la croissance des pluricellulaires, comme aurait pu le suggérer l’approche originelle de Lindenmayer, avait donc quelque chose d’aventureux.

Dix ans plus tard donc, dans une perspective d’infographiste qui met cette fois-ci l’accent sur les images calculées directement de manière algorithmique, et afin de corriger l’insuffisance reconnue des L-systèmes, Smith a l’idée de concevoir la notion de graftale, contraction de « grammaire » et de « fractale ». Un objet formel est dit graftal s’il est le résultat topologique d’une grammaire de Lindenmayer géométriquement interprétée 1827 . Smith plonge dans le plan géométrique un mot géré par le système formel de règles de réécriture en associant un segment de droite à chacune des lettres E (= elongation) qui apparaissent dans ce mot 1828 . Par là, Smith veut accroître ce qu’il appelle le « facteur d’amplification de la base de données » 1829  : en scindant explicitement et nettement, dans son programme en C, la partie computationnelle et topologique de la partie interprétative et donc géométrique du traitement du graphe, il économise en temps de calcul et il rend ainsi l’ordinateur à même de faire des animations, des petits films. Ce qui est son objectif principal puisqu’il est ingénieur dans la division Computer Graphics de Lucasfilm. C’est aussi la raison pour laquelle il juge peu opérants pour le rendu en imagerie les modèles faisant intervenir des nombres aléatoires 1830 .

Avec le travail de Smith donc, on a une notion formelle qui commence à mêler et faire converger deux traditions dans un contexte d’infographie : la tradition logiciste et explicative d’une part, et la tradition géométrique et descriptive d’autre part. Cet article donne des exemples d’images engendrées par ordinateur grâce au nouveau formalisme graftal. Mais, d’une part, il ne s’agit toujours que de plantes figuratives conçues d’en haut, sans aucun souci de la conformité des parties des plantes simulées avec des entités ayant effectivement un sens d’un point de vue botanique 1831 . D’autre part, Françon sent tout de suite que la combinatoire énumérative, qui est finalement la science des arbres formels, peut faire bien mieux que les L-systèmes, que les simples rapports d’auto-similarité géométrique des fractales 1832 ou même que les graftales. Il sent qu’il peut apporter quelque chose de nouveau. C’est donc à cette période qu’il se lance, avec ses doctorants, dans des travaux sur ce qu’il appelle la « modélisation combinatoire » de plantes figuratives.

Synthèse d’images et fractales : engouement puis scepticisme
Nous évoquons ici les fractales dès lors qu’elles ont concerné, mais de façon très marginale, la problématique de la modélisation et de la simulation des plantes, en particulier dans la période qui nous intéresse. Françon et son école ont en effet eu à se positionner par rapport à elles. Rappelons qu’à sa sortie de l’école Polytechnique, Mandelbrot se rendit aux Etats-Unis pour travailler chez IBM avant d’enseigner, entre autres, à l’Université Yale. Fort de son expérience de chercheur en théorie du codage, en théorie de l’information puis en économétrie, il était devenu sensible au rôle du hasard dans les formes manifestées par le monde réel, dans « des choses très concrètes » 1833 . Il se méfiait en cela des mathématiques construites a priori. Son approche était plus soucieuse du concret et ne visait pas d’emblée à plier le réel afin de le conformer à un corps de doctrine mathématique déjà constitué 1834 . Il avait ainsi remarqué que beaucoup de formes réelles manifestent, à quelque échelle d’observation qu’on se place, une irrégularité constante. Autrement dit, si c’est bien le hasard qui donne forme à certains objets organiques ou inorganiques, on peut tout au moins quantifier le « degré » de hasard, c’est-à-dire le degré d’irrégularité qu’ils manifestent. Et on peut, de plus, faire l’hypothèse que ce degré d’irrégularité est conservé quel que soit le niveau d’observation. C’est ce qu’on appelle l’auto-similarité. C’était là reprendre, entre autres, les travaux sur le continu du mathématicien Georg Cantor et qui remontaient déjà à la fin du siècle précédent (années 1873-1877 1835 ). Une structure géométrique fut alors dite « fractale » ou auto-similaire par Mandelbrot quand elle se ressemblait à des échelles différentes. Cela revenait à dire que les mêmes lois aléatoires jouaient sur cette forme et la modelaient, à quelque niveau que ce soit. On comprend ainsi intuitivement que cette propriété puisse fréquemment être vérifiée dans le monde réel : elle manifeste une sorte d’indifférence de la nature au changement d’échelle. Elle est vérifiée en particulier par les côtes bretonnes, mais aussi par la plupart des côtes dans le monde.
Mandelbrot 1836 a donc été amené à développer une géométrie centrée sur la notion de hasard et à en tirer un outil mathématique capable d’exprimer les régularités que le hasard présente. En 1978, il s’attacha ainsi à montrer que la forme des arbres répondait à des critères de même type. Les lois de croissance étaient remplacées par des règles génératrices, mais sans le recours à une discrétisation effective : c’était selon lui sauver la modélisation géométrique des risques d’une désintégration sous les assauts répétés des modèles discrets 1837 . Il lui apparaissait qu’en fractionnant récursivement le continu, on pouvait retrouver une « mesure » de l’irrégularité des formes les plus complexes, non plus certes dans une métrique classique mais dans une dimension, la dimension non entière ou fractale. Beaucoup d’informaticiens et infographistes, séduits par la simplicité de ces règles de construction des structures complexes, se sont alors servi des fractales pour la synthèse d’images photo-réalistes 1838 . On y voyait là le développement d’une mathématisation nouvelle du monde des formes. Mais ce qui fut décisif, c’est le rôle qu’a joué, dans la popularité soudaine des fractales, leur visualisation aisée sur ordinateur. De plus, leur structure mathématique récursive les prédisposait à une programmation très facile en langage évolué. Et les calculs s’avérèrent très rapides. Ce qui permit de concevoir des films d’animations en temps réel, c’est-à-dire avec des calculs effectués entre l’affichage des deux images successives. Les images purent donc ne pas être stockées en mémoire et elles permirent ainsi une interactivité : l’industrie américaine du film et du jeu vidéo promut bien entendu la recherche en ce domaine. Dans les années 1980 donc, à l’échelle mondial, les écoles d’ingénieurs et les universités furent le théâtre d’un véritable engouement pour la synthèse d’image dans la mesure où les fractales étaient très médiatiques et séduisantes, mais dans la mesure aussi où leur apparition coïncidait avec la mise sur le marché des premières stations graphiques performantes comme aussi de nouveaux écrans (Bitmap 1839 ) basés sur le principe des pixels, ces derniers remplaçant les écrans à balayage cavalier (de l’ancienne CAO) ou à caractères alphanumériques préfixés. Cette visualisation des fractales, d’abord sur des tables traçantes sommaires dès 1973, ensuite sur imprimante puis sur écrans à pixels, a montré au grand public un usage inédit de l’ordinateur. Il consistait à utiliser les capacités de calcul de la machine mais aussi ses périphériques pour produire des images visuellement réalistes. Il s’agissait de faire imiter la réalité à une machine en lui demandant plus que la simple impression ou recopie de l’apparence sur un support, comme c’est en revanche le cas pour une photographie. En 1986, Mandelbrot résume lui-même les réflexions que cet usage lui avait suggéré : « Si je pouvais imiter la Nature, c’est que peut-être j’avais trouvé un des secrets de la Nature… » En fait, son discours séduisait d’autant plus qu’il faisait une fois de plus revivre une vieille représentation de la science conçue comme entreprise de découverte de lois de la Nature simples et universelles 1840 . Le succès momentané des fractales résultait ainsi d’une coïncidence entre une vision ontologique mathématiste assez répandue et un « truc » technologique efficace.
Mais les représentations simulées par des fractales restaient le plus souvent irréalistes dans le détail. Elles manifestaient une trop forte régularité, une trop forte homogénéité interne : de façon générale, les branches d’une plante réelle ainsi que ses rameaux ne ressemblent pas exactement voire pas du tout à la plante entière, à quelques exceptions près, comme la fougère 1841 . D’outil de synthèse d’images séduisantes qu’elles furent rapidement au départ, les fractales devinrent en fait de simples outils, parmi d’autres, d’analyse géométrique des formes au moyen de la notion de dimension non entière.
Néanmoins, l’approche de Mandelbrot et la popularité de ses images ont incontestablement accoutumé les botanistes, peu versés en informatique, à percevoir sous la forme végétale une allure globale tout à la fois stable et causée par des événements aléatoires. C’est donc par leur côté suggestif et potentiellement explicatif de cette caractéristique essentielle de l’architecture végétale (une allure générale constante pour une espèce donnée, bien qu’également déterminée par le hasard de l’environnement) que ces résultats mathématiques impressionneront les botanistes. Les botanistes et les architectes du végétal le citeront souvent, mais essentiellement pour mémoire, dès 1979 et jusqu’au milieu des années 1990 1842 .

En effet, il existe des théorèmes ou des algorithmes de combinatoire énumérative puissants qui permettent de tirer directement un arbre binaire de taille donnée dans l’ensemble de tous les arbres binaires de cette taille. Le caractère génératif et pas à pas des L-systèmes peut sembler être, sur ce point, avantageusement court-circuité. Françon oriente donc un de ses doctorants sur cette piste, Georges Eyrolles. Ce dernier obtient une bourse à Bordeaux. Françon est obligé de suivre son travail à distance. Eyrolles soutient en 1986 sa thèse de troisième cycle intitulée Synthèse d’images figuratives d’arbres par des méthodes combinatoires. Il s’agit bien d’une modélisation combinatoire : la conformité à la réalité botanique n’y est pas recherchée. C’est encore là aussi la commodité algorithmique et la rapidité qui restent le but avoué 1843 . Ces recherches formelles sur les arbres binaires seront poursuivies plus tard, notamment à Bordeaux, avec Georges Eyrolles lui-même et avec Gérard Viennot, ainsi qu’à Besançon, avec Didier Arquès. Dans ce contexte, la notion d’« image figurative » sert à désigner les images de synthèse qui « figurent » une plante, qui font illusion pour le non connaisseur, c’est-à-dire qui ressemblent qualitativement et très globalement à une plante réelle mais qui se distinguent encore fortement des images qui seraient fidèles au détail botanique.

Or, en mai 1984, il se trouve que, dans la revue Computer Graphics and Applications des IEEE, paraît un article important de deux japonais, Masaki Aono et Tosiyasu L. Kunii 1844 , respectivement ingénieur auprès de l’Institut de Recherche Scientifique d’IBM-Japon et enseignant-chercheur en poste au Département d’Informatique de la Faculté des Sciences de Tokyo. Ce travail approfondi et impressionnant par les images qu’il produit fait la synthèse des approches de modélisation mathématique a priori, qu’elles soient de type combinatoire, logiciste (Lindenmayer) ou encore géométrique (Honda et Fisher). Le but affiché par les infographistes japonais est de produire des images d’arbres très réalistes du point de vue de la botanique. Ayant montré la trop grande rigidité des L-systèmes, ils recourent au formalisme des arbres binaires et ternaires en l’associant à des règles géométriques (angles de ramification, rapports d’élongation) proches de celles de Hisao Honda. Ils ont en effet l’avantage de le connaître et de le fréquenter personnellement. Ce dernier leur a même communiqué un grand nombre des données dont on se souvient qu’il les avait glanées dans la décennie précédente auprès de ses collègues botanistes, comme Jack B. Fisher. Disposant d’un financement du Laboratoire de Recherche en Ingénierie du logiciel de la Société Ricoh, ils bénéficient également d’un matériel très performant : une station DEC VAX-11/780 fonctionnant sur un système Unix des laboratoires Bell, et un système graphique Seillac 3 doté d’une mémoire tampon étendue de 1368 x 1022 x 8. Ils programment directement en C, ce qui leur permet de concevoir un système très rapide et interactif de synthèse d’images, essentiellement à destination des paysagistes. Il faut noter qu’ils assurent le caractère très réaliste de leurs simulations géométriques par des comparaisons effectuées avec des photographies de plantes réelles, comparaisons évaluées rigoureusement au moyen de techniques statistiques. Ils calibrent ainsi leurs modèles géométriques a posteriori. C'est donc par le haut, pourrait-on dire, qu’ils assouplissent les modèles mathématiques alors que de Reffye était parti d’emblée d’une adaptation optimale par le bas, c’est-à-dire à partir des méristèmes. En tous les cas, ce que démontre cet article de manière remarquable, c’est que, quand bien même on voudrait conserver une approche par modélisation théorique, la solution purement combinatoire paraît déjà dépassée.

Sans doute est-ce une des raisons pour lesquels Françon s’en désintéresse rapidement juste après avoir dirigé la thèse d’Eyrolles. Car c’est toujours la réalité botanique qu’il a en vue : il souhaiterait du répondant de la part de véritables botanistes. Or, les informaticiens Aono et Kunii, par leurs calibrages statistiques et à échelle globale ne se fondent toujours pas sur une connaissance botanique précise. Là est la faille que l’on peut leur reprocher : ils travaillent encore uniquement pour l’infographie. Ils ne font pas du pluridisciplinaire, au sens de Françon. Ils pratiquent des « trucs » de programmeurs, avec une technique certes très avancée et surtout dramatiquement inaccessible à l’Université française, d’un point de vue financier. Mais, au regard de l’approche scientifique, on peut tout au moins leur reprocher d’ignorer la réalité botanique, c’est-à-dire de ne pas chercher à faire réellement de la science comme la conçoit Françon. Toujours est-il qu’à ce moment-là, ce dernier ne voit pas comment sortir du sentiment d’insatisfaction qu’il éprouve face aux modèles mathématiques a priori qu’utilisent massivement ses collègues.

Entre-temps, en 1985, les choses s’accélèrent de toute façon, d’un point de vue académique : Françon est nommé professeur à l’Université Louis-Pasteur de Strasbourg (ULP). Il y est chargé d’enseigner les techniques de synthèse d’image par ordinateur, matière qui n’est pas sa spécialité d’origine et à laquelle il doit mieux se former dans un premier temps. Il y prend rapidement en charge une formation doctorale en ce même domaine : peu ou prou, il entre ainsi progressivement dans la communauté des infographistes. N’oubliant toujours pas son objectif de rallier les sciences de la nature mieux que ne le font les infographistes, il décide finalement de prendre contact avec Claude Schmitt, qui est alors un de ses collègues botanistes de l’ULP, de manière à voir ce que, de leur côté, les scientifiques du végétal arrivent déjà à formaliser. Mais Schmitt travaille à l’échelle biochimique et il connaît peu les modèles d’architecture. Il conseille à Françon de s’adresser à l’Institut de Botanique de Strasbourg et à ses collègues que sont Henri Brisse et Michel Hoff 1845 . Ce sont donc ces derniers qui finissent par lui faire connaître, après bien des péripéties, les seules publications alors disponibles de de Reffye : celles de la revue Café, Cacao, Thé.

Notes
1813.

Voir notre chapitre supra.

1814.

Voir [Françon, J., 1984].

1815.

[Françon, J., 1984], pp. 32-36.

1816.

[Françon, J., 1984], p. 34.

1817.

L’historien des techniques Jean C. Baudet en rapporte quelques dates essentielles. Il insiste surtout sur la naissance de la DAO et de la CAO. Voir [Baudet, J. C., 2004], pp. 467-470.

1818.

En 1996, l’infographiste et ingénieur américain Carl Machover (actuellement, en 2003, PDG d’une société de consulting en infographie : Machover Associates Corp.) a été chargé de travailler à la constitution d’une histoire de l’informatique graphique par le bureau éditorial de la revue IEEE Computer Graphics and Application. Entrant dans le détail, il recense pour sa part pas moins de 4 périodes jusqu’au milieu des années 1970 : l’ère des commencements (milieu des années 50 – débuts des années 60), l’ère des transferts de technologie venant de l’aérospatiale (début années 60 – fin années 60), l’ère des créations d’entreprises (fin des années 60 – début des années 70), l’ère des publications (milieu à fin des années 1970). Les périodes les plus récentes ne sont donc pas encore caractérisées. Voir [Machover, C., 1997], p. 7.

1819.

Que nous avons croisé ponctuellement avec les travaux de Murray Eden.

1820.

Pour cette précision, voir [Françon, J. et Varenne, F., 2001], p. 5. Ivan Sutherland est né en 1938 dans le Nebraska. En 1963, dans le cadre de son PhD préparé au Lincoln Laboratory du MIT, il propose le premier système graphique interactif : il utilise le crayon optique du TX-2 pour entrer en mémoire des dessins d’ingénieur. Profitant du fait que le TX-2 fait alors partie des rares ordinateurs directement accessibles « en ligne » (selon le désir initial de Wes Clark, son concepteur), il utilise l’écran CRT (Cathode Ray Tube) pour reconstituer ces dessins d’ingénieurs en permettant des variations sur l’échelle et en introduisant donc l’idée d’image recalculée. Voir sur ce point, le site de sa compagnie actuelle SUN Microsystems : [Sun, 1999]. Entre 1966 et 1970, sous l’impulsion d’une problématique initialement rattachée à la simulation de vol, Sutherland a aussi été un des pionniers de la réalité virtuelle conçue comme immersion dans l’image. Il avait fabriqué un casque qui donnait l’impression de l’immobilité d’un cube virtuel malgré les mouvements du corps. Voir [Cadoz, C., 1994], p. 13. À la suite d’un contrat d’exclusivité signé dans les années 1970 avec la compagnie britannique de conception de simulateurs Rediffusion, la société Evans & Sutherland participe aujourd’hui, en 2002, à la conception de près de 80% des simulateurs de vol en service dans le monde.

1821.

Pour ces indications et quelques autres sur l’histoire du CGL, voir [Smith, A. R. et Heckbert, P., 2003].

1822.

À partir des années 1980, le SIGGRAPH passera un cap quantitatif très symptomatique : il accueillera régulièrement jusqu’à 20000 participants et visiteurs : ingénieurs, chercheurs, industriels…

1823.

Au début des années 1970, la machine commerciale DEC PDP-11 reprend les principes et la technologie du TX-2. Le CGL bénéficiera ensuite de la première station VAX apparue au milieu des années 1970.

1824.

[Smith, A. R., 1984], p. 1. Il y oppose le “traditional computer graphics which takes the ‘cubist’ approach of constructing models from geometric primitives, now the domain of CAD [Computer-Aided Design]” au “Computer Graphics, [which] is used to refer to the newer, more flexible and subtle state of the art of computed pictures.”

1825.

Pauline Hogeweg avait soutenu une thèse de biologie à l’Université d’Amsterdam en 1969. En 1976, elle soutint une seconde thèse, à l’Université d’Utrecht, en collaboration avec Lindenmayer et un des ses collègues, le Dr. Ben Hesper. Son travail avait porté sur différents problèmes d’analyse de structures biologiques. Elle avait utilisé les L-systèmes pour se spécialiser ensuite en reconnaissance et en synthèse de formes organiques. Depuis le milieu des années 1970, elle définissait cette activité de recherche comme relevant de la bioinformatique (bioinformatics). Elle avait conservé l’approche épistémologique de Lindenmayer en considérant que le but de la science en général, et des formalismes en particulier, était de rechercher les lois les plus simples permettant d’engendrer la complexité perçue dans la nature ([Hogeweg, P., 1978], p. 96). Dans l’article de 1974, paru dans Pattern Recognition, elle montrait en particulier que les L-systèmes se prêtaient mal à la représentation graphique car ils ne présentent pas une structure de données fixe et globalement accessible ([Hogeweg, P., 1978], p. 94) : on ne peut donc définir des règles simples de traduction entre les grammaires et la géométrie. Nous dirions qu’il n’y a pas de compatibilité axiomatique simple. Elle ajoutait comme Lindenmayer : « on a besoin de conventions pour les représentations spatiales », ([Hogeweg, P., 1978], p. 94). Par la suite, en utilisant le nouveau langage de simulation à événements discrets SIMULA 67, Hogeweg a l’idée de faire simuler les arborescences engendrées par les L-systèmes (dont elle avait reconnu précédemment la structure essentiellement mouvante et non définissable a priori) par des emboîtements ouverts et génératifs (engendrés au cours de l’exécution du programme) de structures de données tels que ce langage les rend désormais possibles avec la notion de pointeurs (pratique qui annonce le langage C). De façon pour nous très significative, elle avoue que c’est le passage à ce nouveau langage de programmation qui lui permet une nouvelle présentation des modèles à L-systèmes. Elle en tire cette leçon générale : “The medium in which the model is expressed is of crucial importance because it guides the initial formulation of the model and determines which extensions are conceptually ‘easy’. The medium to express simulation models is commonly called language, but its essential features are not so much those which computer languages share with natural languages, but rather the control and datastructures the computer languages provides. With respect to control and datastructures, natural languages do not differ very much, but computer languages do. Therefore different simulation languages provide different thinking media, which profoundly influence our ways of thinking and our choice of models.” En 2000, Pauline Hogeweg exerce toujours et dirige le groupe de « Biologie théorique et bioinformatique » de l’Université d’Utrecht. Elle s’est orientée récemment vers les modèles d’évolution multi-échelles, les modèles à ondes spirales et les modèles hybrides automates cellulaires/équations aux dérivées partielles pour l’embryologie.

1826.

[Hogeweg, P., 1978], p. 94 : “We stress that we regard these models as being of heuristic interest for the study of plant development.” C’est l’auteur qui souligne.

1827.

Voir [Blaise, F., 1991], p. 16.

1828.

[Françon, J., 1991], p. 241.

1829.

“ ‘database amplification’ factor”, [Smith, A. R., 1984], p. 1.

1830.

“Determinism is shown to provide adequate complexity, whereas randomness is only convenient and often inefficient”, [Smith, A. R., 1984], p. 1.

1831.

[Smith, A. R., 1984], p. 6.

1832.

Voir [Françon, J., 1991], p. 239 : « Je pense que la notion de système de production ou de récursivité dans la topologie d’une ramification est plus pertinente, pour la botanique aujourd’hui, que la seule auto-similarité géométrique. » Françon veut dire que, pour lui, l’accent est à mettre sur la forme de l’arbre, sur sa topologie, sur ses branchements et non sur ses rapports métriques. Car c’est, selon lui, à ce niveau-là que l’on peut attendre une véritable généralité de l’approche par les arbres.

1833.

[Mandelbrot, B., 1986].

1834.

« J’ai la conviction profonde que très souvent on perd plus qu’on ne gagne à l’abstraction forcée, à la vedette donnée à la ‘mise en forme’ et à la prolifération des concepts et des termes » [Mandelbrot, B., 1975, 1995], p. 11. Dans son ouvrage d’abord paru en américain en 1982, il précisera : « les nuages ne sont pas des sphères, les montagnes ne sont pas des cônes, les côtes ne sont pas des cercles, l’écorce n’est pas lisse et l’éclair ne se déplace pas non plus en ligne droite », tiré de The Fractal Geometry of Nature, New York, W. H. Freeman, 1982, cité par [Stewart, I., 1997], p. 308.

1835.

Voir la traduction de la correspondance Cantor/Dedeking dans [Cavaillès, J., 1962], pp. 187-251.

1836.

Pour une étude des implications philosophiques du fractalisme, voir [Boutot, A., 1993].

1837.

À ce titre, l’approche fractale n’est pas du côté de la simulation numérique. Contrairement à ce que l’on pourrait croire, son formalisme se présente plutôt comme une réaction contre le tout numérique.

1838.

Voir l’article de Peter E. Oppenheimer : « Real Time Design and Animation of Fractal Plants and Trees », [Oppenheimer, P. E., 1985], cité par le premier article du SIGGRAPH de [Reffye (de), Ph., Edelin, C., Françon, J., Jaeger, M. et Puech, C., 1988], p. 158. Dans cet article, ce chercheur du CGL y défend l’intérêt des fractales pour l’animation en temps réel de scènes végétales complexes : le procédé de synthèse mathématique des fractales étant très simples, les ordinateurs sont en effet soulagés d’un grand nombre de calculs : ils sont donc bien plus rapides. Du point de vue de l’infographiste, les fractales sont donc un « truc » de programmeur intéressant.

1839.

Littéralement « matrice de bits » ou « pavage de bit ». Selon Jean Françon, les écrans à balayage cavalier, pourtant très performants, ont cessé d’être construits pour des raisons essentiellement économiques : dans les années 1980, il apparut que les débouchés de la CAO industrielle n’avait plus rien à voir avec ce que promettaient la diffusion de l’informatique grand public avec ses écrans bitmap.

1840.

C’est sur ce point également que l’approche par modélisations fractionnées et par simulation informatique de de Reffye dépend manifestement d’une tout autre épistémologie, plus féconde et effectivement ouverte au réel, à sa véritable complexité. Cela reste vrai même si l’on se souvient que de Reffye recherche aussi des « lois de la nature ». De Reffye les cherche certes, mais Mandelbrot les a trouvées ; là est peut-être toute la différence.

1841.

Voir [Oppenheimer, P. E., 1986], p. 57.

1842.

Voir [Bouchon, J., 1995], p. 16.

1843.

Voir [Françon, J., 1991], p. 240.

1844.

[Aono, M. et Kunii, T. L., 1984].

1845.

[Reffye (de), Ph, Edelin, C., Françon, J., Jaeger, M. et Puech, C., 1988], p. 158. Au cours des années 1980, Brisse et Hoff travaillent à l’établissement d’un « code informatisé de la flore de France ». Leur but est, entre autres, de pouvoir quantifier la richesse floristique d’un milieu donné par rapport à une base de données générale, cette base pouvant donner lieu à des analyses statistiques rigoureuses. Michel Hoff avait commencé en développant une base de données en botanique tropicale dans le cadre de l’ORSTOM. En 1994, ils créeront l’Association d’Informatique Appliquée à la Botanique (AIAB). Voir les actes du colloque de Grenoble « Quel avenir pour la botanique ? » de septembre 2000, à l’adresse http://sgentiana.free.fr/.