2.2.2 Quelques propos sur l’interdisciplinarité et les concepts fédérateurs

Selon Popper l’histoire interne de la science peut être complétée par des théories externes de l’histoire, notamment en ce qui concerne la grande fréquence des découvertes simultanées. Dans la perspective inductiviste il est normal qu’elles se produisent simultanément parce qu’elles sont d’ordre factuelle. Pour le falsificationnisme une découverte n’est pas un fait mais une théorie ; dès qu’une théorie est inventée, elle est mise à la disposition du public, intégrée dans un circuit de communication spécialisée ; elle se rend apte à être mise à l’épreuve par plusieurs personnes et ouverte à des interprétations diverses. Lakatos (1994 : 206) refuse la prise en compte du contexte historique pour résoudre cette question. Mais il accepte que l’histoire des sciences étant composée de programmes de recherche rivaux, la plupart des découvertes simultanées (théoriques ou factuelles) s’expliquent par le fait que les programmes de recherche étant propriété publique, beaucoup de gens travaillent sur ces programmes dans différentes parties du monde. Il insiste sur le fait que des développements authentiquement inédits et révolutionnaires sont rarement inventés simultanément. Certaines découvertes soi disant simultanées de programmes inédits ne sont considérés comme ayant été simultanées qu’à cause d’un point de vue rétrospectif erroné parce qu’ il s’agit de découvertes différentes, plus tard fondues en une découverte unique 106 . Ainsi, contrairement aux inductivistes et aux falsificationnistes, pour lui certaines querelles de priorité sont des problèmes internes.

Pour ce qui est de l’analyse terminologique appliquée à un domaine, outre les apports importants que l’histoire interne peut apporter, la synthèse interdisciplinaire et intradisciplinaire fait envisager un fil conducteur, une sorte de méthode générale, dans la diversité des méthodes d’investigations. Ainsi, quatre principes généraux semblent diriger l’harmonisation des différents procédés : la révisibilité, l’interconexion entre théorie et expérimentation, la solidarité des connaissances par le biais de la multidisciplinarité et l’interdisciplinarité ; et, finalement, la technicité de la connaissance scientifique. Tous ces aspects peuvent aider à comprendre la nature, le fonctionnement terminologique et langagier d’un domaine. Il est, de plus, intéressant pour comprendre l’avènement et le succès du programme de recherche de l’Écologie et à sa suite la Pollution, d’exposer le développement des sciences qui ont permis leur avènement : la Physique, la Chimie, la Biologie et les Sciences de la Vie et de la Terre.

Lakatos (1994 : 62) ayant fait référence au problème de l’évaluation objective du développement des sciences en termes de déplacements progressifs et dégénératifs de problèmes dans des séries de théories scientifiques remarque que les séries les plus importantes pour le développement des sciences se caractérisent par une certaine continuité qui relie leurs termes, et qui provient d’un authentique programme de recherche ébauché dès le début. Ce programme se compose de règles méthodologiques sur les voies de recherche à éviter (“heuristique négative’’) ou à poursuivre (“heuristique positive’’) en remarquant ainsi que l’heuristique négative et positive donne une définition approximative (implicite) du “cadre conceptuel” (du langage). Et il précise très à propos

‘La science dans sa maturité consiste en programmes de recherche dans lesquels sont prévus non seulement des faits inédits, mais aussi, ce qui est significatif, des théories auxiliaires inédites ; la science qui a atteint sa maturité, à la différence du processus piétinant par essais et erreurs, possède un “pouvoir heuristique”. Rappelons-nous que l’heuristique positive d’un programme puissant contient, dès le début, une esquisse générale de la façon dont on construira ses glacis protecteurs : cette heuristique positive engendre l’autonomie de la science théorique.(ibid., 125)’

En commençant par la Physique, le XVIIe siècle fut véritablement l’époque du concept de mécanisme comme modèle unificateur de la connaissance scientifique : de l’horlogerie à l’astronomie physique, en passant par la physique quantitative et l’astronomie tout était du ressort de la mécanique. Ce paradigme conceptuel fut déchu, fin XVIIIe et début XIXe s, par l’avènement du concept clef organisme. Par conséquent, le XIXe siècle fut le symbole de la crise paradigmatique de la Physique qui, par ailleurs, ne lui sera que bénéfique 107 . Le XXe siècle en est la preuve. Les historiens des sciences considèrent la révolution Scientifique de la Physique comme le véritable passage à la Science moderne. Ceci présuppose les notions de rationalisme, d’émancipation scientifique et de reconnaissance consensuelle du rôle extraordinaire des savants. En un seul mot, ce siècle servit d’incubateur aux progrès du XXe siècle. Cela dit, la Physique depuis les grecs ne cessa d’expliquer la Nature dans une perspective macroscopique. Tout d’abord, la mécanique, science des mouvements des corps, si chère aux grecs, fut perfectionnée depuis la nuit des temps par, notamment, Aristote 108 , Galilée 109 et finalement Newton 110 qui posèrent les bases d’une Mécanique moderne. Le concept d’action à distance constitua la première pierre de l’édifice Physique.

Sa construction se fit au XIXe siècle avec les contributions de Laplace et Hamilton qui édifièrent les bases d’une théorie de la Mécanique Moderne, formalisée et logique, à travers les quelques concepts fédérateurs d’énergie, travail, moment cinétique et moment angulaire.Les avancées en Physique sont dues, par surcroît, aux découvertes liées à la Thermodynamique. Celle-ci se centrait sur les relations de chaleur, de température et de mouvement. Elle fut également formalisée en doctrine logique au même moment que la Physique. La notion de chaleur et, surtout, les questions concernant sa nature, étaient une des préoccupations capitales de l’époque galiléenne. Ainsi deux perspectives se dégagèrent : la première, celle du calorique, de Joseph Fourier qui la considérait comme une substance sans masse, la deuxième, attribuée à Thomas Young, qui voyait en elle une vibration provoquant l’agitation des substances et par là l’idée, déjà sous-entendue, de la dégradation de l’énergie 111 .

Finalement, la problématique se trouvait dans les rapports entre chaleur et température. Ces questions expliquaient formellement les principes de la Thermodynamique sur l’équivalence du travail et de la chaleur ainsi que celui de l’impossibilité du mouvement perpétuel. On doit ces principes, notamment, à Sadi Carnot, Mayer Tomson, Joule et à l’allemand Clausius. Ce dernier les synthétisa et les reformula par l’introduction du nouveau concept d’entropie. Les travaux en Thermodynamique deviendront essentiels pour la compréhension de certains phénomènes en Écologie tels que l’entropie pour les questions liées aux notions d’équilibre et de déséquilibre écologique des écosystèmes. Entre-temps, les recherches et les découvertes s’amplifiaient. La statistique s’appliquait à la Thermodynamique permettant de la sorte l’avènement d’une nouvelle discipline : la Physique statistique. Le nouveau concept fédérateur fut celui de matière 112 . Presque aussitôt, surgit le concept clef d’atome et de molécule. Un pas de géant venait d’être franchi pour la compréhension non seulement du système Terre mais aussi du système planétaire.

L’application de la statistique à la Physique nous la devons à Boltzmann, Maxwell et Gilles qui défendaient un système physique formé d’un nombre infini de particules aux comportements aléatoires et dont les valeurs moyennes étaient dégagées par des propriétés. Ainsi, la pression d’un gaz, par exemple, n’était autre chose que la somme des forces que les particules exercent sur les parois d’un récipient (ALLÈGRE, 1995: 37). Malgré l’hégémonie d’une méthode rationaliste et déterministe, si chère à Auguste Comte et à son disciple Littré, désormais, les évidences se tournaient vers les lois de la probabilité. La matière a des comportements désordonnés qui échappent aux lois déterministes mais qui se conforment bien au calcul des probabilités. Progressivement, et ceci malgré les voix dissonantes et les pressions académiques qu’ici et là subissaient ces communautés scientifiques, l’observation microscopique concurrençait la traditionnelle méthode macroscopique.

Dans le droit fil de ces idées, il n’était pas surprenant que les liens interdisciplinaires entre Thermodynamique et Mécanique aient été à la base de la théorie quantique qui gouvernera la Physique tout au long de notre siècle. Dans une autre perspective, la Physique, dans le cadre de l’optique, s’était toujours intéressée aux questions sur la lumière. Le thème qu’on y voyait le plus constamment traité était celui de la nature des rayons lumineux, analysé souvent sous ses deux aspects prétendus contradictoires : d’une part, la lumière comme ensemble de particules de couleurs (décomposée par les prismes de Newton), d’autre part, la lumière comme ensemble d’ondes (Huygens). Un concept les liait : la lumière se propage en ligne droite. Ce fut d’ailleurs ce constat qui permit la création des instruments d’optique. Cet antagonisme trompeur ouvrit la voie à deux types de recherche : d’un côté les travaux sur les caractéristiques particulaires de la lumière, de l’autre les travaux sur ses caractéristiques ondulatoires qui obtint, sans grand effort, un plus large consensus 113 . La théorie fut validée et complétée par des réflexions sur la polarisation de la lumière 114 , ainsi que par l’avènement des Rayons x 115 . Néanmoins, habitudes terminologiques obligent, les physiciens, malgré leur penchant pour la théorie de Huygens, utilisaient indistinctement les termes rayons lumineux ou ondes pour décrire la théorie.

Finalement, l’électricité 116 , un autre secteur de la Physique, fut compris et formalisé au cours de ce siècle. Depuis toujours l’électricité intéressa l’Homme : tout d’abord les questionnements sur le magnétisme provoqué par frottement, ensuite, plus précisément au XVIIIe siècle, la théorie des électricités vitreuse et résineuse ainsi que la découverte majeure de Benjamin Franklin selon laquelle les éclairs n’étaient que des décharges électriques. Aussitôt, les expériences de Wilhelm rendirent possible la validation de la théorie qui fut, à son tour, formalisée par la loi de Coulomb selon laquelle deux charges électriques se repoussent si elles sont de même signe elles s’attirent, par contre, si elles sont de signe contraire. Désormais, les connaissances sur le sujet s’approfondissaient sans relâche soit sur l’électricité elle-même soit sur l’électromagnétisme, avec les travaux pionniers d’Ampère 117 , Faraday 118 , Maxwell 119 et Oersted. Il ne faudra, non plus, oublier, les contributions de Crooker 120 qui améliora les résultats de Faraday en trouvant une manière de faire le vide dans le tube à vide. Corrélativement, les applications techniques surgissaient : les machines à frottement et les piles chimiques, par exemple. Avec ses spécialisations croissantes, peu à peu, la lumière fut distinguée des ondes radio par des paramètres de mesure. La lumière et les ondes radio n’avaient finalement pas les mêmes longueurs d’onde. Tandis que la lumière se mesurera en microns, les ondes radio le seront en mètres. Sans le soupçonner, Maxwell les avaient équationnées mais la paternité de la découverte fut attribuée à Heinrich Hertz 121 . L’ère des télécommunications pourra commencer 122 . De surcroît, par l’hypothèse de Lorentz on arrivait finalement à la conclusion que c’étaient les mouvements des électrons 123 à l’intérieur de la matière qui provoquaient la lumière, car il “émet l’hypothèse que les courants électriques “fermés” de Maxwell sont en fait de véritables courants d’un fluide constitué de particules portant la charge électrique : les électrons”(ALLÈGRE, 1995 : 47).

En synthèse, nous constatons que la Physique devenait une véritable Science, reconnue, rigoureuse et mathématiquement formalisée grâce aux recherches en Thermodynamique, en Électromagnétisme et en Mécanique. L’opinion scientifique la considérait beaucoup plus avancée que les autres domaines du savoir.

Ainsi au début du XXes, la Physique était le paradigme scientifique par excellence. Deux théories lui conféraient ce privilège : la Mécanique Quantique et la Théorie de la Relativité. Ainsi, la Physique microscopique poursuivait sa recherche avec des idées très précises sur la matière, l’atome, le temps, l’espace et la lumière. En ce qui concerne les rayons x, sujet d’une des polémiques les plus farouches du siècle précédent, H. Becquerel en entreprenant des recherches plus approfondies à l’aide de l’uranium, découvrit la radioactivité. Le couple Curie ainsi que Ernest Rutherford expliquaient le phénomène comme étant une transmutation spontanée de l’atome. Ces expériences sur la radioactivité des minerais d’uranium devenaient fondamentales pour la compréhension de la théorie radioactive. Les Curie, en effet, remarquèrent qu’il s’agissait d’une cascade de radioactivités successives 124 . De même, Rutherford précisa que la désintégration atomique dépendait du rythme de son élément radioactif et non, par exemple, de sa forme chimique 125 .On découvrit par là que la radioactivité produisait des particules. En les utilisant pour bombarder la matière, Rutherford découvrit que l’atome n’était pas insécable : il possède un noyau central lourd concentrant toute la masse, entouré par une multitude d’électrons, plus légers et en mouvement. Le noyau est chargé positivement (les protons), les électrons le sont négativement. Cette technique du bombardement de la matière fut utilisée par Frédéric et Irène Joliot-Curie, permettant ainsi la découverte de la radioactivité artificielle. Dans cette séquence, Chadwick apporta une nouvelle contribution pour la compréhension de l’atome : le neutron (constituant du noyau), dernier élément manquant pour l’interprétation de la théorie. Cette accumulation progressive de découvertes aidait à compléter d’importants développements théoriques. Cela dit, nous noterons que tout au début des années 1900, Max Planck avait remarqué que l’énergie transportée par la lumière était distribuée par quanta, et donc quantifiable. Cela s’avéra fondamental pour les recherches d’Einstein sur l’effet photoélectrique selon lequel la lumière possède un double visage : onde et particule 126 . Einstein réconciliait de la sorte Newton et Huygens quelques siècles plus tard. Désormais l’hypothèse que l’énergie, au niveau microscopique, se manifestait par paquets était validée. Le danois Niels Bohr fit de cela son principe fondamental pour conceptualiser la nature de la matière. Il lui ajouta le modèle qualitatif de Rutherford. Selon lui la constellation d’électrons qui entoure le noyau de l’atome se déplace sur des orbites définies. Quand les électrons sont en orbite, ils n’émettent pas d’énergie mais quand ils sautent d’une orbite à une autre, ils peuvent absorber ou émettre de l’énergie sous forme de rayonnement lumineux 127 . On lui doit, en effet, le modèle général de l’atome où sa structure est décrite par des éléments chimiques. Cela est une constatation qui fait partie maintenant de notre culture scientifique de base, à savoir : l’hydrogène possède un électron, l’hélium deux tandis que l’uranium en possède quatre vingt douze, et ainsi de suite.

Cette nouvelle révolution scientifique provoqua un regain d’intérêt sur la théorie atomique ainsi que de nouvelles recherches, à un tel point que l’on comparait le fonctionnement de l’atome à celui des planètes. Cela rendit possible, de surcroît, l’interprétation de la nature des rayons x 128 en 1912 par Von Laue. Poursuivant ses travaux, Moseley appliqua à cette théorie le modèle de Bohr, en ouvrant ainsi la voie à l’interprétation théorique du tableau de Mendeleïev et par là, à la confirmation de la périodicité des éléments chimiques. On n’en était plus aux questionnements sur l’insécabilité de l’atome mais plutôt à la problématique sur les atomes des différents éléments chimiques. Par la suite, Louis de Broglie conforta la théorie d’Einstein en la généralisant à toutes les particules. L’électron, plus spécifiquement, est non seulement une particule mais aussi une onde 129 .

Le monde microscopique 130 intéressait, bien sûr, la communauté scientifique européenne. Ce fut le cas de W. Heisenberg et W. Pauli 131 en Allemagne, E.Schrödinger 132 en Autriche et P. Dirac 133 en Angleterre. Tous se penchaient sur une mécanique adaptée à l’analyse microscopique. Tous éloignés, mais tous travaillant sur le même problème qu’ils n’énonceront ensemble que vers les années trente. La Mécanique Quantique était née 134 . Ceci fut le déclic du principe d’incertitude d’Heisenberg. On ne connaît jamais avec précision la vitesse et la position d’une particule 135 . Cette hypothèse déchaîna les passions. La question fut conceptuelle et tourna autour de la problématique de l’existence réelle des électrons en tant qu’ondes-particules 136 . De toute manière, pour Heisenberg et ses confrères, la Physique classique ne pouvait plus décrire cette réalité probabiliste qui était la mécanique quantique 137 .

La Physique statistique de Boltzmann servit, vers les années vingt, au développement de l’hypothèse quanta. En appliquant les règles de Boltzmann aux principes des quanta, les particules furent distinguées selon leur comportement : les particules disciplinées et régulières - les fermions -, les particules sauvages et imprévisibles - les bosons. Cette distinction deviendrait un des fondements de la Physique moderne surtout en ce qui concerne l’étude de la structure du noyau de l’atome et de la supraconductivité.

Pour mieux comprendre l’importance de cette nouvelle Physique, une référence à Einstein 138 s’avère nécessaire. En se servant du paramètre de l’observation il proposa d’abord la Relativité Restreinte et un peu plus tard la Relativité Générale. Les résultats des travaux de Lorentz et Poincaré furent son point de départ. Sa formule E=mc2 (équivalence masse/énergie) devenait le principe de base de l’énergie atomique. Tandis que dans le monde physique la vitesse est une notion relative définie par rapport à un jalon, la vitesse de la lumière est un concept absolu. Ainsi, Einstein, considéra que, à l’image des coordonnées de l’espace, la durée était relative. Il approfondit cette théorie en proposant une nouvelle approche des relations entre la lumière et la masse 139 . P. Dirac y rajouta la réflexion quantique créant de la sorte la Physique quantique relativiste. La Physique Quantique et la Physique de la Relativité assurèrent la jonction entre le microscopique et le macroscopique 140 . En effet, quel parcours ! De l’atome solitaire, on aboutit à l’atome en communauté de molécules; de l’atome unicellulaire on arriva d’abord à son noyau puis à sa composition, ensuite à sa structure et finalement à la problématique de sa stabilité.

Il faut, par ailleurs, retenir quelques lieux d’influence qui exercèrent un rôle fondamental dans les hégémonies terminologiques futures. Ainsi, c’est aux U.S.A. que la Mécanique quantique progressa surtout pour des raisons géopolitiques et pragmatiques 141 .

Les modèles de la Mécanique Quantique s’avéraient nécessaires au grand progrès de la Physique dans des secteurs tels que : la théorie du noyau atomique, la physique de l’état solide et, encore bien ancré dans la tradition, l’optique. Pour ce qui est de la théorie du noyau atomique, jusqu’aux années trente, le stade des recherches s’affichait par rapport à la constitution du noyau : le neutron, le proton, le positron 142 . Bientôt, ce fut le tour des découvertes de sa fission par Otto Hahn et Lise Meitner 143 . Le résultat fut le projet Manhattan et la création de la bombe atomique 144 . Accélérées par la “guerre froide”, les recherches se poursuivirent et aboutirent, d’une part, à l’énergie nucléaire 145 , d’autre part, à la découverte de l’antimatière 146 . L’optique, sans oublier l’avènement de l’électrodynamique quantique de Tomonaga, Feynman et Dyson, devenait également quantique surtout quand elle se penchait sur les relations entre la lumière et la matière 147 . Le Laser 148 fut en effet un produit de la théorie quantique. À l’inverse des atomes de l’éclairage domestique, les atomes du laser émettent de la lumière de façon cohérente.

Pour ce qui était de la Physique du solide, il est à signaler qu’à ce moment-là les solides intéressaient les savants surtout par rapport aux questions sur la conductivité et résistivité des solides. Les scientifiques Jacques Friedel, Pierre Aigrain, Bardeen, Cooper et Schiffer, entre autres, approfondirent les recherches en la matière à partir des principes statistiques et de symétrie. Une des découvertes fondamentales fut celle qui démontra que les solides n’avaient pas des niveaux d’énergie mais plutôt des bandes d’énergie. Le chemin s’ouvrait ainsi à la théorie de la supraconductivité avec les expériences pionnières sur le mercure, le plomb et l’étain.

Après une révolution scientifique réussie, la Physique vécut le XXes sans soucis, dans un épanouissement et un progrès constants. Elle devint la “véritable” Science, au sens comtien du terme. En effet, à partir de l’abstrait, et au même titre que les mathématiques, la Physique se veut l’interprète du concret. La théorie quantique, exemple même du pouvoir unificateur de la Science, devenait ainsi son outil privilégié de recherche et de théorisation.

Un autre domaine qui, de nos jours, contribue, notamment, au développement du domaine de l’Altéralogie, de l’Écotoxicologie et de la Noxologie, est la Chimie. Mais quand, en termes écologistes, nous pensons à la chimie le “vulgus” public entend par là nuisances et méfaits de la science en tous genres. Pour suivre sa trace, il faut aller retrouver Aristote. Celui-ci proposa quatre éléments pour interpréter la vie : la terre, l’eau, l’air et le feu. Il était question ici d’une approche du presque infiniment grand et complexe. Par la suite, d’autres (les alchimistes, si on le veut bien !) proposèrent trois éléments ou supports de propriété, au lieu des quatre : le sel, le soufreet le mercure. L’alchimie était en effet une activité privilégiée chez les grecs, les chinois et, notamment, les arabes 149 . Les expériences tournaient autour de la transformation 150 , du perfectionnement des matières naturelles où l’utilisation du feu était à la fois l’outil et le paramètre fondamental des expériences. Il serait naturel également d’évoquer le rôle des alchimistes arabes qui excellaient dans l’art de la distillation et de l’extraction des essences, dans les alliages métalliques et dans la fabrication de produits pharmaceutiques. Leurs héritiers, les alchimistes européens, perfectionnèrent toutes ces techniques et savaient déjà préparer et condenser les acides forts 151 , rendant ainsi possible la naissance de la chimie, au XVIIe siècle. En effet, cela fut possible grâce aux travaux de Boyle, Cavendish, Cullen, Hales, Carl Scheele, Joseph Priestley et Lavoisier. Outre les discours enflammées sur le vide, des nouveaux travaux sur les gaz, les concepts de pression et de volume, étaient à l’ordre du jour. On vit apparaître des laboratoires équipés, par exemple, de pompes à vide et de cloches afin d’analyser les réactions des émanations de gaz. Henri Cavendish décrivit, notamment, l’air inflammable” 152 , Scheele trouva ”l’acide marin déphlogistique” 153 , Priestley isola l’acide chlorhydrique, l’ammoniac, le gaz sulfureux, les deux hydrogènes (sulfuré et phosphoré) ainsi que l’azote. Lavoisier fut le premier à identifier la composition de l’hydrogène et à déceler l’oxygène. Sous cet apparent amalgame d’expériences, apparaissait le trait scientifique unificateur, à savoir : la découverte de la façon de modifier la structure des molécules avait conduit tout naturellement à la réalisation des mélanges moléculaires. Effectivement, du temps de Lavoisier et de ses pairs les fondements de la chimie moderne furent établis.En vérité, cela fut possible grâce à l’établissement d’une nomenclature chimique terminologiquement bien fondée, permettant non seulement l’évolution de la véritable science chimique (théorisée) mais aussi l’avènement de la classification périodique des quatre vingt douze éléments chimiques de Mendeleïev.

Plus tard, avec l’avènement de sa terminoclature, la Chimie se constituait en tant que véritable domaine de connaissance. Encore une fois, l’événement qui permit de développer ses fondements fut un concept clef : celui d’ élément. Il n’est pas inutile de rappeler que ceci permit, au même titre que le tableau de Mendeleïev, d’apporter à la Chimie des possibilités de synthèse théorique et par là même à sa systématisation en tant que véritable discipline scientifique. De même que la Physique, la Chimie suivit un parcours chevauché de courants divergents et de polémiques entre écoles.

Aux portes du XIXe siècle, la Chimie s’occupait surtout de la nature et des moyens de transformation des matériaux. Cela lui permit d’aboutir d’ailleurs au concept d’atome 154 , comme constituant premier de la matière. Ce fut d’abord l’hypothèse de Dalton : la matière est formée d’atomes qui s’associant de façons diverses donnent naissance à différents composés. Cette hypothèse déclencha les hostilités et il suffirait d’évoquer la querelle d’école entre Dalton 155 et Avogadro 156 qui, sans se soucier, défendaient la même théorie atomique mais avec des interprétations différentes. Il est évident que les chimistes constatèrent bel et bien l’existence de l’atome, ils n’étaient simplement pas d’accord avec les dénominations utilisées. Nous voilà à nouveau au cœur des problèmes terminologiques !

Le premier congrès international de Chimie, réalisé à Karlsruhe essaya de normaliser non seulement le terme mais aussi la “notion”. Le programme d’aménagement scientifique et terminologique était assez simple. On devrait désormais considérer que les éléments étaient formés d’atomes et ceux-ci, en se liant, produisaient soit des molécules (assemblage de quelques atomes) soit des cristaux (assemblage de milliards d’atomes). Pour mettre en oeuvre ce programme, ils mirent en place la notation chimique, aujourd’hui, encore, à quelques exceptions près, en vigueur : par exemple, H pour l’hydrogène, O pour l’oxygène ; de même en joignant deux atomes d’hydrogène et un atome d’oxygène, nous trouvions la formule de la molécule de l’eau liquide (H2O), ou du méthane (CH4), ou alors des cristaux comme le quartz (SiO2). Une logique atomique fut ainsi créée. Malgré ces efforts, la communauté scientifique restait divisée. Des noms célèbres combattaient la théorie de l’atome : d’une part, Berthelot 157 , le chimiste français le plus respecté à l’époque, ainsi que Deville, Mach, Ostwald, Duhem ; d’autre part des philosophes tels que Hegel, Bergson, Marx et même Auguste Comte qui refusent de croire ce qu’on ne voit pas. Néanmoins, les recherches en cours confortaient la théorie atomique 158 . Dans un pareil contexte, certains chimistes essayaient d’interpréter leurs théories hors des phénomènes corpusculaires, en proposant des hypothèses plus ou moins basées sur la découverte de faits du type équivalences ou thermodynamiques classiques. Pour Claude Allègre ces polémiques retarderaient la Chimie d’un siècle. Pour effacer ces dissonances, il manquait en effet une véritable systématisation de la discipline. Cela fut possible grâce à la proposition de Mendeleïev : l’étude systématique des poids atomiques des éléments et de leurs combinaisons chimiques. Son tableau proposait un classement explicatif des éléments ordonnés selon des paramètres tels que l’identification, les affinités, la périodicité des propriétés 159 et les groupements par familles. Terminologiquement parlant, il était à la fois conceptuel et sémantique. Le tableau représentait en définitif une véritable synthèse de la Chimie 160 .

La problématique liée au concept de “force vitale” alimenta une deuxième querelle entre anciens et modernes, qui ralentit tout aussi le progrès de la discipline. En effet, le consensus considérait que la matière vivante, formée de carbone et d’azote, était la seule capable de synthétiser ses molécules. La première atteinte portée à ce modèle classique fut la synthèse de l’urée en laboratoire 161 . Un monde nouveau s’ouvrait à la Chimie. Pasteur y ajouta le concept de symétrie : la vie se caractérise par la dissymétrie moléculaire tandis que la chimie de laboratoire peut synthétiser des composés symétriques 162 . Tous ces questionnements contribuèrent, toutefois, au développement de la synthèse chimique et de l’analyse biochimique sur la nature de la matière vivante. Plus qu’une mécanique, l’Homme et son environnement devenaient des êtres chimiques par excellence.

Que conclure en ce qui concerne la place de la Chimie en tant que discipline scientifique ? Observons tout d’abord que la plus vive polémique opposa les chimistes entre eux. La discipline souffrit longtemps d’interprétations théoriques éparses et d’un besoin insatisfait de systématisation. Cependant, les progrès rapides et décisifs confirmaient la Chimie dans son rôle majeur dans l’économie. Elle renfermait maintes connaissances, observations et techniques essentielles à l’industrie de transformation. Nous pourrons même citer quelques exemples édifiants : la fabrication de la soude 163 , l’industrie des teintures 164 et des colorants, de l’ammoniac, l’utilisation de la synthèse organique à des besoins industriels, ou tout simplement le développement de la métallurgie. La chimie devint tout naturellement une des principales sources d’innovation technologique.

Finalement, une nouvelle Chimie s’imposa, très dépendante des besoins économiques. Elle provoqua, au niveau écologique, les premières grandes pollutions chimiques de l’air 165 et de l’eau, des pollutions qui suscitèrent à leur tour un nouvel effort de recherche et de développement afin d’en neutraliser les effets nocifs. Il faut quand même retenir que la Chimie qui produisait et s’appliquait sans contraintes était la chimie agricole 166 et la chimie militaire 167 .

Par opposition à la Physique, la Chimie ainsi que les autres sciences franchirent plus modestement les portes du XXes avec l’étiquette de sciences inférieures, essentiellement par défaut d’organisation structurelle. Néanmoins, la Chimie poursuivait ses recherches sur l’atome en utilisant un langage spécifique - les formules - qui validera sa scientificité. Une nouvelle fois, la Mécanique Quantique apporta son concours à son uniformisation par le biais de l’analyse des niveaux d’énergie dans l’atome et par la constatation qu’il ne pourrait avoir qu’un certain nombre pour chaque niveau. Dans le cas précis qui intéressait la Chimie, le niveau externe de l’atome ne peut compter que sur huit électrons 168 . C’est pourquoi dans la classification des éléments chimiques la périodicité de huit prévaudra. Le Formulaire chimique commençait : “ à la suite de la proposition ancienne de Le Bel et Van’t Hoff suivant laquelle l’atome de carbone figure au centre d’un tétraèdre, on commence à développer les formules chimiques comme des structures spatiales. Ce langage chimique devient tout à la fois une façon de s’exprimer, un mode de représentation et un guide de pensée’’(ALLÈGRE, 1995 : 95). Il ne s’agissait donc pas d’un langage mathématique mais plutôt d’un alphabet de symboles conçu pour expliquer les constituants de la matière. Ainsi, une véritable conceptualisation de la Chimie fut engagée grâce aussi à une terminologisation croissante 169 . Elle n’était plus une liste de termes plus ou moins opaques, elle devint un véritable système cohérent de concepts et de termes. Un des premiers exemples fut celui du concept de valence 170 qui désigne le nombre de liens qu’un atome peut nouer avec d’autres.

Si la Physique pensait depuis longtemps quantique, la Chimie l’imita 171 après la Seconde Guerre Mondiale. Mais ces progrès théoriques ne firent que renforcer son caractère de discipline, expérimentale et génératrice d’avancées industrielles si essentielles qu’elles lui valurent le titre d’ ”industrie” à part entière. Elle devint également une des clefs de l’interprétation du fonctionnement de la Vie et de notre Environnement. Dans le cadre de la recherche quantique, la Chimie jouera un rôle fondamental dans la compréhension des secteurs tels que l’Altéralogie et, dans le cas précis de notre recherche, la Pollution. Qui plus est, la Chimie, aujourd’hui, s’intéresse, notamment, aux molécules, aux macromolécules, aux cristaux, car elle veut découvrir la totalité des formations, des propriétés et des liens existants entre les atomes 172 . Travaillant sur la variété, elle s’affranchit des contraintes qui s’attachent à la quête de principes unificateurs et par là elle se distingue de la Physique. Ainsi ce sont les recherches sur le carbone 173 (chimie organique) qui contribueront à l’établissement des “lois écologiques”.

Par ailleurs, les expériences tenant compte des assemblages moléculaires firent évoluer notamment les connaissances sur l’ADN tout en faisant progresser la synthèse 174 et l’analyse chimiques. Cette aventure qui avait commencé avec la synthèse de l’urée ne fit que croître, notamment par les contributions de Robert Woodward et Albert Eschenmoser 175 sur l’analyse et l’identification des molécules, lipides, glucides et protides constitutives des tissus vivants. C’est, finalement, la synthèse chimique qui transforma le plus profondément le paysage socio-économique du siècle dernier. Elle est omniprésente dans la vie quotidienne : de la bouteille en plastique à l’essence des voitures. Elle bouleversa et continue à bouleverser nos habitudes et notre façon de vivre mais aussi de “penser” la place et l’avenir de l’Homme dans son environnement naturel.

C’est sans doute grâce au maillage fécond de la Physique, de la Chimie et de la Biologie que l’Écologie peut afficher aujourd’hui l’ambition légitime d’être considérée comme une “métascience” située au confluent de tous les savoirs. Dans cette perspective, la combinatoire des principes uniques et également la diversité des analyses et des synthèses donnent l’interprétation nécessaire au concept, par exemple, d’écosystème. Face à cela, le monde semble à la fois simple et complexe .

Dans beaucoup d’autres domaines les découvertes se succédèrent à grand rythme tout en soulevant de nouveaux problèmes et en surmontant plusieurs obstacles.Vers le milieu du XIXes l’Astronomie tenait sa révolution grâce à l’utilisation de la spectroscopie, de la photométrie et de la photographie. Ceci permit, de nos jours, l’avènement de l’Astrophysique. Nous sommes également à l’époque du grand essor des sciences de l’observation 176 telles que la Biologie, la Zoologie, la Botanique qui actuellement tiennent des rôles essentiels dans l’analyse de l’infiniment petit et dans la création de secteurs tels que l’embryologie et la génétique.

La Biologie, tout en préparant le terrain pour l’avènement de l’Écologie par ses apports conceptuels et terminologiques, était, néanmoins, loin d’être une discipline scientifique consensuellement reconnue. Le XIXes fut toutefois décisif pour sa projection scientifique actuelle. Les événements scientifiques qui avaient contribué à son essor furent : la théorie de l’évolution des espèces, la naissance de la microbiologie et de la théorie cellulaire, l’application de la méthode expérimentale et finalement la découverte de la génétique. De la même manière que pour les autres disciplines en évolution, l’observation macroscopique en Biologie faisait de plus en plus place à l’observation microscopique.

La théorie de Charles Darwin 177 sur l’évolution des espèces fut la première à donner du fil à retordre. Auparavant, les préoccupations se focalisaient, en effet, autour des limites du vivant, de la diversité de ses formes ainsi que de son obéissance à un principe commun ; de même qu’aux relations entre le minéral et le vivant. N’oublions pas, non plus, les tentatives séculaires de classification des sciences : d’Aristote ou Porphyre, en passant par Linné. Ce dernier, par exemple, essaya une classification par des principes hiérarchiques. Darwin révolutionna tout cela en défendant que les espèces dérivaient les unes des autres. L’unification du vivant fut ainsi retrouvée et la diversité n’était donc qu’une conséquence des particularisations de l’unité. Le temps et la sélection naturelle prenaient ici toute leur importance. Beaucoup de dogmes furent ainsi tout naturellement remis en cause. L’Homme, cette créature de Dieu, était-il le plus proche héritier du singe ? Cela paraissait invraisemblable. Néanmoins, la théorie de l’évolution des espèces réussit à vaincre le dogme. Citons à ce propos Claude Allègre : “Cette théorie combattue, critiquée, vilipendée, va pourtant rester la pierre angulaire du renouveau biologique jusqu’à aujourd’hui “ (ALLÈGRE, 1995 : 61). Les travaux de Pasteur conformèrent l’idée que l’Homme n’était qu’un être vivant au milieu d’autres êtres vivants. Il précisa le concept d’unité du vivant en développant les travaux en immunologie et en microbiologie. Il tissa les liens entre fonctionnement biologique et activité chimique.

Parallèlement, la médecine acquérait finalement ses fondements scientifiques grâce à la Biologie 178 . La théorie de l’unité et de la spécificité du vivant confortait d’ailleurs la théorie atomique en Physique et en Chimie. Le concept n’était pas celui d’atome (unité élémentaire de la matière) mais celui de cellule (unité élémentaire du vivant), constituant et produit du vivant 179 . De cette manière la Biologie, simple discipline d’observation devint un secteur expérimental, et par là même interdisciplinaire. Elle entretenait, en fait, des rapports très profitables avec la Physiologie 180 , la Médecine, la Physique et la Chimie. Elle devint une science à part entière. Gregor Mendel contribua à sa reconnaissance scientifique avec l’invention de la génétique et de la théorie de l’hérédité. La Biologie rendait ainsi possible une révolution scientifique des plus importantes de tous les temps : le Verbe qui se fit Homme appartenait désormais à un système passible d’être décodé, analysé, voire programmé. Ces quelques considérations pourraient nous mener à croire que la Biologie était, finalement, une discipline au parcours homogène et unifié 181 . Pas le moindre du monde ! Ces expériences nous les trouvons éparpillées dans des disciplines telles que la Zoologie, la Botanique, la Physiologie, la Microbiologie et la Biochimie. Il nous suffirait de consulter la Classification de Dewey ou la CDU pour nous en rendre compte. Nous y remarquerions que ce besoin positiviste de trouver des frontières rigides n’est toujours pas le symbole d’ordre et de progrès. Il est de règle, de nos jours, de considérer que la Biologie se hissa au rang de disciplines dites nobles, grâce à l’avènement de la Biologie Moléculaire, plus ouverte à la formalisation et à la théorisation. Néanmoins, si nous tenons compte du concept kuhnien de révolution scientifique, le XIXes fut bel et bien le siècle de la révolution biologique.

Au début du XXes la Biologie constituait un grand ensemble de disciplines sur le vivant. Soulignons, tout d’abord, l’apparition de deux inventions - le gène et l’enzyme - dont s’emparèrent opportunement la Botanique, la Zoologie, l’Entomologie, la Physiologie, la Biochimie et la Génétique. Nous les retrouvons à nouveau associés à des noms tels que Mendel, Weismann, Johannsen, Hugo de Vries 182 , Morgan 183 . Mendel, par exemple, y contribua avec la notion de facteur héréditaire et ses rapports avec l’univers cellulaire. Weismann reconnut le rôle du noyau de la cellule comme porteur de l’hérédité 184 , Johannsen affina cette recherche avec son interprétation sur l’unité élémentaire de l’hérédité par le concept de gène. Avec le concours de la technologie, les chromosomes furent découverts et rapidement perçus comme éléments porteurs d’hérédité. Cela nous emmène à nouveau dans le monde microscopique : description du comportement des chromosomes, établissement de leur cartographie et de leur “vie”. La dynamique des inventions biologiques tout au long de ce siècle engendra dans les années cinquante, une découverte d’une portée encore inestimable : l’ADN 185 “matériel génétique de base de tous les êtres vivants”. La Biologie moléculaire, l’exemple le plus explicite des bouleversements épistémologiques en cours, trouva ainsi ses concepts clefs- l’ADN et l’ARN- qui intrinséquement recèlent les mystères de la vie. Mais la Biologie ne devint pas simplement moléculaire, elle s’attacha aussi aux rapports entre molécules, aux questions de l’évolution et de l’embryologie. En l’espace d’un siècle elle franchit tous les obstacles, des questionnements sur les bactéries à la synthèse du vivant.

La Chimie et la Biologie, longtemps mal considérées, devinrent, à leur tour, les paradigmes scientifiques par excellence. S’agissait-il d’un même modèle pour deux sciences ? Elles avaient en commun, d’une part de progresser très rapidement, d’autre part de viser la même cible : l’Homme conçu comme un être chimique. Elles donnèrent naissance à la Biochimie le plus naturellement du monde en créant un nouveau paradigme. Tout avait commencé, en effet, par une première synthèse : les êtres vivants se composent de glucides, de lipides et de protides. On s’intéressa, ensuite, aux réactions chimiques produites à l’intérieur des corps vivants 186 . Au fur et à mesure des analyses, des observations et des expériences, on constata que les substances constitutives des êtres vivants avaient des fonctions précises, provoquaient des réactions chimiques précises 187 et qui plus est, expliquaient ce qui était finalement spécifique du monde vivant. Cela nous permit aussi de savoir que le carbone, l’hydrogène, l’azote, le phosphore, l’oxygène et le soufre sont les éléments chimiques nécessaires à la fabrication des molécules. Nous concluons ainsi à quel point la synthèse chimique fut essentielle à la Biologie car d’une part les laboratoires entreprirent de synthétiser des molécules biologiques 188 , d’autre part on vit le clonage associant la chimie à la recherche biologique 189 .

Mais l’interdisciplinarité s’étendit au-delà de la Chimie. La Biologie se lia aussi à la théorie de l’information pour devenir la Biocybernétique. L’être vivant, un objet chimique, devint, de surcroît, un système où les données d’information, de communication et de contrôle constituent des principes de tout système autorégulé. L’être vivant, chimiquement et physiquement, encode et décode dans un souci constant d’équilibre. Désormais les dénominations équilibre et système devinrent deux concepts inséparables constituant depuis près de quarante ans une des raisons du versant politique de l’Écologie : l’écologisme.

Quant aux Sciences dites de la Terre, leur programme de recherche a acquis au droit de cité seulement au début du XIXes 190 . La Géologie, par exemple, qui surgit en Écosse fin XVIIIes, évolua, notamment, à partir de deux doctrines : celle des plutoniens 191 et celle des neptuniens 192 . Pour les plutoniens, les roches avaient une double origine : les roches primaires, le basalte et le granite, étaient originaires du refroidissement du magma fondu ; les roches secondaires, comme le grés, la roche argileuse et la roche calcaire, étaient issues de l’érosion des roches primaires. Les roches étaient, en définitif, le résultat des mouvements du centre de la Terre. Cette hypothèse se fondait sur l’observation directe et constituait le fondement des cycles géologiques (mouvements de l’intérieur de la Terre et action érosive de l’eau) et de cette manière d’une Géologie reconnue comme scientifique. Pour les neptuniens, les roches étaient tout d’abord des dépôts du fond des mers : les granites dans les eaux chaudes, etc. Ces questionnements, souvent houleux, intéresseront beaucoup l’Écologie, surtout en ce qui concerne la description et le fonctionnement des biotopes ainsi que la problématique de l’existence des catastrophes naturelles. D’ailleurs, celles-ci étaient déjà un sujet de préoccupation au XIXes, notamment, à travers les recherches de Charles Lyell et Georges Cuvier. Charles Lyell défendait l’hypothèse que l’accumulation des phénomènes faisait évoluer la Terre. Georges Cuvier croyait que les catastrophes étaient un élément d’évolution géologique. Mais cette hypothèse eut du mal à se faire valider. De là que l’interprétation de Lyell ait tenu une place prépondérante car c’était une hypothèse de facile maniement et permettait tout bonnement des observations simples. Nous retiendrons finalement que la Géologie, en cette fin de siècle, progressa par l’accumulation des faits d’observation ainsi que par tout un travail de cartographie géologique (certes, avec des méthodes déjà conçus au XVIIIes) et de classification 193 au même titre que la Botanique ou même la Chimie. Dans cet ordre d’idées, on remarque que la Géologie était plus “observatrice” que théorique, plus classificatrice que systématique. Nous reportant à la société de l’époque, elle avait sa part de pragmatisme car elle avait permis de trouver des mines, de traiter le charbon, de construire de nouveaux réseaux routiers plus modernes et adaptés au terrain.

Le XXes est également marqué par l’avènement de l’Astrophysique 194 , des Sciences de la Terre et des Planètes ainsi que par l’essor vertigineux de la Biologie qui fit tomber le dogme comtiste des frontières classificatoires des sciences. La Géologie profita, pour son avancée, des apports de la théorie de la radioactivité, notamment dans les recherches sur l’origine de l’énergie terrestre et sur la datation des roches 195 . En effet, la Géologie moderne fraya son chemin grâce à la constatation que la source de l’énergie interne de la Terre était la radioactivité et que, à son tour, celle-ci était à l’origine du volcanisme et de la dérive des continents. Chronologiquement, la Géologie abordait ce siècle avec deux recherches accomplies : la découverte de la structure interne du globe 196 et la théorie de la dérive des continents. Elles constituèrent deux révolutions conceptuelles, au sens propre du terme, qui permirent de compléter, avec la Physique et la Chimie, la connaissance globale sur le système planétaire passé et futur.

Le météorologiste Alfred Wegener énonça l’hypothèse que les continents avaient dérivé tout au long des temps géologiques. Mais celle-ci fut longtemps rejetée car la Géologie, à ce moment-là, poursuivait des travaux de classification et de systématisation et n’était donc point préparée à une synthèse théorique. Encore une fois nous étions en présence d’une discipline morcelée et éparpillée en courants de pensées et d’observations disparates. Faire de la recherche en Géologie était soit s’intéresser aux roches (la pétrographie), soit aux strates (la stratigraphie), soit à la structure des montagnes (la tectonique). Dans ce contexte, néanmoins, Oldham et Milne se distinguaient par leurs travaux non seulement sur l’écorce terrestre mais sur toute la structure de la Terre. On classait, d’ailleurs, ce type de recherches dans une discipline appelée Géophysique. Les Sciences de la Terre, si on s’en tient aux classifications habituelles, s’exprimèrent pendant plus d’une cinquantaine d’années par deux disciplines qu’elles considéraient comme essentielles : la Géologie, purement descriptive, et la Géophysique, foncièrement mathématisée et donc abstraite. Celles-ci se rapprochèrent et s’interpénétrèrent pour des besoins industriels liés au forage pétrolier.

Une autre théorie compléta finalement la vue d’ensemble qu’on commençait à avoir sur la Terre en tant que système : la Tectonique des Plaques 197 . Elle fut une conséquence des expériences cartographiques magnétiques des océans qui démontrèrent certaines anomalies datées. Par la suite, un modèle de la Tectonique des Plaques fut construit pour la description en mer et sur les continents 198 . Ce que cette théorie décrivait n’était ni plus ni moins que l’histoire de la terre. Le cycle des océans renferme les notions de création, de transport et de destruction, parallèlement le cycle des continents renferme les notions de fracturation, de dérive et de collision. Non seulement la sismologie gagna en clarté mais tous les phénomènes liés aux catastrophes naturelles y trouveront, désormais, une interprétation unificatrice. Ainsi la communauté scientifique adhéra et le nouveau paradigme s’imposa 199 . Il restait à expliquer pourquoi les plaques bougent. La Géodynamique, plus proche héritière de la Géophysique 200 , s’en chargea. Outre le système Terre, qui était dorénavant perçu comme un système unique et global 201 , ce siècle fut celui de l’exploration spatiale. En effet, nous avons d’un côté un domaine émergeant - l’Écologie - de l’autre, celui qui le complétera - la Planétologie.

Enfin, le XIXes 202 , positiviste 203 , scientométrique et rationaliste 204 , était dominé par une double épistémologie. D’un côté, on trouve la Mathématique et la Physique, exemples de rigueur, de théories unificatrices et formalisées en un langage scientifique véritable, c’est-à-dire, abstrait. De l’autre côté, tout un panier de sciences dites naturelles, survivaient éparpillées, contenant un amalgame d’additions et d’accumulations d’observations, incapables de synthèse, au stade de structuration de leurs terminoclatures et point préparées pour organiser des théories unificatrices et formalisées 205 . Ces domaines de la connaissance devinrent finalement des disciplines scientifiques, véritables institutions et matières d’enseignement. Dans un essai remarquable 206 , Claude Allègre relate que la Science accomplit sa formalisation tout comme l’autonomie de ses disciplines au XIXe siècle. On est en fait à un moment crucial de l’approfondissement de la diversité des savoirs 207 . Ce siècle constitue également la période effective du scientisme où la connaissance intime des choses ne se fait que par la Science. Évidemment ceci eut comme conséquence le développement de la tendance d’une classification (plus dure!) des sciences. Elles furent répertoriées, notamment, en sciences pures et sciences appliquées, en sciences abstraites et sciences concrètes, en sciences fondamentales et sciences expérimentales, en sciences humaines et sciences naturelles. Ce fut la naissance des disciplines et la porte ouverte à un système éducatif positiviste. En effet, la philosophie reprenait son flambeau et aidait à la mise en place d’une logique scientifique tout comme à un système de questionnements sur la problématique du langage scientifique.

Mais la révolution humaine la plus globale de tous les temps émergea des rapports de plus en plus étroits avec l’industrie et autres formes de production. Grâce à la Science, de nouvelles activités industrielles surgissaient sans arrêt. L’actualisation des techniques par l’invention d’outils technologiques s’associa à ce processus pour l’accélérer. Prenons, à titre d’exemple, quelques éléments de cette révolution technologique. En premier lieu, la création du moteur-électrique rendit possible des applications dans l’industrie et dans l’électroménager 208 . Deuxièmement, les recherches sur l’électrolyse permirent d’isoler l’aluminium initiant ainsi son industrialisation au niveau mondial. Troisièmement, l’industrie du papier, les rotatives et les nouvelles techniques d’impression révolutionnèrent l’édition et par là l’accès généralisé à la culture et à l’information. Finalement, la découverte du caoutchouc ainsi que du pétrole bouleversèrent l’économie et les mœurs planétaires, en faisant, notamment, évoluer l’industrie des transports. Pour ce qui est du caoutchouc, il y a quelques précisions intéressantes à présenter. Il fut d’abord appliqué par Dunlop et plus tard par Michelin. D’abord naturel, ce qui fit la richesse du Brésil pendant des années, il fut vite synthétisé grâce aux avancées de la Chimie. Quant au pétrole, il fut d’abord utilisé comme source d’éclairage, de lubrifiant de machines et comme produit pharmaceutique. Le mazout servait au chauffage domestique. Le mariage effectué avec le moteur à explosion fit naître l’industrie automobile. Le pétrole, parmi tous les exemples cités, fut la première source d’énergie et la matière première des plastiques au XXes. Les savants du XIXes permirent, finalement, la vraie coupure entre la Science et la Religion : « Ils ont expliqué que la science avait montré que tout n’est que matière, que la science rend compte de tout ce que l’on observe, que toute invocation de Dieu est inutile : Dieu n’existe pas, nous n’en avons plus besoin. »(Arsac, 1993 : 250)

À son tour, le XXes se présentait comme le dépositaire de ce vaste projet qui est devenue la Science (cf. Bachelard). Si la Physique microscopique régnait encore en maître, elle serait bientôt concurrencée par les découvertes se succédant à un rythme inconnu jusque là, de la Biologie, de la Chimie, de la Géologie, de l’Astronomie, de la Physique Naturelle et plus récemment des Sciences de la Terre et de l’Environnement. À ce propos, on pourrait bel et bien considérer que le monde de la Science s’érigea comme un ouvrage d’art car la pensée scientifique s’était développée autour non seulement de la construction de la connaissance, de la loi scientifique et de la théorie physique, mais également autour de la causalité, de la recherche de vérité et de la raison, enfin, dans le souci d’une interprétation intelligible de la Nature. De la sorte, on ne pourrait que confirmer l’importance de certains concepts clefs comme éléments unificateurs, promoteurs du progrès et de la pensée scientifique. Les propos de Louis Armand 209 sont à ce sujet assez pertinents

‘Nous ne saurions donc plus prétendre accéder à l’absolu par la voie royale de la géométrie ; mais les diverses disciplines se sont à ce point rapprochées les unes des autres que ceux qui voyaient entre les sciences des différences essentielles et fondamentales seraient bien surpris par les liens étroits qui unissent aujourd’hui la physique à la chimie, la chimie à la biologie, la chimie à l’astronomie...Et, comme les moyens d’investigation, qu’il s’agisse de l’observation ou du calcul, sont partout analogues sinon identiques, on voit que, dans le domaine de la connaissance, l’unité se situe au niveau de la pensée scientifique, cette expression étant comprise au sens dynamique que nous avons appris à lui donner.(ULLMO, 1969 : 9)’

Si la pensée scientifique se caractérise par l’unicité 210 , la spécialisation de la recherche se caractérise par une technologisation croissante du savoir. La pénétration des sciences dans la société contemporaine se fait d’abord par les applications techniques qui reflètent les substantiels progrès de la connaissance scientifique. Il faut considérer que l’invention naît, aujourd’hui, de l’union de disciplines et de différentes perspectives. À l’âge moderne la Science n’eut qu’à concrétiser et à affiner ce que le passé lui avait apporté non seulement au niveau épistémologique mais également au niveau des méthodes d’investigation. Tout au long du XXes on a vu associer les découvertes sur le vivant à trois disciplines devenues indissociables et complémentaires : la Biologie, la Chimie et l’Informatique 211 . Dans cette perspective, les cloisonnements imposés aux disciplines, poursuivent leur parcours d’effacement. Il est important de noter que ces formalisations théoriques et ces expériences marquent deux ruptures franches avec le passé : elles ne firent pas appel seulement au langage mathématique, si longtemps considéré comme le langage des sciences par excellence ; l’ampleur et la portée de leur développement interpellent le Droit et l’Éthique, lieux privilégiés de l’action politique.

Dans une perspective terminologique, nous constatons que l’Écologie prend en charge cette problématique dans la mesure où elle a le souci d’intégrer des concepts clefs d’équilibre et de déséquilibre 212 des écosystèmes, qui sont eux aussi au cœur de beaucoup d’autres programmes de recherche et des performances technologiques contemporaines 213 . Précisons donc l’importance de cela par rapport aux apports du passé. Si nous nous reportions, par exemple, aux temps des Lumières ces “idées” étaient implicitement représentées par les relations établies entre l’idée de stabilité et celle de l’ordre. Celles-ci s’associaient, à leur tour, à celles de symétrie, de géométrie et d’harmonie. Cela avait fait, d’ailleurs, le succès de la Physique qui put ainsi bâtir son Empire à partir de l’analyse de systèmes équilibrés par rapport à la symétrie qui était sensé caractériser la Nature, et donc promise à des lois plus ou moins stables. Cependant, il ne faut pas oublier que la Science des Lumières méprisait tout ce qui était sans symétrie ou simplement désordonné. Aujourd’hui, en revanche, fruit de la théorie du chaos 214 qui montre que, autant que l’équilibre le déséquilibre peut être créateur de structures nouvelles.

Dans cette même perspective terminologique, nous entrons également dans un monde défini par des dénominations telles que les bifurcations, le chaos, les fractales, le complexe, la non-linéarité, désignant tout aussi bien des concepts forts et foncièrement nouveaux qui constituent dorénavant tout un secteur terminologique à analyser. C’est parce que nous vivons en pleine ère de la communication que tout ceci aura de plus en plus de répercussions sur la transmission et la diffusion du savoir. Au niveau terminologique et éditologique on sera soumis désormais aux principes stricts et nécessaires de précision, cohérence, clarté, fiabilité et rapidité. Ce monde est donc celui qui s’ouvre pareillement au progrès de la Terminologie, discipline privilégiée et miroir de la culture scientifique.

La Science aujourd’hui est venue à bout du réductionnisme si cher à l’époque comtiste. Elle considère comme équivalents l’ordre et le désordre non seulement comme des principes nécessaires à son développement mais également à l’organisation de systèmes naturels existants et à venir. Elle est de même celle qui gravitera dans un monde non-linéaire, pseudo-statistique, imprévisible, complexe mais tout aussi bien adaptable et flexible. Ce sont ces données essentielles auxquelles les scientifiques doivent et tiennent désormais à se référer. Prenons de nouveau le cas si exceptionnel de l’Écologie. Dès l’aube de ses recherches, les “précurseurs” se sont préoccupés d’affirmer qu’elle est donc une Science de Synthèse où l’on voit à l’œil nu l’effacement des cloisonnements entre les disciplines, à commencer par la distinction classique entre recherche fondamentale et recherche appliquée.

Ainsi, l’objet de la recherche fondamentale ne sera plus simplement une quête des problématiques théoriques sur les “mystères de la nature” mais elle sera tout aussi bien soutenue par des outils technologiques qui soutiendront d’une manière rapide et pragmatique son progrès. Des balbutiements grecs en passant par les machines de la première industrialisation nous arrivons aujourd’hui à celui qui paraît aller plus vite et sans erreur : l’ordinateur. La recherche fondamentale, désormais devenue technologie, fait partie des programmes politiques et s’intègre dans les laboratoires industriels. Le chercheur s’y confond avec l’ingénieur, la recherche se fait en équipe et est soumise à des enjeux économiques et politiques. La Science depuis la moitié du XXes gagna, en fait, beaucoup plus de rigueur. Cependant, elle perdit de sa capacité d’auto-régulation car la connaissance n’est pas en soi-même rationnelle 215 mais seule sa configuration lui accorde la rationalité. Par ailleurs, il semblerait que la “nouvelle” Science ne reste pas éloignée de la culture car elle-même est devenue la Culture ce qui marquera, sans doute, la pensée scientifique du troisième millénaire. Il ne faut pas, certes, oublier ce que nous avons pu déceler par cet exposé : la Science, à l’évidence, n’avait pas été construite avec aisance, logique, objectivité et linéarité, comme la simple description des découvertes auraient pu nous le faire croire, mais elle sera toujours tributaire des constructions mentales du genre humain car, et selon Damásio (1995 : 308) : “la compréhension de la perception des émotions devrait nous rendre moins enclins à suivre la méthode de la vérification empirique. Il me semble plutôt qu’une meilleure connaissance des mécanismes physiologiques sous-tendant la capacité d’exprimer et ressentir des émotions devrait nous permettre de mieux être conscients des pièges guettant l’observation scientifique’’.

Nous sommes désormais fixés. Le XXes rend honneur à la Science, en témoignent les proportions et la place que celle-ci occupe dans notre société. Si, à certaines époques, elle put survivre à travers des recettes méthodologiques assez performantes, aujourd’hui, au regard de la masse et de la rapidité des découvertes 216 les questionnements épistémologiques, métaphysiques, éditologiques et terminologiques, ouvrent des perspectives intéressantes car : “ Plus que tout autre, le siècle qui s’achève aura été dominé, bousculé, accéléré, transformé par la science” (ALLÈGRE, 1995 : 13). Les théories scientifiques qui se succèdent semblent toujours meilleurs que celles qui les précédaient (cf. Kuhn). Mais : « Ce que Kuhn ne pouvait pas prévoir et qui a caractérisé la fin du XXe siècle, c’est que le rythme des découvertes allait s’accélérer au point de plonger certaines communautés dans une ambiance de “révolution permanente”. (ALLÈGRE, 1995 : 413). La vérité scientifique, ou plutôt les vérités théoriques, qui constitue les paradigmes et qui est relative aux facultés du chercheur et aux instruments conceptuels, techniques et terminologiques dont il dispose, n’est pas immuable. La vérité scientifique est faite de changements qui mettent en évidence que la science a une histoire qui est celle des concepts et, par conséquent, celle des terminologies et des discours des langages spécialisés.

Notes
106.

Il donne comme exemple la découverte simultanée de la conservation de l’énergie.

107.

Le XVIIIes fut celui du paradigme mathématique, le XIXes celui de la Mécanique

108.

Pour qui la force crée le mouvement.

109.

Qui ajoute le concept nouveau d’inertie à l’interprétation du mouvement des corps.

110.

Newton fut un excellent théoricien de la Mécanique. Il introduit, notamment, la notion capitale d’accélération des corps par la loi de proportionnalité (la masse). Mais il ne faudra pas l’oublier qu’il est arrivé à cette conclusion grâce à l’analyse de la théorie de Kepler sur les planètes.

111.

Idée qui verra le jour avec les contributions du concept d’entropie.

112.

La matière composée de particules.

113.

Les polémiques furent tenaces aussi du côté des allemands, défenseurs des ondes radio, que de celui des anglais, défenseurs des particules chargées d’électricité.

114.

Vibration de la lumière dans un plan perpendiculaire à la direction de sa propagation.Cf les travaux de Fresnel, Thomas Young, Arago.

115.

À la fin du siècle, Roentgen considéra que les rayons étaient de même nature que la lumière.

116.

L’électricité eut un aboutissement pratique avec l’invention de l’ampoule électrique de Th. Edison qui constitua une révolution des moeurs et même des rapports avec l’organisation du temps.

117.

Il est l’unificateur du magnétisme et de l’électricité.

118.

À qui l’on doit les prémisses qui permettront la création du moteur électrique et du générateur au XXe siècle. Il distingua aussi les matériaux isolants et les conducteurs, si importants pour l’interprétation de l’électrolyse. Il fut l’introducteur du concept fondamental de champ qui permettra à la Physique d’interpréter les rapprochements des actions à distance avec les actions de contact.

119.

Il poursuivit les travaux de Faraday. On lui doit, en fait, quelques équations résumant les lois sur la lumière, le magnétisme et l’électricité. Il unifia le magnétisme et l’optique, permettant ainsi l’avènement du concept fondamental d’ondes radio. Les formules de Maxwell sur l’électromagnétisme poseront quelques problèmes comme, par exemple, celui du mouvement de translation avec une vitesse uniforme, qui furent résolus lors de l’avènement de la théorie de la relativité d’Einstein. Celle-ci marqua une nouvelle reconceptualisation des rapports entre l’espace, le temps et la matière.

120.

Il fut l’inventeur des tubes électroniques à cathode froide pour la production des rayons x et découvrit la nature des rayons cathodiques. Dans un autre registre, celui de la Chimie, il découvrit le thallium et étudia les gaz raréfiés.

121.

N’oublions surtout pas que dans une grande partie de leur vie, les savants lisent et analysent les textes de leurs pairs. Ceci sera fondamentale, à notre avis, pour la compréhension terminologique de la nature de la Science.

122.

En 1901 Marconi déposa le premier brevet pour un appareil radio et établit la première liaison transantlantique.

123.

Les adversaires de Roentgen, en effet, tels Jean Perrin et J.J. Thomson croyaient que les décharges électriques étaient formées d’électrons et déterminaient la charge électrique de l’électron.

124.

Découverte des radionucléides en cascade.

125.

Les atomes sont alors des assemblages complexes, d’un côté les stables (non radioactifs), de l’autre les instables (les radioactifs).

126.

L’énergie des particules serait directement liée à la longueur d’onde des formes ondulatoires. La lumière serait aussi tantôt photons (grains de lumière qui perdent de leur énergie par quanta générant de l’électricité) tantôt vibrations (ondes lumineuses).

127.

Il approfondit ainsi les idées de Lorentz. De même, son hypothèse sera affinée par A. Sommerfeld.

128.

Ce sont les ondes électromagnétiques émises par des sauts d’énergie des électrons.

129.

Recherches confirmées par Davisson et Germer.

130.

À noter l’importante contribution des inventions techniques pour le développement des recherches microscopiques. Ce fut le cas du microscopesurgi au XVIIe siècle mais qui ne fut d’un usage généralisé qu’à partir du XVIIIes. À partir de là ce n’est pas simplement l’infiniment grand qui prévalait mais aussi l’infiniment petit : naissance de la physiologie, de la cytologie, de l’histologie et de l’embryologie. Le terrain était préparé pour les découvertes de Pasteur, de Claude Bernard ainsi que pour les théories scientifiques de Lamarck et de Darwin

131.

Ils créèrent des formalismes mathématiques de matrices.

132.

Il utilisa une équation mathématique de propagation d’ondes.

133.

Il utilisa aussi les mathématiques avec opérateurs abstraits.

134.

D’autres savants avaient reconnu et poursuivi ces idées : Max Born, Pascal Jordan et Niels Bohr. En synthèse, la théorie préconisait que les électrons sont des particules et des ondes obéissant aux principes des quanta selon lesquels l’énergie varie de manière discontinue. Ces particules-ondes obéissent, en fait, au calcul des probabilités. De 1927 à 1930 les centres importants de la Mécanique Quantique furent Munich, Copenhague et Göttingen.

135.

À partir de là, on prit conscience que le hasard constitue non seulement une limite pour la science mais également un objet de recherche. À titre d’exemple, le théorème de Gödel explique qu’un système formel complexe a des propriétés du système dont on ne peut pas dire si elles sont vraies ou fausses.

136.

Pour Schrödinger et Broglie les ondes existaient réellement. Pour Einstein, fidèle au déterminisme, cela n’était qu’un artifice mathématique. Aussi bien Broglie qu’Heisenberg ou Schrödinger, dans leurs recherches en mécanique quantique démontrèrent que la physique classique devint inopérante pour les phénomènes microscopiques et astronomiques, portant ainsi le coup de miséricorde aux idées du déterminisme absolu.

137.

Ceci fut l’interprétation de l’École de Copenhague jusqu’à la moitié du siècle : l’électron obéit à la loi des probabilités.

138.

Nous n’oublierons pas qu’il avait un penchant pour le déterminisme, fruit de sa formation scientifique.

139.

L’expérience de Arthur Eddington durant l’eclipse du soleil en 1919, confirma la théorie de la Relativité Générale en démontrant que le soleil devie la lumière émise par une étoile lointaine. À partir de là surgirent les nouvelles idées sur l’Univers, son histoire et son extension; et, notamment, la théorie du big-bang.

140.

En effet, la théorie quantique était l’interprétation explicative du microcosmos tandis que la théorie d ela Relativité était celle du macrocosmos.

141.

Pendant la Seconde Guerre Mondiale les “cerveaux” se réfugièrent en Amérique. Nous pourrons citer entre autres Einstein et Neumann. Par ailleurs, le système universitaire américain était plus ouvert et plus responsabilisé.

142.

C’est-à-dire l’électron positif de Carl Anderson.

143.

L’expérience consista à bombarder l’uranium avec des neutrons. Le résultat fut sa fission en morceaux. Cette fission parce que dégageant beaucoup d’énergie, produisit une explosion.

144.

La première à Uranium 235 explosa à Hiroshima et la deuxième à Plutonium explosa à Nagasaki.

145.

Invention, entre autres, du cyclotron et de l’accélérateur de particules.

146.

Les antiparticules, symétriques des particules, ont la charge électrique inverse.

147.

Selon sa structure (en chaîne, en coude...), la molécule quantique, les electrons se placent dans des niveaux d’énergie spécifique. Par là les progrès en spectroscopie s’affinèrent. L’énergie devient une constante divisée par longueur d’onde W=hc/

148.

D’abord un sigle - L ight A mplification by S timulated E missions of R adiation- il est aujourd’hui plutôt perçu par le grand public comme un nom commun. Le laser fut le résultat des expériences sur la lumière stimulée d’Einstein ainsi que de la technique du pompage optique de Alfred Kastler et Jean Bronel. Charles Townes le mit en application.

149.

Dès la décadence de l’Empire Romain, les arabes se trouvaient au centre de la pensée scientifique et technique. Ils étaient, d’ailleurs, les gardiens et les défenseurs de l’héritage grec. Leur influence dura jusqu’au Moyen Âge. Leur “programme” avait prit forme à partir du moment où ils héritèrent des ouvrages grecs trouvés à Alexandrie et il semblerait qu’ils auraient pu les traduire (Le célèbre Averrões était à la fois un scientifique, un traducteur et un vulgarisateur d’Aristote afin de mieux les étudier et de les utiliser. Nous leurs devons, de surcroît, quelques petites révolutions scientifiques, notamment la numération en chiffres arabes, des apports nouveaux en astronomie, en mathématiques, en médecine et en chimie. La connaissance arabe fut transmise finalement aux écoles occidentales comme Bologne, Paris et Oxford au moment même où régnait l’esprit de l’école scolastique. Le terrain était néanmoins préparé pour que l’Europe reprenne le flambeau et fasse jaillir l’esprit scientifique.

150.

Quelques exemples ! La fabrication de l’or, la création des élixirs à base de mercure, de soufre et d’arsenic.

151.

L’acide nitrique, l’ “esprit de sel” (acide chlorydrique), l’ “esprit de vitriol “ (acide sulfurique). Cf. aussi les travaux de Paracelse.

152.

Nommer plus tard hydrogène.

153.

Les fumées de chlore.

154.

Les grecs, Leucippe et Démocrite, croyaient déjà à son existence.

155.

Il existe des atomes simples qui s’associent et créent des atomes complexes.

156.

Il existe des molécules complexes qui se séparent et créent des mollécules simples. Nous trouveros cette même perspective dans les travaux de Gay-Lussac.

157.

Il appliqua la Thermodynamique classique (celle qui précèdait la thermodynamique statistique et qui se basait sur le concept de particules atomiques) à la chimie, en explorant la réaction chimique. Au nom du positivisme, il rejetta la notion d’atome. Berthelot, règnant en maître sur la recherche chimique française et sur ses publications, porta un grand tort à son progrès. Les réactions chimiques furent aussi étudiées par Jouah Gibbs, créateur de la loi des phases pour l’étude des équilibres physico-chimiques. Celui-ci eut le mérite de lier la Thermodynamique chimique et la Physique statistique (la Thermochimie) démontrant ainsi que les réactions chimiques absorbent ou dégagent de la chaleur (caractéristiques devenues nécessaires pour comprendre la production des réactions).

158.

Par exemple, les travaux de Faraday sur l’électrolyse (découverte par Humphry Davy qui désignait le phénomène par lequel le courant électrique décompose en éléments des solutions aqueuses) et les travaux du botaniste Brown sur le mouvement.

159.

Ce paramètre s’avéra fondamental pour la connaissance de la nature et de l’action des polluants. La périodicité. Il sera d’ailleurs un des paramètres essentiels en Chimie : “La périodicité est l’indice que, sous l’apparente diversité de leurs propriétés, il existe entre les éléments chimiques une logique sous-jacente plus forte, une sorte de dénominateur commun” ( ALLÈGRE, 1995 : 52)

160.

Les divers types d’atomes y sont rangés par compléxité croissante et par additions successives d’électrons. Plus la structure de l’atome est complexe plus sa masse est importante.

161.

Par Wöhler en 1828.

162.

L’expérience de Pasteur concernant l’acide tartrique en est révélateur.

163.

Nicolas Leblanc inventa le procédé de dissociation du sel permettant ainsi la production industrielle de la soude.

164.

Berthollet créa l’eau de Javel pour le blanchiment des textiles, permettant ainsi le recyclage d’excédents.

165.

Pollution par l’acide chlorhydrique issue de la fabrication de la soude suivie de la première loi en 1863 -l’Alkali Act- en Grande-Bretagne qui obligeait les soudières à récupérer 95% de l’excédent de cet acide; Gay-Lussac, appelé par la compagnie Saint-Gobain, essaya de réduire les rejets gazeux issus de la technologie de l’acide sulfurique.

166.

Les applications agricoles de l’azote et du phosphore permirent l’intensification de la production agricole ainsi que la fabrication d’explosifs.

167.

Ascanio Sobrero inventa la nitroglycérine mais ce fut Alfred Nobel qui la stabilisa et inventa ainsi la dynamite. Fritz Haber produisit de l’ammoniac à partir de l’azote atmosphérique et de l’hydrogène de l’eau.

168.

C’est la principe de Pauli qui nie l’anarchie quantique.

169.

Par exemple, les recherches sur les liaisons entre atomes, les comportements des substances en solution (Svante Arrhenius) et la distinction des acides et des bases.

170.

La valence fut expliqué par le chimiste Lewis. Par exemple, l’hydrogène a la valence de 1 et l’oxygène de 2. De là H2O = un atome d’hydrogène + deux atomes d’hydrogène = eau.

171.

Notamment, avec les travaux de Linus Pauling.

172.

Expériences, par exemple, d’Heitler, London, Linus Pauling concernant les liaisons chimiques multiples qui aboutirent aux lois de l’électrostatique. Ils développèrent des recherches sur les liaisons chimiques fortes covalentes et ioniques (pour la cohésion des solides) et les liaisons chimiques faibles (pour la cohésion des liquides).

173.

Le carbone est le cosntituant essentiel de la matière vivante. Il possède la caractéristique de se lier à l’hydrogène, à l’oxygène, à l’azote et au phosphore.

174.

De 1965 à 1975 les centres les plus reconnus pour la recherche en nucléosynthèse, par exemple, furent Caltech, Cambridge et Harvard.

175.

Pour la synthèse de la vitamine B12.

176.

L’Histoire Naturelle avait déjà commencé à prendre une place importante comme programme de recherche avec Linné, Jussieu et Cuvier.

177.

Très marqué d’ailleurs par Lamarck.

178.

Il ne faut pas oublier les contributions de Claude Bernard.

179.

Cf. la théorie cellulaire de Virchow.

180.

Ce fut Claude Bernard le pionnier des études physiologiques. Il introduit le concept fondamental de système vivant et compara l’Homme à une usine chimique. L’école de médecine de Montpellier contribua effectivement à l’autonomie de la Biologie. Claude Bernard se situait dans cette tradition, notamment, en privilégiant pour la recherche sur le vivant la méthode hypothético-déductive.

181.

La Biologie, le plus direct descendant de l’Histoire Naturelle, trouva son fil conducteur à partir du concept d’organisme qui, à son tour, était composé des quatre éléments - carbone, hydrogène, oxygène et azote - et de quelques métaux. Ce fut avec ce concept fédérateur qu’elle put ensuite théoriser les quatre vingt seize principes immédiats.

182.

Il fit des expériences sur les mutations en laboratoire et conclua que celles-ci obéissaient aux lois du hasard.

183.

Il eut le mérite de renforcer l’explication de la théorie de Darwin en déterminant que les mutations modifiaient les espèces. On conclut donc que l’évolution n’est pas continue, elle se fait par des mutations, c’est-à-dire, par des discontinuités brusques. Cela fut aussi en quelque sorte l’anéantissement d’un vieux paradigme, celui de la théorie de Lamarck.

184.

Il distingua les concepts de soma et de germen ou les relations entre ce qui est périssable et ce qui est transmissible.

185.

Avec les contributions de James Watson, Francis Crick, Oswald Avery. De 1953 à 1958 les centres importants pour la recherche sur l’ADN furent Paris, Cambridge, Harvard et Caltech. Sur le rôle de l’ADN il est à signaler les contributions de Monod et de Jacob.

186.

Ce qui nous permit de comprendre l’importance du gaz carbonique et des fermentations. Encore des recherches importantes pour l’interprétation , notamment , de la Pollution organique.

187.

Nous nous reporterons ici aux travaux de Buchner et de ce qui s’en suivit : les substances catalyseurs qui font les réactions chimiques et qui s’attaquent aux graisses ou aux sucres ; celles qui favorisent la dégradation (les enzymes) et celles qui favorisent la synthèse.

188.

Woodward synthétisa, par exemple, la molécule B12 contribuant ainsi au devenir de la pharmacologie et à la conscience du bien-être humain et concomitamment celui des biocénoses prêchées par l’Écologie.

189.

Nous faisons notamment référence aux travaux de Kary Mullis en 1985 sur le clonage moléculaire sans cellule.

190.

Les Sciences dites Humaines commençaient elles aussi à avoir leur part de représentation. L’Histoire, la Psychologie, la Sociologie rangées auparavant au rang des savoirs spéculatifs ou littéraires devenaient des sciences positives et bien représentées dans les cursus universitaires.

191.

Les contributions du géologue Hutton, par exemple.

192.

Contributions de Werner.

193.

Des classifications de roches, de fossiles, d’étages géologiques, etc.

194.

Héritière directe de l’Astronomie du XIXes.

195.

Rappelons-nous tout simplement la révolution géologique provoquée par les expériences avec le Carbone14 ainsi que les expériences sur la radioactivité de Rutherford pour les datations.

196.

Les prédictions de Milne sur les conséquences planétaires des vibrations émises par les tremblements de terre ainsi que la validation de cette théorie par Von Reuber Paschwitz, donnèrent naissance à la sismologie moderne. L’approfondissement de cette théorie fut possible grâce à la construction de l’instrument de mesure - le sismographe (appareil enregistreur des vibrations émises par les séismes). Milne, Oldham et Wiechet déterminèrent la structure sismique du globe et Oldham, notamment, la structure interne de la Terre en trois couches : le noyau, le manteau et la crôute terrestre.

197.

De 1965 à 1968 les Centres importants pour la recherche en Tectonique des Plaques furent Cambridge et Princeton.

198.

Les continents sont ainsi conçus comme étant des constituants inertes des plaques, qui dérivent et sont portés par le mouvement de celles-ci.

199.

Au courant de la Tectonique des Plaques se lient des noms célèbres tels que Fred Vine, Drummond Matthews, Dan Mackenzie, Jason Morgan, Tuzowilson, Brian Isaacks, Jack Oliver, Lynn Sykes, Xavier le Pichon.

200.

La Géophysique statique appuyait ses recherches sur la mécanique du solide tandis que la Géodynamique s’intéressait à la mécanique des fluides et, donc, à la nature et au comportement même de l’intérieur du Globe.

201.

Remarquons quelques événements qui le démontrent : en 1976 le Centre Européen de Prévisions météorologiques fut installé à Reading en Angleterre contribuant pour l’avènement de la théorie des catastrophes. L’année suivante, la recherche océanographique mit à jour de nouvelles formes de vie inconnues situées entre 2000 et 4000m de fond ; en 1978 le satellite météorologique américain Nimbus 7 signala le trou d’ozone au-dessus de l’Antarctique ; en 1980 naquit la théorie d’Alvarez sur la disparition des dinosaures ainsi que les recherches sur la valorisation de la biomasse; 1984 fut l’année du grand développement des recherches en sismologie ; en 1986 surgit l’hypothèse Gaïa où le système Terre est conçu comme étant constitué d’une série de sous-systèmes régis par des lois physiques : l’atmosphère, la lithosphère, etc, reliés à la biosphère, immense réservoir biologique dispersé et système régulateur et promoteur des conditions de vie dans la Terre. Finalement, l’année 1989 fut celle de la théorie du chaos (un système simple peut avoir des comportements compliqués).

202.

Si la Science de l’époque galiléenne s’intéressa à la méthode, l’époque comtiste s’intéressera non seulement à la méthode mais aussi à la logique mathématique. Celles-ci devenaient les principes unificateurs du progrès scientifique. Paradoxalement, cette époque sera également marquée par le refus de méthodologies diverses au profit d’une méthode stricte et uniforme appliquée à la diversité des domaines et ceci malgré leur spécialisation croissante.

203.

V. Auguste Comte.

204.

Le rationalisme était soutenu par deuxcaractéristiques fondamentales :l’universalité dans le temps et dans l’espace qui évalue la scientificité d’une théorie.

205.

Ceci eut des repercussions innatendues notamment au niveau du système scolaire français. La Mathématiques et la Physique sont toujours des disciplines nobles et obligatoires. Elles sont aussi le paramètre de la sélection scolaire. Ce sont des disciplines qui forment depuis l’esprit des élites. Cet état de fait est le principe même des fondements de l’école publique qui durent encore malgrè toute la révolution scientifique, sociale et éthique du XXe siècle.

206.

ALLEGRE (CL.).- La défaite de Platon.- Paris:Fayard, 1995, 502 p

207.

Nous pourrions citer maintes exemples. Désormais il faut compter avec la coupure entre la physico chimie en fin de siècle (la question de la perspective sur l’atome), la théorie des quantas en 1900 de Planck qui marqua une nouvelle et importante révolution scientifique et qui marquera, de plus, tout le XXe siècle : nouvelle conception de l’énergie (surtout pour les échanges d’énergie à l’intérieur des atomes), de la matière, les formules fondamentales de l’électromagnétisme de Maxwell en 1873 qui à leur tour furent fondamentales pour l’essor de la théorie de la relativité d’Einstein.

208.

Aidant ainsi à préparer une révolution sociale dans les foyers avec une attention de plus en plus affinée sur le rôle et l’importance du travail des femmes.

209.

Dans la Préface au livre de Jean Ullmo.

210.

Les questionnements sur l’unité réelle de la Science furent surtout développés à partir des années vingt par les néo-positivistes, dont le Cercle de Vienne (contributions pour l’empirisme logique) et le Groupe de Berlin ( Encyclopédie Internationale de l’Unité de la Science). Le Cercle de Vienne, par exemple, proposa quelques bases pour la construction d’une science unitaire épurée de toute contamination métaphysique. Carnap, notamment, préconisait la distinction entre confirmabilité et testabilité.

211.

Son outil technologique privilégié: l’ordinateur qui joue un rôle fondamental dans les avancées des sciences. Depuis soixante ans la théorie de l’information devint plutôt une théorie de la communication et par là une technologie de la communication et du savoir.

212.

Ces questions, d’ailleurs, étaient une préoccupation depuis les grecs qui s’interrogeaient sur les relations d’état en équilibre et d’état en déséquilibre.

213.

En effet, les priorités scientifiques pour le XXIes concernent des besoins majeurs de la société contemporaine : l’Écologie et l’environnement à propos de thèmes importants tels que l’énergie, les matières premières, l’adaptation du secteur productif agricole et industriel, la lutte et la prévention des pollutions, l’amélioration du cadre de vie, la coopération scientifique entre pays.

214.

La théorie du chaos est le résultat de recherches en Chimie, en Physique, en Géométrie et en mécanique des fluides, constituant un exemple remarquable des ruptures épistémologiques en cours. À titre d’exemple, Ilya Prigogine, chimiste à Bruxelles, travaillait, à la fin des années soixante, sur les systèmes en déséquilibre et démontra qu’ils provoquaient de nouvelles structures. À son tour, Ken Wilson y contribua par ses recherches sur l’organisation et désorganisation brusques de la matière. Dans un autre registre, il est à signaler que les plus grands centres de recherche sur le chaos entre 1970 et 1980 furent : Paris, Cornelle et Santa Cruz.

215.

Granger considère que le rationalisme est plus une attitude qu’une doctrine.

216.

On dirait que l’Homme comprit finalement qui il était et où il allait. De plus en plus, la pensée scientifique est orientée par des thèmes communs aux différentes sciences. En effet, durant ce siècle les grands progrès en connaissance de l’Histoire Naturelle contribuèrent à l’approfondissement des connaissances en Histoire Humaine.