Claude LIORET, Propos d'un philomathe sur l'épistémologie

Propos d’un philomathe sur l’épistémologie

Par Claude LIORET, philomathe

L'efficacité concrète de la démarche scientifique

Les scientifiques ont pour vocation de faire émerger des connaissances nouvelles relatives à l'ensemble des éléments constituant l'Univers. La nature de ces connaissances retient particulièrement l'attention, en effet :

- faisant l'objet d'un consensus, elles ne souffrent pas la contradiction; il s'agit d'un critère, nécessaire mais non suffisant, de définition; si une notion fait l'objet de controverses, elle ne peut alors recevoir la qualification de scientifique; Descartes (1) s'exprime ainsi :

Dans les sciences, en effet, il n'y a peut-être pas de question sur laquelle les savants n'aient été souvent en désaccord. Or, chaque fois que sur le même sujet, deux d'entre eux sont d'un avis différent, il est certain que l'un des deux au moins se trompe; et même aucun d'eux, semble-t-il, ne possède la science, car si les raisons de l'un étaient certaines et évidentes, il pourrait les exposer à l'autre de telle manière qu'il finirait par le convaincre à son tour;

- elles sont généralement à la base d'applications technologiques performantes ayant profondément bouleversé les conditions de vie de l'homme sur terre; cette constatation relève du lieu commun.

Le premier point doit être très nuancé. L'unanimité relève essentiellement des spécialistes, c'est-à-dire des personnes ayant des notions très précises des problèmes posés et des solutions proposées. De plus, l'histoire des sciences montre que des acquis considérés comme bien établis ont dû être abandonnés; mais ce sont les scientifiques qui en ont ainsi décidé.

Le second point constitue justement l'argument le plus puissant en faveur de la validité des produits de la science, donc de leur acceptation unanime.

Le propos des fondateurs de la Société Philomathique était bien de participer au développement de connaissances certaines et de se réunir pour s'informer mutuellement, dans un contexte d'amitié, tant des résultats nouveaux que des problèmes en cours. Les philomathes sont convaincus de l'efficacité concrètement perceptible de la démarche intellectuelle des scientifiques. Ils ne peuvent se désintéresser de l'étude de ses processus.

Les scientifiques contemporains manifestent assez peu d'intérêt pour l'épistémologie

II semblerait, a priori, que les scientifiques eux-mêmes, pratiquant quotidiennement actions et réflexions conduisant à l'augmentation du savoir, soient les mieux placés pour analyser et décrire celles-ci. Or ce n'est pas le cas. L'épistémologie, discipline traitant précisément de ces questions, n'est pratiquement pas enseignée dans les sections scientifiques (ex-facultés des sciences) des universités françaises; mais, dans les sections philosophiques (relevant des ex-facultés des lettres), son enseignement est intégré dans le cursus des étudiants en philosophie.

Une des raisons de la réelle désaffection des hommes de science pour les problèmes épistémologiques provient du manque de temps disponible. Ces derniers doivent mener leur recherche dans des conditions de concurrence très vive; ils sont dans la nécessité de faire accepter leurs résultats, auprès de la communauté scientifique, par des publications d'articles et des exposés lors de réunions internationales. Pour obtenir les moyens financiers et humains nécessaires à cette activité, ils sont astreints à présenter des justifications, tant scientifiques qu'administratives, auprès des instances délivrant ceux-ci. Les chercheurs confirmés sont requis pour évaluer, à toutes sortes de niveaux, la recherche des autres : ils font partie de jurys d'examens, de recrutement, d'avancement; au sein de comités de lecture de journaux spécialisés, ils décident l'acceptation ou le refus de publier de nouveaux résultats; des comités d'évaluations, auxquels certains d'entre eux participent obligatoirement, jugent de la qualité des travaux de grands laboratoires et même, depuis une date récente, d'institutions aussi vastes qu'une université.

De plus, les membres de l'enseignement supérieur, constituant une proportion importante du personnel chercheur, doivent assurer un service pédagogique. Enfin, compte tenu de leur compétence, leur avis est sollicité par les pouvoirs publics pour toutes les questions relevant de la politique scientifique de la nation. Tout cet ensemble d'activités exige impérativement d'être parfaitement au courant de l'évolution de la discipline dont ils sont spécialistes, ce qui impose la lecture assidue d'une masse considérable de publications venues du monde entier. L'emploi du temps d'un scientifique en activité est extrêmement chargé; celui-ci ne dispose pas de la sérénité nécessaire pour une réflexion approfondie sur les modalités de la démarche intellectuelle lui permettant d'atteindre la finalité de sa fonction, qui est d'accroître les connaissances.

Les conditions actuelles de la pratique scientifique ne facilitent guère la genèse d'ouvrages de réflexion tels que l'Introduction à la médecine expérimentale de C. Bernard, illustre philomathe, ou Science et hypothèse de H. Poincaré.

Les théories récentes des épistémologistes

Ce sont donc les philosophes épistémologistes qui consacrent leur activité à ce genre d'étude. Ces dernières décennies, différentes théories ont été proposées. Un épistémologiste australien, A. F. Chalmers, élève de K. Popper et de I. Lakatos, en présente un exposé synthétique dans un ouvrage édité en français (2).

Ayant participé au développement d'une discipline expérimentale, en l'occurrence la Physiologie des plantes, et ayant lu les principaux ouvrages exposant ces théories, j'ai éprouvé le sentiment que ces philosophes avaient une vision un peu déformée sur la manière de procéder des scientifiques. Ne pratiquant pas directement la recherche, ils n'en ont qu'une vue extérieure. Leurs apports sont certainement très constructifs, mais d'un caractère à mon sens trop théorique; ils me paraissent utiliser d'une façon exagérée le principe du tiers exclu : si les épistémologistes jugent une proposition insuffisante, ils ont une tendance à l'éliminer, à la considérer comme non valable.

Je pense que chacune de ces propositions correspond à une partie de la démarche intellectuelle des scientifiques. Celle-ci est relativement complexe, comprend plusieurs étapes, chacune faisant appel à des principes différents, lesquels ne sont donc pas nécessairement exclusifs.

La « faillite de l’inductivisme»

L'intitulé du présent paragraphe fait l'objet des deux premiers chapitres de l'ouvrage de Chalmers, lesquels reprennent une idée force de K. Popper (3) , déjà développée au XVIIIe siècle par D. Hume (4), à savoir que l'induction amplifiante ou globalisante n'a aucun fondement logique et, de ce fait, ne peut rendre compte de l'efficacité de la démarche scientifique. Le problème est discuté par P. Jacob (5) qui analyse un ouvrage de Popper récemment traduit en français. Avant d'aller plus avant, il convient de noter que ni le terme d'inductivisme ni celui d'inductionnisme ne figure dans les dictionnaires de la langue française, aussi il ne semble pas raisonnable de les utiliser.

La méthode inductive, qui a été codifiée par F. Bacon (6) puis par J. S. Mill (7), postule que ce qui a été constaté, à partir d'un nombre très important mais toutefois fini de cas, et ce sans exception, peur être étendu à tons les cas analogues qui se représenteront. L'énoncé devient une loi qui se veut universelle et possède un pouvoir de prédiction infaillible. Or il est avéré que l'on ne peut tenir pour certaine l'assertion selon laquelle « ce qui est vrai pour l'ensemble des n cas constatés à un moment donné le sera pour le (n + l)-ième cas à venir » . Popper cite l'exemple de Pythéas de Marseille qui, lors de ses voyages, avait dépassé le cercle polaire et ne fut pas cru par ses compatriotes lorsqu'il prétendit avoir atteint une région où le soleil ne disparaissait pas à l'horizon.

Les scientifiques sont bien conscients des limites de l'utilisation de l'induction. L'observation objective, c'est-à-dire donc la perception est la même quel que soit l'observateur, a imposé l'introduction de deux notions corrigeant les insuffisances et les abus de la méthode.

La notion de limites de validité implique que le contenu d'un énoncé n'est valable qu'entre certaines conditions limites, lesquelles doivent figurer dans ledit énoncé. Ainsi, le libellé - « Pour tout observateur terrestre, le soleil apparaît le matin et disparaît le soir » - n'est pas valable, car il pèche par omission; au contraire, l'énoncé - « Pour tout observateur terrestre localisé entre les deux cercles polaires, le soleil (ou en cas de ciel nuageux, la lumière due au soleil) apparaît le matin et disparaît le soir » - demeure parfaitement valable et n'a jamais été infirmé depuis que l'humanité existe. Des limites de validité ont été ainsi introduites à propos de la Mécanique classique qui, pendant près de deux siècles, représentait la théorie fondamentale de la Physique; ses lois sont parfaitement adéquates pour rendre compte des phénomènes, a / dont les vitesses sont nettement inférieures à celle de la lumière, b / dont les quantités d'action (grandeur physique résultant du produit d'une énergie par un temps) sont nettement supérieures à la constante de Planck h. Lorsque les vitesses sont proches de celle de la lumière, la mécanique relativiste doit être appliquée; lorsque les quantités d'action sont voisines de h, il est nécessaire d'utiliser les relations de la mécanique quantique.

La notion d'événement fréquentiel, ou plus improprement d'événement statistique, introduit le fait que, un ensemble de conditions précises étant réunies dans le temps et l'espace, un phénomène également précis se produit, mais seulement un nombre de fois inférieur à celui de la conjonction effective des conditions nécessaires; malgré les circonstances favorables, l'événement ne se réalise pas toujours, il n'est observable qu'avec une certaine fréquence. Celle-ci peut être extrêmement faible. Ainsi, lorsqu'une population de bactéries est cultivée sur un milieu contenant une substance mortelle pour ces organismes, un antibiotique par exemple, on constate que l'une d'elles survit sur dix millions à cent millions qui sont tuées. La survivante se multiplie et génère une population d'individus résistants. Cette expérimentation met en évidence deux phénomènes, chacun ayant une fréquence complémentaire de l'autre (la somme des fréquences étant égale à un). Le premier est l'effet bactéricide du poison, il survient avec une fréquence de 99 999 999 pour cent millions; le second est l'existence de bactéries résistantes, sa fréquence est de 1/100 000 000. Ce dernier est répétitif, une nouvelle expérimentation donne des résultats analogues.

La prise en compte, par les scientifiques, d'une donnée quelconque exige précisément sa répétitivité. Comme cela a été signalé plus haut, un fait scientifique est nécessairement objectivement observable sa perception, par des observateurs différents, doit être la même. L'induction, dans le cadre de limites définies et modifiables, avec correction probabiliste, est fondamentalement liée à la démarche scientifique. Le fondement du raisonnement scientifique est constitué d'énoncés rendant compte d'observations maintes fois répétées. Des millions de lycéens et d'étudiants ont réalisé ces observations dans le cadre des enseignements pratiques qui leur ont été dispensés. Une expression telle que « Faillite de l'inductivisme » ne paraît pas très réaliste.

L' « imprégnation théorique des énoncés d'observation »

Une seconde idée, concernant les énoncés d'observation prémisses nécessaires des raisonnements scientifiques, est émise également avec une certaine insistance par plusieurs épistémologistes contemporains (cf. N. R. Hanson (8), A. F. Chalmers (9) ). Ceux-ci prétendent que de tels énoncés ne constituent jamais la simple exposition d'observations purement empiriques, que nécessairement ils comprennent une partie plus ou moins apparente de conception théorique. Chalmers s'exprime ainsi :

Ainsi les énoncés d'observation seront toujours formulés dans le langage d'une théorie et seront aussi précis que le cadre théorique ou conceptuel qu'ils utilisent.

On peut remarquer en passant que cet auteur, qui dans les pages précédentes de son livre pourfend avec vigueur les inductionnistes naïfs, n'hésite pas à pratiquer la méthode inductive en utilisant le quantificateur universel « toujours ».

Cette doctrine aboutit à la conclusion selon laquelle les énoncés d'observation, ne pouvant être formulés que dans un contexte théorique donné, ne sont donc pas premiers, ils ne peuvent donc pas être considérés comme matériaux de base d'une connaissance élaborée.

Il est indéniable qu'actuellement la très grande majorité des nouveaux faits, acquis dans les laboratoires et présentés sous forme d'énoncés d'observation dans les revues spécialisées, résultent de la mise en oeuvre de programmes de recherche élaborés dans le cadre des conceptions théoriques en cours. Nous reviendrons sur ce point un peu plus loin lorsque seront discutées les idées de T. S. Kuhn et de I. Lakatos.

Mais il me paraît non moins évident que, même si un fait objectivement observable a été acquis suite à un processus intellectuel faisant intervenir certaines considérations théoriques, il garde une indépendance vis-à-vis de ces dernières. L'énoncé le décrivant doit faire mention a / des conditions techniques permettant son observation; b / des événements effectivement et objectivement constatés. Ces données, susceptibles le plus souvent d'être rédigées dans un langage évitant les termes théoriques, constituent bien en elles-mêmes des éléments de la connaissance.

La doctrine de l' « Imprégnation théorique » me paraît souffrir de plusieurs omissions :

- ses adeptes semblent avoir oublié que la démarche scientifique a eu nécessairement un commencement et que celui-ci n'a pu utiliser, comme matériaux, que des faits d'observation relevant du sens commun; des énoncés, tels que « l'échauffement de l'eau provoque une agitation de celle-ci avec formation de bulles et émission de vapeur », ou « les oiseaux pondent des oeufs et le développement de leurs jeunes débute à l'intérieur de ceux-ci », sont des énoncés sans contenu théorique et appartenant cependant au domaine de la connaissance scientifique;

- ils ont également oublié que la démarche scientifique n'a pu s'élaborer qu'après une élimination, souvent douloureuse, des cadres théoriques antérieurs, lesquels étaient de nature mythique ou religieuse (cf. G. Bachelard) (10) ;

- ils ne tiennent pas compte des cas particulièrement intéressants de contradiction entre les nouveaux faits et les conceptions théoriques du moment; ainsi je propose aux philosophes, niant la valeur purement empirique de certains énoncés, de réfléchir sur celui qui suit et qui rend compte d'une découverte fondamentale due à H. Becquerel « Un certain type de caillou (en l'occurrence la pechblende), maintenu à l'obscurité la plus totale, déposé sur une enveloppe parfaitement opaque aux rayons lumineux et contenant une plaque photographique, provoque une impression de la couche photosensible de cette plaque. » il s'agit bien d'un fait parfaitement objectif et répétitif, mais en totale opposition avec l'ensemble des théories admises à l'époque; ce fait de pure observation n'en a pas moins entraîné des modifications considérables sur les conceptions théoriques concernant la structure de la matière.

Le « réfutationisme »

Ce terme, ainsi que ceux de faillibilisme et de falsificationisme (en français l'usage de ce dernier devant être absolument refusé), désigne le point fondamental de la pensée de K. Popper (11). Une interprétation théorique, permettant une intégration cohérente de faits observables et ainsi une meilleure compréhension de l'Univers, n'a d'intérêt que si elle est susceptible d'être testée. Les tests consistent essentiellement en ce que l'ensemble théorique proposé permette de dégager, par déduction, des faits observables non encore connus. La mise en évidence expérimentale de tels faits renforce la théorie; l'impossibilité d'une telle mise en évidence et, surtout, l'apparition de données contradictoires l'éliminent (réfutent, rendent fausse, falsify). Popper insiste sur les résultats négatifs des tests. Une réponse positive ne constitue qu'un argument en faveur de la théorie, alors qu'un résultat négatif prouve la fausseté de celle-ci.

Ces idées sont très profondes, les scientifiques expérimentaux sont pratiquement unanimes pour en reconnaître le bien-fondé. La tradition empiriste des Anglo-Saxons, représentée en France par la pensée positiviste, imprègne nettement l'esprit des chercheurs s'adonnant aux sciences de la Nature. Le qualificatif, possédant une connotation péjorative certaine, de « gratuite » est attribué à toute hypothèse ne pouvant être soumise à un test de vérification. De nombreux journaux scientifiques refusent, lors des demandes de publications spécialisées, les discussions contenant de telles hypothèses; ne sont retenues que les propositions jugées « opératoires », c'est-à-dire débouchant sur des observations ou des expérimentations inédites potentielles.

Bien qu'en fait les scientifiques aient toujours pratiqué inconsciemment cette méthode, et bien avant Popper qui a formulé ces idées avec une grande force, il semble que ce soient les philosophes américains qui aient, les premiers, attiré l'attention sur la nécessité de l'aspect pragmatique des propositions interprétatives.

Vers 1830, A. B. Johnson (12) affirme qu’« une théorie sans conséquence pratique est dénuée de signification ». C. S. Peirce (13) écrit en 1879 :

On apprend ce que signifie un énoncé en étudiant les conséquences pratiques qu'entraîne son affirmation.

Popper insiste, avec quelques raisons, plus sur l'aspect « possibilité de réfutation » que sur celui de « possibilité de vérification ». II faut noter alors une discordance avec le vécu psychologique des scientifiques. La proposition d'une hypothèse nouvelle crée souvent, chez son auteur, un état émotif celui-ci comprend à la fois de la joie, résultant de la satisfaction d'avoir émis une idée originale, et de la crainte, pour avoir éventuellement commis une faute logique dans le raisonnement ou pour avoir omis, par ignorance, la prise en compte d'un élément rendant sans objet sa proposition. Il espère, avec une certaine intensité, une réponse positive qui augmentera sa joie et éliminera ses craintes; il ne recherche absolument pas une réfutation. Dans un laboratoire, l'ouverture d'une bouteille de champagne, pour fêter un résultat expérimental conforme à une prévision théorique, se pratique à l'occasion; ce genre de manifestation ne symbolise pas du tout un désir d'infirmation. De fait, il ne paraît pas y avoir une contradiction fondamentale entre « vérifier » et « réfuter »; les deux notions correspondent à « contrôler l'intérêt pour la connaissance ». La querelle, si querelle il y a, équivaudrait à celle voulant opposer « vider » et « remplir » lorsqu'il s'agit de « transvaser ».

Les « paradigmes et les révolutions scientifiques »

Le titre de ce paragraphe recouvre les idées de T. S. Kuhn (14), qui montre comment les scientifiques mènent leur recherche en référence constante à des systèmes théoriques, nommés paradigmes, faisant l'objet d'un consensus de la part de la communauté des chercheurs.

Dans le cadre d'une discipline donnée, ce concept correspond à l'intégration des très nombreux éléments de connaissance en un système (ensemble dont les éléments sont unis par des relations) édifié à partir d'un nombre limité de propositions fondamentales. La valeur d'un tel édifice est assise sur la possibilité d'en déduire, de façon absolument rigoureuse et cohérente, le maximum si ce n'est la totalité des multiples données établies. La « Théorie atomique » pour la Chimie, la « Mécanique quantique » pour la Physique, la « Théorie de l'évolution » et le concept de « Programme génétique » pour la Biologie, etc., représentent des paradigmes fondamentaux.

L'ensemble de la vie professionnelle d'un scientifique se déroule dans le contexte du paradigme dominant. Sa formation de base lorsqu'il est étudiant, la littérature spécialisée dont il doit prendre connaissance, les discussions avec ses collègues, etc., conditionnent son esprit dans le même sens. Toutes les activités de recherche, comprenant la mise au point des projets expérimentaux, l'analyse des résultats, leur interprétation, se font en référence constante au paradigme qui constitue le guide permanent et implicite de la réflexion de chacun. Il en résulte une forme de pensée communautaire particulièrement enracinée. Kuhn qualifie une période, pendant laquelle la recherche se déroule ainsi, de « période de science normale ».

La situation devient particulièrement intéressante lorsque apparaissent des faits nouveaux qui, en première analyse, ne peuvent s'intégrer de façon cohérente dans le moule de la théorie dominante en cours. L'existence de ces anomalies crée un état de crise; celui-ci peut être résorbé, soit par une adaptation du paradigme rétablissant la cohérence, soit par une révolution engendrant un système paradigmatique entièrement inédit. Ce dernier devra intégrer tant les anciens faits que les nouveaux. Une telle révolution, réalisée le plus souvent par des esprits jeunes, se heurte à l'opposition des personnes trop imprégnées des conceptions anciennes, lesquelles avaient donné entière satisfaction jusque-là. Si la théorie nouvelle a un grand pouvoir d'intégration ainsi qu'un grand pouvoir de prévisions, si une partie de celles-ci se trouvent vérifiées, elle deviendra le nouveau paradigme, base d'une nouvelle période de science normale.

Le concept de paradigme correspond certainement à une réalité effective, mais semblant ne concerner seulement que les sciences de la Nature. R. Boudon (15) déplore ainsi l'absence, en Sociologie, de tels systèmes théoriques de référence. Le vécu professionnel des chercheurs correspond bien aux descriptions de Kuhn. Ainsi, lors de la formation des étudiants, les exercices proposés par les enseignants sont généralement artificiels : leur construction est telle que les solutions soient parfaitement conformes aux paradigmes en cours; l'introduction de données réelles, qui nécessiteraient de nombreuses corrections dues à certaines contraintes expérimentales, est estimée susceptible de perturber les jeunes esprits.

En tant que biologiste, le concept de révolution scientifique me paraît d'une portée moins générale que celui de paradigme. Il est certain que l'héliocentrisme de Copernic remplaçant le géocentrisme de Ptolémée, la relativité éliminant le caractère d'absolu attribué aux notions d'espace et de temps, la mécanique quantique montrant qu'onde et corpuscule correspondaient à deux facettes différentes d'une même entité, ont traumatisé beaucoup d'esprits. Sans aucun doute, ces révolutions furent d'une ampleur considérable et remirent complètement en question des idées scientifiques antérieures. Mais, à mon sens, l'apparition d'un nouveau paradigme relève plus souvent du « Grand bond en avant » que de la « Révolution »; elle ne remet pas en cause les idées précédentes, mais les place dans un ensemble beaucoup plus puissant quant au pouvoir de déduction. La théorie de Newton n'infirme en rien le système de Copernic, les lois de Kepler, la mécanique galiléenne. Les théories relativiste et quantique admettent que, dans des limites définies, la mécanique classique représente une approximation satisfaisante. En biologie, la théorie de l'évolution a certes provoqué beaucoup de trouble et d'émotion, mais la conception fixiste rejetée correspondait à une croyance religieuse et non à une théorie scientifique; les esprits étaient imprégnés de l'idée selon laquelle Dieu avait créé les espèces vivantes une fois pour toutes. Le concept de programme génétique, qui possède une capacité interprétative considérable, n'élimine aucune des conceptions de base de la biologie. Il éclaire même, à mon sens de façon remarquable, l'idée ancienne purement nominaliste et tant décriée de «force vitale»; il suffit, pour s'en convaincre, de relire les paroles suivantes de C. Bernard (16), écrites il y a plus de cent ans :

Les phénomènes vitaux ont bien leurs conditions physico-chimiques rigoureusement déterminées; mais en même temps, ils se subordonnent et se succèdent dans un enchaînement et une loi fixés d'avance ils se répètent éternellement avec ordre, rigueur, constance et s'harmonisent en vue d'un résultat qui est l'organisation et l'accroissement de l'individu... il (l'être vivant) semble dirigé par quelque guide invisible dans les routes qu'il suit et amené à la place qu'il occupe.

A l'époque où ces lignes ont été écrites, ce « guide invisible » représentait une formidable énigme. Ce texte illustre comment, au cours du développement scientifique, la nécessité d'un système d'explication rationnelle peur être fortement ressentie.

La « méthodologie des programmes de recherche »

Sous cette dénomination, I. Lakatos (17) expose des conceptions qui, à mon avis, regroupent des idées que l'on retrouve tant chez K. Popper que chez T. S. Kuhn. Pour Lakatos, le concept de «noyau dur » d'un programme de recherche est constitué d'un ensemble d'énoncés théoriques considérés comme parfaitement établis et inattaquables; cette notion me paraît être assez proche de celle de paradigme. Le caractère irréfutable (infalsifiable) du « noyau dur » représente ce que l'auteur appelle 1' « heuristique négative » du programme. Des hypothèses auxiliaires, des conditions initiales données constituent la « ceinture protectrice » du noyau dur. A cet ensemble, servant d'assise et représentant une sorte d'axiomatique, Lakatos ajoute l'« heuristique positive » comprenant une série de propositions expérimentales, basées éventuellement sur des hypothèses inédites, pouvant matériellement être réalisées; ces dernières visent à améliorer la connaissance des conséquences du « noyau dur ». Le programme n'est considéré comme sérieux que si les propositions de l' « heuristique positive » sont susceptibles d'être soumises à des tests de vérification. On peut noter que Lakatos semble préférer cette dernière notion à celle de réfutation.

Lakatos décrit assez correctement, mais avec peut-être un langage que l'on peut juger un peu trop technique, la structure des programmes de recherche. Actuellement, l'obtention de moyens permettant de poursuivre une activité scientifique impose, aux laboratoires, la présentation détaillée et structurée de tels programmes. De méchantes langues disent que certains chercheurs passent plus de temps à proposer des programmes qu'à en réaliser !

Une première remarque sur ces conceptions est que l'auteur se place dans une situation de « science normale ». Contrairement à Kuhn, il postule l'irréfutabilité du « noyau dur ». Depuis les crises du début du siècle, marquées par les avènements successifs de la relativité puis de la théorie quantique, les scientifiques sont devenus très prudents; la possibilité d'une profonde remise en cause n'est pas souhaitée, mais ne peut être écartée. Ce qui semble intouchable dans l'édifice scientifique est représenté par l'ensemble de ce qui est désigné par le simple mot de faits, c'est-à-dire d'objets ou d'événements objectivement et répétitivement observables (cf. plus haut). La description de ces faits, utilisant nécessairement le langage humain, se traduit par des énoncés que les épistémologistes ont qualifiés de façon variée: énoncés d'expérience (Cercle de Vienne) (18) , énoncés protocolaires (R. Carnap) (19) , énoncés de base (K. Popper) (3) , énoncés d'observation (A. F. Chalmers) (2) . Un paradigme peut être éventuellement éliminé si des« faits » inédits ne sont pas en cohérence avec lui. Mais le nouveau paradigme, qu'il faudra substituer à l'ancien, devra intégrer la totalité des faits acquis à l'instant donné. L'édification d'une telle synthèse peut représenter une difficulté colossale. Ceci explique le maintien de paradigmes non complètement satisfaisants. La fable suivante, due à Lakatos (17), est souvent citée dans la littérature épistémologique. Un astronome, voulant rendre compte d'aberrations (par rapport aux lois newtoniennes) de la trajectoire d'un astre, explique celles-ci par la présence d'une planète, de petite taille mais de grande masse, non observable par les télescopes actuels; après la construction, fort onéreuse, d'un instrument puissant, l'observation de la région concernée ne confirme pas l'hypothèse; l'astronome suppose alors que les effets aberrants sont dus à un nuage de poussières cosmiques; l'envoi, encore plus onéreux, d'une sonde spatiale infirme cette seconde interprétation; une troisième est alors proposée, etc. L'autre type de démarche consiste évidemment à rechercher si le phénomène observable ne peut pas être interprété dans le cadre d'une théorie inédite, différente de la Mécanique céleste classique; la construction intellectuelle nouvelle devra nécessairement expliquer, avec une totale cohérence, l'énorme quantité de « faits » en accord avec les lois de Newton. La théorie d'Einstein a précisément réussi cette gageure.

La « théorie anarchiste de la connaissance »

P. Feyerabend (23) est connu pour avoir proclamé que la science est essentiellement une entreprise anarchiste, à laquelle il n'est pas possible d'attribuer une quelconque méthodologie. Aucune théorie ne réussit à expliquer convenablement la démarche scientifique. Etant donné la complexité de l'histoire des sciences, il semble vain de dégager des règles générales. L'idée de telles règles, pour l'acquisition des connaissances, serait à la fois utopique, car ne correspondant à rien de ce qui se passe effectivement, et pernicieuse, car éliminant des méthodes non orthodoxes mais éventuellement fécondes. La seule règle qui survit est tout est bon. Ce point de vue apparaît comme très paradoxal par rapport aux idées reçues!

Il semble difficilement contestable qu'une bonne partie des assertions de Feyerabend puissent être jugées inacceptables; j'en citerai trois.

Devant la nécessité qu'ont les scientifiques de choisir entre plusieurs théories, l'auteur prétend que, la comparaison logique n'étant pas possible, ce sont « les jugements esthétiques, les préjugés métaphysiques, les désirs religieux, bref les désirs subjectifs », qui déterminent le choix. Une telle affirmation semble en totale contradiction avec l'observation courante. Les scientifiques sont des « humains », avec une grande variété de qualités et de défauts; les sensibilités sont très diverses, certaines sont « de droite », d'autres « de gauche »; leur population comprend des croyants, des agnostiques, des athées; les sensibilités artistiques de chacun sont très variées. Mais si un paradigme domine, tous les spécialistes y adhèrent, quelle que soit leur affectivité. Plusieurs raisons justifient l'adhésion à un ensemble théorique :

- la cohérence, c'est-à-dire le respect le plus absolu possible du principe de non-contradiction;
- l'intégration du plus grand nombre de faits dans le système théorique proposé;
- la fécondité, c'est-à-dire la capacité d'intégrer de nouveaux faits; cette qualité n'intervient qu'a posteriori, elle assure le ralliement des hésitants.

Ces raisons ne relèvent absolument pas de la subjectivité! A titre d'exemple, la théorie dite du Big Bang (24) permet l'intégration cohérente d'au moins cinq données différentes :

- la validité de la théorie de la Relativité générale;
- le décalage vers le rouge des raies des spectres d'émission des galaxies;
- l'existence d'un rayonnement cosmique fossile;
- la composition atomique de l'Univers;
- le refroidissement de l'Univers prouvé par le maintien des agrégats matériels structurés.

La force de ces arguments impose, aux scientifiques refusant l'existence d'un Dieu créateur, la prise en compte de la théorie qui comprend la notion d'un commencement, d'un temps zéro, idée ayant un petit parfum de création. Inversement, les biologistes professant l'une des fois judéo-chrétiennes ne mettent pas en cause l'Evolution, concept tout à fait contraire à la lettre des Ecritures.

Feyerabend met en doute la supériorité de la science vis-à-vis d'autres formes d'interprétation telles que la magie ou les mythes. On ne peut répondre que par l'argument pragmatique lequel, basé sur la quantité et la performance des applications technologiques issues de la connaissance scientifique, est incontournable. Si, ce que je ne crois pas, la magie a réussi à envoyer des hommes sur la Lune, les témoins d'un tel événement ne sont pas connus, alors que plus d'un milliard d'êtres humains ont pu suivre, sur leur téléviseur, le déroulement de la mission Apollo.

Un troisième point inacceptable consiste en l'affirmation selon laquelle la science est la plus dogmatique des institutions religieuses et qu'il est nécessaire de la séparer, comme l'Eglise de l'Etat. La pratique de la recherche scientifique présente deux exigences a / ayant pour finalité l'accroissement des connaissances et non le profit, elle demande beaucoup d'indépendance pour mener sa tâche à bien; b / il s'agit d'une activité dépensière, elle a donc des besoins impérieux de financement. Ces deux exigences sont le plus souvent incompatibles; les bailleurs de fonds, qu'ils soient publics on privés, désirent en surveiller l'utilisation et ainsi limitent l'indépendance. II semblerait qu'une majorité des hommes de science estiment qu'une participation importante de la puissance publique constitue un moindre mal.

Malgré un ton pamphlétaire, peu habituel à la littérature scientifique, et un certain nombre de propositions inadmissibles, l'oeuvre de Feyerabend ne doit pas être rejetée en bloc. Je suis convaincu du caractère, indescriptible et irréductible à toute réglementation, d'une partie de la démarche intellectuelle scientifique. Ceci est d'autant plus important qu'il s'agit vraisemblablement de la partie la plus noble, celle liée à la création de connaissances nouvelles.
Parmi les pulsions internes motivant les chercheurs dans leur activité, les deux suivantes me semblent pouvoir être dégagées :

- une première tendance est la recherche du maximum de relations entre les différentes données objectives observées; l'esprit humain ne se satisfait pas de simples catalogues exposant, soit des faits bruts, soit même des lois indépendantes établies par induction; 

- une seconde tendance consiste à mettre en évidence des grands principes fondamentaux, visant à l'unification de la connaissance. Ces principes constituent l'ossature des paradigmes majeurs, à partir desquels un raisonnement déductif doit permettre de retrouver le maximum, si ce n'est la totalité, des éléments primaires de cette connaissance.

Ces deux aspects ne sont pas spécialement rationnels, ils correspondent à des désirs et relèvent donc de l'affectivité; en tant que tels, ils constituent un moteur puissant de l'activité scientifique.

Dans cette quête, d'une part de relations entre les éléments du savoir, d'autre part d'unification de celui-ci, le raisonnement synthétique constitue une étape importante de la démarche. Cette opération, purement intellectuelle, consiste à utiliser comme prémisses des éléments épars de connaissance et à raisonner pour aboutir à une conclusion représentant un ensemble synthétique parfaitement cohérent. Très souvent, des antinomies apparentes surviennent, le processus a alors un caractère dialectique affirmé et tend à surmonter ces dernières. La solution consiste à imaginer des propositions intermédiaires, de nature hypothétique, dont l'intégration dans le raisonnement aboutit à une théorie satisfaisante, c'est-à-dire reliant les éléments primaires et éliminant les antinomies. C'est précisément la génèse de ces hypothèses constructives, de ces idées justement qualifiées parfois de géniales, que l'on ne peut codifier. Le jaillissement de l'idée dans l'esprit est un événement imprévisible, survenant le plus souvent à des moments inattendus; « Eureka! » s'est écrié Archimède et beaucoup d'autres après lui. La perception soudaine de la découverte survient généralement après une réflexion intense et prolongée, comportant souvent des tâtonnements et des échecs; elle émerge après un lent cheminement cérébral inconscient. Un tel événement n'est pas le fait de tout le monde; seuls les individus les plus doués, les plus intelligents, sont capables de dégager des idées fécondes. A titre d'exemple, la découverte de la structure des macromolécules supports du programme génétique, les acides nucléiques, peut être citée. Les différents composants (sucres, bases nucléiques, acide phosphorique) ainsi que leurs proportions respectives étaient bien connus; les diagrammes de diffraction des rayons X donnaient des informations très précises sur les dimensions des mailles de leur disposition cristalline; cependant la connaissance de l'agencement des différents éléments piétinait. La célèbre structure en double hélice est apparue soudainement dans l'esprit de J. D. Watson (25); cette idée débouchait immédiatement sur celle de code génétique, de possibilité de replication, donc de transmission des caractères héréditaires, etc.

Mais les hypothèses (P. Duhem (26) remarque justement qu'une théorie en comporte fréquemment plusieurs) n'acquièrent la qualification de scientifiques qu'après avoir été vérifiées ou, selon le langage de Popper, soumises à des tests de réfutation. Cette seconde étape est, comme cela a été exposé plus haut, essentielle dans le processus. Elle ne peut souffrir l'absence de méthode, la réponse attendue doit présenter le minimum d'équivoque. Les tests vérificateurs, dont la possibilité est déduite de la théorie proposée, doivent être établis avec le maximum de rigueur et de minutie; les conditions initiales doivent être parfaitement définies; les techniques employées exemptes de toute critique et parfaitement maîtrisées. L'anarchie n'a aucune place en l'occurrence, sinon le test serait sans signification et l'hypothèse resterait « gratuite », c'est-à-dire sans valeur scientifique. Dans le chapitre 14 de son ouvrage, Feyerabend reconnaît cette distinction, faite par H. Feigl (27) , auteur qu'il cite, entre les deux étapes genèse de l'idée et vérification de celle-ci. Mais il prétend que la seconde est tout aussi anarchique que la première. Son argumentation n'est absolument pas convaincante et je ne pense pas que l'on puisse le suivre sur ce terrain.

Quelques règles et modalités concernant l'acquisition des connaissances scientifiques

Ce dernier paragraphe va tenter d'exposer les règles et pratiques qui me semblent être utilisées par la majorité des chercheurs se consacrant à l'étude de la Nature. J'exclus de ce groupe les Mathématiciens dont les raisonnements partent d'axiomes posés a priori et non de phénomènes observables.

- Une première règle, qui est en fait une méta-règle au sens de A. Tarski (28), est le respect du principe de non-contradiction. Le maintien de la cohérence (de la consistance selon le vocabulaire des logiciens) doit être assuré entre les propositions du discours scientifique.

- Les prémisses de tout raisonnement scientifique sont essentiellement des faits objectivement et répétitivement observables. Lorsque leur répétitivité, dans certaines limites définies et avec une fréquence pouvant être inférieure à un (mais évidemment supérieure à zéro), a été vérifiée, ces faits constituent des lois. Si les éléments constitutifs des faits sont quantifiables, les lois sont généralement représentées par des relations mathématiques. L'établissement de lois relève nécessairement de la méthode inductive.

- Les scientifiques ne se satisfont pas de simples listes de faits et de lois. fis tentent de les relier en des théories synthétiques; à cette fin, ils imaginent des propositions hypothétiques permettant un regroupement cohérent d'éléments auparavant épars. La genèse d'hypothèses est un processus créateur échappant à toute règle.

- La valeur des hypothèses n'est admise que si certains effets, déduits de la théorie, peuvent être objectivement mis en évidence.

- Lorsque les hypothèses d'une théorie sont vérifiées (ou autrement dit ont résisté aux tests de réfutation), cette dernière devient un paradigme accepté par les membres de la communauté des spécialistes. Celui-ci entre alors, dans sa totalité, comme une prémisse fondamentale des raisonnements ultérieurs. C'est alors et seulement alors qu'il est possible d'évoquer la notion d'imprégnation théorique.

- Le raisonnement scientifique peut être ainsi qualifié d'empirico-hypothético-déductif. Utilisant des données empiriques comme prémisses, il aboutit à l'introduction d'hypothèses, desquelles des conséquences, que l'on cherche à vérifier, sont déduites.

- Ces conséquences sont généralement des faits, qui constituent ainsi l'alpha et l'oméga du raisonnement scientifique. Leur recherche aboutit très fréquemment à la mise en évidence de résultats empiriques tout à fait inattendus et inédits. Parmi ceux-ci, des applications remarquablement efficaces apportent de nouveaux moyens d'investigation permettant la découverte de faits jusque-là inaccessibles à l'observation.

- Leur constatation objective pose de nouveaux problèmes et engendre un nouveau cycle empirico-hypothético-déductif. L'histoire des grandes disciplines peut être ainsi décrite comme une succession de tels cycles.

- Au cours de cette histoire, il peut arriver que des faits inédits soient en contradiction absolue avec des paradigmes bien établis. Ceux-ci doivent alors être changés. Cette conjoncture souligne la primauté fondamentale des faits sur les théories.

Cette description montre que les différents points soulignés par les épistémologistes ne sont pas en opposition, mais en complémentarité. Si, comme l'écrit Feyerabend, les diverses théories sont insuffisantes pour décrire la démarche scientifique, je pense que la raison en est simple chacune n'en décrit qu'un aspect.

De cette analyse sommaire de la démarche scientifique se dégage l'interaction fondamentale entre faits et idées. Les faits isolés, non reliés au « corpus » des connaissances acquises, posent des problèmes dont les solutions résident dans des idées permettant précisément de rompre cet isolement. H. Poincaré (29) s'exprime ainsi :

On fait la science avec des faits comme on fait une maison avec des pierres; mais une accumulation de faits n'est pas plus une science qu'un tas de pierres n'est une maison.

Inversement, des idées qui ne s'appuient pas sur des faits, déjà connus ou susceptibles d'être mis en évidence lors de tests de réfutation/vérification, sont jugées comme étant de piètre valeur.

La cohésion de notre collectivité amicale des philomathes réside, sans aucun doute, dans ce goût commun envers les idées sérieuses permettant l'intégration rationnelle des faits. C'est ainsi que j'interprète le premier terme de notre devise ETUDE ET AMITIÉ.

Références:

1 - R. Descartes, Règles pour la direction de l'esprit, édit, posthume, 1701.

2 - A. F. Chalmers, Qu'est-ce que la Science?, Récents développements en philosophie des Sciences : Popper, Kuhn, Lakatos, Feyerabend (1976). Paris, Ed. La Découverte, 1987.

3 - K. R. Popper, La connaissance objective (1972). Bruxelles, Ed. Complexes, 1978

4 - D. Hume, Enquête sur l’entendement humain (1758). Paris, Flammarion , coll. « GF », 1983

5 - P. Jacob (ss la dir. de), Y a-t-il une logique inductive ?, in L’Âge de la Science, lectures philosophiques, 2 : Epistémologie, Paris, Ed. Odile Jacob, 1989

6 - F. Bacon, Novum Organum (1620). Paris, PUF, 1986
J.S. Mill, The system of logic, London, J. W. Parker, 1872

7 - N. R. Hanson, Observation and interpretation in philosophy of science to-day, S. Morgenbesser édit., New York, Basic books, 1967.

8 - V. n. 2, p. 121.

9 - G. Bachelard, La formation de l'esprit scientifique. Contribution à une psychanalyse de la connaissance objective, Paris, J. Win, Librairie philosophique, 1936.

10 - K. R. Popper, La logique de la découverte scientifique (1934, 1959). Paris, Payot, 1973. Cf. n. 3, p. 122.

11 - A. B. Johnson, A treatise on language (1836). Cité par A. Kremer-Marietti, Le projet anthropologique d'Auguste Comte, Paris, SEDES, 1980.

12 - C. S. Peirce, La logique de la Science. Comment rendre nos idées claires (1879),

13 - Revue philosophique de la France et de l'étranger, Paris, VII, 39-57.

14 - T. S. Kuhn, La structure des révolutions scientifiques (1962, 1970). Paris, Flammarion, coll. « Champs », 1983.

15 - R. Boudon, La place du désordre, Paris, 1983.

16 - C. Bernard, Leçons sur les phénomènes de la vie communs aux animaux et aux végétaux, Paris, Baillière, 1878-1879.

17 - I. Lakatos, Falsification and the methodology of scientific research programmes (1974), in Criticism and the growth of knowledge, I. Lakatos et A. Musgrave édit., Cambridge, Cambridge Univ. Press.

18 - Cercle de Vienne, La conception scientifique du monde (1929), dans Manifeste du Cercle de Vienne et autres écrits, sous la dir. de A. Soulez, Paris, rue, « Philosophie d'aujourd'hui », 1985.

19 - R. Carnap, Le dépassement de la métaphysique par l'analyse logique du langage (1931), dans Manifeste du Cercle de Vienne et autres écrits, sous la dir. de A. Soulez, Paris, PUF, «Philosophie d'aujourd'hui », 1985.

23 - P. Feyerabend, Contre la méthode. Esquisses d'une théorie anarchique de la connaissance (1975). Paris, Le Seuil, 1979.

24 - Trinh Xuan Thuan, La méthode secrète. Et l'homme créa l'Univers, Paris, Fayard, 1988.

25 - J. D. Watson, La double hélice, compte rendu personnel de la découverte de la structure de l'ADN (1969). Paris, R. Laffont, 1971.

26 - P. Duhem, Théorie physique, son objet, sa structure, Paris, Chevalier et Rivière, 1906.

27 - H. Feigl, The orthodox view of theories. Analysis of theories and methods of Physics and Psychology, Minneapolis, Ed. Radner and Winokur, 1970.

28 - A. Tarsid, Logique, Sémantique, Métamathématique, 2 vol., Paris, A. Colin, « Philosophie pour l'âge des Sciences », 1923-1944.

29 - H. Poincaré, La Science et l'hypothèse, Paris, Flammarion, 1902, « Champs ».