Comment apprécier la "distance" entre la recherche de base et les technologies de notre temps? Sommes-nous devant un fossé qui ne cesserait de se creuser ou au contraire serait-il en voie de comblement? Il est difficile de répondre de manière univoque à cette question: chacun trouvera pour y répondre des exemples destinés à justifier telle ou telle préconception. Peut-être une approche rétrospective nous permettra-t-elle d'éclairer un peu le débat.
Les débuts de la révolution industrielle doivent assez peu à la science. On a souvent dit que la thermodynamique devait plus à la machine à vapeur que cette dernière n’était redevable à la science : que l’on se souvienne que le deuxième principe de la thermodynamique a été tiré par Sadi Carnot en 1824 de ses études sur la machine à vapeur, résumées dans ses célèbres Réflexions sur la puissance motrice du feu et sur les machines propres à développer cette puissance“. Il me semble qu’il faut attendre l’unification par Maxwell de l’électricité et du magnétisme en 1864 pour voir le sens de l’échange s’inverser : la théorie unifiée conduit en effet à prédire que les champs électriques et magnétiques pourraient se propager, sous forme d’ondes, et de surcroît dans le vide et à la vitesse de la lumière. Ces ondes ne seront observées par Hertz en 1887 qu’après la mort de leur concepteur. Notre société baigne évidemment, dans tous les sens du terme, dans ces ondes électromagnétiques prédites il y a un siècle et demi.
La relativité restreinte (1905), et encore plus la nouvelle théorie de la gravitation d’Einstein (1916), apparaissent initialement comme purement conceptuelles. Un tout petit nombre d’expériences, telles celle relative à l’anomalie du périhélie de Mercure, ou encore la déviation des rayons lumineux par le passage au voisinage d’une étoile, viennent confirmer ces concepts révolutionnaires, mais hors des laboratoires ou des travaux de ceux qui tentent de dégager une compréhension cosmologique de l’Univers, on ne voit pas très bien à quoi cela pourrait “servir”. Un saut jusqu’à nous permet de voir pourtant combien aujourd’hui nous utilisons ces concepts de manière routinière. C’est ainsi que le GPS permet de localiser un point de la surface du globe avec une précision courante de l’ordre du mètre (et sans doute les militaires utilisent-ils des localisations encore bien plus précises). La mesure de position par le GPS est une mesure du temps que mettent des signaux électromagnétiques émis par au moins trois satellites, réfléchis au point visé, puis détectés. La lumière parcourant un mètre en environ trois nanosecondes, la mesure du temps doit donc être faite à mieux que 10 puissance (-9) sec près. Les horloges ordinaires ne peuvent prétendre à une telle précision. Il faut donc embarquer dans le satellite une horloge atomique qui utilise la mesure de la transition entre deux niveaux électroniques d’un atome (la seconde est aujourd’hui définie comme étant la durée de 9 192 631 770 périodes de la radiation correspondant à la transition entre les deux niveaux hyperfins de l’état fondamental de l’atome de césium). Mais cela ne suffit point : le satellite n’est pas géostationnaire. Du fait de son déplacement relatif par rapport à la terre (à la vitesse d’environ 14 000 km/h) une horloge embarquée nous apparaît, du simple fait de son mouvement relatif, comme retardant de 7 microsecondes par jour ; c’est l’effet de la dilatation du temps mesuré par l’observateur terrestre. De plus les satellites qui orbitent à environ 20 000 km de la terre sont soumis à un champ de gravitation inférieur à celui que nous subissons à la surface du globe. La relativité générale nous enseigne qu’en conséquence les horloges embarquées vont apparaître comme en avance par rapport aux horloges identiques terrestres ; le calcul conduit à une avance de 45 microsecondes par jour. Les deux effets de relativité restreinte et générale combinés conduisent donc à une avance des horloges de 38 microsecondes par jour, une durée pendant laquelle la lumière parcourt une dizaine de kilomètres. Si l’on ne tenait pas compte de ces effets relativistes, le GPS serait totalement inutilisable.
Plus près de nous les concepts quantiques sur la matière ont longtemps été regardés dans nos établissements d’enseignement comme de nature trop philosophique pour faire l’objet de cours spécifiques à l’usage des gros bataillons d’étudiants en science ou en ingénierie. Cela était vrai même dans les années cinquante où pourtant le transistor et la physique des solides naissante démontraient l’intérêt pratique de l’approche quantique. De la même façon le laser apparaissait à tous initialement comme un bel objet d’études, mais qui d’autre que le physicien dans son laboratoire pouvait trouver la moindre utilité à la production d’un rayonnement cohérent? Personne ne soupçonnait évidemment l’irruption des CD-DVD, code-barres, instruments de chirurgie ou de découpage, etc. Le laser, dont on fête cette année les 50 ans, est né des travaux d’Einstein de 1917 sur un effet quantique, l’émission stimulée, de ceux de Kastler et Brossel sur le pompage optique permettant de peupler des niveaux électroniques excités, avant les découvertes de Townes et al. Des STIC à l’énergie nucléaire, la mécanique quantique est devenue aujourd’hui une science de l’ingénieur.
Mais entre temps le modèle linéaire de la science qui mettrait ses résultats à la disposition des applications, tels des pots de pharmacie à l’usage des patients, a été largement remplacé par un modèle interactif de va et vient entre les deux mondes. L’histoire de la progression exponentielle de la micro-électronique, mesurée par la loi de Moore (tout le monde dit “loi” mais il ne s’agit que d’une constatation empirique, fort impressionnante il est vrai), c’est-à-dire le doublement du nombre de transistors au cm2 tous les 18 mois depuis 40 ans, est marquée par ces allers-retours entre nécessités techniques et recherches en laboratoire et elle se poursuivra probablement jusqu’au transistor “ultime” à un seul électron. Peut-être entrera-t-on alors dans une ère où le silicium cédera la place à l’ordinateur quantique pour qui les bits élémentaires ne sont plus simplement ouverts ou fermés (pour l’instant ces systèmes se heurtent à la difficulté de fabriquer un état “intriqué”, composé de plusieurs bits : la “décohérence” détruit l’intrication quantique)?
Dans le mouvement de va et vient actuel entre science et technologie les temps caractéristiques de transfert se sont bien raccourcis. La découverte en 1988 de la magnétorésistance géante dans des films minces (par Albert Fert à Orsay et P. Grünberg à Jülich qui ont partagé le prix Nobel en 2007), effet quantique lié au transport de spin (et non plus simplement transport de charge comme dans la conduction usuelle), créait une nouvelle discipline la “spintronique”. Elle a permis de réaliser très vite des capteurs de champ magnétique conduisant à des têtes de lecture universellement utilisées depuis dans les disques durs de nos ordinateurs.
Bien que science ancienne, la physique de base reste encore très ouverte. Au plan conceptuel les progrès importants de la deuxième moitié du XXème siècle ont permis de comprendre que les interactions électromagnétiques et nucléaires étaient le résultat d’une symétrie nouvelle, dite de “jauge”. L’histoire n’est pas terminée car la théorie prévoit que ce “modèle standard” doit être complété et modifié à plus haute énergie (bosons de Higgs et supersymétrie entre autres). Nous attendons beaucoup du grand collisionneur de hadrons du CERN, le LHC, la machine la plus complexe jamais réalisée, qui monte lentement en puissance (les prouesses technologiques impliquées par cette physique des hautes énergies ont permis souvent des progrès significatifs, sur les aimants supraconducteurs par exemple ; que l’on se souvienne que ce sont les nécessités de la coopération entre équipes internationales qui ont conduit Tim Berners-Lee à développer les liens hypertexte à la base du world wide web). Simultanément, l’incompatibilité entre la théorie d’Einstein de la gravitation et la mécanique quantique conduit à des constructions audacieuses, mais hasardeuses, pour lesquelles l’espace ne pourrait plus se satisfaire simplement des seules trois dimensions que nos sens et nos appareils de mesure perçoivent. Aucune expérience ne permet aujourd’hui de vérifier ou d’infirmer ces concepts.
Pourtant les observations contemporaines des astrophysiciens ne cessent de montrer combien il est nécessaire de progresser sur ces questions. La cosmologie est devenue une science expérimentale, en particulier depuis l’observation des fluctuations du rayonnement de fond cosmologique dans lequel baigne l’Univers. Mais malgré les grandes avancées des méthodes d’observation, par satellite ou, sur terre, grâce à la radioastronomie et aux progrès des télescopes apportés par l’optique adaptive, force est de constater que l’Univers reste bien difficile à comprendre : la matière observée ne représente qu’environ 3% de son contenu énergétique ; plus d’un quart est du à un halo de matière noire entourant les galaxies dont la composition est inconnue ; enfin l’observation récente d’une accélération de l’expansion de l’Univers implique environ 70% d’énergie noire totalement incomprise. Crise conceptuelle sans équivalent car les estimations fournies par les fluctuations quantiques sont fausses d’un facteur de l’ordre de 10 puissance 120! Il est vraisemblable que cette crise ne sera résolue que lorsqu’aura été enfin réalisée une théorie de la gravitation compatible avec la mécanique quantique.
La période récente a été également marquée par un décloisonnement relatif des sciences. Certes, la physique a depuis longtemps fourni des méthodes d’imagerie médicale puissantes, rayons X, IRM, magnéto-encéphalographie, tomographie par émission de positrons, etc., mais aujourd’hui la coopération directe entre biologistes et physiciens est devenu fréquente. Les raisons en sont multiples et je me contenterai d’exemples. Le gigantisme de la quantité de onnées issues du séquençage des ADN, de l’analyse structurale des protéines à l’aide du rayonnement synchrotron, la possibilité d’étudier des molécules biologiques uniques par des méthodes telles que la microscopie par effet tunnel, expliquent la logique de ces rapprochements. Des instruments tels l’IRM à très grand champ “Neurospin” dont vient de s’équiper le CEA, des méthodes nouvelles telles l’IRM de diffusion inventée par D. Le Bihan, permettront sans doute des avancées significatives dans les neurosciences, formidable défi de la science contemporaine tant la complexité combinatoire des réseaux de neurones et des synapses qui les relient est considérable.
Hélas, on ne peut plus affirmer que le XXème siècle a été l’âge d’or de la physique reposant sur les deux piliers de la relativité et de la mécanique quantique sans faire frémir : les deux bombes sur le Japon qui ont mis fin à seconde guerre mondiale sont là pour nous rappeler aux réalités. Pourtant comment ne pas voir que les défis auxquels nous sommes confrontés demandent certes une organisation politique qui diminue les risques auxquels nous sommes tous exposés, mais aussi plus de science, car comment sans elle envisager d’assurer la production d’énergie, a réduction ou de la séquestration du CO2, de nourrir les 9 milliards d’habitants prédits à l’horizon 2050, la lutte contre la pauvreté, la santé humaine, l’avenir de la planète ?
More on paristech review
On the topic
- Catastrophes naturelles et météo extrême… Le climat va-t-il s’emballer? Est-il possible de s’adapter?By ParisTech Review on November 12th, 2010
- Des microbes et des hommes : qui l’emportera?By Maxime Schwartz on April 14th, 2010
By the author
- La recherche fondamentale et les technologies de notre tempson November 24th, 2010
Pingback: Tweets that mention La recherche fondamentale et les technologies de notre temps | ParisTech Review -- Topsy.com
Pingback: Tweets that mention La recherche fondamentale et les technologies de notre temps | ParisTech Review -- Topsy.com