Td corrigé Chroniques Radio Classique - Cours pdf

Chroniques Radio Classique - Cours

Tara, notre sujet aujourd'hui n'est pas vraiment une innovation applicable plus ou ...... la Constellation d'Orion pour Prouhèze et Rodrigue dans le Soulier de Satin, ...... L'un des spectromètres RMN d'Orléans est un BRUKER DSX 400 qui peut ...




part of the document






Paul CARO






Chroniques


"INNOVATIONS AU QUOTIDIEN"




de Radio Classique





Textes de 160 Chroniques, de Septembre 1993 à Avril 1997





S O M M A I R E
1. Le disque compact et la mémoire
2. La peau des cathédrales
3. Filtrer
4. La nature améliorée
5. A distance !
6. Se parler et se voir
7. L'oeil des abysses est une oreille
8. Une nouvelle version de la bouteille Thermos
9. La course au toujours plus petit
10. La télé en plastique
11. Téléphoner en sécurité
12. La télé en trois dimensions
13. Une banque de données phytosanytaires
14. Un nouveau type d'enceintes acoustiques
15. De la musique à la fumée
16. Vive les bulles !
17. Une nouvelle agence
18. Plus dur que le diamant
19. Un automate musical
20. Un nouveau composant électronique
21. El Nino
22. La crypte retrouvée
23. Le magnétoscope haute définition
24. La molécule pieuvre
25. Un insecte automobile
26. Le cri d'amour du grillon
27. La belle diode bleue
28. Une surface auto-nettoyante
29. Les voix des abysses
30. Des autoroutes à gros débits
31. Le volcan et les règlements
32. Le plomb d'autrefois
33. La chimie supercritique
34. La couleur du boeuf
35. Le pneu plus
36. Le microbe éboueur
37. La fibre de l'araignée
38. La peau du léopard
39. Une roue dentée pour la fourmi
40. Un polymère plein de trous
41. Une télé sur le nez
42. Mesurer le clair de terre
43. La glace et le poisson
44. Le ballon lumineux
45. Indilatable !
46. Le transistor en plastique
47. La chimie sur écran
48. Un filtre supraconducteur
49. Un studio de télé virtuel
50. Un prix pour l'innovation
51. Des photoconducteurs organiques nouveaux
52. La plus vieille peau
53. Le froid portable
54. La thérapie génique sur la route industrielle
55. Un amalgame sans mercure
56. Emballage !
57. Un matériau de fête, le diamant
58. Du Nobel à l'hôpital
59. Le plus puissant des aimants
60. Les microsphères
61. La crevette et l'escargot
62. Ces gênes qui nous habitent
63. Un nouveau média
64. Nouvelles images
65. Les petits paquets de France Telecom
66. La spatiocarte
67. Le Sandre
68. Des plantes à l'attaque
69. Une colossale source d'énergie
70. Le grand jeu de la prospective
71. Simuler la route et les vagues
72. Un nouveau pigment rouge
73. Les insectes et l'amour
74. La mécanique intelligente
75. Les oxydes mixtes
76. Coup de foudre
77. Un micro-ruban adhésif
78. Les sentiers de l'Internet
79. De nouveaux aérogels
80. Un coup de chiffon qui vaut 5 milliards de dollars
81. Voir les choses avec des sons
82. Les fermes d'insectes
83. Des lasers dans l'espace
84. Du disque à l'épingle, du CD-Rom au HD-Rom
85. Une grosse toile d'araignée qui couvre le monde
86. Du parachute au coussin d'air
87. La tartine beurrée
88. Nettoyer les nappes phréatiques
89. Le grand écran
90. Un super-ordinateur pour la simulation
91. Matériaux intelligents
92. Innovations pour le dentiste
93. Un multiplexeur
94. Le CEA a cinquante ans !
95. L'université virtuelle
96. Une résonance magnétique nucléaire brûlante
97. La science de la flaveur
98. Une nouvelle agriculture
99. Une nouvelle industrie ?
100. Produits naturels
101. L'automobile du berceau à la tombe
102. Des récompenses pour des innovations
103. Le bleu s'affiche
104. Un bombardement utile
105. L'architecture atomique des molécules du vivant
106. Molécules de lumière
107. Le journal à l'écran
108. Le miracle du diamant
109. Un disque compact holographique
110. Les nouveaux réseaux
111. Un satellite en longe
112. L'oeil du laser
113. L'ordinateur moléculaire
114. Dix ans déjà !
115. Un modèle pour la simulation de l'économie
116. Une grande innovation, dix ans après ...
117. Prévoir le temps au quotidien
118. Télémédecine
119. Eliminer l'amiante
120. Bombardement ionique
121. La fibre de carbone creuse
122. Le diamant arrive...
123. Les cristaux liquides domptés
124. L'âge du gêne
125. La chimie combinatoire
126. Le frottement
127. L'olympisme et la science
128. Science et technologie
129. Trois terres rares pour trois dimensions
130. Un laser en plastique
131. Une course de vitesse
132. La papaye, la moutarde et la grenouille
133. Un hologramme pour la médecine
134. La carte de la science
135. Les piles à combustibles s'améliorent
136. Une nouvelle technique d'exploration de la matière
137. De la vie artificielle à la société artificielle
138. La peur du risque
139. La mystérieuse lumière des bulles
140. L'Argus spectral
141. Un silicium lumineux
142. Toucher les atomes
143. Analyser la pollution
144. Un coup de bleu sur l'avenir
145. La puce génétique
146. Les aventures du gaz carbonique
147. Une pince à molécule
148. L'explosion des réseaux
149. L'innovation bactérienne
150. La manne énergétique au fond des mers
151. L'explosion créatrice
152. Une lentille pour les rayons X
153. Les bibliothèques du futur seront numériques
154. L'écossaise et la caussenarde
155. La coquille d'oeuf
156. Made in Space
157. Fabriquer avec des microondes
158. Un piano au mécanisme harmonique
159. L'effet cocktail-party
160. Le paradoxe français
Radio Classique 1 3 Septembre 1993


Le DISQUE compact et la mémoire


L'humanité utilise depuis toujours des supports matériels pour garder la mémoire des choses. Cela a commencé par le bâton gravé, la tablette d'argile, l'inscription sur le marbre, puis, on a employé le parchemin, le papier, la photo, le film, la bande magnétique, le disque. Aujourd'hui, non seulement on sait garder la mémoire des mots et des chiffres, mais encore celle des sons et des images.

Mais, pour quelle durée ?

Si les inscriptions gravées dans le granit des temples égyptiens sont toujours visibles après 5000 ans, les manuscrits de l'antiquité qui n'ont pas été recopiés au Moyen Age sont perdus. Beaucoup de nos livres imprimés au début du siècle sont menacés de destruction et les bibliothécaires luttent pour les préserver. Les originaux des films tournés avant guerre sur des pellicules à base de nitrates se décomposent lentement. Les cristaux des bandes magnétiques audio ou vidéo se désorientent avec le temps... : il faut sans cesse faire de nouvelles copies !

Les nouvelles technologies d'enregistrement d'images et de sons ne sont-elles pas plus sûres ?

Pas vraiment : les disques compact actuels sont fabriqués dans un matériau plastique, les polycarbonates. Ils seront quasiment illisibles dans trente ans ! Une société française spécialisée dans leur fabrication, Digipresss, s'est associée avec une firme belge, Glaverbel, dans le cadre d'un projet européen Eurêka pour graver les informations numériques sur un support beaucoup plus stable, un verre trempé minéral désalcalinisé. Ce disque compact peut être produit en série, il résiste à de grandes fluctuations de température, aux gaz corrosifs, à l'humidité, ainsi qu'aux déformations et aux rayures. Il peut être recouvert d'une couche réflectrice formée d'un mince dépôt d'or ou de nitrure de titane, ce qui permet de l'utiliser dans les lecteurs ordinaires. Il est susceptible de conserver l'information pendant plusieurs siècles et ceci sans contraintes spéciales d'archivage. Commercialisé depuis mai 1993, c'est un produit qui devrait intéresser les musées, les bibliothèques, les archives, les bases documentaires, toutes les institutions qui font métier de la conservation de la mémoire. Son développement a été soutenu par le Ministère de la Culture.





Radio Classique 2 3 Septembre 1993


La peau des cathédrales


Les grandes constructions de l'Antiquité et du Moyen Age, lieux de culte splendides, attiraient des foules ferventes, mais aussi des marchands. C'étaient des centres de pouvoir économique et d'échange. Le prestige de la splendeur architecturale et l'émotion esthétique engendrée par l'oeuvre d'art formaient un cadre propice à la création de richesses.

Mais aujourd'hui, la construction urbaine ne joue-t-elle pas le même rôle ?

Certes, les buildings des quartiers d'affaires ont aussi la fonction d'affirmer la grandeur et l'entregent des firmes qui les occupent. Mais on aurait tord de négliger le rôle économique dans la vie moderne des vieilles constructions du passé. Elles attirent toujours des foules, touristiques celles-là, et elles donnent à une ville un décor qui compte pour la qualité de la vie intellectuelle et économique. Le problème, c'est que ces investissements qu'ont fait nos ancêtres sont aujourd'hui menacés par notre mode de vie.

Comment cela ?

La pollution, surtout les gaz d'échappement des automobiles, menace l'intégrité des pierres qui les composent. Pour lutter contre la dégradation, une Société de Nantes, SICOF, a lancé un programme de recherche dans le cadre du projet européen Eurêka pour mettre au point un procédé qui puisse efficacement protéger nos vieilles pierres. Dans notre pays, les monuments anciens sont essentiellement en calcaire, une pierre formée de calcium et de gaz carbonique. Elle peut être attaquée par des composés acides qui forment à la surface des sels solubles dans l'eau et qui sont donc emportés par les précipitations. C'est le soufre contenu dans les gaz d'échappement d'automobiles ou dans les fumées des cheminées qui attaque principalement la roche en la transformant en gypse, un sulfate de calcium, minéral sans résistance mécanique, d'où une corrosion, la formation de trous et de fissures. La solution est de badigeonner nos monuments, après un nettoyage soigné au laser, avec une composition qui dépose à la surface un polymère protecteur combiné à une substance semi-conductrice dont la présence diminue les vitesses des réactions chimiques conduisant à la dégradation des roches carbonatées. Développé avec des chercheurs grecs, le procédé est essayé actuellement sur les marbres du Parthénon.
Radio Classique 3 3 Septembre 1993


Filtrer


Enfants sur la plage, on a joué à trouver de beaux cailloux ou des coquillages en utilisant un tamis sur un seau et en lavant le sable à l'eau de mer avec la pelle. Les trous étaient bien gros et ne retenaient que des pièces corpulentes. Aujourd'hui, l'industrie s'occupe du même problème, mais avec des procédés qui permettent de retenir des objets infiniment plus petits.

Il y a longtemps que l'industrie utilise des filtres !

Certes, la séparation d'un solide dispersé dans l'eau ou l'extraction du produit de la réaction partielle de l'eau avec un solide, comme dans le cas du café, impliquent l'emploi de filtres. La chimie et la cuisine connaissent l'usage pour cela du papier, mais on est arrivé à la fabrication de tamis moléculaires qui séparent d'un liquide des entités bien moins grossières !

Quel genre par exemple ?

Pour fabriquer directement de l'eau pure, on peut utiliser la distillation. Cela coûte cher en énergie et c'est donc impossible à pratiquer pour notre eau ordinaire de consommation. D'ailleurs, l'eau distillée a mauvais goût ! Mais, si l'on peut trouver un procédé de filtrage qui ne laisse passer que les petites molécules d'eau et les ions essentiels et retient tout le reste, et si l'on peut le faire pour de grandes quantités, alors on a un moyen commode d'épurer les eaux. C'est ce qu'a mis au point la société Lyonnaise des Eaux-Dumez en employant dans ses installations des membranes d'ultrafiltration organiques réalisées à partir d'un dérivé cellulosique. Elles sont composées de tubes dans les parois desquels sont percés des trous minuscules d'un centième de micron de diamètre, chatières que ne peuvent emprunter grosses molécules et micro-organismes comme les colloïdes, les virus, les bactéries, les algues, les pollens. Ces fibres creuses réunies dans un cylindre permettent d'épurer une eau sale sous pression. Les usines pilotes produisent 50/m3 par heure d'eau potable de qualité. Le développement à l'échelle internationale est en cours.


Radio Classique 4 Septembre 1993


La nature améliorée


Depuis son apparition sur la Terre, l'humanité a toujours cherché à tirer parti de son environnement. En observant attentivement, en expérimentant, on peut repérer, les plantes, les animaux, les terrains, les outils, qui sont les plus efficaces ou dont on peut tirer le plus de plaisir pour vivre et pour manger.

N'est ce pas comme cela que l'on a sélectionné les espèces domestiques ?

En effet, les animaux familiers, les plantes cultivables, les matériaux de construction utiles, ont été repérés dans la nature. Au fil des millénaires, ils ont été soignés, chouchoutés, élevés, transplantés, et souvent leur abondance domine aujourd'hui les autres espèces. Les champs de blé ont remplacé la diversité originelle des herbes des prairies.

Ce processus n'est-il pas aujourd'hui achevé ?

Non, il continue par d'autres moyens. Ce n'est plus par l'observation de ce que la nature produit spontanément que la sélection avance : c'est par l'identification des sources moléculaires qui confèrent à une plante ou à un animal telle propriété intéressante pour l'homme. Par exemple, le Groupement d'intérêt public Prince de Bretagne-Biotechnologie a engagé une étude, soutenue au plan européen par un contrat Eurêka, et conduite en collaboration avec des laboratoires anglais et belges, pour exploiter des méthodes biotechnologiques sophistiquées et améliorer les performances d'un légume familier : le chou-fleur. Cela se fait en identifiant dans le matériel génétique de la plante, porté par une immense molécule l'ADN, les zones qui correspondent à tel ou tel caractère agronomique souhaitable ou pas pour le producteur ou pour le consommateur. Comme cela on peut, dès le stade du semis, identifier des caractères de la plante adulte et favoriser les variétés qui vont avoir plus de goût, être d'une couleur plus avenante, contenir plus de vitamines ou qui vont résister le mieux aux attaques des insectes. Cette dernière propriété permet de réduire la quantité de pesticides indispensables à la culture, un facteur important pour la qualité de l'environnement. La pratique de la biotechnologie végétale remonte aux premiers temps de l'humanité, il y a longtemps que les jardiniers, avec amour, sélectionnent les roses...

Radio Classique 5 1er Octobre 1993


A distance !


La technologie et l'industrie appuyées sur la science semblent avoir en quatre siècles réalisé plusieurs des merveilles des contes de fées. Par exemple, la télécommande, c'est comme la baguette magique ! Hop, d'une pression du doigt, on change d'images !

La télévision n'est pas vraiment un miroir magique !

Non, bien sûr, la télévision n'est pas vraiment un miroir, sinon peut-être, celui de la société. Pourtant, aujourd'hui, on peut physiquement rentrer dans les images, la main peut passer à travers l'écran !

Pas directement quand même !

Non, mais à distance et dans une application des plus curieuses, la chirurgie ! On sait déjà qu'à l'occasion de certaines opérations, l'oeil du chirurgien suit l'action sur un écran de télévision pendant que sa main travaille la chair.

Le talent du chirurgien n'est-il pas en partie dans son habilité manuelle ?

Si, et c'est la raison pour laquelle on peut souhaiter que le plus compétent opère, même si le patient est à l'autre bout du monde, sur un champ de bataille par exemple. Une société californienne, SRI, propose d'étendre les techniques actuellement exploitées autour de l'imagerie virtuelle et met au point des robots de petites dimensions qui peuvent pénétrer dans le corps par des orifices naturels ou par de petites incisions. Ils comportent des systèmes d'éclairage, des optiques pour obtenir des images, des microphones, le tout capable de restituer en stéréo l'ambiance locale, et aussi des outils chirurgicaux miniaturisés et qui peuvent être commandés à distance. On espère qu'un chirurgien dans une station de travail éloignée pourra commander lui-même ces outils, exactement comme s'il les manipulait sur place.

Et on a déjà essayé ?

Oui, cet été, sur la vésicule biliaire d'un cochon et à 150 mètres de distance. Mais ce genre de chirurgie virtuelle n'est pas encore vraiment au point : simuler par des senseurs capables de produire des signaux transmissibles à distance les neuf types de délicates sensations du toucher que possèdent des doigts habiles n'est pas si simple ...

Est ce qu'il y a d'autres applications que la chirurgie ?

Les californiens pensent sagement aux micro-technologies mécaniques, mais on pourrait, beaucoup moins sagement, s'inquiéter d'une extension évidente du concept...

Laquelle ?

Mais, ma chère, l'amour virtuel, l'amour virtuel à distance ! Un peu fou, non ?


Radio Classique 6 1er Octobre 1993


Se parler et se voir


Les avions et les T.G.V. sont remplis d'hommes et de femmes d'affaire pressés qui se précipitent à des rendez vous des dossiers sous le bras. Pour beaucoup d'entre eux, ces voyages incessants, qui exigent une vitalité sportive, seront bientôt moins fréquents !

Ah ? Et comment cela ?

Parce que la technique de la vidéoconférence a fait d'énormes progrès, il n'est plus nécessaire de se rendre dans des salles spécialement équipées : on peut se parler et se voir de son bureau.

Je parie que c'est encore une histoire de télévision !

Oui, c'est la combinaison de trois instruments, qui engendre cette possibilité nouvelle : la télévision, la caméra vidéo, et le micro-ordinateur, l'outil qui transforme l'image en formule mathématique. Ce faisant, il permet aussi d'envoyer un signal à distance d'une manière économique, par le fil du téléphone.

Alors, pas besoin d'antennes, de satellites ou de câbles ?

Non, l'ordinateur transforme les couleurs et les formes de chaque point de l'image vidéo en chiffres. On peut aussi numériser le son. Ensuite, on expédie ces chiffres par le réseau téléphonique spécialisé le RNIS, un réseau qui va partout. A l'arrivée, un autre ordinateur fait la transformation inverse et l'image et le son sont restitués.

Mais, envoyer tous ces chiffres, est ce que ça n'est pas très cher ?

Pas vraiment si l'on utilise une technique dite de la compression d'images. On ne fait transiter par le fil que les chiffres correspondant à la fraction de l'image qui, d'un vingt-cinquième de seconde à l'autre, a changé. Pour une vidéoconférence, le décor des bureaux et les personnages changent peu, rien ne bouge trop, les maquettes, les objets, les documents que les correspondants se montrent à l'écran sont eux aussi assez fixes. Donc, on peut se contenter d'utiliser un nombre réduit de canaux pour la diffusion numérique de l'image, autant que pour le son, qui doit être de bonne qualité.

Et on peut utiliser aujourd'hui ce procédé ?

Oui, la SAT, Société Anonyme de Télécommunication, a construit un système baptisé Telsat Cameris qui permet de tenir des "visioréunions" pour un prix de 370F pour une liaison d'une heure Paris-Bayonne, 800F pour Paris-New York ! Une communication presque directe pour beaucoup moins cher que le voyage !

Radio classique 7 1er Octobre 1993


L'oeil des abysses est une oreille


S'il y a une analogie moderne au vieux problème de chercher une aiguille dans une botte de foin, c'est bien la question de savoir de l'extérieur où est un sous marin dans la mer !

Si on ne trouve pas une aiguille , on peut essayer de la retrouver avec un aimant !

Dans un sens pour le sous-marin aussi, vous allez voir. Pour ce qui se passe dans la mer d'ailleurs, on ne cherche pas à voir, on écoute...Comme l'a fait l'Ifremer il y a deux ans, on peut transmettre une image du fonds de la mer en transformant un signal électrique en ondes sonores, car les sons se propagent dans l'eau.

Mais, est ce que les chauves souris ne "voient" pas avec leurs oreilles ?

Oui, les chauves souris se dirigent par écholocation, elles émettent des ultrasons dans une bande de fréquence bien définie et leur oreille analyse le signal qui revient parce qu'il s'est réfléchi sur des obstacles. C'est aussi le principe du sonar des sous marins.

N'est ce pas une technique ancienne ?

Oui, mais de nouveaux matériaux permettent d'accroître considérablement la puissance des ultrasons émis et donc les capacités d'observation. Par exemple, ces supraconducteurs à haute température critique qui ont bouleversé la recherche en physique ces dernières années. Si on construit une bobine avec des fils de ces substances on pourra y faire passer une très forte intensité de courant ce qui va engendrer dans l'axe de la bobine un champ magnétique intense....

Voilà où vous voulez en venir avec votre aimant !

Il faut placer un autre matériau miracle dans l'axe de la bobine. C'est un alliage de deux métaux du groupe des terres rares de la classification périodique des éléments, le terbium et le dysprosium, alliage qui a la propriété de changer de longueur sous un champ magnétique. Donc, on peut, en alimentant la bobine au moyen d'un courant pulsé à une fréquence bien choisie transmettre à des pistons de puissantes oscillations mécaniques dans le domaine ultrasonore. C'est en gros le même principe que celui d'un haut parleur sauf que ça se passe quand même à une température inférieure à celle de l'azote liquide. Un tel système peut augmenter considérablement le pouvoir de communiquer, ou d'observer, sous l'eau !



Radio Classique 8


Une nouvelle version de la bouteille thermos


Le pétrole, vous le savez, c'est noir et dégoûtant ! Mais la chimie sait en tirer une jolie substance blanche et molle, la paraffine !

N'est ce pas ce que nos grand'mères utilisaient pour couvrir la confiture ?

Mais, oui, c'est une substance tout à faire sûre au point de vue alimentaire et non-toxique. D'ailleurs le terme a été introduit en français en 1552 d'après les mots latins "parum affinis" qui signifient "qui a peu d'affinité".

Donc qui ne donne pas facilement de réactions chimiques !

Les paraffines appartiennent à la famille des alcanes substances composées uniquement de carbone et d'hydrogène. On les distingue par le nombre d'atomes de carbone que contiennent leurs molécules. La plus simple est la molécule de méthane qui ne contient qu'un seul atome de carbone et quatre d'hydrogène...

Mais le méthane est un gaz !

Mais oui, les premiers termes de la série sont des gaz ! Mais, à la température ordinaire, à mesure que le nombre d'atomes de carbone augmente on a, dès qu'il atteint cinq, des liquides, puis, lorsqu'il atteint 16, des solides mous. Comme les propriétés chimiques sont très voisines, on peut mélanger ces substances pour en faire des alliages moléculaires dont le point de fusion, la température de passage du solide au liquide, peut être ajustée comme on le souhaite au voisinage de celle de la température ordinaire.

Je ne vois pas encore le rapport avec la bouteille thermos !

Et bien, la fusion de ces alliages demande pas mal d'énergie et par conséquent, pour en liquéfier totalement un morceau, ça prend du temps, surtout si l'énergie doit être empruntée à l'air ambiant. Or, durant tout le temps que coexistent le solide et le liquide, c'est une loi de la thermodynamique, la température est constante ! On peut donc utiliser ces substances pour conserver au frais des aliments ou des boissons. La société Sofrigam de Nanterre exploite un brevet déposé par un laboratoire de l'Université de Bordeaux associé au CNRS et produit des emballages thermoprotecteurs à usage alimentaire et paramédical dans la gamme +6 à +16°C. Elle propose notamment une gourde isotherme exploitant son procédé "Fraich'up", un emballage double paroi enfermant des alliages d'alcanes.

Bon, je vois qu'on a inventé des glaçons à température réglable !

Radio Classique 9


La course au toujours plus petit


On rencontre des bateleurs dans les rues qui proposent d'écrire votre nom sur un grain de riz. Ce n'est pas trop commode comme carte de visite, mais c'est curieusement l'illustration d'une tendance industrielle lourde

Pas quand même pour proposer la vente de riz personnalisé !

Non, mais l'idée est de graver des choses complexes sur des surfaces de plus en plus exiguës. De miniaturiser en somme l'information pour gagner du poids du volume de l'espace et aussi progresser en rapidité d'accès.

Je me vois mal en train de lire le journal au microscope !

Pourtant c'est ce que fait l'ordinateur en présentant sur l'écran le texte immobilisé en caractères magnétiques minuscules sur une disquette. Si le langage binaire qu'il exploite fonctionne sur des tracés simples du genre cases blanches/cases noires ou creux et bosses, on sait construire des figures infiniment plus complexes, des cartes géographiques aux dimensions du monde atomique.

Et les paysages correspondant ressemblent à quoi ?

Et bien, à nos villes : on y trouve des autoroutes, des ponts, des tunnels, des croisements, des feux rouges, des buildings à contourner, des lignes de métro rapides. Le plan des circuits des puces électroniques ressemble à celui d'une agglomération moderne.

Et à quoi servent tous ces systèmes de communication ?

A faire circuler, comme les voitures dans nos rues, des flux d'électrons, la particule élémentaire dont le déplacement forme le courant électrique et qui nous sert à transporter l'information, à la stocker dans des supports matériels, et à aller ensuite la chercher. En ce moment on réalise des substrats pour ces fonctions de plus en plus minuscules. Grâce aux nanotechnologies les rues pour électrons atteignent des dimensions qui sont de l'ordre de grandeur de celle des distances entre les atomes dans la matière.

Est ce qu'il y a des limites à ce voyage de Gulliver dans l'infiniment petit ?

Oui, et elles semblent proche d'être atteintes car le CEA annonce que l'un de ses groupes de recherche du Service de Physique de l'état condensé a réalisé une écluse à électron qui permet de contrôler le passage d'un seul électron à la fois dans un circuit. Au même moment deux Laboratoires nationaux américains déclarent à Washington qu'ils ont mis au point une technique analytique qui permet d'identifier la nature chimique d'un seul atome isolé. Ce sont des étapes vers la miniaturisation ultime des composants électroniques.

L'ordinateur sur un grain de riz en somme !
Radio Classique 10


La télé en plastique


Savez-vous quelles sont les différences entre un ver luisant et un écran de télévision?

En tout cas, ils se ressemblent, tous les deux émettent de la lumière!

C'est effectivement le point commun, le ver émet de la lumière produite par une réaction chimique et sur l'écran de la télévision, trois substances luminescentes émettent de la lumière rouge, bleue ou verte sous l'impact du bombardement du faisceau d'électrons dans le tube cathodique de l'appareil. Mais la différence, c'est que le ver est fait de substances organiques à base principalement d'atomes légers - carbone, hydrogène, oxygène, azote -, alors que les composants de l'écran de télévision sont des substances minérales formées d'atomes assez lourds et que le tube cathodique est en verre.

Et vous proposez de les remplacer par des vers luisants colorés collés sur nos écrans!

Non, on ne saurait pas comment les exciter et ils sont trop gros ! Mais deux chimistes anglais de Cambridge, soutenus par la Communauté Européenne, viennent d'inventer un polymère organique qui a la propriété d'émettre de la lumière lorsqu'on lui injecte de l'énergie au moyen de deux électrodes.

Le ver luisant ne se promène pas avec une pile électrique !

Avec une pile électrique, on peut faire émettre de la lumière à un système électronique courant, formé de la jonction de deux morceaux d'un matériau semi conducteur comme l'arséniure de gallium. L'un des morceaux contient un excès d'électrons chargés négativement, l'autre un excès de trous chargés positivement. A la jonction trous et électrons se recombinent et dans le processus de la lumière est émise, on appelle ça une diode électroluminescente.

Arsenic, gallium ! Cela n'a rien d'organique !

Le nouveau plastique fonctionne exactement sur le même principe fondamental que la diode : on injecte des électrons, une lumière est émise, et en manipulant les groupes chimiques greffés sur la chaîne vinylique de ce polymère, on peut obtenir des couleurs différentes avec un bon rendement. Cette découverte peut conduire à terme à une révolution dans notre manipulation de l'image parce qu'elle peut entraîner la mort de l'encombrant tube cathodique de notre téléviseur dont les dimensions restreintes limitent notre perception des images.

Et donc, on pourra faire des écrans grands comme le mur et vivre dans les images ?

Et, oui, peut-être, avec une télévision à coller comme un papier peint, devenue un simple rouleau de matière plastique !

Radio Classique 11


Téléphoner en sécurité


Il y a de plus en plus de téléphones dans les voitures. Conduire d'une main, téléphoner de l'autre, ce n'est pas très facile ! Gare à la distraction !

Au moins, c'est commode dans les embouteillages !

Dans un véhicule arrêté, le risque n'est pas très grand, il en va autrement à grande vitesse quand un conducteur a besoin de ses yeux pour surveiller la route et de ses mains pour actionner le volant !

Peut-on téléphoner sans utiliser ses mains, soit pour faire le numéro, soit pour tenir le combiné ?

C'est justement la question que s'est posée la Société Matra Communication. Avec le soutien de France Telecom, ils développent un téléphone à commande vocale qui fonctionne avec un microphone et un haut parleur placés dans l'habitacle.

C'est donc un "sésame ouvre-toi !" pour les portes du réseau téléphonique !

En quelque sorte, mais ce n'est pas si simple, il faut résoudre plusieurs problèmes. D'abord il y a du bruit dans une voiture, bruit de moteur, bruit de roulement, qui augmentent à grande vitesse et dépendent d'une manière imprévisible de l'état des routes Il faut donc que la reconnaissance des mots de passe proférés par le conducteur, et nécessaires pour accéder à un correspondant particulier, soit sûre. Il faut pour cela maîtriser des fonctions mathématiques de l'analyse du signal qui soient efficaces à partir d'un nombre réduit de répétitions du mot, effectuées dans la voiture à l'arrêt, opération nécessaire pour coder l'appareil.

Il faut donc savoir à l'avance à qui l'on veut téléphoner.

C'est comme un carnet d'adresse, il y a des numéros que l'on fait souvent. Mais il faut aussi éviter les échos sonores, c'est-à-dire empêcher le microphone de saisir le son produit par le haut parleur, là ou s'exprime le correspondant. Il faut savoir où placer les capteurs et les émetteurs de sons dans le véhicule et utiliser un système de filtration sophistiqué du son pour limiter cette perturbation tout en tenant compte du niveau variable du bruit ambiant dans une voiture qui roule !

Je suppose qu'il faut aussi arrêter la radio de bord !

En effet, car il est encore plus difficile de se débarrasser des sons musicaux ! Il vaut mieux n'amplifier que la voix du conducteur. Dans tout ce travail, avec comme but une application très concrète, on s'aperçoit que les mathématiques appliquées jouent un rôle considérable dans le projet Matra Communication. C'est grâce aux mathématiques que progresse la magie ordinaire de la technologie !

Radio Classique 12 20 Novembre 1993


LA TELE EN TROIS DIMENSIONS


Les images dont nous abreuvent le cinéma et la télévision ne sont pas vraiment une traduction fidèle de la réalité. Nos yeux voient une profondeur, cinéma et télé se déploient sur une surface plate !

La différence, bien sûr, c'est le relief !

Et oui, comment donner à ceux qui regardent un écran une meilleure impression de la distance qui sépare des parties de l'image, comment faire jaillir du fond les premiers plans ?

En se mettant des lunettes colorées sur le nez, on voit des choses comme ça dans les parcs d'attractions.

Et on a l'impression de pouvoir attraper les papillons qui volent vers vous ! Ce sont des sensations spectaculaires. Aussi, les chaînes de télévision essayent de trouver un procédé qui permette de vous apporter cette féerie à domicile.

Et comment ?

Les Japonais de Sanyo cherchent à fabriquer un nouveau poste de télévision avec un écran à cristaux liquides recouvert de minuscules lentilles optiques. Les lignes de points lumineux qui forment l'image proviennent alternativement d'une caméra côté gauche et d'une caméra côté droit, et les lentilles dirigent ces signaux vers l'oeil gauche ou vers l'oeil droit du spectateur.

C'est compliqué !

Oui, et le spectateur doit rester dans une zone bien définie devant son poste. Mais la BBC a une autre solution. Ils ont diffusé vendredi et samedi derniers deux nouveaux épisodes de 7 minutes d'une série à succès. En se chevauchant le nez de lunettes plastiques à verre rouge et bleu, les téléspectateurs ont û les voir en relief !

Et quelle est la recette ?

Si on provoque une différence de perception entre les deux yeux, et que l'un d'entre eux reçoive une image moins brillante, un peu plus éteinte que l'autre, ce qui bouge dans l'image apparaît en relief ! Le cerveau prend plus de temps pour analyser l'image moins claire et de la différence des signaux reçus par les deux yeux jaillit l'impression de profondeur !

Mais alors, ça pourrait marcher tout le temps !

Non, car il faut que la prise de vue soit faite en conséquence. Il faut créer du mouvement, faire tourner la caméra autour des acteurs, demander à ceux-ci d'avancer et de reculer. Alors, pour la présentation en relief du journal télévisé, il faudra inventer autre chose ! Mais en attendant, essayez avec la neige de votre écran de télévision en mettant un verre de lunette de soleil sur un oeil.
Radio Classique 13


Une banque de données phytosanitaires


Je suppose que vous aimez les fleurs et les fruits. Nous ne sommes pas les seuls : les vers, les araignées, les pucerons les champignons, se régalent aussi sur feuilles fruits racines tiges fleurs !

Ils nous font donc de la concurrence !

Oui, et quelquefois ils peuvent gagner, détruire des récoltes ou les dévorer comme le charançon le fait des stocks de blé. C'est un problème qui a de grosses incidences économiques à côté du plaisir gâché du jardinier amateur.

Mais nous avons maintenant tout un arsenal de moyens pour combattre ces invasions

La chimie a fabriqué en effet un nombre considérable de produits pour débarrasser nos cultures des hôtes indésirables. Mais d'un autre côté, on s'inquiète de la nuisance possible de ces produits sur l'environnement, sur les poissons et les oiseaux et bien sûr sur l'homme

Comment peut-on s'y retrouver dans tous ces produits chimiques et savoir si on risque quelque chose ?

Et bien, l'Institut National de la Recherche Agronomique, l'INRA, offre au public une banque de données nommée AGRITOX consultable par le service vidéotex 3617 au moyen d'un Minitel bistandard type 1B. Réalisée avec le concours de l'Union des Industries pour la protection des plantes, elle permet de mieux connaître la toxicologie des pesticides à usage agricole.

Et qu'y trouve-t-on ?

On peut donner simplement le nom d'une matière active, sa famille chimique, son activité biologique ou le nom de la firme. Par exemple, si vous cherchez un produit contre les araignées, l'écran vous donnera une longue liste d'acaricides. Pour chacun de ces produits, vous pourrez prendre connaissance de leur toxicité pour la faune sauvage...

Quel genre de faune ?

La liste est poétique, on y trouve la truite arc-en-ciel, le poisson-lune, le canard colvert, la perdrix grise, les abeilles et bien sûr le rat d'expérience de laboratoire. On indique aussi les règles administratives, les doses maximales admissibles, et les limites permises de résidus pour les cultures traitées.

Mais est-ce qu'il y a beaucoup de ces produits sur le marché ?

Enormément ! Il y a environ 500 molécules autorisées en France et il y en a environ 10 nouvelles chaque année. Aussi, la base de données AGRITOX est-elle mise à jour après chaque séance de la commission d'étude de la toxicité des produits phytosanitaires. C'est un exemple particulier, mais aujourd'hui les outils de diffusion de l'information scientifique et technique vers le public sont de plus en plus nombreux et ils sont conçus pour être aisés à consulter.
Radio Classique 14 13 Décembre 1993


Un nouveau type d'enceinte acoustique


Tara, est-il indiscret de vous demander si vous aimez la musique ? La vraie, la grande, la classique ?

.......

Pour pouvoir écouter de la musique, il faut d'abord que quelqu'un la produise, un musicien avec son instrument, et si l'on ne peut pas assister directement au spectacle il faut l'enregistrer ou faire parvenir le son à distance. Du point de vue technique c'est là qu'interviennent ces petites merveilles de la technologie moderne que sont les micros qui capturent le son et les hauts parleurs qui le restituent. Ce sont des dispositifs qui convertissent l'énergie acoustique en signaux électriques ou vice versa...

Et qui doivent exécuter ces conversions en respectant la qualité de la musique originale telle qu'elle est produite !

Vous avez sans doute remarqué que si l'on écoute de la musique chez soi, on a toujours des difficultés à positionner les enceintes qui contiennent les hauts parleurs. Quelquefois, il faut se livrer à des contorsions, jouer avec les meubles pour écarter les deux sources convenablement et diriger le son vers l'endroit où sont, en principe, les oreilles !

Vous allez me proposer de supprimer le problème en se collant des écouteurs de baladeur sur les oreilles !

Non, pas cette fois, car la Société Stamp - Société de Technologie Acoustique Midi Pyrénées -, de Toulouse, propose un nouveau type d'enceinte acoustique, la cellule "Plansonor", qui supprime les problèmes de directionnalité. Avec cette technologie nouvelle, soutenue par l'ANVAR et récemment brevetée, le son semble sortir de la matière uniformément...

Ce ne sont pas les murs qui vibrent quand même !

Non, mais c'est un peu l'idée de base : produire le son par une surface assez étendue au lieu d'une source quasiment ponctuelle. Les hauts parleurs conventionnels fonctionnent avec une membrane vibrante placée au fond d'un cône, l'ensemble étant habillé par l'enveloppe de l'enceinte. Dans l'invention toulousaine, il s'agit d'un système à volume vibrant pour lequel l'écoute est aussi bonne de face qu'à 90°

De quoi se baigner dans la musique en somme !

D'autant plus qu'il s'agit d'un diffuseur à large bande qui restitue l'ensemble du spectre sonore sans avoir besoin d'une forte puissance acoustique. Un matériel que l'on peut utiliser donc pour ne pas casser les oreilles de ses voisins tout en ayant l'impression d'être soi même au concert !


Radio Classique 15


De la musique à la fumée


Tara, qu'est ce qu'il y a de commun entre un lecteur de disques compact et un détecteur de fumées moderne, un appareil important pour la sécurité et la prévention des risques d'incendie ?

......

Et bien, les deux peuvent être équipés d'un laser. Le laser est un système optique qui produit un faisceau de lumière cohérente, c'est-à-dire pour lequel toutes les ondes émises par la source sont en phase. Cette grande découverte de la recherche fondamentale, il y a une trentaine d'années, est maintenant exploitée dans un grand nombre d'objets techniques ordinaires.

Le laser permet de lire les informations numériques gravées sur un disque compact.

Oui, et dans le détecteur de fumée, on utilise exactement la même source laser infra rouge, produite industriellement en grande série et donc très fiable, que dans le lecteur de disques compact. C'est l'interférence du faisceau laser avec les minuscules particules solides qui forment la fumée qui permet la conception d'un système de détection.

Et comment cela ?

Si vous observez de côté un faisceau laser de lumière visible, vous pouvez constater que la poussière suspendue dans l'air scintille au passage du faisceau. La lumière du laser est diffusée par les particules. Incidemment, ne regardez jamais une source laser, visible ou pas, de face, c'est très dangereux pour vos yeux !

Mais comment distinguer entre la poussière et la fumée ?

Et bien, le détecteur de fumées de haute sensibilité conçu par la Société Kidde Dexaero d'Antony, dans les Hauts de Seine, est équipé d'un système qui compte les particules qui interceptent la lumière laser. Celles-ci traversent le faisceau en environ 100 microsecondes et la lumière diffusée durant ce temps très bref est repérée par une cellule sensible. Les signaux sont transmis à un système de comptage électronique et leur intensité permet d'évaluer la taille des particules diffusantes. Comme cela, on peut classer celles-ci en catégories. Ainsi, il est possible de ne déceler que les particules dont les dimensions correspondent à celles de la fumée. On évite donc les fausses alertes et on peut contrôler n'importe quel type d'ambiance, même les poussiéreuses !

Donc, ce n'est plus l'alerte au feu, c'est l'alerte au laser !

La fumée est en effet souvent prémices de feu. Dans l'appareil de Kidde Dexaero, l'air ambiant peut être forcé dans la chambre d'analyse sans qu'il soit nécessaire de le filtrer, donc toutes les fumées y passent ! Le système est très robuste : il a toutes les qualités d'un bon ange gardien !
Radio Classique 16


Vive les bulles !


Tara, est ce que vous aimez tremper vos lèvres dans ces coupes ou ces flûtes de champagne qui, à cette époque de l'année, se vident un peu partout au son de canon des bouchons qui sautent ?

.....

Vous avez peut-être remarqué sur les murs de la ville, ou dans le métro, ces affiches qui vantent des boissons pétillantes ? Elles sont souvent centrées sur un beau verre qui contient le liquide couronné d'une barre de mousse blanche. On imagine les lignes de bulles qui montent...

Tout ce que vous me dites là paraît bien éloigné des rigueurs de l'innovation scientifique et technique !

Non, car ce qui se voit sur les affiches traduit les goûts du public : on aime bien que le champagne fasse des bulles et que dans le verre, on puisse observer la brève et joyeuse effervescence de sa mousse. C'est ce jeu entre liquide et gaz, lumière et son, qui caractérise les boissons de fête, de même qu'une bière doit être servie avec un beau col de mousse, bien proportionné...

J'imagine donc que d'avoir une apparence conforme à l'espérance du consommateur est une condition importante pour le succès commercial d'un produit !

Tout à fait, et cela exige un gros effort de recherche ! Depuis déjà longtemps la Société Moet et Chandon, d'Epernay en Champagne, étudie les conditions de formation et de stabilité des mousses et des bulles dans ses produits. Ils sont associés pour ce type de recherche avec la Société hollandaise Heineken dans le cadre d'un projet européen Eureka.

Mais, comment peut-on étudier une mousse aussi légère et qui passe si vite ?

Les chercheurs ont construit un appareil qui permet, une fois le champagne versé dans le verre, d'enregistrer toutes les deux secondes des images de la mousse de face et de profil. Ces images sont analysées par un ordinateur et on peut en extraire des paramètres mathématiques.

Arrive-t-on à fabriquer des mousses reproductibles et constantes ?

Pas vraiment encore : on en est à tenter de comprendre un phénomène capricieux. Plus que la qualité du vin ou que la manière de verser, c'est l'état de la surface du verre qui parait être le paramètre prédominant !

C'est donc le consommateur qui fabrique sa mousse !

Beaucoup de choses dépendent aussi de la taille des bulles de gaz carbonique qui s'échappent du vin. Leur grosseur varient avec l'agitation du liquide, elles se forment sur les micro aspérités à la surface du verre d'où elles s'échappent en longues files, mais, surtout, la stabilité des bulles semble dépendre de la présence de substances naturelles contenues dans le vin en très faibles quantités : le raisin chardonnay donne des bulles plus petites par exemple que celles du pinot. Il y a donc beaucoup de mystères scientifiques dans un verre de champagne !

Radio Classique 17


Une nouvelle agence


Tara, savez-vous où vous pouvez vous adresser pour avoir des informations sur les nouvelles technologies en ce début d'année 1994 ?

Je pensais qu'il me suffisait de m'adresser à vous !

Bien sûr je peux vous donner un petit écho de ce qui arrive ici ou là dans le domaine de l'invention, mais il y a beaucoup plus de choses que ce dont on peut parler à l'occasion d'une chronique. De plus, il y a beaucoup de conditions techniques et économiques qui ne peuvent être exposées sur une antenne : il faut prendre contact avec des spécialistes

Mais, justement, où les trouver ?

Le marché de l'information scientifique et technique est devenu un enjeu pour la compétitivité d'une nation. Aussi l'Etat a mis en place au cours de l'année 1993 à Strasbourg une nouvelle agence : l'Agence pour la Diffusion de l'Information Technologique, l'ADIT, qui sous la tutelle du Ministère de la Recherche et de celui des Affaires étrangères est chargée de rassembler des informations au plan international et de faire connaître les innovations technologiques qui peuvent changer les pratiques industrielles

Que vont-ils faire pour se faire connaître en 1994 ?

Ils vont faire paraître en Janvier 1994 le numéro 1 d'une nouvelle revue "Technologies Internationales" qui est un mensuel de veille technologique destiné aux milieux techniques et industriels français.

Quel genre d'informations pourra-t-on y trouver ?

Des dossiers d'information scientifiques et techniques de synthèse et à caractère prospectif. On y fait le point sur des techniques nouvelles. Par exemple, l'utilisation des méthodes haute pression dans l'agro alimentaire, ou encore les solutions envisagées par les japonais pour la télévision à haute définition murale. Tenez dans ce cas là, j'ai appris qu'ils envisagent de fabriquer des écrans de grandes dimensions à plasma dans lesquels l'image est créée par l'impact sur des substances luminescentes d'un rayonnement ultraviolet généré dans un mélange de gaz rares par une décharge électrique ponctuelle. C'est un domaine dans lequel la France travaille aussi beaucoup, par exemple chez Thomson.

On peut ainsi savoir quelles sont les ambitions de nos concurrents et leurs choix technologiques

Tout à fait, et en particulier grâce au travail de nos attachés scientifiques et techniques à l'étranger. L'ADIT rassemble ces informations et les met en perspective sous la forme de synthèses claires. Elle aide aussi les PMI par des conseils spécifiques

Et elle vous aidera sûrement à trouver des sujets pour alimenter votre chronique en 1994 !

Je l'espère ! En fait je crois que les sujets ne manqueront pas ! Souhaitons aux entreprises d'innover encore davantage en 1994 !
Radio Classique 18 7 Janvier 1994


Plus dur que le diamant !


Tara, savez-vous que ces diamants qui font des bijoux si somptueux peuvent brûler comme feu de paille ?

Oui, il paraît que Monsieur Lavoisier les faisait griller au foyer d'un four solaire !

En effet, car ces beaux cristaux sont formés d'un arrangement d'atomes de carbone, tout comme le graphite qui est la base de nos mines de crayon ou du vulgaire charbon. Le diamant est l'une des formes que peut prendre le carbone dans la nature.

Est-ce qu'il y a d'autres formes du carbone à côté du graphite et du diamant ?

Depuis quelques années, les chimistes ont effectivement mis en évidence une autre forme de carbone. Il s'agit de molécules dans lesquelles 60 ou 70 atomes de carbone sont liés entre eux pour former une sorte de boule d'une géométrie très régulière qui ressemble aux dômes géodésiques que les architectes ont inventés, et pour cette raison on a appelé d'abord ces molécules des buckminsterfullérènes, ou plus simplement fullérènes ou footballènes, car elles ressemblent finalement à des ballons de football !

Quel rapport avec le diamant ?

Jusqu'à présent, il s'agissait de deux matériaux très différents, l'un plutôt apparenté à la suie, l'autre dur et brillant. Mais voilà qu'une équipe de chercheurs français d'un laboratoire de l'Université Paris XI à Orsay, associé au CNRS, dont le thème de recherche est la chimie physique des matériaux amorphes, et qui est dirigé par Henri Szwarc, vient de réussir une étonnante transformation des fullérènes en collaboration avec une équipe de recherche russe dans un laboratoire près de Moscou..., et deux autres équipes françaises, celle d'André Rassat à l'ENS et celle de René Céolin à la Faculté de Pharmacie de Tours.

Est-ce que, d'un coup de baguette magique, ils ont transformé la suie en diamant ?

Mieux, ils ont obtenu une substance qui paraît être plus dure que le diamant le plus dur des matériaux connus ! La baguette magique est un instrument qui permet de comprimer très fort un échantillon entre deux enclumes de diamant. C'est en traitant des fullérènes dans cet appareil russe à une pression d'environ 200000 atmosphères qu'un produit nouveau de structure amorphe a été obtenu. A l'ouverture de la chambre d'expérience, on s'est aperçu que ce produit avait rayé les pièces en diamant, preuve d'une dureté plus élevée !

On va donc peut-être pouvoir fabriquer facilement des superdiamants !

En effet il y a peut-être là le départ d'une nouvelle économie des produits durs, mais aussi la possibilité, plus romanesque et originale, de graver au nom de l'heureuse élue le diamant naturel offert, puisque désormais il semble qu'il existe un burin pour attaquer la surface de la pierre précieuse !

Radio Classique 19 18 Janvier 1994


Un automate musical


Tara, je ne vais pas vous demander si vous aimez la musique. Sur Radio Classique, la question serait déplacée. Mais pensez-vous qu'il faut toujours qu'une musique ait un compositeur ?

..............

La composition musicale est difficile, c'est un exercice qui exige du talent, du goût, et aussi la connaissance technique d'un grand nombre de règles.

Il y a surtout une très grande variété dans la composition possible d'une musique.

Oui, mais on peut se donner des règles formelles pour encadrer une composition musicale : 28 notes sur 4 octaves pour une tonalité donnée, accords enchaînés deux à deux, chacun composé de 4 notes, application stricte des règles des traités d'écriture harmonique au niveau des interdictions comme des obligations

Les compositeurs ont tout cela dans la tête ! Mais ceux qui ont beaucoup de talent violent les règles !

C'est la supériorité de l'être humain ! Mais quand même, aujourd'hui, on peut faire ingurgiter le savoir professionnel musical de base à un ordinateur, parce que leur puissance a beaucoup augmenté depuis les premiers essais il y a 10 ans. Des configurations informatiques assez simples suffisent. Le Professeur Frank Brown de l'Université de Paris I a construit un automate musical, baptisé Kantor, avec un K, qui produit en temps réel et de façon continue une musique polyphonique variée.

Mais qui donne les instructions à la machine ?

Elle travaille toute seule, elle utilise une procédure de composition automatique, qui gère les enchaînements d'accords, la mise en place des ornements, la structuration rythmique, la formalisation du discours musical, en temps réel, à l'aide d'une base de données comportant plus de 20.000 enchaînements d'accords.

On ne sait donc pas sur quelle musique on va tomber, si on laisse la machine fonctionner !

Mais oui, c'est la surprise ! Kantor ne fabrique jamais deux fois la même séquence. Il opère quand même en douceur sans changements brusques.

Mais à quoi peut-il servir ? A des concerts ?

Non, bien sûr, il n'a pas cette ambition ! Son concepteur espère qu'il peut être utilisé dans des lieux où l'on a besoin d'une musique d'ambiance variée et agréable, une zone de repos par exemple. D'ailleurs, si vous voulez, on peut l'écouter. On le branche ?


Radio Classique 20


UN NOUVEAU COMPOSANT ELECTRONIQUE


Tara, avez-vous remarqué que le compteur qui mesure l'énergie électrique dépensée dans votre habitation possède une petite roue qui tourne lorsque quelque chose est branché ?

.....

Cet appareil familier est un instrument électromécanique qui convertit la puissance électrique en un mouvement mécanique, lequel actionne un compteur. Il est assez encombrant, et pour savoir combien vous avez consommé, il faut qu'un oeil lise les chiffres du cadran.

Et donc, que la personne chargée de ce travail puisse venir chez moi à une heure où je suis présente !

Oui, d'où l'abondance des relevés "estimés" au moment de la facture. Il serait souhaitable d'avoir d'autres méthodes, par exemple de pouvoir relever les compteurs à distance. Mais pour en arriver là, il faut inventer de nouveaux composants. Un pas important a été récemment réalisé par la société Schlumberger-Recherche à Montrouge en collaboration avec un laboratoire associé au CNRS de l'Université de Montpellier, dans le cadre d'un projet soutenu par le Ministère de la Recherche.

De quel type de composant s'agit-il ?

C'est un microsenseur qui exploite l'effet Hall. Un phénomène qui met en jeu l'interaction entre un champ magnétique et un courant électrique, et dont la mesure permet de déterminer la puissance électrique.

C'est donc sans doute quelque chose qui est connu depuis bien longtemps, où est la nouveauté ?

Les chercheurs de Schlumberger et ceux de Montpellier ont réussi à éliminer un problème majeur qui interdisait jusqu'à présent d'exploiter le phénomène de Hall pour ce type de mesure. Le résultat de celle ci dépendait en effet beaucoup des fluctuations de température.

Donc, on n'a plus à craindre, pour la même consommation, des chiffres différents, selon qu'il fait chaud ou froid, que c'est l'été ou l'hiver !

Oui, la solution met en jeu une technologie extrêmement sophistiquée basée sur l'empilement de matériaux assez semblables, alliages d'aluminium, de gallium, d'arsenic et d'indium, mais qui peuvent avoir des propriétés très différentes dans des limites précises de composition chimique. On les appelle des hétérostructures. On peut fabriquer une couche conductrice de très faible épaisseur, c'est-à-dire quelques couches atomiques, prise en sandwich entre des couches isolantes. Dans ces dispositifs, l'effet Hall est facile à exploiter, il est très peu sensible aux variations de température et il s'agit de cellules de dimensions très réduites.

Donc, encore un nouveau composant petit pour des technologies de plus en plus comprimées ?

Oui, les nanotechnologies font disparaître la visibilité des mécanismes de mesure ! Bientôt, ce seront les électrons et les atomes, le jeu des champs électriques et magnétiques, qui fourniront les chiffres qui s'étalent sur nos factures. Après tout, imaginer ce petit monde vif et silencieux au travail, est-il moins poétique que les contemplations un peu bovines de la rotation, inflexible, des cadrans ?

Radio Classique 21 28 Janvier 1994


EL NINO


Tara, vous qui aimez la météo, est-ce que vous pouvez imaginer un lien entre les rivières de France qui débordent et les villes australiennes encerclées par des feux gigantesques dans la fournaise de l'été austral ?

...........

Le lien pourtant existe, ou plutôt son existence est soupçonnée par les météorologues à cause d'un phénomène dans le Pacifique Sud qui correspond à une inversion du sens du vent et des courants marins dans l'immense espace océanique qui s'étend entre la côte de l'Amérique du Sud et celle de l'Australie.

Et qui fait que de temps en temps, les oiseaux meurent au Pérou !

En effet, les eaux habituellement froides de la côte péruvienne sont périodiquement recouvertes en surface par de l'eau chaude en provenance des zones tropicales situées plus à l'ouest : les poissons disparaissent et les oiseaux qui vivent de la pêche en meurent.

Et l'économie locale en souffre aussi, bien sûr !

Oui, car ce phénomène apporte la misère. On l'appelle El Nino, parce qu'il survient souvent vers Noël. Mais le problème aujourd'hui, c'est qu'il est installé depuis longtemps, il entre dans sa troisième année et on n'en voit pas la fin !

Et quelles en sont les conséquences ?

Et bien, on pense que le climat mondial est affecté : épisodes de froid intense en Amérique du Nord, pluies abondantes en Europe de l'Ouest, sécheresse en Australie, au Nord-est du Brésil et en Afrique du Sud. Les dégâts se chiffrent en milliards de dollars.

Mais, peut-on prédire l'apparition et la durée de ce phénomène qui a des conséquences économiques si importantes?

A la suite du terrible El Nino de 1982-1983, on a réussi à prédire avec succès, un an à l'avance, celui de 1986-1987, puis, le début, en 1991, de l'épisode actuel, mais personne n'avait soupçonné sa durée exceptionnelle. Pourtant, les météorologues travaillent avec acharnement pour construire des modèles de la circulation atmosphérique générale, qu'ils vérifient en simulant les observations météo passées. On espère qu'ainsi éprouvés, ils pourront servir à prédire les grandes tendances du temps à venir. Paul Pettré, chercheur au Centre National de Recherches de Météo France à Toulouse, vient de publier un article dans les Comptes Rendus de l'Académie des Sciences qui compare avec des calculs les mesures de températures faites de 1979 à 1988 en deux points de la Terre Adélie, en Antarctique. On y voit notamment des perturbations sans doute liées à El Nino (avec une pointe de froid de -70°C en Août 1987 ! et une de -85°C en Août 1982 !). C'est le travail sur des modèles et la comparaison avec des mesures faites à des points géographiques critiques du système météo mondial qui permettront de disposer d'outils de prévision suffisamment sensibles pour permettre, dans le futur, de nous avertir à temps des catastrophes économiques potentielles qu'engendrent les jeux planétaires de la pluie et du beau temps.
Radio Classique 22 4 Février 1994


La crypte retrouvée


Tara, est ce que vous aimez visiter les monuments anciens, ceux qui excitent l'imaginaire parce qu'ils sont à la fois beaux et chargés du poids d'une histoire quelquefois millénaire ?

....

Et bien, si vous passez par Venise, vous pourrez visiter une nouvelle curiosité, la crypte romane de la Basilique Saint-Marc, sauvée des eaux par un géant de l'industrie chimique, Rhône Poulenc

Ah bon, mais en quoi la chimie, peut-elle venir à l'aide des constructions inondées ?

Cette crypte ancienne, construite aux environs de l'an 1000, et qui avait abrité le tombeau de Saint Marc, était murée depuis 1580 en raison de son invasion par l'eau de la lagune qui stagnait au sol et, grimpait pratiquement jusqu'aux voûtes à l'occasion d'inondations périodiques. Un endroit humide et malsain donc.

Et par conséquent, j'imagine fortement dégradé avec des murs dans un état lamentable.

En effet, mais depuis 1986, des travaux de restauration ont été entrepris qui font appel aux techniques d'assainissement des murs et des sols humides mises au point par les chimistes de Rhône Poulenc pour traiter les bâtiments. Des résines polyuréthannes ont été injectées dans le sol : elles réagissent avec l'eau pour former une mousse solide qui bloque la progression du liquide et donc stoppe l'infiltration.

Comment a-t-on soigné les murs ?

On a traité les micro-porosités des maçonneries, colmaté les fuites entre les pierres de taille avec des mortiers semblables aux originaux, et désalé les structures en pierre au moyen d'un enduit fait d'eau et d'argile appelé sépiolite.

Comment agit-il ?

Si on abaisse au moyen d'un deshumificateur le taux d'humidité dans la crypte, l'eau est pompée par l'argile, elle entraîne avec elle les sels dissous dans la masse du mur, mais elle s'évapore de la surface de l'argile dans l'air asséché, et quand l'enduit est saturé de sel, il tombe tout seul. Mais, il a fallu recommencer 5 fois ! Après ça, il ne reste plus qu'à nettoyer les incrustations en surface et à compléter par un traitement de conservation en appliquant un polymère en solution. Pour un monument aussi ancien et dans un état aussi précaire, c'est quand même un travail minutieux qui demande plusieurs années

Et ainsi, la chimie sauve les vieux murs !

Et oui, grâce aux techniques nouvelles de Rhône Poulenc la crypte de Saint-Marc est maintenant rouverte au public après 4 siècles de fermeture !.


Radio Classique 23


Le magnétoscope haute définition


Tara, l'innovation technologique depuis le début de ce siècle a permis d'améliorer notre mémoire, de l'étendre en somme en conservant pour nos oreilles et nos yeux, les voix et les images emprisonnées sur des supports matériels divers : disques, pellicules photographiques, bandes magnétiques...

Si bien qu'aujourd'hui, nos archives regorgent de documents et que l'on enregistre presque tout ce qui se passe !

Il est en effet nécessaire quelquefois de conserver de nombreuses informations. Pour cela, la capacité de nos mémoires artificielles augmente sans cesse : disques durs, mémoires magnéto-optiques, bandes magnétiques, mémoires à bulles magnétiques, mémoires à semi-conducteurs...

Un véritable inventaire ! Et de tout ça, quel système peut avaler le plus d'informations ?

Pour le moment, ce sont encore les bandes magnétiques qui sont les plus compétitives car elles permettent de stocker beaucoup d'informations pour un prix bas.

Mais est ce qu'elles ne demandent pas d'être enregistrées et lues dans des appareils encombrants ?

Beaucoup sont relativement volumineux effectivement. Mais pour que ces appareils soient performants, ce qui compte, c'est d'optimiser le rapport entre le support matériel de la mémoire et la tête de lecture ou d'écriture qui permet de transférer l'information. C'est là que pour augmenter la densité d'informations par unité de surface du support des progrès considérables sont accomplis

Et par quels procédés ?

La fabrication des têtes est de plus en plus dépendante de technologies qui font appel au dépôt sous vide, dans des conditions rigoureuses, de matériaux actifs en couches très minces formant des circuits électriques et magnétiques complexes, mais miniaturisés. Ils permettent par exemple une finesse extrême de la piste d'écriture sur le support, tout en conservant une haute sensibilité. C'est le point critique du savoir-faire industriel.

Comment dans ce contexte, que je suppose compétitif, se positionne notre industrie nationale ?

Nous avons en France un Laboratoire public spécialisé qui a fêté récemment ses 25 ans, le LETI : Laboratoire d'Electronique et de Technologie de l'Informatique, domicilié à Grenoble

Et que produit-il ?

Parmi de nombreuses réalisations spécialisées, le LETI étudie notamment une application grand public : une tête rotative sur tambour pour enregistrement hélicoïdal conçue pour un magnétoscope numérique haute-définition destiné à accompagner l'évolution prévisible des techniques de la télévision. Ainsi notre future mémoire sera à la fois plus dense et plus fidèle !


Radio Classique 24


La molécule pieuvre


Tara, les routes sur lesquelles progresse l'innovation ne sont pas seulement celles qui conduisent à de nouveaux appareils, de nouveaux composants ou de nouveaux gadgets. Des progrès considérables, importants pour la vie quotidienne, peuvent aussi être accomplis en analysant les mécanismes par lesquels les molécules se combattent les unes les autres !

Ah ? Parce que les molécules peuvent se bagarrer ! Je croyais que, plutôt, elles s'accouplaient !

C'est une façon imagée de parler, mais il est très courant qu'une molécule neutralise l'action potentielle d'une autre en la capturant, donc en la retirant d'un système pour lequel elle peut être un danger. C'est fréquent dans la chimie biologique et notamment celle de notre corps.

On n'ose pas imaginer la soupe grouillante que forment toutes ces molécules qui nous habitent !

Et qui s'agitent furieusement à la recherche les unes des autres ! Des chercheurs de l'Université de Tours et de l'Institut Curie à Orsay associés à des collègues américains viennent de mettre en évidence la manière dont une grosse protéine du plasma sanguin humain, l'alpha 2 macroglobuline, inhibe l'action de certaines enzymes, les protéases qui détruisent les protéines. Elle fonctionne comme une cage qui se referme dés qu'elle a identifié sa proie.

Et ensuite que se passe-t-il ?

La cage et sa prisonnière, la molécule indésirable, sont détruites ensemble par des cellules spécialisées. Les biologistes cherchent à comprendre le mécanisme de fermeture du piège car les molécules en jeu jouent un rôle important dans les processus inflammatoires et cancéreux.

Comment les chercheurs ont-ils pu étudier ce phénomène à l'échelle moléculaire ?

Parce que la technologie vient au secours du modèle théorique. La forme et la dimension de la prison creusée dans le réseau moléculaire ont pu être déterminées par l'exploitation de clichés de microscopie électronique pris d'une molécule isolée selon deux angles de vue. A partir de l'observation de plusieurs molécules par cette technique, l'ordinateur restitue la répartition des atomes dans les trois dimensions de l'espace.

En quoi cette technique est-elle nouvelle ?

D'habitude, pour établir des structures moléculaires, il faut des cristaux qui sont souvent difficiles à obtenir pour des produits biologiques comme les protéines et il faut ensuite des faisceaux de rayons X intenses comme ceux que produira le nouveau synchrotron européen en construction à Grenoble. La technique proposée par les gens de Tours et d'Orsay est, dans certains cas, beaucoup moins coûteuse. Alors, attention les grosses protéines ! Les secrets de la gymnastique mécanique de vos transformations risquent d'être vite compris pour le grand bénéfice de notre santé !
Radio Classique 25 1er Mars 1994


Un insecte automobile


Tara, est ce que vous ne croyez pas qu'il y a un peu trop de gaz d'échappement à respirer dans les rues de nos villes ?

.....

Il y a plusieurs techniques pour limiter la pollution. Ou on tente de contrôler la composition des gaz à la sortie du pot d'échappement, c'est ce que font les dispositifs catalytiques, ou on utilise un carburant non polluant comme l'hydrogène, ou on supprime la combustion comme source de la force motrice autrement dit on emploie un moteur électrique.

Les moteurs électriques ne sont-ils pas parfaitement au point ?

En effet, ils le sont, le problème essentiel de la voiture électrique, c'est la source d'énergie. Elle doit être évidemment portable, elle doit assurer le fonctionnement assez longtemps...

Il suffit d'utiliser des batteries et de les recharger quand elles se vident !

Oui, mais le problème c'est le poids des batteries et des accumulateurs, la distance parcourue est proportionnelle à ce poids. Or, les meilleurs systèmes pour emmagasiner l'énergie électrique impliquent l'emploi de métaux lourds. Bien que des recherches importantes aient été conduites depuis 20 ans sur des accumulateurs composés d'éléments en matière plastique légère, elles n'ont pas abouti à des matériaux fiables...

Mais pourtant, on construit des voitures électriques avec ce qui existe !

En effet, il y a des modèles sur le marché mais pour que l'usage se répande vraiment, il faut résoudre des problèmes comme ceux liés au temps de charge, ou à des détails importants de climatisation comme le chauffage qui pompe beaucoup d'énergie à des batteries...

Ce serait cependant un grand progrès pour la vie urbaine !

Oui, à condition que l'on accepte aussi de réduire la vitesse des véhicules à environ 90 km/h !. Aux Etats-Unis, pays où les réglementations concernant la vitesse sont bien acceptées, la loi impose 10% de véhicules électriques dans le parc automobile à l'horizon 2003.

Si bien, je suppose, que les créateurs pensent à ce marché !

En effet, il y a des recherches qui portent notamment sur le design et l'ergonomie du véhicule électrique. Par exemple, un groupe à l'Ecole Nationale de création d'art et design de Nancy a conçu avec l'aide de l'ANVAR les plans d'une petite voiture électrique longue de 2m sur une largeur de 1m40 qui ressemble à un gros insecte avec des yeux globuleux ! L'habitacle pour deux personnes est accessible par portes coulissantes, c'est un engin peu encombrant et pour lequel la sécurité a fait l'objet d'une étude soignée avec l'Institut National de Recherche en Sécurité. L'apparence en est drôle et jolie et si ce prototype est construit, il pourrait changer les habitudes de circulation dans nos rues, rendues du coup plus silencieuses et plus conviviales.
Radio Classique 26


Le cri d'amour du grillon


Tara, vous avez probablement entendu parler de l'ordinateur neuronal et de la logique floue ? Ce sont deux concepts que les informaticiens branchés manipulent avec délices.

....

D'autant plus que ces affaires entrent dans la réalité, IBM France et Smart Vision International, une PME de Montpellier, viennent de mettre sur le marché une nouvelle puce électronique qui est un réseau de 36 neurones, un réseau construit sur le modèle géométrique des connections physiologiques observées dans notre cerveau et dont on pense que c'est une route vers l'intelligence artificielle, comme la logique floue, une technique mathématique qui prend, elle, modèle sur nos comportements décisionnels, quelquefois fantasques...

Et à quoi servent ces réseaux de neurones ?

On leur apprend à reconnaître des modèles de formes et après on peut les utiliser pour analyser des images ou les caractères d'un texte. C'est beaucoup plus rapide qu'avec un logiciel ordinaire.

Mais, dites-moi, que vient faire dans votre histoire le cri d'amour du grillon ?

Si l'informatique copie nos neurones, il est pourtant bien évident que ceux ci ne contiennent ni silicium ni même arséniure de gallium, pourtant ils sont capables de traiter l'information avec une très grande vitesse...Mais, comment ?

Et le grillon !

Deux chercheurs du Laboratoire de recherche sur les mécanismes du calcul biologique de Bell Telephon ont examiné comment fonctionnaient les neurones auditifs du grillon femelle à l'écoute du chant des mâles rassemblés pour la séduire ...

Et le grillon écoute cela avec ravissement ?

Le potentiel électrique de la membrane du neurone auditif suit parfaitement les caractéristiques sonores de l'excitation, des paquets de trois stridules intenses rapprochés de 25MSec de durée chacun émis toutes les demi secondes. Et cela induit des transformations chimiques instantanées ...

Donc, au lieu d'être un réseau de transistors le neurone est une usine chimique ?

Une usine chimique qui fonctionne d'abord pour permettre de repérer le meilleur partenaire sexuel potentiel dans l'intérêt sans doute de l'espèce ! Car le signal est traité de telle façon que le chant le plus fort, le plus puissant, est sélectionné, les autres ne provoquant pratiquement aucune réponse auditive. Les chercheurs de Bell Labs ont trouvé que ce phénomène, qui est une méthode d'élimination du bruit de fond, était provoqué par l'apparition d'ions calcium dans le neurone avec une concentration proportionnelle à l'intensité du son. Ils ont découvert une dynamique chimique qui permet la transformation du signal. C'est un début, une première étape dans la compréhension des mécanismes biologiques de traitement de l'information.
Radio Classique 27


La belle diode bleue


Tara, à votre avis, qu'est ce qui est le plus énergétique, le rouge ou le bleu ?

....

Et bien, c'est la lumière bleue qui correspond à une énergie plus importante que la rouge : sa longueur d'onde est plus courte, proche donc de celle des rayons ultra violets dont on sait qu'ils peuvent brûler la peau. Mais, en général, les artistes trouvent le rouge plus chaud !

Le monde est donc renversé ! Produire du rouge alors demande moins d'énergie ?

Tout à fait, il est souvent plus facile d'accéder au rouge dans les processus de conversion. Par exemple, à l'état solide, les diodes sont faites avec deux morceaux de matériaux semi conducteurs tels que l'un ait un excès de charges négatives, c'est-à-dire un excès d'électrons, et l'autre un excès de charges positives, ce que le jargon technique appelle des "trous". A la jonction de deux matériaux bien choisis, trous et électrons se recombinent en émettant de la lumière...

Donc une source possible de lumière, c'est un électron qui embrasse un trou !

Si vous voulez, c'est un moyen pour convertir ponctuellement un signal porté par un flux d'électrons en un signal véhiculé par un flux de photons. Mais jusqu'à présent, la palette de couleurs disponible était plutôt limitée...

Un arc en ciel tronqué ?

Oui, avec l'arséniure de gallium, on obtient facilement de l'infra rouge, hélas, l'oeil ne le voit pas, du rouge, du jaune et du vert, mais on n'atteint pas le bleu.

En quoi est ce que cela peut être gênant ?

Et bien on ne peut pas reproduire ce que voit l'oeil : les dispositifs d'affichage ne peuvent restituer d'images de la qualité de celles que montre la télévision par exemple.

Pourquoi donc ne pas se servir simplement de la télévision alors ?

La télévision a l'inconvénient extrême d'offrir des images d'une taille limitée par la technologie du tube cathodique donc très peu adaptée à des systèmes d'affichage de grande taille, celle d'un mur par exemple.

Comment en sortir ?

Depuis des années, des efforts énormes de recherche ont été entrepris pour tenter, d'une manière ou d'une autre, de "tuer" le tube cathodique : ils ont tous échoué sur la difficulté à produire une lumière bleue suffisamment brillante pour être compétitive avec les couleurs produites sur l'écran télé. Mais voici qu'une firme japonaise annonce qu'elle a inventé une diode luminescente qui fournit un bleu acceptable. Le matériau est un nitrure d'indium et de gallium, mais cette diode coûte très cher, plus de 30 dollars la pièce ! Si dans les mois qui viennent, on arrive à en fabriquer en série à un prix abordable, alors, c'est potentiellement une révolution dans les techniques d'affichage et, peut être, enfin, une menace réelle pour le tube cathodique !

Radio Classique 28


Une surface auto-nettoyante


Tara, n'est ce pas le rêve d'être débarrassé des corvées ménagères, de disposer de surfaces qui ne demandent qu'un coup négligent de torchon ou mieux, aucun entretien, si la saleté jamais ne peut s'y déposer ?

....

Pour réaliser ce propre absolu, il faut que les surfaces soient tout à fait rebelles à ce qui pourrait s'y coller, rester, marquer, tacher, il faut qu'elles repoussent tout ce qui leur est étranger.

N'est ce pas demander la Lune ?

Presque, mais les thermodynamiciens ont une approche conceptuelle pour ça. La surface idéale doit offrir, disent-ils, la plus faible énergie libre possible. C'est une énergie qui se mesure et on sait à peu près quelles recettes chimiques peuvent approcher ce rêve

Mais, dites moi, on ne va pas changer la nature de nos objets familiers ! Il faut donc que votre produit miracle soit déposé sur les surfaces à protéger !

Tout à fait, il s'agit de mettre au point une sorte d'enduit mince, si possible transparent et mécaniquement résistant, qui ne soit pas mouillé par les solvants, sur lequel les adhésifs ne collent pas, et qui soit facile à déposer !

Et dites nous donc quelle est la solution que proposent vos chimistes ?

Lorsque l'on substitue dans le squelette atomique des molécules d'une feuille de plastique le fluor à l'hydrogène, on observe que l'énergie de surface diminue beaucoup. Les chimistes de la compagnie américaine Dow Chemical ont fabriqué un polymère composé d'une carcasse portant des chaînes latérales terminées par des liaisons carbone-fluor. Ce sont comme des cheveux dressés dont les extrémités fluorées, hydrophobes, percent, pour se déployer dans l'air, la surface d'une solution aqueuse du produit, étalée au pinceau, ou projetée par une bombe, sur un support. Et de l'autre côté de la molécule des charges ioniques fixent la carcasse à ce support.

Que se passe-t-il si on enlève l'eau ?

Il faut ajouter au système un autre polymère pour que l'orientation des groupes fluorés ainsi obtenue se conserve au séchage. Pour mettre au point le procédé, il a fallu recourir aux techniques physiques les plus sophistiquées pour l'analyse des surfaces. Un exemple de convergence entre recherche fondamentale et appliquée.

Et à quoi sert ce produit ?

La Société 3M étudie maintenant les applications potentielles pour la cuisine, les salles de bain, les hôpitaux, les automobiles, les tissus pour tapis et moquettes, etc... Et, peut être, pour combattre la manie des graffitis sur nos murs. Mais attention, bien que ce matériau nouveau soit voisin, et supérieur pour ces applications au téflon, il ne supporte pas comme lui les hautes températures : il ne protégera pas les ustensiles de cuisine qui vont au feu, donc, il reste, pour nous occuper, le problème de la vaisselle !

Radio Classique 29


Les voix des abysses


Tara, vous savez que les vibrations du son de notre voix sont transmises jusqu'aux oreilles de nos interlocuteurs par l'air, milieu susceptible d'être déformé par les fluctuations de l'onde sonore.

Oui, je sais que le son ne se propage pas dans le vide !

Il se propage dans l'air sec à la vitesse de 331 mètres par seconde dans les conditions normales de température et de pression, mais il peut aller plus vite, par exemple, dans l'eau de mer, sa vitesse est de 1540 mètres/seconde.

L'eau est donc un milieu capable de transmettre le son à une certaine distance.

Oui, le son, c'est-à-dire la vibration mécanique, voyage sous l'eau plus facilement que les photons, qu'ils soient lumière visible ou ondes radio. Les ondes électromagnétiques, sauf si elles sont de très basse fréquence, sont en effet diffusées, c'est-à-dire dispersées, très vite dans l'eau alors que le son peut se propager sur des kilomètres. Le son est donc un moyen de communiquer des informations à distance sous l'eau.

Et cela se fait ?

Oui, le 6 Octobre 1991, une spectaculaire image en couleurs d'une source chaude à 2650 mètres de profondeur a été transmise en temps réel par voie acoustique depuis une station de mesure de l'IFREMER, selon une technique déjà expérimentée sur l'épave du Titanic.

Mais, est ce qu'il n'y pas un risque de confusions à cause du phénomène de l'écho ?

La question est en effet sérieuse, les ondes sonores peuvent se réfléchir au fond de la mer, à la surface, ou même sur la zone de contact entre des eaux de températures différentes, d'où des chemins acoustiques potentiellement complexes et difficiles à démêler au niveau du récepteur du message. On note donc des réticences de la part des océanographes vis à vis du procédé.

Je suppose qu'il y a des chercheurs qui tentent de venir à bout de ces difficultés !

On dispose maintenant de modems acoustiques qui par un système de traitement électronique extraient le signal du bruit à la réception du son en traitant aussi les échos.

On peut donc ausculter en direct l'état de la mer !

En effet, car il peut être important d'avoir des informations en temps réel sur l'état de l'océan et sur ses mouvements, par exemple pour être capable de détecter ces vagues déferlantes, petites ou grandes, les tsunami, qui peuvent affecter un rivage à la suite d'un tremblement de terre au large. On peut installer des capteurs munis de ces modems acoustiques pour recueillir sous l'eau des mesures qui seront transmises au loin par radio depuis un récepteur installé sur une bouée flottante. Un tel système a été mis en place cet hiver avec plus de 250 instruments de mesure pour surveiller les fonds marins dans une zone sensible au large de la Californie.

Radio Classique 30

Des autoroutes à gros débits

Tara, vous avez sûrement entendu parler de la nouvelle coqueluche des médias : les autoroutes de la communication sur lesquelles on nous promet de faire passer des flots d'informations ?
....

Vous savez aussi que l'espace aérien hertzien est plus ou moins saturé : on ne peut augmenter indéfiniment le nombre de fréquences exploitées, si bien que les autoroutes en question sont effectivement des paquets de fils qui doivent conduire un signal depuis les sources productrices jusqu'aux systèmes d'imagerie, téléviseurs ou ordinateurs, des consommateurs.

Et ces fils ce sont des câbles électriques ?

Pas forcément, il y a deux vecteurs du transport de l'information dans la matière, l'électron, la particule élémentaire qui porte le courant électrique, et le photon c'est à dire le rayonnement électromagnétique. L'électron se déplace dans un métal conducteur comme un fil de cuivre, le photon, c'est à dire la lumière, doit se propager dans un milieu transparent : la fibre optique

Et qu'est ce qui fait les autoroutes les plus efficaces ?

Les fibres optiques sont capables de supporter un très grand débit, c'est à dire beaucoup d'informations différentes à la fois, mais un fil de cuivre comme le fil du téléphone a l'avantage d'aller partout si bien que si l'on comprime l'information à distribuer, il peut être compétitif.

Quels sont les ordres de grandeur ?

France Telecom dit qu'un câble optique peut laisser passer 1500 chaînes de télévision ! Mais déjà on parle de super autoroutes qui pourraient véhiculer 10 millions de canaux de télévision simultanément !

A quoi est liée cette surenchère ?

Cette offre de service impressionnante, et un peu surréaliste, est liée aux techniques de manipulation du signal optique transmis. La lumière est injectée dans la fibre sous forme d'une onde laser. Pour porter un signal ce faisceau lumineux doit être haché de façon à transmettre de l'information sous une forme numérisée, codée par les interruptions du passage du faisceau.

Il faut donc fabriquer un interrupteur qui fonctionne à grande vitesse ?

Oui, on peut brancher et débrancher le laser, mais aussi on peut profiter du fait qu'il est facile de polariser sa lumière, elle vibre alors dans une seule direction. Un champ électrique pulsé appliqué à certains matériaux transparents permet de faire tourner instantanément ce plan de polarisation et donc de moduler très rapidement le signal. On utilise pour cela un cristal minéral : le niobate de lithium. Mais on vient de découvrir une substance infiniment plus rapide, un polymère, qui permettrait des modulations dans la gamme des 100 gigahertz, soit 100 milliards d'impulsions par seconde, 10 fois mieux que le niobate. Si bien qu'il n'y aura plus de limites aux possibilités de transmission d'images et probablement d'ailleurs en haute définition
Radio Classique 31


Le volcan et les réglements


Tara, notre sujet aujourd'hui n'est pas vraiment une innovation applicable plus ou moins rapidement à la vie quotidienne, c'est une question de science pure qui a des conséquences directes pour l'économie et aussi pour le bien-être de notre vie quotidienne.

En effet, je ne vois pas bien où vous voulez en venir avec une histoire de volcan !

Vous avez sûrement entendu parler, Tara, de l'effet de serre, cette augmentation annoncée de la température du globe si nous continuons à brûler inconsidérément des carburants qui chargent l'atmosphère en gaz carbonique ?

Oui, beaucoup de gens s'inquiètent de cette possibilité et il parait que l'on va prendre des mesures législatives pour limiter les émissions de gaz susceptibles de produire cet effet de serre.

En effet, on pense que des concentrations accrues de gaz carbonique, de méthane et d'oxyde nitreux peuvent empêcher l'émission infra rouge de la surface terrestre de se dissiper dans l'espace et, par conséquent, provoquer un réchauffement qui induirait un changement climatique catastrophique pour nos descendants.

Et plusieurs de ces gaz sont émis par les tuyaux d'échappement de nos automobiles ou par les cheminées d'usines, n'est ce pas ?

Oui, et aussi par les incendies de forêt. On croit généralement que l'augmentation de la concentration des gaz à effet de serre accompagne les progrès industriels et agricoles à la surface de la planète et que par conséquent il faut prendre immédiatement des mesures internationales de contrôle technique, qui sont en même temps des contraintes économiques fortes pour les industriels les cultivateurs ou les éleveurs.

Vous n'avez toujours pas parlé de votre volcan !

Le volcan entre en scène parce que depuis l'éruption du volcan Pinatubo dans les Philippines en Juin 1991 les mesures montrent une nette diminution de l'accroissement de la concentration de la plupart des gaz à effet de serre, dont le gaz carbonique et le méthane. La dernière mesure en date étant celle de la concentration de l'oxyde de carbone, gaz lui aussi lié aux combustions.

Et par quel mécanisme le volcan fait-il, à la place des industriels, le travail demandé par les législateurs ?

On ne le sait pas ! Les chimistes spécialistes de l'atmosphère s'interrogent, d'autant plus qu'il s'agit de gaz dont la chimie est fort différente. Il y a là un processus naturel qui oblige à se poser sur des bases nouvelles la question des mécanismes qui modifient la composition chimique de l'atmosphère et les éventuelles conséquences climatiques. Mais ce que l'on sait, c'est que dans l'histoire de la Terre rien n'est moins stable que le climat : il y a toujours eu sous nos latitudes de grandes ou de petites oscillations naturelles. Alors, Tara, en face des volcans, qu'y pouvons nous vraiment ?
Radio Classique 32


Le plomb d'autrefois


Tara, vous savez que l'un des problèmes majeurs de la pollution atmosphérique, c'est l'injection de plomb dans l'air que nous respirons à cause de l'emploi de complexes organiques de ce métal comme anti-détonants dans les carburants que consomment les automobiles.

Oui, c'est la raison pour laquelle on propose maintenant des carburants verts qui contiennent d'autres produits chimiques.

Oui, et on les recommande avec raison car le plomb, métal lourd, est dangereux pour le système nerveux et on connaît les ravages que font encore chez les enfants des quartiers pauvres les vieilles peintures à la céruse, un carbonate de plomb.

Il est donc prudent d'éliminer le plomb de notre environnement

Tout à fait et par exemple il vaudrait mieux remplacer par du plastique les vieilles canalisations qui peuvent polluer dangereusement l'eau potable comme cela arrive quelquefois.

Mais, le plomb est un métal utilisé depuis très longtemps par l'humanité ?

En effet, on lui attribue même une part de responsabilité dans la chute de l'Empire romain dont les élites se seraient abruties en consommant des repas copieux dans une somptueuse vaisselle de plomb, mais cela bien sûr n'est pas prouvé ! En revanche on a pu récemment évaluer le niveau de pollution atmosphérique par le plomb depuis les âges les plus reculés.

On n'a sûrement pas fait ça en voyageant dans le temps !

Non, des laboratoires suédois ont examiné les sédiments déposés au fond de plusieurs lacs du pays. Ceux ci peuvent être datés couche par couche et ces couches ont été analysées par des techniques modernes très sensibles pour les éléments traces déposés sous forme de poussières à la surface de l'eau par le mouvement de l'air et les vents. On remonte ainsi jusqu'au début de la fonte des glaces à la fin de la dernière période froide, il y a 12000 ans.

Evidemment à cette époque là il n'y avait pas d'automobiles !

Au début on ne mesure que des teneurs en plomb très faibles qui représentent le fonds continu naturel, puis, il y a 2600 ans la teneur commence à augmenter et un maximum apparaît il y a 2000 ans, l'époque justement de l'Empire romain !

C'est donc vrai que les romains utilisaient beaucoup le plomb.

Oui, on estime que la production pour l'Europe et l'Asie Mineure était de l'ordre de 80000 tonnes par an. L'analyse des sédiments montre que depuis l'an 1000 l'usage du plomb augmente régulièrement et vite si bien que dès le Moyen Age la pollution par le plomb est importante dans le sud de la Suède à cause de l'activité métallurgique en Europe continentale. Le dépôt du plomb s'accélère avec la révolution industrielle au 19ème siècle. Mais, on constate que la moitié de la quantité de plomb déposée dans le sol par l'activité humaine provient d'une époque antérieure à 1800. La pollution donc, ne date pas d'hier !
Radio Classique 33


La chimie supercritique


Tara, tout le monde a une idée précise de ce qu'est un liquide et de ce qu'est un gaz. Mais, savez vous que dans certaines conditions, ces deux états différents de la matière peuvent n'en faire qu'un ?

...

C'est ce que l'on appelle le fluide supercritique : avec l'augmentation de la température et de la pression la densité du liquide et de sa vapeur deviennent égales, il n' y a plus de différence entre eux.

Mais il faut sans doute pour en arriver là atteindre de hautes températures et de hautes pressions !

Pas très hautes en fait, pour l'eau, il faut dépasser 374°C et 221 atmosphères et pour le gaz carbonique 31° C et 73 atmosphères. Ce sont des conditions qui peuvent être réalisées dans des réacteurs industriels.

C'est quand même bien éloigné des conditions ambiantes ! Quel peut être l'intérêt de fabriquer ces fluides ?

On peut continuer à faire varier la pression et la température au delà du point critique et la densité du fluide devient réglable, si bien qu'il est possible de l'ajuster pour contrôler des réactions chimiques.

On utilise donc ces fluides pour faire de la chimie comme on le fait dans un solvant ordinaire ?

Tout à fait, on peut y dissoudre des substances solides, des liquides, ou des gaz. Les propriétés changent considérablement. Par exemple, alors que notre eau ordinaire dissout facilement les sels, l'eau supercritique se comporte comme un solvant organique et peut alors dissoudre toutes sortes de composés.

Plus précisément que fabrique-t-on ?

Un laboratoire japonais vient d'annoncer la fabrication d'acide formique par hydrogénation du gaz carbonique dans un milieu supercritique composé d'un mélange d'hydrogène et de gaz carbonique à 50°C et 200 atmosphères. Or, cet acide formique est le plus simple des acides organiques, plus simple que notre acide acétique du vinaigre. On a réalisé là le passage d'un gaz minéral très abondant comme le gaz carbonique vers une molécule qui est une première marche de l'édifice de la chimie organique.

On peut donc faire des synthèses de produits chimiques dans ces fluides supercritiques ?

On peut aussi opérer des destructions. Par exemple, l'eau supercritique dissout facilement l'oxygène, c'est un milieu dans lequel on peut pratiquer des oxydations, c'est à dire brûler des substances, avec ou sans flammes. Une technique qui peut être très utile pour éliminer des déchets dangereux difficiles à traiter dans des incinérateurs à l'air libre. Un prototype fonctionne aux Etats Unis à 600°C sous une pression de 250 atmosphères. Les fluides supercritiques offrent donc une nouvelle autoroute à l'imagination des chimistes !

Radio Classique 34


La couleur du boeuf


Pascale, n'avez vous pas remarqué que le consommateur attache une grande importance à l'aspect des choses qu'il achète et notamment, lorsqu'il s'agit de viande à la couleur ?

Oui, cela influence le choix; mais, à quoi est due la couleur de la viande ?

Elle est due à une protéine, la myoglobine, qui, comme l'hémoglobine, contient des atomes de fer. La couleur varie légèrement selon l'état chimique de la protéine, et l'oeil, très sensible aux fluctuations du rouge, repère facilement les changements.

Et quels sont-ils ?

Le pigment naturel a une forme réduite en l'absence d'oxygène, c'est à dire d'air, il est alors d'un beau rouge pourpre. C'est la couleur de la viande emballée dans des sachets sous vide. A l'étal du boucher, en plein air, l'interaction avec l'oxygène forme de l'oxymyoglobine dont la couleur est vive et rouge, et que la sagesse du consommateur associe à la viande fraîche. Mais, avec le temps et à l'air, elle subit des transformations, et, plus ou moins rapidement, elle devient de la ferrimyoglobine, dont la couleur est franchement plus brune, et alors, le consommateur n'aime pas ...

Je suppose que c'est un problème économique capital pour la conservation de la viande?

En effet, et c'est la raison pour laquelle les membres d'une équipe de recherche de l'INRA, l'Institut National de la Recherche Agronomique, installée à Clermont Ferrand, analysent ces phénomènes pour les comprendre. En plus, la viande contient des acides gras insaturés qui sont également sensibles à l'oxydation et dont les transformations engendrent des odeurs désagréables surtout après cuisson.

Alors, que sait-on de ces phénomènes d'oxydation ?

A partir d'une chaîne de réactions qui commence par l'association d'une molécule d'oxygène avec un électron, il se forme des espèces chimiques que l'on appelle des radicaux libres. Elles sont très réactives si bien que leur durée de vie est très courte dans un milieu chimique complexe et elles sont donc difficiles à étudier.

Il s'agit donc d'un problème scientifique et technique très général ?

Oui, parce que les radicaux libres interviennent aussi dans le phénomène de vieillissement des cellules des êtres vivants et ils sont donc impliqués dans des problèmes de santé. Un nouvel outil d'étude vient de faire l'objet d'un brevet géré par le FIST, France Innovation Scientifique et Transfert. Il s'agit d'une molécule qui piège les radicaux libres et permet leur étude in vitro et in vivo par de puissantes méthodes physiques. Il est proposé par un Laboratoire associé au CNRS des Universités d'Aix-Marseille et il est étudié en collaboration avec des hôpitaux et des industriels de la pharmacie. On espère grâce à ce produit avoir accès aux mécanismes exacts qui, en présence des radicaux oxydants, perturbent la régulation cellulaire.
Radio Classique 35


Le pneu plus


Pascale, vous savez qu'une voiture roule sur des pneus. Ceux ci ont une durée de service de plus en plus longue, mais quand même, au bout d'un certain temps, ils sont hors d'usage...

Et alors ils font des gros tas de détritus dans le paysage !

On voit en effet quelquefois des pyramides de pneus usés, il y a actuellement 230 millions de tonnes de pneus usés en décharge aux Etats Unis, mais cet exemple particulier de problème d'élimination de déchets stockés en décharge commence à recevoir des solutions

Mais, qu'est-ce qui fait la difficulté particulière avec les pneus ?

Le pneu est un objet complexe qui mélange souvent des fils métalliques, des textiles, et un polymère, le caoutchouc, traité pour renforcer la liaison entre ses fibres par la vulcanisation, un procédé qui implique l'emploi de produits chimiques soufrés et qui confère au matériau plus de résistance et plus d'élasticité.

Alors, comment peut-on recycler les pneus puisqu'ils sont faits pour être particulièrement coriaces ?

Les Japonais proposent de les dissoudre dans cette eau supercritique dont nous avons parlé la semaine dernière, on filtre aisément les métaux, on obtient des hydrocarbures aisément recyclables et le soufre est récupéré sous la forme de sulfure de zinc, ce qui est très efficace pour le séparer des hydrocarbures..

On peut donc faire brûler ceux ci sans qu'ils risquent de contaminer l'atmosphère en oxydes de soufre

En effet, mais en France on sait faire brûler directement les pneus sans pour autant polluer l'air. Dans la région de Marseille, une cimenterie des Ciments Lafarge, à La Malle, alimente deux fours cimentiers qui produisent du clinker avec des pneus entiers jetés dans un brasier maintenu à la température de 1200°C.

Et cela représente quelle consommation de pneus usagés ?

30 tonnes par jour, soit environ 10.000 tonnes par an, soit 50 à 60% des pneus usagés rejetés par la région Provence-Alpes-Côte d'Azur, 3 tonnes de pneus valent deux tonnes de fioul.

Mais comment se débarrasse-t-on des gaz toxiques engendrés par la combustion ?

La combustion ne produit pas de cendres ni de fumées noires ni d'odeurs, le soufre est éliminé par l'épuration des gaz à travers un lit de chaux vive et des filtres.

Mais cela coûte cher ?

Il a fallu beaucoup investir, la Région a apporté son aide, et aussi l'ADEME, l'Agence de l'environnement et de la maîtrise de l'énergie. L'utilisation du procédé a démarré en Avril 1992, aujourd'hui son emploi est très satisfaisant, mais il faut mieux organiser la collecte des pneus pour assurer un approvisionnement régulier et maîtriser le coût du transport. On envisage d'étendre la technique à d'autres cimenteries pour résorber les 260.000 tonnes de pneus mis en décharge annuellement en France.
Radio Classique 36


Le microbe éboueur


Pascale, vous savez que les bactéries font pour nous un travail considérable en dévorant un tas de composés indésirables dont pour ainsi dire elles nous débarrassent.

Oui, les bactéries s'attaquent à la matière organique par exemple dans les stations d'épuration des eaux usées

En effet, elles agissent par exemple par la fermentation. Les bactéries sont des auxiliaires techniques que l'humanité a appris à utiliser très tôt pour fabriquer des produits alimentaires. Par exemple l'alcool ou le vinaigre ou le fromage.

Dans ces cas là elles contribuent visiblement à la qualité de nos repas !

Et donc à notre plaisir de vivre ! La plupart des bactéries ne sont pas dangereuses pour l'homme et les organismes supérieurs. Elles se nourrissent sur une substance pour la transformer en une autre. Ce manège est observé par les chercheurs depuis un siècle. Et ils s'aperçoivent que les populations bactériennes évoluent, changent, et que finalement il y a des milliers de produits chimiques fabriqués par l'industrie sur lesquels elles peuvent agir.

Quels types de composés peuvent être ainsi détruits ?

On essaye d'employer les microbes là où il est difficile, onéreux, ou trop dangereux, d'utiliser des produits chimiques. Par exemple Elf Aquitaine a contribué à l'élimination de la marée noire produite par le naufrage de l'Exxon Valdez en Alaska en arrosant les lieux avec une substance qui a considérablement développé la population bactérienne naturelle et donc accéléré la biodégradation du pétrole répandu.

Mais peut-on dans ces cas là d'atteinte à l'environnement utiliser des armées de bactéries et les lancer directement à l'assaut ?

C'est en effet la tendance actuelle. On peut par génie génétique modifier des bactéries pour fabriquer une espèce qui va faire ses délices d'un produit chimique déterminé et le transformer en substances inoffensives. Cela existe déjà pour les hydrocarbures.

Comment peut-on venir à bout des substances disséminées en petites quantités dans l'environnement ?

Comme en particulier des molécules organiques qui contiennent un ou plusieurs atomes d'halogène, chlore ou fluor, qui sont chimiquement très stables et qui sont toxiques. L'Université du Minnesota vient d'annoncer la fabrication d'une souche bactérienne de Pseudomonas Putida modifiée génétiquement de façon qu'elle puisse fabriquer les produits chimiques, des enzymes, qui permettent en deux étapes de décomposer ces substances. Autrefois il fallait combiner l'action d'abord à l'abri de l'air, puis à l'air, de deux races différentes de bactéries. Maintenant, les gènes actifs ont été greffés sur le même individu, anticipant probablement une évolution naturelle car la présence de ces produits dans l'environnement est récente et les bactéries sont à l'affût de tout !
Radio Classique 37


La fibre de l'araignée


Pascale, est ce que vous aimez les araignées ?

....

Généralement, les araignées sont détestées : on les range dans la catégorie des animaux de cauchemar, pourtant elles sont plutôt inoffensives.

Oui, mais les toiles font sales dans les recoins !

C'est justement la toile, ou plutôt le fil de la toile qui intéresse la technologie de pointe aujourd'hui. On se penche de très près sur sa composition.

Mais, que peut-on en espérer ?

Il y a déjà longtemps que l'on s'est rendu compte de la qualité exceptionnelle de la soie d'araignée. Elle se prête au tissage. Un gilet tissé en fils d'araignée fut offert à Louis XIV et des bas et des mitaines présentés à l'Académie des Sciences un peu plus tard y firent sensation...

Alors, pourquoi n'élève-t-on pas des araignées comme les vers à soie ?

Cela se fait : l'armée américaine a un élevage composé d'individus d'une espèce panaméenne. On tire chaque jour à peu près 300 mètres de fil par araignée, ce qui fait environ 5 milligrammes, et ce textile sert à faire des gilets pare-balles. Il est idéal pour dissiper l'énergie cinétique d'un impact, car, très élastique, il s'allonge d'au moins 15% sans casser. Il est deux fois plus résistant que l'acier, plus léger et plus doux aussi.

Est-ce qu'il y a vraiment assez d'araignées pour en faire une production industrielle ?

Il est assez clair que le prélèvement direct sur l'animal, s'il peut être pratiqué pour étudier un matériau, n'offre pas une grande faisabilité. Pour le moment, la question est de savoir qu'elle est la composition de ce produit naturel aux qualités physiques exceptionnelles.

Vous croyez que si l'on en fait l'analyse, l'industrie pourra en faire la synthèse ?

L'affaire est complexe, on sait que la fibre est faite de polymères de protéines insolubles dans l'eau, puisque les toiles d'araignée ne disparaissent pas sous la pluie. Pourtant à l'instant de son éjection par les glandes de l'animal, le matériau est bien soluble. En un éclair, il devient insoluble dans l'eau et les solvants organiques, et il résiste même aux acides forts. Les changements sont à la fois physiques et chimiques et, à cause de cette résistance, la structure du produit final est très difficile à analyser par les techniques conventionnelles.

Alors, comment peut-on espérer fabriquer du fil d'araignée artificiel ?.

On annonce que des chercheurs américains ont réussi à transférer à une bactérie la séquence génétique de l'araignée qui commande la fabrication des protéines du fil. On espère en fabriquer ainsi en grandes quantités grâce à l'activité synthétique des bactéries, mais, avec cette technique, on ne l'obtient que dissoute dans un liquide ! Il reste à résoudre le mystère du savoir-faire de l'araignée pour passer du liquide au solide...
Radio Classique 38


La peau du léopard


A cette époque de l'année où l'on fête la science, nous allons parler aujourd'hui d'un sujet un peu pittoresque, Pascale, avez vous jamais eu l'occasion d'observer avec soin la fourrure d'un beau léopard ?

....

Les taches régulièrement espacées qui caractérisent l'apparence de cet animal, ainsi que les bandes colorées, les pointillés ou les juxtapositions de motifs presque géométriques qui font la décoration de beaucoup d'espèces, des félins aux serpents aux papillons, etc... posent à la science un problème.

La science a-t-elle l'ambition d'expliquer l'existence de ces motifs colorés ?

Elle essaye de comprendre un peu comment de telles répartitions géométriques spectaculaires de pigments ont pu apparaître. La génèse des formes et de l'arrangement des couleurs dans le monde vivant est une question qui commence à être abordée par la recherche et on devine qu'il y a là un monde de phénomènes nouveaux à découvrir.

Dans quelles directions ?

C'est une chimie amusante qui détient probablement une des clés du mystère. En mélangeant certains composés chimiques on sait produire depuis longtemps des fluctuations de couleurs temporelles ou spatiales, un liquide rouge devient bleu puis rouge et de nouveau bleu etc... ou encore se divise en zones alternativement bleues ou rouges. On appelle cela des réactions chimiques oscillantes.

A part le spectacle, servent-elles à quelque chose ?

Pour le moment, c'est un sujet d'étude de pointe, notamment en France au Centre de Recherche Paul Pascal du CNRS à Bordeaux. En fait il y a une théorie très compliquée qui montre que ce genre de phénomène, c'est à dire l'apparition d'un ordre dans l'espace ou dans le temps, se produit lorsqu'il y a compétition entre deux réactions chimiques et que les substances qui participent à ces réactions diffusent à des vitesses différentes.

Et cela est fréquent ?

Vous pouvez observer un phénomène du même genre si vous versez lentement du lait froid dans votre café chaud : vous verrez apparaître des figures géométriques à la surface du liquide dans votre bol. Elles sont bien connues des spécialistes de la convection thermique. On les appelle des cellules de Bénard.

Et quel est le rapport avec le léopard ?

Et bien, des chercheurs de l'Université du Texas et du laboratoire national américain de Los Alamos, viennent de décrire des expériences faites avec une combinaison de produits chimiques assez simples. Ce système engendre spontanément sur des surfaces des ensembles de taches colorées plus ou moins régulièrement éloignées les unes des autres. Elles correspondent à des fluctuations locales de l'acidité du milieu. Il est probable que beaucoup de réactions fonctionnant sur le même principe se rencontrent en biochimie et qu'elles peuvent donc permettre d'expliquer comment les pigments d'une peau se répartissent pour former des dessins spectaculaires.
Radio Classique 39 7 Juin 1994


Une roue dentée pour la fourmi



Pascale, croyez-vous qu'il est possible de déguiser une fourmi en lui passant sur les antennes une bague formée d'une pièce mécanique parfaitement usinée, une roue dentée par exemple ?

...

Et bien, c'est possible. La technologie de la micro mécanique en est arrivée au stade des dimensions des organes de la fourmi. Elle sait fabriquer des pièces extrêmement petites, reproductions exactes de mécaniques conçues à notre échelle, et qui sont destinées à fonctionner dans un univers gullivérien où tout est minuscule.

Mais, par quelles techniques réussit-on à fabriquer des objets de dimensions aussi restreintes ?

C'est un grand instrument de recherche scientifique qui fournit la solution technique la plus évoluée. On sait faire tourner très vite des électrons dans un tube circulaire maintenu sous vide que l'on appelle un synchrotron. Les électrons émettent alors de la lumière et notamment des rayons X. La recherche fondamentale et l'industrie utilisent de plus en plus ce rayonnement synchrotron.

Et où sont situés ces équipements ?

Il y en a un dans la région parisienne à Orsay, c'est le LURE, Laboratoire pour l'Utilisation du Rayonnement Electromagnétique, et il y a aussi un appareil européen en construction à Grenoble. Les équipes du LURE savent pratiquer la lithographie Rayons X, une technique qui permet de fabriquer des pièces mécaniques extrêmement petites avec des spécifications rigoureuses.

Et comment fait-on ?

On projette l'ombre d'un modèle de la structure à fabriquer sur une résine photosensible aux Rayons X. A cause de la courte longueur d'onde, de l'intensité élevée du rayonnement et de son parallélisme rigoureux, on peut fabriquer des pièces en trois dimensions dans le domaine micrométrique sur une hauteur d'environ un millimètre.

Et dans quel types de matériaux ?

Avec des techniques de moulage ou de dépôts électrolytiques, on obtient des pièces en métal ou en céramique, on peut fabriquer des aimants ou des éléments mécaniques très durs. On peut préparer un grand nombre d'exemplaires, c'est donc une méthode de fabrication de masse.

Et pour quelles applications ?

On obtient, par assemblage de pièces préparées par photolithographie X, des micromoteurs électromagnétiques qui peuvent être employés dans une grande variété d'applications. Par exemple pour les techniques de chirurgie ou de diagnostic médical, ou pour mouvoir des disques durs miniaturisés dans des appareils électroniques portables. Mais la méthode contribue aussi beaucoup à la mise au point de la micro-optique intégrée par exemple par des pièces de positionnement des fibres optiques. La micromécanique, la microoptique et la micro électronique se combinent pour nous permettre d'exploiter de nouveaux et puissants microsystèmes. La miniaturisation est une tendance lourde de l'industrie et une source constante d'innovations !


Radio Classique 40


Un polymere plein de trous


Pascale, vous savez que le filtre, le tamis, la passoire, sont des instruments utiles pour la cuisine. Ils permettent de séparer des solides de tailles différentes, de laver un produit ou d'en extraire la substance désirable comme dans le cas du café.

...

Entre les pores du papier du filtre et les trous de la passoire, il y a évidemment une différence de dimensions. On peut chercher à fabriquer des trous de plus en plus petits, mais en même temps, régulièrement espacés. On atteint ainsi les limites de ce que l'on appelle l'ultrafiltration.

Quelle importance pratique peut avoir ce désir de performance ?

Comme dans le cas de la cuisine, beaucoup d'opérations technologiques exigent de savoir séparer des phases ou de savoir les distribuer régulièrement dans le temps. On peut envisager des applications qui vont jusqu'à la séparation des molécules d'après leur taille.

Je crois que l'on utilise ces techniques pour purifier l'eau.

Oui, nous en avons déjà parlé, mais des membranes convenablement percées sont aussi employées pour fabriquer de minuscules capsules qui contiennent des médicaments et qui sont injectées dans le courant sanguin. Par les trous, les substances actives sont relâchées dans l'organisme progressivement et d'une manière contrôlée.

Mais comment peut-on percer ainsi, et régulièrement, des trous aussi petits ?

Des chercheurs de l'Institut Charles Sadron à Strasbourg viennent d'annoncer la découverte d'une nouvelle méthode pour le faire qui semble assez facile à mettre en oeuvre.

En quoi consiste-t-elle ?

Un co-polymère entre le polystyrène et le polyparaphénylène est préparé en solution dans le sulfure de carbone. Il se répartit en micelles avec le styrène à l'extérieur, éclaté comme les branches d'une étoile, une configuration qui aurait ravi Raymond Queneau, l'immortel auteur du "Chant du Styrène".

Et comment passe-t-on des étoiles aux trous ?

Il suffit d'évaporer la solution sous un courant d'air humide, on obtient un film d'environ 20 microns d'épaisseur avec des trous dedans de 0,2 à 10 microns de diamètre et disposés d'une manière tout à fait géométrique en un beau réseau hexagonal comme dans un cristal. Si bien que l'on peut aussi envisager des applications en optique, puisque les dimensions des trous sont du même ordre de grandeur que celle de la longueur d'onde de la lumière ! Ou encore, on peut utiliser les trous comme des moules pour fabriquer des microbilles.


Radio Classique 41


Une télé sur le nez


Pascale, aimeriez vous pouvoir regarder la télévision en faisant vos courses, en flânant dans la rue, ou encore en parlant à la radio, de façon à ne pas perdre de vue vos programmes préférés ?

....

Le récepteur de télévision s'est beaucoup miniaturisé ces dernières années. La technologie vient d'atteindre un point où l'écran peut être associé à une paire de lunettes légères alors que l'antenne et le système électronique de traitement du signal se portent dans une boite fixée à la ceinture dont l'alimentation électrique est fournie par un accumulateur rechargeable comme pour les caméras vidéo.

Il s'agit donc d'une sorte de baladeur vidéo ?

Tout à fait : il y a bien sûr un écouteur pour l'oreille et l'image d'un petit écran à cristaux liquides de haute définition est projetée sur l'oeil par un prisme en verre organique. Si vous choisissez de le faire sur votre oeil directeur, le cerveau arrive à saisir l'image à peu prés comme si elle était frontale et à une certaine distance. L'habitude en est vite acquise, mais en même temps, le reste de la lunette est transparent et vous pouvez vous déplacer dans l'environnement.

Malgré tout une promenade en vidéo en faisant deux choses à la fois me parait risquée !

Il y a des applications à cette invention d'origine militaire qui ne se limitent pas au loisir et à la conduite des avions de chasse. On peut brancher sur les lunettes toutes sortes d'appareils qui fournissent un signal vidéo. Par exemple un médecin peut recevoir le signal de la sonde optique lorsqu'il opère avec les techniques de la microchirurgie, il n'est plus obligé de tourner la tête pour suivre l'opération sur un moniteur et il peut se concentrer sur ses gestes avec l'impression d'une vue directe.

Donc, chacun peut s'enfermer dans sa contemplation solitaire ?

Oui, on peut regarder à plusieurs des programmes différents, ou à l'inverse regarder tous le même programme sans la contrainte de se trouver tous devant le même écran dans une salle. Un système qui peut être intéressant pour des démonstrations ou pour des projets éducatifs.

Il y a t-il encore d'autres possibilités ?

Oui, l'ordinateur portable peut être encore simplifié, réduit à une paire de lunettes et à un clavier. Mais aussi la sécurité peut être renforcée puisque qu'il est possible de diffuser dans un rayon d'environ 300 mètres le signal vidéo de caméras permettant ainsi à des gardiens en ronde d'observer sans entrer l'intérieur de locaux à surveiller.

Et qui fabrique ces appareils ?

Ces lunettes sont une invention américaine de la société Virtual Vision. Elles sont diffusées en France sous le nom de Lookman par la société NBS. Mais, attention, le système est en Pal B/G et ne permet pas encore la réception de notre télévision en se promenant dans la rue !
Radio Classique 42


Mesurer le clair de terre


Pascale, aimez-vous contempler la Lune les beaux soirs d'été et particulièrement lorsqu'elle forme un fin croissant dans le ciel ? N'est ce pas romantique ?

....

La zone de la Lune qui forme le croissant reçoit directement la lumière solaire, mais souvent, on peut distinguer notre satellite en entier car le reste est faiblement éclairé, ce que l'on appelle la lumière cendrée.

Et d'où vient cette lumière cendrée ?

C'est tout simplement une lumière solaire qui est renvoyée sur la Lune par réflexion sur la Terre. C'est le clair de terre sur la lune comme nous avons notre clair de Lune, un éclairage indirect donc

Bien, et en quoi cette vision poétique contribue-t-elle aux innovations techniques ?

La lumière cendrée dépend de la capacité de la terre à réfléchir la lumière solaire, à la renvoyer dans l'espace. La fraction de la lumière ainsi diffusée ou réfléchie mesure ce que l'on appelle l'albédo.

Mais, quelle peut être l'importance de cette mesure ?

Elle intervient dans le bilan énergétique de la planète terre, Notamment, elle doit être prise en compte dans l'étude de l'évolution des climats passés et à venir et, comme vous le savez, on craint beaucoup pour l'avenir un réchauffement provoqué par l'activité industrielle.

Et comment détermine-t-on cette fraction d'énergie solaire perdue ?

Elle est de l'ordre de 30% et on la mesure d'habitude au moyen d'instruments embarqués sur des satellites scientifiques, mais des chercheurs américains viennent de s'apercevoir qu'un célèbre astronome français, André Danjon, avait utilisé dès 1925 la mesure de la brillance de la lumière cendrée pour mesurer l'albédo grâce à un appareil de son invention pieusement conservé à l'Observatoire de Paris et évidemment beaucoup plus économique qu'un satellite !

Est ce que les résultats de 1925 sont encore acceptables ?

Tout à fait, après diverses corrections que les ordinateurs modernes permettent. On peut donc aujourd'hui connaître l'évolution de l'albédo terrestre depuis 1925, et des mesures faites à Paris, grâce à la Lune, jusqu'en 1950, on déduit que les variations sont conséquentes et qu'il sera bien difficile d'y trouver des causes induites par l'activité humaine, car elles sont noyées dans des fluctuations naturelles dont l'origine est mal connue

Et donc la Lune reflète ces variations climatiques ?

Sans doute ! Mais on découvre toujours du nouveau dans ce domaine. On vient par exemple de délimiter avec une bonne précision les dates de deux périodes chaudes du Moyen Age, celles des verts pâturages au Groenland, à savoir 892-1112 et 1209-1350. En même temps, on s'est aperçu que ces époques correspondaient à des épisodes de sécheresse intense en Californie qui, s'ils se produisaient aujourd'hui, impliqueraient de sévères contraintes économiques. Les causes naturelles de ces variations climatiques à l'échelle du siècle, ou de la décennie, sont encore bien mal connues et ce sont-elles qui, en fin de compte, décident de la pluie et du beau temps ! Espérons que nous aurons un bel été !

Radio Classique 43 6 Septembre 1994


La glace et le poisson


L'eau, notre eau ordinaire, est une substance qui offre encore bien des mystères pour le physicien et le chimiste ! Si la glace fond à zéro degrés, il n'en est pas pour autant évident que l'eau gèle à zéro degrés ! Très souvent, l'eau reste liquide en dessous de cette température, surtout si elle est pure. En laboratoire, avec de grandes précautions, l'eau peut être maintenue liquide jusqu'à -41° C ! A cela se juxtaposent les propriétés très complexes de la glace. Celle-ci a de multiples structures cristallines en fonction de la température et de la pression. En plus, elle peut être amorphe ou vitreuse et ces transformations excitent les physiciens !

Pour que la glace apparaisse, il faut que la présence d'une substance étrangère permette la formation des premiers cristaux de la variété la plus commune, celle qui a une structure hexagonale comme les nids d'abeille, ce que traduit l'apparence en étoiles à six branches des flocons de neige. Dans la nature, il y a toutes sortes de saletés et l'eau n'a pas trop de difficultés à geler. Mais on peut avoir intérêt à abaisser la température du gel, surtout pour des plantes sensibles dont la chair est déchirée par la formation interne de cristaux de glace. Ceux-ci peuvent se former plus aisément si des substances chimiques comme des protéines offrent une plate forme pour commencer la cristallisation. Ces protéines sont très souvent sécrétées par des bactéries dont la présence induit des dommages importants aux cultures si un coup de froid survient.

Pourtant, il existe des poissons qui survivent dans des eaux salées très froides sans que pour autant l'eau des cellules de leur corps gèle. C'est qu'ils sont protégés par d'autres protéines qui, au contraire, réduisent la probabilité d'apparition de la glace, ou inhibent sa croissance, et qui fonctionnent donc comme des agents anti-gels. Des recherches fondamentales viennent d'établir que ces différences étaient dues au champ électrique dans des fissures à la surface des cristaux de ces protéines. Le champ peut aligner les molécules d'eau dans un ordre géométrique qui prépare la formation du solide, et celui ci apparaît entre deux parois dont les charges électriques ont des signes opposés. S'il n'y a pas de champ on peut, au contraire, ralentir la mise en place de cet ordre et donc éviter le gel. L'eau est en effet une molécule fortement déséquilibrée au point de vue électrique.

Une entreprise de la Province de Terre Neuve au Canada a entrepris d'élever des poissons susceptibles de fournir des quantités intéressantes de l'une de ces protéines qui abaisse les températures de formation de la glace. On entrevoit des applications dans l'alimentation et dans le domaine médical pour la protection des organes transplantés. Comme quoi la biodiversité, le vaste monde vivant, offre de multiples ressources pour la découverte de nouveaux produits !

Radio Classique 44 13 Septembre 1994


Le ballon lumineux


Pascale, en Septembre 1799, il y a presque deux siècles, un inventeur français, Philippe Lebon a proposé autre chose que la chandelle pour éclairer les rues des villes.

Je suppose qu'il s'agit de l'éclairage au gaz !

En effet, il a essayé près des Invalides à Paris les premiers becs de gaz. Ils ne sentaient pas très bon, il a fallu attendre les années 1820 pour que l'idée se développe, mais à Londres...

Et ensuite, comment l'éclairage a-t-il évolué ?

Vers la fin du siècle, on a inventé le manchon Auer qui augmente considérablement le rendement lumineux de la flamme du gaz et qui se survit à travers l'usage de nos lampes de camping.

Mais il y a eu aussi l'électricité !

En effet, l'électricité est la solution idéale pour l'éclairage avec la lampe à incandescence, une ampoule sous vide contenant un filament métallique que le courant chauffe à blanc, mais l'électricité permet aussi de produire des décharges lumineuses dans des gaz comme le néon qui donnent de vives couleurs monochromatiques ou dans des gaz contenant des molécules, un halogène comme l'iode par exemple, ce qui permet d'obtenir une belle lumière blanche ou encore dans des vapeurs métalliques comme le mercure dont le rayonnement ultraviolet excite un composé fluorescent disposé sur les parois d'un tube...

Est ce qu'il y a encore des progrès à attendre des techniques d'éclairage ?

Un dispositif lumineux est fixe comme un lampadaire ou mobile comme une lampe de poche. La difficulté est de combiner puissance et mobilité pour pouvoir disposer rapidement d'un éclairage intense sans avoir à entreprendre des travaux de génie civil ou d'installer des batteries de projecteurs dont chacun n'éclaire qu'une portion réduite de la scène.

Comment peut on s'y prendre pour fabriquer une source de lumière à la fois légère, puissante et portable ?

Une société des environs de Grenoble, la société Airstar, propose un dispositif baptisé LUNIX composé d'un ballon captif gonflé à l'hélium et qui contient à l'intérieur de légères et puissantes ampoules halogènes. Le ballon peut être gonflé en quelques minutes, il est alimenté par son câble de retenue et la lumière est diffusée sur 360° d'une manière très homogène par l'enveloppe en plastique translucide. Pour un diamètre de 2 mètres, un volume de 4 m3, une hauteur de 5 à 15 mètres on peut éclairer une surface de 3000 m2 avec une lampe halogène superphot OSRAM de 1000 watts

Et quelles sont les applications de cette sorte de lune portable ?

Une application évidente est l'éclairage d'urgence d'une zone où s'est produit une catastrophe ou un accident. Très léger, quelques kilos, il peut être transporté rapidement et être alimenté par un groupe électrogène. Mais aussi, il peut être employé pour éclairer un chantier la nuit, ou pour illuminer l'intérieur de monuments comme les cathédrales, et être bien sûr utilisé pour des spectacles ou des tournages de cinéma, ou chez vous, comme un lampadaire aérien qui se cogne au plafond...


Radio Classique 45 20 Septembre 1994


Indilatable !


Pascale, vous avez sûrement déjà observé l'escalade du mercure dans le thermomètre lorsqu'il fait chaud. La mesure est possible parce que le liquide, mercure ou alcool, se dilate linéairement lorsque sa température augmente.

En effet, et c'est très sensible, facile à repérer

Parce que l'on choisit d'exploiter la dilatation dans une configuration mécanique, un tube très fin, qui facilite la mesure. Mais, est ce que vous pensez que l'on peut pratiquement utiliser pour cela n'importe quel matériau ?

Je crois que beaucoup de choses se dilatent quand on les chauffe, du moins avant qu'elles ne se décomposent ou brûlent !

En effet, en général, le chauffage augmente la distance entre les atomes d'un matériau et alors, le volume augmente. Cela engendre d'importantes forces mécaniques et c'est pourquoi on doit souvent prévoir des joints de dilatation entre les pièces de grands ensembles composites.

Quelle est leur fonction ?

Ce sont des matériaux élastiques et déformables qui absorbent le changement de volume des pièces rigides tout en conservant leur cohésion.

Est-ce qu'il existe des substances rigides qui ne se dilatent pas ?

On connaît depuis 1984 des phosphates mixtes de zirconium et d'éléments alcalins, comme le sodium et le potassium, ou alcalino terreux, comme le calcium, qui ont la propriété d'avoir à haute température un coefficient de dilatation négatif, c'est-à-dire qu'ils se contractent quand la température s'élève.

Pour quelle raison ?

Et bien, parce que les rangées d'atomes se dilatent d'un côté, et que du côté perpendiculaire, elles se contractent. La combinaison de ces deux mouvements peut conduire à un rétrécissement global ou, mieux encore, à l'absence totale de modification du volume avec la température. Ces composés sont étudiés en France au Laboratoire de Chimie du Solide du CNRS à Bordeaux, notamment des phosphates de zirconium et de terres rares.

Et quels sont les usages ?

Sous forme de céramiques, ils sont employés pour des récipients qui doivent supporter sans se fendre de grands écarts de température, par exemple passer du congélateur au four, ou encore pour des pièces incluses dans des instruments de précision pour lesquels les variations de dimension avec la température doivent être absolument éliminées comme pour les télescopes.

Peut-on espérer de nouveaux développements ?

Oui, Arthur Sleight de l'Université d'état de l'Oregon, vient d'annoncer l'invention d'un nouveau phosphate de vanadium et de zirconium dont les atomes se rapprochent les uns des autres dans toutes les directions si la température monte, ce qui évite d'éventuelles craquelures dues à l'anisotropie des mouvements. Il envisage des applications dans l'électronique et aussi pour les connexions de fibres optiques, montages dans lesquels les problèmes mécaniques liés aux dilatations doivent être absolument évités.

Radio Classique 46 27 Septembre 1994


Le transistor en plastique


Pascale, nous avons mentionné l'année dernière cette tendance de l'innovation à remplacer les composants électroniques construits sur des substrats minéraux, et souvent avec des métaux lourds et chers, par des matériaux plastiques capables de performances analogues.

Vous avez en effet déjà décrit des diodes électroluminescentes fabriquées avec un polymère vinylique. Est ce que ce type de recherches se développe ?

Une équipe dirigée par Monsieur Francis Garnier du Laboratoire des matériaux moléculaires du CNRS à Thiais dans la région parisienne, vient de publier un article dans une grande revue scientifique américaine dans lequel est présenté un transistor à effet de champ réalisé intégralement avec des matériaux organiques.

Qu'est ce que ce type de transistor ?

On applique une tension sur une partie du dispositif, la grille, et elle commande le passage d'un courant électrique dans un canal principal formé d'un matériau semi conducteur. Ces transistors sont notamment employés dans la technologie des ordinateurs pour concevoir des mémoires, des circuits logiques et des circuits intégrés.

Et comment peut-on supprimer les parties métalliques ?

On s'efforce de remplacer toutes les composantes du système par des matériaux organiques. Le semi-conducteur est un polymère à base de thiophène, les parties isolantes sont construites avec un film de polyester, les arrivées de courant électrique, les fils conducteurs, et la grille sont réalisés avec une couche d'encre conductrice composée d'un polymère enrobant du graphite.

Quels sont les avantages par rapport aux systèmes conventionnels ?

Les caractéristiques électriques sont très semblables à celles des transistors minéraux, par exemple ceux construits avec du silicium hydrogéné amorphe. Elles montrent que l'amplification est bonne et les courants de l'ordre du microampère. Par rapport aux systèmes plastiques proposés antérieurement, l'absence de tout métal dans la composition des électrodes permet une fabrication plus facile par des techniques d'impression et le dispositif est résistant mécaniquement : on peut le tordre, le plier, le rouler.

Donc, on réalise une électronique flexible !

Oui, le support du dispositif est, en gros, une bande adhésive ordinaire, et l'épaisseur du semi-conducteur est de l'ordre de 40 nanomètres. Il reste encore cependant du travail à faire pour réduire les autres dimensions, longueur et largeur, du système, et le miniaturiser au niveau atteint pour les transistors minéraux. Mais déjà, un pas a été franchi !

Radio Classique 47


La chimie sur écran


Pascale, la chimie aujourd'hui n'est plus seulement une science de laboratoire, il devient possible de faire de la chimie de pointe chez soi, sans risques d'explosion, sans odeurs et sans fumées.

Ne me dites pas que l'on a inventé une nouvelle boite de "petit chimiste" pour offrir à Noël!

Non, il ne s'agit pas vraiment d'un cadeau pour offrir à un jeune enfant, mais d'un bel outil de travail. Vous savez qu'à partir des quelques 90 éléments stables de la classification périodique, les chimistes fabriquent des masses de composés variés, minéraux ou organiques. Ils sont obligés pour se retrouver dans ce foisonnement d'employer les nouveaux outils de traitement de l'information que la puissance des ordinateurs modernes met à leur disposition.

Quel rôle joue donc l'informatique en chimie ?

La chimie présente souvent des problèmes de calculs très difficiles. Par exemple, lorsqu'il s'agit de déterminer la géométrie probable d'une molécule en fonction des propriétés électroniques des atomes qui la constituent et de la représenter par une image calculée.

A quoi servent ces calculs ?

Dans la science aujourd'hui, entre la théorie et l'expérience est venue s'insérer la simulation. A partir de la connaissance de la structure d'une molécule, on peut calculer ses propriétés et comparer avec la mesure. On est arrivé ainsi à disposer de programmes informatiques sûrs qui sont capables de prédire correctement les propriétés physiques ou chimiques à attendre d'une molécule réelle ou imaginaire.

En quoi cette possibilité change-t-elle la pratique du chimiste ?

Le chimiste n'est plus obligé de faire d'abord la synthèse matérielle d'un produit pour en connaître les propriétés, il peut les estimer par la simulation informatique. On gagne ainsi beaucoup de temps dans la recherche de produits intéressants.

Et, qui pratique cette chimie sur écran ?

C'était un peu l'apanage de sociétés puissantes, celles de l'industrie pharmaceutique par exemple pour l'étude de nouveaux médicaments. Mais aujourd'hui cette possibilité est offerte à tous les chimistes. Une société de Saint Denis dans la banlieue parisienne, la société Cadcom, propose des logiciels très performants, qui intègrent les derniers développements du calcul et de l'imagerie moléculaires, et qui fonctionnent sur un ordinateur de bureau ou de laboratoire. Ils permettent de calculer les propriétés potentielles de molécules dessinées simplement par l'opérateur sur l'écran. On obtient des informations physiques et chimiques qui peuvent être traduites en images tridimensionnelles, et on peut même tenter de faire réagir des molécules entre elles. Une merveilleuse boite pour jouer à la chimie qui devrait séduire les professionnels !



Radio Classique 48 10 Octobre 1994


Un filtre supraconducteur


Pascale, vous savez que le téléphone mobile se développe de plus en plus et que bientôt, on ne se déplacera plus sans son petit boîtier pour être relié en permanence, si on le souhaite, au monde entier.

Je crois même que cette question fait ces temps-ci l'actualité économique.

En effet, beaucoup de grosses sociétés s'intéressent à ce marché. Mais, s'il y a beaucoup de monde sur un réseau, il faut s'assurer que les conversations des uns n'empiètent pas sur les conversations des autres : il faut éviter la cacophonie.

Et quels sont donc les facteurs sur lesquels la technique peut agir ?

Les filtres qui sélectionnent les fréquences des canaux du spectre du rayonnement radio qui transmet l'information d'un poste à un autre, doivent ouvrir une fenêtre de communication très étroite, très spécifique, sans bavure sur les fréquences voisines. Or, la qualité du signal dépend de la résistance électrique des matériaux employés pour réaliser ces filtres.

Que peut-on faire pour améliorer leur réponse ?

L'idée est de supprimer la résistance électrique en utilisant ces merveilleux matériaux miracles que sont les supraconducteurs à haute température critique découverts en 1986. A la température de l'azote liquide, ils conduisent l'électricité sans résistance.

C'est bien froid ! Mais ces matériaux ne sont-ils pas difficiles à mettre en forme ?

C'est vrai, mais des progrès importants ont été accomplis aussi bien pour les fils que pour les couches minces que pour les rubans, c'est-à-dire des couches épaisses. Dans ce dernier cas, des chercheurs d'un laboratoire de l'Université Saint Jérôme à Marseille, le Laboratoire MATOP, dirigés par Madame Marfaing, réalisent par sérigraphie des circuits de géométrie complexe avec l'oxyde supraconducteur YBaCuO, un oxyde mixte d'yttrium de cuivre et de baryum, déposé sur des substrats isolants ou semiconducteurs.

Cette technologie est-elle sur le point d'être employée industriellement ?

En effet, une société américaine, Illinois Superconductors, annonce qu'elle va fournir aux industriels du téléphone des filtres fabriqués par une technique semblable dont l'efficacité est remarquable, avec un facteur de qualité, le chiffre qui caractérise la minimisation des pertes, de l'ordre de 40000, et peut être bientôt d'un million, à comparer avec la valeur voisine de 2500 des équipements actuels.

Quelles seront les conséquences ?

ATT Bell étudie un prototype d'une station réceptrice pour téléphone cellulaire dans la gamme des 900 Mhz. L'utilisation des supraconducteurs implique l'usage d'une technologie cryogénique miniaturisée, moyennant quoi on pourra disposer de plus de canaux de communication avec un signal amélioré et une meilleure stabilité des fréquences radio. Voilà peut-être le point d'entrée des supraconducteurs dans notre vie quotidienne !


Radio Classique 49 18 Octobre 1994


Un studio de télé virtuel


Pascale, croyez vous que les images qui apparaissent à la télévision sont toujours la traduction fidèle de ce que l'oeil d'une caméra cadre ?

....

Et bien, il peut arriver que ce qu'un écran cathodique montre, n'ait jamais été "vu" par un dispositif optique, naturel comme l'oeil, ou artificiel comme un appareil photographique, ou cinématographique, ou vidéo

D'où sortent-elles alors les images ?

Elles sont fabriquées par un ordinateur. L'ordinateur est une machine qui transforme les formules mathématiques en images. A partir d'un tableau de chiffres attribuant des couleurs à chaque point d'un écran, on peut composer des images ou demander à un programme mathématique d'en engendrer.

Il me semble que déjà le cinéma fait appel à ces techniques.

En effet plusieurs films actuellement sur nos écrans exploitent des procédés qui permettent, soit de déformer une image, soit d'en intégrer dans une scène, un peu comme des collages de papiers découpés. On le fait à partir d'écrans haute résolution, c'est à dire sur lesquels on peut traiter un grand nombre de points, de l'ordre de 16 millions, si bien que la définition de l'image est au niveau de celle de la pellicule 35mm

Grâce à ces truquages, on peut faire parler les morts !

On peut aussi jouer avec l'image de personnes vivantes dont les caractéristiques physiologiques ont été enregistrées dans la mémoire d'un ordinateur. Le domaine de la réalité virtuelle s'étend et va peut être sortir du secteur du grand spectacle...

Dans quelle direction par exemple ?

Il existe un programme européen, RACE, dont la mission est de promouvoir les recherches avancées dans le domaine des technologies de la communication. L'un des projets qu'il soutient, nommé Elset, se propose de mettre au point un studio de télévision composé à partir d'images virtuelles tridimensionnelles. Les entreprises intéressées sont réunies dans un consortium baptisé "Mona Lisa" dont le chef de file est la société française Thomson à travers son Laboratoire de Rennes en Bretagne, Thomson Broadband Systems. Dans le groupe on trouve aussi la BBC, Siemens, Daimler-Benz, et d'autres

Comment fonctionne ce studio ?

On peut faire une grande économie de décor en faisant évoluer les acteurs sur un fond bleu. Leur image peut alors être traitée électroniquement et insérée dans une riche image virtuelle, par exemple celle d'une pièce immense. L'ordinateur est capable de déplacer le point de vue en fonction du mouvement des personnes, et même de tenir compte de la présence d'obstacles potentiels, chaises ou coins de table, dans l'image virtuelle. On disposerait ainsi de la possibilité d'une grande variété de mises en scène tout en faisant de sérieuses économies de moyens.


Radio Classique 50


Un Prix pour l'innovation


Pascale, les innovations que nous décrivons dans cette chronique appartiennent à deux catégories assez différentes.

Quelles sont-elles ?

Il y a d'une part les découvertes des laboratoires de recherche qui semblent avoir une chance de modifier le cours de la pratique industrielle. Elles sont encore en amont de l'application. Elles ont besoin de passer par la phase de développement.

Il y a aussi des produits finis qui sont dans le commerce !

Oui, le second type d'innovation est celle qui peut être utilisée immédiatement, ce qui signifie aussi que son importance réelle peut être appréciée tout de suite.

Quelles différences entre ces deux types d'innovation ?

Sur le plan international, l'Europe, et en particulier la France, a beaucoup d'idées, les chercheurs universitaires et industriels proposent fréquemment des innovations, très souvent à cause de l'impact des programmes européens. Mais, on dit que le développement est souvent fait en Amérique du Nord, alors que c'est le Japon qui a le privilège de lancer le produit industriel. C'est évidemment une boutade, mais ...

Mais beaucoup de gens pensent qu'en effet l'Europe ne lance pas sur le marché assez de produits innovants

On ne peut pas dire que cela soit vrai pour tous les secteurs. Toutefois, le sentiment est assez répandu pour que les autorités européennes se soient résolues à prendre une initiative.

Dans quel domaine ?

La DG III Industrie de la Commission Européenne et Euro-CASE, le Conseil européen des Académies des sciences appliquées et d'ingénierie de 14 pays européens, ont lancé conjointement un concours pour récompenser des innovations dans le domaine des technologies de l'information. Ces innovations doivent avoir un potentiel évident de développement commercial. Par technologies de l'information, il faut entendre les systèmes qui permettent de recueillir et de traiter des données, comme les capteurs par exemple, ou de les transformer et de les transmettre.

Quelles sont les conditions ?

Et bien l'innovation doit être clairement du deuxième type que nous évoquions tout à l'heure. Il s'agit de récompenser quelque chose qui a été mis sur le marché moins de 6 mois avant le 6 Juin 1994 ou un prototype démontrable...

Quelle est la récompense ?

Trois lauréats recevront chacun un Grand Prix de 200000 écus, soit 1 300 000 F, et les 20 finalistes auront 5000 écus. Les candidatures doivent être déposées avant le 15 Janvier 1995 au CADAS, le Comité des Applications de l'Académie des Sciences française, siège européen d'Euro-CASE, 16 rue Mazarine, Paris 6ème. téléphone : 44 41 43 94. Bonne chance !




Radio Classique 51


Des photoconducteurs organiques nouveaux


Pascale, les propriétés physiques, électriques et optiques, de matériaux organiques, notamment des polymères, font de plus en plus l'objet de recherches intenses

Dans quel genre d'applications peut-on les employer ?

Depuis déjà presque 20 ans, les photoconducteurs organiques ont remplacé les alliages minéraux de sélénium dans les photocopieuses ou les imprimantes laser

Quel est le principe ?

Une image peut être recueillie sur un matériau photoconducteur en transformant par illumination les contrastes noirs et blancs en une répartition de charges électriques. On attire ensuite de l'encre composée avec des particules chargées vers les zones à reproduire. La vitesse du processus de photocopie est limitée par la rapidité du déplacement des charges.

Je suppose qu'il y a du nouveau dans ce domaine !

Oui, on constate que les grandes revues scientifiques anglo-saxonnes accordent beaucoup d'importance ces temps ci à deux découvertes, l'une allemande, l'autre franco-américaine. La première concerne un cristal liquide organique, un hexahexilthiotriphénylène. Lorsqu'on le place dans un champ électrique et qu'on l'éclaire avec un faisceau laser, il bat, de très loin, les records connus pour la vitesse de transport des charges électriques, dans une substance organique polycristalline. Le matériau organique est intéressant car on peut lui faire prendre n'importe quelle forme.

Et, quelle est l'autre découverte ?

L'autre découverte combine plusieurs photoconducteurs organiques au sein d'un polymère. Elle est due à une équipe française de Strasbourg, une équipe mixte CNRS-Université, le Groupe d'Optique non-linéaire et d'optoélectronique, en collaboration avec des chercheurs de Tucson dans l'Arizona. Le polymère permet d'exploiter la photoréfraction, un phénomène que présentent des matériaux dont l'indice de réfraction pour la lumière oscille en fonction de la modulation interne de la répartition des charges électriques.

A quoi cela peut-il bien servir ?

Grâce à une composition chimique qui génère des charges électriques sous l'impact de la lumière, on peut écrire des informations sous forme de microtaches quasi ponctuelles sur un film de ce polymère. On fabrique dans son épaisseur un diagramme de diffraction au moyen d'un couple de faisceaux laser dont l'un est modulé en écriture binaire. Les charges produites sont séparées par un champ électrique et restent là, stockées. La densité d'information est très élevée. On peut lire cette écriture instantanément avec un autre couple de faisceaux laser. Ainsi, apparaît une possibilité nouvelle pour le traitement optique rapide d'une très grande quantité de données, ou pour la mise en oeuvre d'une holographie dynamique. L'optoélectronique organique n'en est qu'à ses débuts.

Radio Classique 52


La plus vieille peau


Pascale, il arrive que l'on rencontre encore aujourd'hui des espèces vivantes inconnues ou supposées disparues

Ah oui, où ça ?

Et bien, dans l'eau marine très froide autour de l'Antarctique, une équipe californienne a eu la surprise de découvrir dans le picoplancton, c'est à dire la fraction de ces organismes d'une taille inférieure au micromètre, une proportion très importante, 34%, d'archéobactéries. C'est une famille de micro-organismes différentes des bactéries ordinaires et d'ailleurs plus proche de nous que celles ci en termes de parenté génétique !

Mais, où les trouve-t-on d'habitude ?

Jusqu'à présent, les archéobactéries connues étaient confinées dans des milieux extrêmes, marécages très salés, ou sources volcaniques brûlantes et acides. Ce sont des survivantes des dures conditions chimiques du début de la planète. Elles sont sur la Terre depuis au moins un milliard d'années et ces découvertes montrent qu'elles sont toujours apparemment une fraction notable de la biomasse !

Mais, quel rapport avec l'innovation ?

C'est que l'une de ces archéobactéries, qui donne une belle couleur pourpre aux marécages salés, comporte une enveloppe, une membrane, qui contient une curieuse protéine, la bactériorhodopsine. Une partie de cette protéine, le rétinal, apparenté à la vitamine A, est sensible à la lumière. C'est d'ailleurs le même groupement chimique qui permet de recevoir un signal lumineux sur la rétine de l'oeil des vertébrés, donc le nôtre.

Comment se traduit cette sensibilité à la lumière ?

La lumière déclenche la circulation de protons, noyaux d'hydrogène portant une charge électrique positive, à travers la membrane et induit donc une différence de potentiel. Il s'agit d'un mécanisme de conversion qui fournit à l'archéobactérie, à partir du soleil, l'énergie dont elle a besoin pour entretenir les réactions chimiques de la vie.

Existe-t-il des applications ?

On a déjà imaginé des photodiodes biologiques à réponse très rapide fondées sur cette protéine l'une des vedettes de l'ingénierie moléculaire. Mais il y a du nouveau, car des chercheurs européens viennent de s'apercevoir que le passage des protons à travers la membrane, via la bactériorhodopsine, se faisait par une réaction chimique oscillante dans le temps, c'est à dire dont le sens change périodiquement. Les réactions chimiques oscillantes connues sont assez nombreuses. Monsieur Jean Jacques Perraud vient de consacrer une thèse à l'histoire de leur découverte soutenue à l'Université de Bordeaux I. Parce qu'il correspond à la production d'une fréquence, ce système chimique peut être considéré comme un analogue de nos montages électriques conçus pour affiner le contrôle et diminuer le bruit, comme par exemple nos circuits radio modulation de fréquence. C'est aussi un moyen d'optimiser l'efficacité thermodynamique du transfert d'énergie. Comme quoi la vie, même primitive, c'est astucieux, non ?
Radio Classique 53


LE FROID PORTABLE


Pascale, vous connaissez les bienfaits du réfrigérateur qui permet de garder la nourriture et les boissons au frais. Avec le congélateur, on fait encore mieux, puisqu'à la température de -18°C, on peut conserver des produits très longtemps.

L'industrie du froid est évidemment essentielle à la vie aujourd'hui !

La température est une variable d'état qui affecte beaucoup les propriétés physiques et chimiques des matériaux. Pour les substances organiques ou biologiques le froid stoppe les réactions chimiques et donc les processus de dégradation. De là l'intérêt alimentaire de la chaîne du froid.

Est-ce qu'il y a d'autres secteurs industriels qui font appel au froid ?

On peut avoir besoin de transformer une matière trop molle en corps dur. Par exemple, des travaux de génie civil peuvent exiger de congeler des sols. Mais c'est dans l'exploitation optimale de matériaux électroniques de pointe que la technologie du froid se révèle être une composante indispensable pour la mise en oeuvre de propriétés physiques intéressantes.

Une électronique refroidie, ce n'est pas très commode ?

En laboratoire, il n'y a aucune difficulté à refroidir des appareillages par exemple à la température de l'hélium liquide, 4°K, soit moins 269° centigrades, ou à celle de l'azote liquide, 77°K, soit moins 196° centigrades ! On constate alors que le rendement de certaines opérations de conversion, par exemple la transformation d'un flux de lumière en courant électrique, est grandement amélioré par le froid. Des cristaux photosensibles à la lumière infrarouge donneront de meilleures images si on les refroidit.

Il ne s'agit sûrement pas d'applications ménagères !

Non, on n'équipe pas encore les systèmes de télécommande du poste de télévision, ou les alarmes domestiques, avec des containers d'azote liquide, mais l'efficacité de très nombreux dispositifs, notamment militaires, dépend du refroidissement des détecteurs de faisceaux infrarouges, utilisés pour le guidage balistique ou pour la vision nocturne. Cette mise au froid est aujourd'hui opérationnelle.

On n'imagine pas des soldats avec un bidon d'azote liquide sur le dos !

Bien sûr, mais il y a des phénomènes physiques, comme l'effet Peltier, qui permettent de produire localement du froid avec une source de courant continu. Il y a surtout des cycles thermodynamiques qui peuvent être mis en oeuvre avec des mécaniques de haute précision d'encombrement réduit et des fluides caloporteurs comme l'hélium. Ils permettent d'obtenir des températures très basses sur un doigt froid et de réaliser des machines cryogéniques portables.

Qui les fabrique ?

La société française Cryotechnologies de Blagnac près de Toulouse, propose une gamme très étendue de mini-réfrigérateurs pour les applications les plus diverses, en particulier pour la détection infrarouge. L'avenir de la technologie du futur, Pascale, est dans le froid...
Radio Classique 54 25 Novembre 1994


La thérapie génétique sur la route industrielle


Pascale, vous savez qu'il y a des gens, notamment des enfants, qui souffrent de terribles maladies dues à une imperfection du système génétique. Souvent, le défaut entraîne l'absence d'une substance chimique indispensable à l'organisme pour sa croissance ou son fonctionnement

Oui, c'est une question qui soulève beaucoup d'émotion dans le public.

Ce qui se traduit par des gestes de solidarité notamment grâce au système du Téléthon. L'argent recueilli sert à la recherche, en particulier au déchiffrement de l'immense longueur du génome humain. C'est comme un texte écrit avec des lettres formant des mots et qu'il faut lire pas à pas tout en tentant de savoir quels sont les ordres donnés à la chimie du corps par chacune de ces séquences.

Mais, si un ordre est mauvais, peut-on le corriger ?

En effet, aujourd'hui on tente d'aller plus loin que le simple diagnostic utile pour la prévention. On essaye de compenser directement dans le corps du patient l'erreur de commande génétique. C'est la thérapie génétique.

Comment peut-on faire ?

On va introduire dans l'organisme un gène venu d'ailleurs qui va, par exemple, organiser la fabrication d'une protéine qui manque, comme une enzyme indispensable au système immunitaire. On peut greffer le gène manquant sur des globules blancs. La première tentative thérapeutique remonte à Septembre 1990. Mais il y a d'autres méthodes, comme celle qui consiste à tenter de reprogrammer des cellules cancéreuses avec un gène qui leur ordonne de se suicider.

Comment va-t-on passer de la recherche à l'industrie ?

La plupart des Laboratoires de recherche sont spécialisés dans une technique particulière. En France, Généthon-Industries cherche à séquencer et à cartographier rapidement le génome humain. Un autre groupe à Berkeley en Californie tente la même opération. A l'Université Louis Pasteur à Strasbourg des chercheurs étudient des corps gras, les liposomes, qui peuvent être utilisés pour véhiculer de nouveaux éléments du génome dans des cellules malades. Au CNRS, il y a des programmes orientés vers les biotechnologies et il y a encore bien d'autres entreprises spécialisées. La question est de fédérer ces nombreux groupes pour une action commune impliquant échanges et collaborations.

Par quels moyens ?

Rhône Poulenc Rorer, une filiale de notre groupe industriel multinational, a créé à Collegeville en Pennsylvanie une sorte de club, "RPR Gencell", qui se propose de rassembler ces technologies diverses pour en faire un ensemble susceptible de déboucher sur un marché qui dépassera probablement le milliard de dollars. La coordination est nécessaire pour accélérer le développement des thérapies génétiques et un grand nombre de laboratoires de pointe, fondamentaux ou industriels, aux Etats Unis et en France ont accepté de collaborer à ce projet.


Radio Classique 55


Un amalgame sans mercure


Pascale, vous avez sûrement fait l'expérience du fauteuil du dentiste pour soigner une dent qui a des problèmes. Vous savez que l'on rebouche les trous avec un alliage de métaux lourds, un amalgame, qui durcit après le mélange des composants.

...

Comme son nom l'indique cet amalgame, ou plombage, utilisé depuis 1826, contient du mercure, de l'argent et de l'étain. C'est un peu paradoxal à une époque où l'on chasse les métaux lourds de l'environnement. A tel point qu'il parait que dans un pays du nord de l'Europe, où le terrain pour les cimetières est rare, on envisage de retirer les plombages des dentures avant l'incinération des corps pour éviter de polluer l'atmosphère .....

Voila un détail sinistre !

Détail qui montre l'existence d'une interrogation devant l'emploi traditionnel et si courant d'une substance composée à partir d'un métal, le mercure, suspect d'être nuisible à la santé publique sous forme de vapeur ou associé à une molécule organique. Il est vrai qu'immobilisé dans l'alliage, il remplit très bien son office. Naturellement on cherche aujourd'hui autre chose qui fasse aussi bien.

Et quoi donc par exemple ?

Il faut que la matière à employer puisse être d'abord souple pour s'adapter aux formes à combler et ensuite dure et résistante pour supporter les efforts de la mastication et enfin peu coûteuse.

Ne peut-on pas utiliser des plastiques ?

Beaucoup de polymères ne sont pas toxiques, mais ils ne sont pas mécaniquement très résistants et ils se contractent en durcissant. Les métaux et les céramiques peuvent être précisément modelés, mais ils sont chers.

Alors que faire ?

La solution recherchée depuis assez longtemps est celle d'un matériau composite : une substance minérale enrobée dans un polymère. Un Institut allemand, le Fraunhofer Institut für Silicatforschung, de Würzburg, propose un nouveau substituant non toxique aux amalgames baptisé Ormocer.

De quoi est-il composé ?

D'un silicate minéral mou qui absorbe des molécules organiques. La substance peut être facilement adaptée à la forme requise dans son état souple. On peut la mettre en place avec une seringue. Pour faire durcir, on éclaire avec une lumière bleue, ce qui déclenche une co-polymérisation. Les propriétés structurales, physiques et chimiques, du matériau rigide sont proches de celles d'une dent.

Donc, on pourra bientôt renoncer au mercure ?

C'est sûrement très souhaitable. Les propriétés mécaniques et toxicologiques ainsi que la résistance à la mastication de l'Ormocer sont bonnes, d'après ses inventeurs. Mais il faut encore faire des essais dans les conditions réelles des soins dentaires. Et si tout va bien, il restera à convaincre la profession de faire évoluer ses pratiques ...

Radio Classique 56


Emballage !



Pascale, savez-vous que 50 millions de tonnes d'emballage sont produites chaque année en Europe ? Et qu'en France le chiffre d'affaires de cette activité atteint 107 milliards de francs pour 120000 salariés ce qui fait que l'emballage occupe la huitième place au classement des industries nationales ?

....

L'emballage met en jeu à la fois des problèmes de matériaux qui sont de natures physiques et chimiques, des questions économiques liées aux techniques du conditionnement, de la distribution, et du transport des marchandises, des enjeux sociaux et psychologiques qui conditionnent les motivations d'achat, et des questions de valorisation des déchets après consommation.

Voilà un éventail tout à fait pluridisciplinaire !

C'est ce que s'efforce de montrer l'exposition ouverte récemment par la Cité des Sciences et de l'Industrie et qui va durer jusqu'en Août 1995. L'une des missions de la Cité est de montrer ce que la science et l'industrie font ensemble pour la vie quotidienne de tous. L'emballage est un exemple de thème où se combinent de la recherche fondamentale, des techniques industrielles, et des composantes culturelles. La visite permet de saisir l'ampleur de l'effort industriel et scientifique qui est derrière l'existence d'un objet banal.

Quel genre d'innovations dans ce domaine ?

Il y a des innovations au niveau des matériaux et au niveau des fonctions. Les matériaux traditionnels de l'emballage sont le papier, le bois, le carton, le verre et depuis quelques décennies le métal, aluminium ou acier et bien entendu divers plastiques. Aujourd'hui la tendance est à la fabrication de matériaux composites sous une forme adaptée aux usages habituels.

Pouvez vous nous donner des exemples ?

On fabrique des feuilles souples qui sont multicouches, par exemple un sandwich d'aluminium entre des polymères. On peut aller jusqu'à 11 couches différentes. Cela permet notamment d'imprimer directement l'étiquette, c'est à dire le motif qui va attirer l'attention du client, sur un support qui accepte les encres d'imprimerie. On a réussi récemment à fabriquer du verre souple, c'est à dire un film polyester sur lequel on a projeté par dépôt en phase vapeur une couche mince d'un oxyde de silicium qui est un verre. Ce film est transparent, complètement étanche, et très résistant mécaniquement. Ces matériaux nouveaux doivent être obligatoirement conçus dans le contexte de procédés d'élaboration en grande série.

Et comme exemple d'amélioration des fonctions ?

On peut citer le récent Oscar de l'Emballage 1994. C'est un tube multi dose en plastique pour vaccin oral proposé par la Société Cebal. Il permet la stérilisation par irradiation, il est inviolable, et il peut être réemployé grâce à son bouchon hermétique. Ce nouveau flacon est recommandé chaque fois qu'un produit délicat ou sensible doit être réutilisé plusieurs fois.
Radio Classique 57


Un matériau de fête, le diamant


Pascale, on n'imagine pas vraiment que le diamant, la pierre précieuse qui brille au doigt des belles, puisse être aussi un matériau industriel ! On croit qu'il faut aller le chercher dans des mines lointaines, mais aujourd'hui on sait le fabriquer en laboratoire.

Sans doute ce n'est quand même pas très facile à faire !

Le diamant est une forme cristallisée du carbone qui est aussi la matière de notre vulgaire charbon. Il est formé naturellement dans des conditions minéralogiques de haute température et de haute pression que l'on sait reproduire en laboratoire depuis les années 1960.

A part la beauté de la pierre, quel est donc l'intérêt du diamant ?

C'est une substance qui a des propriétés réellement merveilleuses, un vrai conte de Noël ! C'est le matériau le plus dur, il est chimiquement inerte, sa conductivité thermique est très élevée, donc il peut évacuer facilement la chaleur, il est transparent de l'infra rouge à l'ultra violet et même pour les rayons X et les hyperfréquences, la vitesse du son y est très élevée, on peut en faire aussi des composants semi-conducteurs, il est même bio-compatible ... et la liste n'est pas finie !

A ce compte là on devrait trouver des diamants partout !

En effet il y a des chercheurs et des industriels qui pensent qu'après l'âge du silicium au XXème, le XXIème siècle verra l'avènement de l'âge du diamant. Mais pour que cela arrive, il faut savoir fabriquer le diamant sous une forme adaptée à ces applications. On sait maintenant faire des films d'une épaisseur comprise entre 1 et 500 microns et d'une surface qui peut aller jusqu'à 300 cm2 en crackant du méthane dilué dans l'hydrogène sur un front chaud.

Qui met en oeuvre ces techniques ?

Le Laboratoire d'ingénierie des matériaux et des hautes pressions, LIMPH, du CNRS à Villetanneuse dans la banlieue parisienne a une longue expérience de la synthèse du diamant. Ils utilisent aujourd'hui un réacteur à plasma pour faire des films polycristallins. Ce n'est pas seulement un sujet de recherche académique, plusieurs grosses entreprises industrielles comme De Beers, Norton, Sumitomo, fabriquent du diamant en couches.

Mais, à quoi sert ce diamant ?

On peut en recouvrir les tranchants d'outils de coupe, Sumitomo en fait des membranes de haut parleur, mais l'une des principales applications actuelles concerne l'optique. Comme la dissipation de la chaleur par conduction est très bonne, et la transparence excellente, le diamant est idéal pour fabriquer les optiques des dispositifs qui mettent en jeu des lasers de puissance opérant dans l'infra rouge, pour le soudage industriel par exemple. On peut fabriquer en diamant des polariseurs pour ces faisceaux laser, une application développée aussi à Villetanneuse au Laboratoire de Physique des Lasers. Pascale, l'innovation avancée du futur va jouer avec le diamant !

Radio Classique 58


Du Nobel à l'hôpital


Vous savez que tous les ans, l'Académie Suédoise décerne des Prix Nobel en physique et en chimie. Elle le fait aussi pour la médecine, mais il arrive que ce qu'elle a récompensé pour la physique et la chimie serve aussi la médecine, au bout d'un certain temps !

Pourtant, il s'agit souvent de recherches fondamentales !

Oui, mais ces découvertes sont quelquefois très rapidement adaptées à l'innovation. Par exemple, en 1986, Müller et Bednorz des Laboratoires d'IBM à Zurich ont découvert la supraconductivité à haute température critique, ce pourquoi ils ont reçu le Prix Nobel l'année suivante. Depuis, le travail acharné des chimistes a permis de mettre au point des matériaux supraconducteurs à la température de l'azote liquide, une température très facile à maintenir en milieu industriel et professionnel. Ils peuvent être insérés dans des circuits électriques miniaturisés et on envisage beaucoup d'applications pour le futur immédiat.

Mais, à quoi peuvent-ils bien servir en médecine ?

Pour établir des diagnostics directement sur un patient, les médecins aimeraient mesurer l'activité électrique et magnétique du coeur et du cerveau. Or, l'existence de la supraconductivité permet de concevoir un système très sensible de mesure du champ magnétique, que l'on appelle un SQUID. On arrive maintenant à construire un tel dispositif avec des circuits comprenant des matériaux supraconducteurs à la température de l'azote liquide. La sensibilité est bonne, ce qui permet, par exemple, à la société japonaise Sumitomo de proposer aujourd'hui un appareil pour établir des magnétocardiogrammes.

Avez vous d'autres exemples ?

Notre Prix Nobel de physique 1992, le Professeur Georges Charpak a proposé d'utiliser son détecteur à fils pour équiper un dispositif d'analyse médicale radiologique. Les rayons X sont plus ou moins absorbés par les différentes parties du corps. Cela conduit à des contrastes d'intensité, donc à une image. On peut mesurer l'intensité des rayons X avec le système Charpak, et donc obtenir l'image, sans avoir besoin de l'intermédiaire coûteux qu'est la pellicule photographique. Comme le détecteur est sensible, la dose globale de rayons X reçue par le patient est plus faible qu'avec les appareils ordinaires. Autre avantage, on peut numériser immédiatement ces images et donc les afficher, les traiter, les stocker, les manipuler par des moyens électroniques.

Et, cet appareil est utilisé ?

Il est en cours d'essais à l'Hôpital Saint Vincent de Paul à Paris. Il est réalisé avec le concours de la COGEMA et de la Société Baxter, leader mondial des technologies médicales et chirurgicales. Voyez-vous, alors que les grandes découvertes en physique reposent de plus en plus sur une instrumentation sophistiquée, les retombées dans le médical sont fréquentes et rapides, surtout au niveau de l'imagerie qui permet de visualiser l'intérieur du corps. L'homme, Pascale, est de plus en plus transparent !
Radio Classique 59


Le plus puissant des aimants


Pascale, vous savez que très tôt dans l'histoire de l'Humanité, l'attraction magnétique a attiré l'attention. On a d'abord ramassé dans la Nature des "pierres d'aimants" formées de magnétite, un oxyde de fer, et on en est arrivé à la boussole l'instrument chéri des navigateurs

Mais les aimants s'attirent ou se repoussent

En effet dans un aimant il y a toujours deux pôles, ceux de polarités opposées s'attirent, ceux de même polarité se repoussent. Si bien que l'on a imaginé de propulser des trains par lévitation magnétique. C'est une idée qui séduit toujours mais qui dépend du développement d'aimants puissants.

De quels genres de matériaux fait-on les aimants ?

L'aimantation apparaît dans des solides qui permettent de mettre en oeuvre collectivement les propriétés magnétiques individuelles d'atomes particuliers. Il s'agit surtout d'atomes de fer. Depuis 20 ans des progrès considérables ont été faits, d'abord avec des alliages de samarium et de cobalt, puis, il y a 10 ans, avec la mise au point d'un alliage ternaire composé de fer de néodyme et de bore qui fournit aujourd'hui les plus puissants aimants permanents connus.

Qui a fait cette découverte ?

C'est une affaire curieuse, un cas de découvertes simultanées par des groupes de recherche différents. Le Professeur Sagawa a déposé un brevet au nom de la société japonaise Sumitomo le 21 Août 1982, et l'américain General Motors en a fait autant au nom de son chercheur John Croat le 3 Septembre de cette même année. Les deux brevets portaient sur une composition analogue. Entre ces deux géants industriels la bataille de droits aurait pu être homérique mais ils ont préféré se partager le monde par un accord de distribution de licences. Mais aujourd'hui l'US Navy prétend faire valoir les droits d'antériorité de ses propres laboratoires...

C'est que, je suppose, ces aimants sont très employés ?

Ils servent en effet dans une grande quantité d'applications et on en annonce tous les jours de nouvelles, notamment dans le secteur des micromoteurs pour vidéocameras, le traitement du bruit et des vibrations, l'imagerie magnétique, les microphones, les moteurs de véhicules électriques, le triage des déchets, les CD-Rom, les sondes, les nanosystèmes, ... etc...

Quelle est l'ampleur du marché ?

Pour une production de quelques milliers de tonnes d'alliage de néodyme-fer-bore, les ventes en 1994 ont atteint 625 millions de dollars et la croissance est de l'ordre de 12 à 15% par an. Les chinois essayent de prendre pied sur ce marché car ils ont d'énormes réserves minières d'éléments des terres rares, série à laquelle appartient le néodyme. Le français Rhône-Poulenc, leader mondial de la séparation de ces éléments, fournit des alliages élaborés dans son usine de Phoenix en Arizona. Pascale, si vous voulez en savoir plus, il y a un congrès sur ces superaimants à San Diego fin février.


Radio Classique 60


Les microsphères


Pascale, vous avez sûrement déjà joué aux bulles de savon. Leur forme parfaitement sphérique est un délice, elles sont légères, mobiles, élégantes, leurs parois sont si minces qu'elles apparaissent gaiement colorées, bref, les bulles ont du charme...

Allez-vous nous décrire une nouvelle machine pour les fabriquer ?

Je me souviens avoir visité un jour un laboratoire aux Etats Unis où des chercheurs étudiaient justement la formation des bulles de savon pour savoir dans quelles conditions on pouvait obtenir des billes creuses de verre absolument régulières avec des parois très minces d'épaisseur homogène et sans aspérités sur les surfaces.

Et à quel jeu étaient destinées ces billes ?

A tenter de réussir la fusion nucléaire sous l'impact de puissants faisceaux laser braqués sur ces billes gonflées au deutérium. Il s'agit là d'une tentative de mettre le soleil en bouteille ou plutôt de réaliser une réaction nucléaire du type de celles du soleil dans ces petites billes creuses.

Où en sont ces tentatives ?

Le Congrès des Etats Unis a donné son feu vert pour la réalisation au début du prochain siècle de la NIF, National Ignition Facility. Les billes actuelles ne sont plus en verre mais en plastique. Leur diamètre est de 0,5 mm, elles sont très complexes, leurs minces parois étant constituées de trois couches de polymères différents. On les fabrique en faisant tomber un liquide d'une hauteur de 5 mètres. Les futures techniques utiliseront des microsphères plus grosses, de 2mm de diamètre, remplies d'un combustible nucléaire solide ou liquide maintenu à des températures très basses. Voilà le genre de travail sur lequel repose la conquête des sources d'énergie du futur!

Mais quelles sont les autres applications des microsphères ?

On essaye de fabriquer des microbulles d'hémoglobine gonflées d'oxygène, elles ont 2,5 microns de diamètre, la moitié de la taille d'un globule rouge, elles pourraient être utilisées pour remplacer le sang. On peut aussi fabriquer des microsphères poreuses en silice qui peuvent contenir un liquide chargé d'un réactif. On les installe à l'extrémité d'une fibre optique de façon à enregistrer les changements de couleurs du réactif en fonction des conditions extérieures : on construit donc ainsi une sonde ou un capteur pour des problèmes industriels ou médicaux. Ou encore, avec des particules sphériques d'oxyde d'indium d'environ un micron de diamètre dispersées dans un polymère, on fabrique des revêtements qui protègent les satellites des méfaits de l'électricité statique. Mais, Pascale, la clé de l'exploitation de ces propriétés dépend d'un joli jeu de construction, l'art et la manière de mettre la matière sous cette forme inhabituelle de petites sphères, creuses ou pas, mais toutes parfaitement régulières et identiques !

Radio Classique 61 24 Janvier 1995


La crevette et l'escargot


Pascale, je vais vous raconter des histoires animales qui ont un rapport de fond avec les hautes technologies, un exemple de la manière dont l'observation attentive de la nature permet de trouver des idées pour améliorer les produits de notre industrie.

Je pense qu'il ne s'agit pas d'une grande amélioration de la vitesse des déplacements, parce que l'escargot ...

Et pourtant, c'est le cas, puisque l'observation de la structure au niveau microscopique de la coquille de l'escargot va permettre de concevoir de meilleurs matériaux pour les moteurs jet de nos avions, et aussi pour les turbines à gaz des générateurs électriques. Les coquilles sont faites principalement d'un composant minéral très cassant, le carbonate de calcium, mais celui-ci est disposé en couches alternées avec des couches de matière organique composées d'un enlacement de protéines. Celles-ci absorbent les chocs ordinaires dans la vie d'escargot.

Je ne vois pas le rapport avec le moteur jet !

Dans ce type de moteur, la température est très élevée, la zone de combustion est à 1500°C et les matériaux qui forment le moteur doivent supporter à la fois de hautes températures et de fortes contraintes mécaniques. Ce sont généralement des alliages métalliques qui doivent en outre bien résister mécaniquement à de nombreux cycles d'échauffement et de refroidissement.

Et vous proposez de les remplacer par quelque chose qui ressemble à une coquille d'escargot !

On a intérêt à tenter de remplacer le métal par des céramiques, matériaux qui ont des points de fusion élevés, qui tiennent beaucoup mieux aux hautes températures, et qui résistent à l'oxydation. Mais les céramiques ont l'inconvénient d'avoir des propriétés mécaniques pas très bonnes : elles sont souvent cassantes et se fissurent. D'où l'idée d'en doubler des feuilles minces, comme dans la coquille d'escargot, par des couches d'une matière plus souple, plus molle, capable d'absorber les chocs et d'arrêter la propagation des fissures, et qui en même temps résiste aussi aux hautes températures.

Quel exemple pouvez-vous donner ?

Un consortium européen dirigé par un laboratoire britannique de l'Université de Cambridge met au point un matériau composite destiné aux chambres de combustion de turbines à gaz et qui comporte des couches de 150 microns d'épaisseur d'un excellent réfractaire, le carbure de silicium, séparées par de fines couches de 5 microns d'épaisseur d'un matériau plus mou, le graphite. Le partenaire français du consortium est la société "Céramiques et Composites", de Bazet dans les Hautes Pyrénées, une société spécialisée dans les céramiques techniques à hautes performances et qui participe à plusieurs projets européens.

J'ai compris pour l'escargot, mais, et la crevette ?

Et bien, il existe une certaine crevette tropicale, le gonodactyle, qui possède un membre qui se termine par une sorte de massue dont elle se sert pour briser les coquillages, les carapaces des crabes, et éventuellement les vitres de son aquarium ... Elle cogne toute la journée sur des corps durs et pourtant cette massue naturelle ne se casse pas, ne s'abîme pas, et ne parait pas s'user. Sa structure intime a été disséquée par des chercheurs en matériaux.

Et bien sûr, ils ont trouvé que c'était un petit chef d'oeuvre de matériau composite ...

En effet, c'est un matériau qui devient de plus en plus dur, de plus en plus rigide à mesure que l'on se rapproche de la surface assurant, ainsi efficacement la transmission de l'énergie accumulée par la contraction musculaire. C'est un composite combinant des fibres d'un polymère organique, la chitine, avec une charge minérale formée d'un mélange de carbonate de calcium et d'apatite, un minéral phosphoré dont la teneur est plus forte en surface. Cette progression assure la rigidité tout en éliminant le risque de cassure. Voilà un remarquable matériau, fabriqué naturellement à la température et à la pression ordinaire, et qui est presque un défi pour notre technologie...

Radio Classique 62 31 Janvier 1995


Ces gènes qui nous habitent...


Pascale, vous avez sûrement déjà entendu parler de l'analyse génétique ?

Oui, mais pouvez-vous nous préciser ce que c'est ?

L'analyse génétique consiste à identifier la succession des bases nucléiques dans la double hélice de l'ADN. Ces bases sont au nombre de quatre. Elle codent des messages au moyen de cet alphabet de quatre lettres. Celles-ci sont lues par paquets de trois. Cette instruction commande le plus souvent le choix d'un acide aminé déterminé parmi la vingtaine dont l'enchaînement forme les protéines, agents chimiques essentiels du vivant. Lire le code génétique, c'est déchiffrer de très longues successions de ces quatre lettres et aussi comprendre le message qu'elles portent. Les fragments significatifs, ceux qui vont déclencher une série d'opérations déterminées, sont les gènes. Leur identification est l'une des frontières chaudes de la recherche. Chez l'homme, les chromosomes sont composés de gigantesques pelotes d'ADN et il y a des milliers de gènes par chromosome.

Je crois que ce système n'est pas spécifique à l'homme ?

Non, on le trouve chez tous les êtres vivants. Pascale, avez-vous remarqué que les insectes manifestent à peu près les mêmes goûts que nous, ils butinent les fleurs ou se repaissent des fruits apparemment avec délectation...

Ils fréquentent le même supermarché que nous, celui de la Nature...

Et il est effectivement très riche en odeurs et en saveurs variées ! Les chercheurs s'intéressent beaucoup ces temps-ci à la manière dont ces petites bêtes perçoivent le monde ambiant. Le mécanisme neuronal de la perception des odeurs par la sauterelle a été analysé récemment par une équipe californienne et on se rend compte que la sensation est transformée en oscillations électriques d'une fréquence de 20 hertz qui affectent des paquets de neurones différents selon la nature des odeurs : citron, menthe, pomme, etc...

Mais cela ne nous dit pas si la sauterelle perçoit les odeurs comme nous ?

En effet, la manière dont le signal excitateur est interprété est inaccessible à la recherche parce qu'elle relève du domaine du sensible. Mais des chercheurs du Laboratoire de Neurobiologie comparée des Invertébrés, un laboratoire INRA-CNRS de Bures sur Yvette, viennent d'identifier quatre fragments d'ADN d'abeille correspondant à des gènes de récepteurs d'odeurs. Ils ont pu faire l'analyse de la succession des bases nucléiques et identifier les acides aminés qu'elles codent dans ces fragments de génome et s'apercevoir qu'elles ressemblent fort aux séquences correspondantes pour des vertébrés, des mammifères comme le rat et l'homme ...

Mais, alors, nous sommes cousins des abeilles !

Ce n'est pas évident parce que les bases biotechniques de ce sens de l'olfaction semblent s'être construites très tôt dans l'évolution du vivant. En tout cas l'architecture des circuits olfactifs neuronaux se ressemble entre invertébrés et vertébrés et l'analyse génétique semble conforter l'idée de solutions chimiques analogues.

Mais quel genre d'innovation peut aider à ces recherches ?

Un outil nouveau vient d'apparaître pour faciliter le travail des biologistes et des médecins engagés dans le déchiffrement et l'interprétation du génome humain. Il s'agit d'un CD-Rom proposé par l'éditeur John Libbey, basé à Paris, réalisé avec le concours du Ministère de la Recherche, de l'INSERM, de l'Association Française contre les Myopathies, et d'autres encore. Nommé GID pour "genome interactive database", il condense les connaissances actuelles sur le génome et rassemble les informations de plusieurs laboratoires et de diverses banques de données. Par exemple, il contient les séquences de 3000 gènes et des cartes de chaque chromosome avec indication de la position de gènes responsables de maladies. Il offre aussi une bibliographie considérable. Pascale, l'informatique interactive est un outil indispensable pour traiter des problèmes aussi gigantesques !


Radio Classique 63


Un nouveau média


Pascale, est ce que vous aimez les films "scientifiques" ?

...

Les films scientifiques sont très divers. Il y a le film de recherche, le film pédagogique destiné aux écoliers ou aux étudiants, le reportage ou le documentaire, qui présentent des visites de laboratoires, ou des expéditions plus ou moins lointaines, ou des entretiens avec des chercheurs, des films animaliers, des dessins animés, etc...

On en voit effectivement quelquefois à la télévision

Notre télévision diffuse assez fréquemment des films scientifiques, mais au compte-gouttes, par petits morceaux, et pas aux heures de grande écoute ou sur des chaînes thématiques. On ne propose pas chez nous les grands documentaires scientifiques de 52 minutes destinés au public du "prime time" que fabriquent les télévisions publiques étrangères comme la BBC anglaise, la NHK japonaise, ABC Australie, le PBS américain, le canadien TV Ontario ou même la télévision suisse romande ou la RAI italienne.

Et pourquoi cela ?

Parce que personne en France ne veut mettre sur la table les trois millions de francs environ qui sont nécessaires pour UN 52 minutes de qualité lequel demande au moins quatre mois de préparation. Pour accéder au marché international il faut pouvoir produire des séries de ces 52 minutes. C'est ce que font les télévisions citées, mais comme la France ne produit rien de comparable, elle est absente du marché international, sauf le cas d'un bon film isolé, ce qui arrive quand même parfois !

Mais qui produit des films scientifiques en France ?

Principalement les organismes publics liés à la recherche et à l'éducation comme le CNRS Audio-visuel, le CNRS Images Médias, le Service du Film de Recherche Scientifique lié aux Universités et administré par le Centre de Documentation Pédagogique lui aussi producteur, et d'autres centres de recherche comme l'INRA, l'ORSTOM, l'IFREMER, etc... A cela s'ajoutent les entreprises privées de production qui ont des commandes des chaînes pour tel ou tel produit et qui très souvent fournissent en films à coloration scientifique des émissions régulières, de reportage par exemple. Il y a aussi de très nombreux films d'entreprises qui sont de nature scientifique, produits notamment par le CEA, le CNET, le CNES, EDF, etc...

Mais alors, quel est votre nouveau média ?

La Médiathèque de la Cité des Sciences et de l'Industrie dispose d'une collection de 4000 films scientifiques, du film de quatre minutes au long métrage, parmi lesquels 900 films pour les enfants et plus de 600 versions françaises de films étrangers. On y trouve tout, de l'animation à la fiction en passant par le didactique, le film d'archives, le film de recherche et le film d'entreprise. Et cette collection, amoureusement sélectionnée depuis les années 80, est aujourd'hui disponible intégralement et en direct, c'est à dire que vous pouvez visionner quasiment instantanément n'importe quel numéro du catalogue.

Et comment cela ?

Grâce à un serveur qui sert 17 consoles individuelles accessibles au public. Les films sont stockés sur des vidéodisques analogiques de 30 cm. La gestion de 1400 vidéodisques correspond à une capacité de 2800 heures de programme. Un robot électro-mécanique informatisé est chargé de la manipulation des disques. Le signal image transite par fibres optiques jusqu'à l'écran du spectateur. Celui-ci a le choix, par mots clés, du sujet qu'il veut visionner. Il peut aussi donner simplement le titre du film. Ainsi une bonne fraction de la production audio-visuelle scientifique est disponible à la demande. Ce système préfigure les modes de consommation qui seront offerts par les futures autoroutes de la communication lorsque l'on pourra plonger, mais alors de chez soi, dans une bibliothèque d'images située peut être au bout du monde. Mais, pour la science, Pascale, vous pouvez faire l'expérience de cette sensation future aujourd'hui à la Cité !

Radio Classique 64


Nouvelles images


Pascale, est ce que vous n'avez pas quelquefois souhaité, lorsque vous allez au cinéma, que l'histoire finisse autrement ?

....

Et bien, les nouvelles technologies de manipulation de l'image vont bientôt vous permettre d'influencer le scénario du film pour le mettre plus à votre goût. Le principe ressemble beaucoup à celui du serveur de films scientifiques de la Cité des Sciences et de l'Industrie dont nous avons parlé la semaine dernière.

Et quel est-il donc ?

Plusieurs versions des différents épisodes possibles d'un film, plusieurs scénarios si vous préférez, sont enregistrés sur un vidéodisque. Les spectateurs disposent d'un clavier grâce auquel ils peuvent choisir d'orienter la suite de l'histoire dans une direction ou dans une autre. Le système se plie à la décision majoritaire et le film continue sans qu'aucune interruption soit perceptible.

Mais, c'est un peu comme les deux films d'Alain Resnais "Smoking, no smoking"

Exactement, sauf que vous n'avez pas besoin de changer de salle, vous pouvez choisir de continuer avec l'autre version en direct de votre fauteuil.

Et ce type de film existe ?

Oui, c'est une coproduction entre une société de spectacle new-yorkaise Interfilm et Sony New Technologies. On peut le voir aux Etats-Unis, il dure 20 minutes, il s'appelle Mr Payback et il parait que ce n'est pas un chef d'oeuvre intellectuel et artistique, mais il offre toutes les 90 secondes cette possibilité d'évolution selon les désirs des spectateurs. Vous pouvez le voir plusieurs fois, ça change à chaque coup ! L'ensemble des séquences représente deux heures de projection et une informatique très sophistiquée va chercher celles qui sont demandées et traite l'enchaînement.

C'est donc un peu comme un jeu vidéo.

On envisage de produire d'autres films de ce type avec des choix encore plus fréquents. Ce sont des films qui fonctionnent encore avec des acteurs qui jouent devant une caméra, mais aujourd'hui la technique permet de faire jouer sur l'écran des acteurs virtuels, personnages réels dont les gestes et l'apparence ont été transformés en tableaux de chiffres par digitalisation laser.

Je crois que l'acteur Richard Bohringer, s'est ainsi fait "cloner"

En effet, mais outre les applications pour le spectacle, l'utilisation de la télémétrie laser pour relever des images extrêmement précises, et les numériser, devient une possibilité industrielle. On peut obtenir une sorte de photographie tridimensionnelle, ou si l'on veut une carte très précise en trois dimensions, d'une structure de grande taille, même complexe, une machine, une oeuvre d'art, une maquette...

Comment fait-on ?

La société MENSI de Neuilly Plaisance dans la banlieue parisienne a inventé, avec le concours d'EDF et de l'ANVAR, le système SOISIC pour "saisie optique informatisée de structures industrielles complexes". Il peut opérer à des distances de l'ordre de 2 à 50 mètres et donc traiter de grandes structures de plusieurs dizaines de mètres. Il est composé d'un système de capteur mobile qui, par balayage laser, permet de mesurer les coordonnées de points sur des surfaces en effectuant une triangulation plane. Une informatique associée permet de transformer tous les détails de la structure observée en données numériques exploitables pour obtenir des images tridimensionnelles et réaliser ainsi un véritable moulage optique.

Quelles sont les applications ?

EDF l'a utilisé pour obtenir des images de ses équipements, notamment des tuyauteries complexes de centrales nucléaires, ce qui permet à partir des images de simuler des interventions de maintenance, donc d'entraîner les personnels dans un univers virtuel correspondant vraiment à la réalité. Le procédé est peu coûteux et beaucoup plus rapide que la photogrammétrie traditionnelle. Mais on peut aussi, sans doute, avec ce procédé, obtenir, à partir du monde réel, de magnifiques décors authentiques pour les films virtuels dont on parlait tout à l'heure !


Radio Classique 65


Les petits paquets de France Télécom

Pascale, vous avez certainement chez vous un Minitel et un poste de télévision. Ces deux instruments domestiques concernent l'un la télécommunication, puisque vous pouvez obtenir des informations à distance, l'autre représente le domaine de l'audiovisuel. L'enjeu des prochaines décennies est le mélange de ces deux objets.

C'est vrai qu'ils ont au moins un écran en commun !

L'un vous permet d'interroger les banques de données via le fil du téléphone, l'autre reçoit des images et des sons acheminés par voie hertzienne, c'est-à-dire sous forme d'ondes électromagnétiques qui se propagent en ligne droite à travers l'espace comme la lumière ou bien encore par un câble dans lequel l'information circule sous la forme d'impulsions électriques ou, s'il s'agit de fibres optiques, sous la forme de trains d'ondes lumineuses.

Mais comment peut-on mélanger ces deux activités ?

C'est l'ordinateur, c'est-à-dire l'informatique, qui fait le lien entre l'audiovisuel et les télécommunications, mais pour que ce lien soit effectif, il faut qu'il s'accompagne de l'existence de réseaux à large bande qui permettent l'intégration de services.

Les services potentiels ne sont-ils pas très différents les uns des autres ?

Ils le sont, mais la parole, les images, les listes de données, et les textes ont en commun la possibilité d'être transformés en tableaux de chiffres, donc d'être exprimables en langage binaire facile à transmettre sous la forme d'impulsions électriques ou optiques à travers un réseau. Tous les supports peuvent donc être numérisés. Ce qui change, c'est la densité des informations à transmettre, surtout si on veut le faire en temps réel.

Qu'est ce qui est le plus difficile ?

Ce sont les images, en particulier les images animées, qui demandent de très gros débits. Les spécialistes souhaitent disposer d'un réseau intégrateur qui puisse manipuler tous les types d'information possibles, depuis la réalisation à distance de gros calculs scientifiques jusqu'à la distribution à domicile de films pour enfants et au téléphone.

Est-ce que cela est possible ?

Depuis plus de dix ans, le Centre National d'Etudes des Télécommunications, qui fête ces jours-ci son Cinquantenaire, étudie une technique de transfert d'informations numérisées qui est une technique temporelle asynchrone, l'ATM, pour "asynchronous transfer mode". Elle s'adapte à des débits quelconques jusqu'à des valeurs très élevées.

En quoi consiste-t-elle ?

Il s'agit d'optimiser l'encombrement physique par les impulsions numériques des voies de communication. Pour cela, les données sont fragmentées en paquets, appelés "cellules", qui chacun contiennent des informations sur leur destination finale et qui sont injectés par flux de paquets dans le réseau. Celui-ci les prend en charge et les achemine vers leur destination par les voies disponibles d'une manière qui est indépendante de la nature de la source d'informations. La cellule de base contient 53 octets, elle constitue l'unité de données qui est manipulée par les systèmes de transmission, de multiplexage et de commutation.

Quelles sont les applications ?

France Telecom propose notamment un système expérimental de communication d'entreprise sous ATM baptisé "Sonate". Il permet de transférer des données à haut débit comme on le fait habituellement dans les réseaux informatiques, mais aussi il assure des services à forte contrainte temps réel comme les communications multimédias combinant sons et images fixes ou animées. C'est un outil qui est très utile pour le travail coopératif entre personnes éloignées, dans l'édition par exemple. Elles peuvent communiquer au moyen d'un terminal multimédia qui exploite, parmi d'autres, les possibilités du visiophone. Pascale, le micro-ordinateur personnel, de plus en plus puissant, associé à des réseaux permettant des débits important d'unités d'information, peut révolutionner le travail et le loisir et aussi conduire à une amélioration de nos méthodes éducatives...
Radio Classique 66


La spatiocarte


Pascale, lorsque l'on voyage dans un pays inconnu, il est souvent utile de se munir d'une carte qui permet d'anticiper ce que l'on va rencontrer sur sa route, carrefours ou montagnes ...

La carte permet aussi de rêver le voyage à l'avance !

En effet, on peut essayer d'imaginer le paysage qui va avec le lacis de traits et de couleurs qui codent la nature des choses sur le terrain, forêts ou autoroutes. La carte est une collection de signes conventionnels qu'il faut apprendre à lire. La carte n'est pas le territoire, elle en est une représentation.

Quel genre d'informations donne alors une carte ?

Elles sont physiques, économiques, culturelles, humaines, administratives. La carte est un outil de travail important Elle permet l'analyse de l'espace pour les travaux publics par exemple, mais aussi, elle transmet des informations, elle permet de découvrir et d'anticiper. Quelquefois, elle est exploitée en direct comme dans le domaine militaire lorsqu'il s'agit de s'appuyer sur les données qu'elle contient pour guider des avions ou des projectiles.

On utilise donc alors la carte d'état major ?

On appelle ainsi la fameuse carte de France au 80000ème établie au siècle dernier, aujourd'hui remplacée par des feuilles au 50000ème ou au 25000ème. Ces documents coûtent cher à établir et demandent plusieurs années de travail. Or, il arrive que l'on soit obligé d'agir d'urgence dans des zones de la planète qui ne sont pas, ou qui sont mal, couvertes par la cartographie alors qu'il faudrait pouvoir se représenter le terrain et disposer de mesures précises.

Que fait-on dans ce cas là ?

On peut aujourd'hui établir ce que l'on appelle une spatiocarte. C'est une carte qui est obtenue à partir d'observations effectuées par des satellites. Ceux-ci appartiennent à deux catégories, d'une part les satellites de navigation qui permettent de positionner avec précision chaque point de la planète par rapport à un système de coordonnées géographiques universelles, et d'autre part, les satellites d'observation qui obtiennent des images de la terre dans les différentes fenêtres du spectre électromagnétique : lumière visible, infrarouge ou domaine micro-ondes du radar.

Mais alors, c'est une photographie ?

Effectivement, la base de la carte est une image, ou une mosaïque d'images, qui est numérisée pour l'impression, mais elle est habillée d'indications du type de celles que l'on trouve sur les cartes normales, courbes de niveau pour restituer le relief, noms de lieux, symbolique conventionnelle, et surtout, grille de repérage numérique géographique dont l'établissement exige souvent de corriger géométriquement l'image brute pour tenir compte des distorsions imposées par les angles de vision des caméras du satellite.

Quels sont les avantages de ce type de carte ?

Elle peut être établie très rapidement et son coût est dix à vingt fois plus faible que celui d'une carte normale. IGN Espace, société créée en 1989 et installée à Ramonville dans la banlieue de Toulouse produit industriellement des spatiocartes à la demande. Elle a préparé 1300 feuillets en 1992. Elle peut en fabriquer aujourd'hui plusieurs par jour. Pendant la crise du Golfe, elle a produit 45 spatiocartes à partir d'images du satellite SPOT et elle est capable, en cas d'urgence, de réaliser 500 exemplaires d'une carte en une dizaine de jours.

Quelles sont les principales difficultés ?

C'est d'obtenir de bonnes images satellites de la zone à cartographier. Il faut programmer le satellite et attendre quelquefois longtemps des conditions météorologiques favorables. Mais aujourd'hui, on peut envisager de coupler les données obtenues par différents capteurs, ceux qui voient à travers les nuages et ceux qui ont besoin d'un ciel clair pour rapporter une observation, et l'informatique peut encore accélérer les délais de fabrication. Pascale, bientôt peut-être, vous partirez en vacances en spatiocarte avec une vision réelle et récente du terrain, comme si vous y étiez déjà !


Radio Classique 67


Le SANDRE


Pascale, vous savez que les questions d'environnement préoccupent de plus en plus à la fois les citoyens et les autorités publiques. Dans ce domaine, le qualitatif, ou l'impression globale, ne suffisent pas ; il faut, pour avoir des certitudes, disposer de données quantitatives.

Et on les obtient, je suppose, par des analyses précises ?

En effet, en ce qui concerne les deux matières premières de base de l'environnement, celles auxquelles nous sommes le plus sensibles, c'est-à-dire, l'air et l'eau, la mesure de la qualité repose sur une surveillance constante. On détermine les concentrations des agents chimiques ou biologiques potentiellement polluants, on fait des mesures physiques comme celle des températures et des mesures hydrodynamiques pour connaître la force des courants. Cela exige beaucoup de méthode parce que les étendues géographiques à couvrir peuvent être grandes et les phénomènes rapides ou transitoires.

Les pouvoirs publics doivent savoir comment traiter ces questions.

En effet, il y a longtemps que des organismes se préoccupent de relever des données utiles à l'analyse de l'évolution de l'environnement. Il y a beaucoup de situations diverses qui font l'objet d'un suivi dûment répertorié dans des banques de données. Au plan national, dans le cas de l'eau, on en trouve par exemple pour les eaux de pluie, pour les débits des rivières, pour la qualité des eaux souterraines, pour les eaux du littoral, et pour le milieu vivant. Mais il y a aussi des banques de données locales, celles des Agences de l'Eau, et des informations collectées par les administrations les plus diverses de la Région à la Commune, voire par des Associations.

On peut donc obtenir facilement des informations ?

Les informations sont très riches, mais elles sont aussi très diverses et se présentent sous des formes différentes voire disparates. Chacun a arrangé son affaire à sa convenance. La question est d'être capable de saisir toutes ces données chiffrées d'une manière globale, unitaire, de façon à pouvoir disposer d'un véritable outil de politique générale pour répondre à la forte demande de la population et des associations.

Comment peut-on faire pour fédérer tout cela ?

L'idée est de créer un langage commun, une norme indispensable aux échanges de données, pour toutes les personnes qui jouent un rôle dans le monde de l'eau. C'est indispensable car de très nombreuses mesures sont faites en France et leur coût global atteint un milliard de francs. Il faut donc gérer au mieux ce patrimoine.

Qui a pris cette initiative ?

L'Office International de l'Eau, domicilié à Limoges, abrite le SANDRE, "Secrétariat d'Administration National des Données Relatives à l'Eau", créé à l'initiative du Ministère de l'Environnement, des six Agences de l'Eau, du Conseil Supérieur de la Pêche et de l'Institut Français de l'Environnement. Le sigle coïncide avec le nom d'un superbe poisson des rivières d'Europe, ce qui donne une coloration poétique à cet effort de normalisation de nos données nationales.

En quoi consiste-t-il ?

Il s'agit de proposer sous un format unique, le format SANDRE, les données relatives aux eaux superficielles, aux eaux potables, aux rejets industriels, aux eaux de baignade, aux problèmes de dépollution, etc... avec des nomenclatures, des normes et des référentiels géographiques, cartographiques, hydrographiques, et hydrogéologiques, communs. Toutes ces informations sont stockées dans une base consultable à distance.

Et qui peut utiliser ces informations ?

Les Agences de l'Eau, les Laboratoires, les services de l'Etat, les Banques thématiques, les observatoires régionaux. SANDRE définit les codes qui facilitent l'action des opérateurs dans le monde de l'eau. Pascale, dans notre société inquiète, où les décisions dépendent de la maîtrise d'un flux d'informations diverses, des outils comme SANDRE sont nécessaires pour saisir la complexité, et l'environnement est un bel exemple de système complexe !
Radio Classique 68


Des plantes à l'attaque !


Pascale, que croyez vous qu'il puisse arriver si, dans un moment de distraction ou dans un état avancé de manque, un maniaque en arrive à mordre vigoureusement dans les feuilles d'un plant de tabac sur pied ?

.....

Il parait que les plantes agressées une première fois par un lapin ou par une chenille en conservent le souvenir et qu'elles se préparent dans leur fort intérieur chimique de façon à être capables de réagir vite la prochaine fois. Elles cultivent donc la rancune...

Par quel mécanisme une plante peut-elle se défendre ?

Beaucoup produisent des substances capables de tuer ou d'incommoder leur agresseur. Ces produits chimiques sont principalement des phénols, des terpènes, et des alcaloïdes. Mais la production ne démarre qu'en cas d'agression et la synthèse prend un certain temps, si bien que dans l'intervalle, on a le temps de se faire bouffer avant que les armées chimiques de secours arrivent aux feuilles. Les plantes sont parfois altruistes : un arbre attaqué sonne le clairon d'alarme pour ses congénères en émettant de l'éthylène, gaz messager, qui conseille aux autres de commencer à préparer les défenses ....

Et alors, comment une plante peut-elle mobiliser ces défenses plus vite ?

A la première morsure, elle est surprise, mais à la seconde occasion, déjà la réaction est plus rapide. Ces dernières années, le mécanisme a été identifié. Une substance dérivée de l'acide jasmonique est produite au point d'attaque dans les cinq minutes, c'est un messager moléculaire qui va diffuser en quelques heures dans la plante jusqu'aux zones, comme les racines, qui sont capables de déclencher la synthèse du poison anti-agresseur qui va à son tour remonter jusqu'au point d'attaque, mais cela peut prendre une dizaine d'heures. Par exemple dans le cas du tabac, le poison est la nicotine dont la concentration augmente dans les feuilles jusqu'à éventuellement des teneurs considérables, surtout parait-il si l'attaquant est un mammifère !

Mais que déduit-on de la connaissance de ce processus ?

On peut accélérer la mise en défense autonome des plantes en excitant à l'avance les racines avec de l'acide jasmonique. C'est un peu cher, car pour le moment le produit naturel vaut 276 francs le milligramme.

Est ce que c'est meilleur pour l'environnement que l'emploi des insecticides ?

C'est un coup de pouce donné à la nature. Mais le génie génétique a aussi des propositions à faire pour nous débarrasser des insecticides. Les chimistes de Monsanto, une grosse société américaine, proposent de greffer sur le génome des plantes à défendre un gène de champignon responsable des ordres pour le fabrication d'une protéine, une enzyme susceptible d'oxyder le cholestérol, et qui est un puissant insecticide car elle s'attaque aux entrailles des insectes. La chose est essayée sur le tabac justement et du coup, celui-ci tue sur place, et tout de suite, le prédateur.

Cette substance est donc un insecticide naturel, il y en a d'autres ?

Oui, on fabrique déjà des variétés de plantes commerciales, comme le coton, munies d'un gène emprunté à une bactérie et qui commande la synthèse de protéines qui tuent certaines espèces de chenilles et d'insectes. En combinant le gène de la bactérie et celui du champignon, on devrait fabriquer des plantes super-résistantes, ce qui mettra peut-être le messager naturel du malheur, l'acide jasmonique, au chômage !

Avez-vous des nouvelles plus poétiques des champs et des bois ?

Oui ! Dans le même numéro de la revue anglaise New Scientist où j'ai découvert les informations précédentes, on annonce aussi qu'une équipe allemande de l'Université Libre de Berlin vient de démontrer que, mais oui, nos amies les abeilles savent compter ! Il parait que c'est comme ça qu'elles retrouvent leur chemin : en comptant les arbres ou les buissons sur la route comme le Petit Poucet ses cailloux. Le monde animal et végétal, Pascale, nous réserve tous les jours des surprises !
Radio Classique 69


Une colossale source d'énergie

Pascale, vous avez entendu tous ces discours sur l'épuisement des ressources de la planète ? Certains avaient prédit, il y a vingt ans, que nous n'aurions plus de pétrole en l'an 2000. Heureusement, on avait sous-estimé les possibilités de la recherche.

Mais est ce qu'il n'y a pas, quand même, des incertitudes ?

A très long terme, on peut se poser des questions. Mais on ignore ce que sera la technologie dans 500 ans. En attendant, on vient de réaliser qu'il existe sur cette terre une prodigieuse source d'énergie insoupçonnée et pour le moment inutilisée.

Comment une telle chose est-elle possible ?

Pour comprendre, il faut faire un peu de chimie, Pascale, de la chimie qui concerne une molécule bien connue de tous, l'eau. Les molécules d'eau ont la propriété d'être attirées par certaines surfaces, qui sont alors hydrophiles, alors que d'autres n'aiment pas l'eau, et sont donc hydrophobes. On constate cela facilement avec des tissus comme les imperméables. Or, ceci reste vrai au niveau moléculaire, il y a des molécules sur lesquelles l'eau se fixe et d'autres qu'elle évite, qu'elle repousse. Les molécules d'eau peuvent entourer une molécule hydrophobe isolée et former autour d'elle une cage avec une géométrie rigoureuse qui enferme l'intrus dans une forteresse faite des liaisons des molécules d'eau entre elles. On appelle ce type de complexes du nom barbare de clathrate.

Je ne vois pas en quoi ce phénomène peut conduire à une prodigieuse source nouvelle d'énergie !

Et bien, dans la famille des molécules hydrophobes, on trouve les hydrocarbures, comme par exemple le méthane. L'eau est susceptible de former des cages qui enferment une molécule de méthane. La géométrie de ces cages est très harmonieuse. Ce type de clathrate n'est stable qu'à basse température et sous pression.

Comment les a-t-on découverts ?

En 1934, on s'est aperçu que les pipe-lines transportant du gaz pouvaient être bouchés par une espèce de neige sale, susceptible d'exploser en cas de décompression. Les hydrates d'hydrocarbures étaient découverts comme nuisance industrielle. On pensait que cette curiosité chimique était une complication du transport des hydrocarbures gazeux. Mais en 1965, surprise ! On découvre que cette matière hautement instable existe aussi dans l'environnement naturel !

Mais où les trouve-t-on ?

Au fond des océans, sur les marges continentales et dans des régions au nord du cercle arctique. Ils sont stables si la température est inférieure à 20°C et la pression supérieure à 20 bar. Jusqu'à présent, on a trouvé 47 endroits où il existe des dépôts importants. Ils sont deux fois plus abondants sous la mer que sous la terre. Ces hydrates retiendraient 53% des réserves de carbone organique de la planète à comparer avec les 27 % que représentent les combustibles fossiles. L'ensemble du carbone organique est de l'ordre de 19 millions de milliards de tonnes.

Comment peut-on exploiter ces gisements ?

C'est le problème, parce que l'on sait que la matière est instable et peut donner lieu à des explosions. D'ailleurs, on attribue à des phénomènes de ce genre plusieurs accidents littoraux qui se sont traduits par des effondrements côtiers. Mais aujourd'hui, on se préoccupe sérieusement des technologies à utiliser. Il faut inventer des techniques nouvelles. Il est tentant de décomposer l'hydrate simplement en injectant de l'eau chaude et de récupérer le gaz qui se dégage, ou de réduire la pression par un forage, mais tout dépend des conditions locales.

Quels sont les risques ?

On peut craindre des pertes de méthane qui est un gaz à effet de serre susceptible de contribuer au réchauffement de la planète. Bien que les ressources actuelles de gaz naturel soient très abondantes et ne risquent pas d'être épuisées de sitôt, les Japonais, qui sont très soucieux de disposer de sources d'énergie autonomes puisqu'ils sont obligés de tout importer, ont décidé de s'embarquer dans un programme expérimental de cinq ans dont l'un des objectifs est de réaliser effectivement un forage. Pour le moment, obtenir du gaz à partir des immenses dépôts d'hydrates est encore un processus incertain et coûteux, qui exige sans doute des investissements considérables, mais dans un futur plus ou moins éloigné, Pascale, ils seront sûrement une composante économique importante du paysage de l'énergie !

Radio Classique 70 9 Avril 1995


Le grand jeu de la prospective


Vous savez quel intérêt on porte d'ordinaire à l'avenir ! On aimerait bien savoir ce qui va se passer dans le futur proche, et il y a beaucoup de gens qui vont consulter les cartomanciennes et les voyantes pour leurs affaires de coeur ou d'argent...

Allez-vous nous recommander de faire de même pour savoir ce que seront les innovations de demain ?

Non, il y a des sources plus sûres. La revue américaine "Science", l'une des premières revues scientifiques du monde, a demandé à un certain nombre de chercheurs de tout premier plan dans les disciplines les plus diverses de développer leur vision du futur. C'est un exercice auquel se livrent d'ailleurs périodiquement les organismes de recherche, en France, on appelle cela de la prospective. Comme c'est une pratique déjà ancienne, et que l'on ne demande jamais de prédire au delà de dix ans, on peut se rendre compte qu'en moyenne, les prévisions extrapolées à partir de l'état de l'art d'un domaine sont finalement assez justes. Par contre, ce qui est absolument nouveau et qui surgit pour ainsi dire du néant, n'est évidemment pas soupçonné et ces découvertes inattendues sont de grandes sources d'innovation.

Bon, alors qu'est ce que vos savants nous annoncent pour demain ?

Le numéro du 17 Mars de Science présente un grand nombre de contributions. On y trouve des prédictions curieuses. La grande frontière de la recherche contemporaine est bien sûr le séquençage du génome, on espère de grands progrès dans ce domaine, si bien que certains se hasardent à imaginer que de la connaissance de l'ADN d'un embryon, on pourra déduire les propriétés de protéines importantes ainsi que le moment où elles vont s'exprimer pour produire la matière vivante au cours du développement, et en traitant ces prédictions grâce à des superordinateurs, on suppose que l'on pourra prévoir à l'avance, en ajoutant quelques données sur le niveau de vie probable et l'alimentation, la tête et la forme du corps qu'aura ce bébé à l'âge adulte, et même, dit l'expert, on pourra modéliser sa voix, et pourquoi pas, savoir s'il sera doué pour la musique, le tout présenté aux futurs parents sous la forme d'un film couleur...

Mais c'est un horrible cauchemar !

On envisage aussi de cultiver des légumes modifiés génétiquement pour fabriquer des protéines humaines, par exemple celles que l'on trouve dans le plasma sanguin, on ne pourra plus parler de sang de navet... Aussi il paraît envisageable de remplacer des populations d'insectes nuisibles, comme celles qui transmettent la malaria, par d'autres qui sont inoffensives, ce qui est plutôt une perspective intéressante.

Qu'est ce qu'il y a encore dans votre boule de cristal ?

Il y a beaucoup de choses très techniques. Dans le domaine de la communication, j'ai noté la prédiction de la transmission d'un terabit de données, soit 1012 mille milliards par seconde. Comme aujourd'hui, une simple fibre optique peut déjà transporter 17 longueurs d'onde différentes à 20 gigabits par seconde, ce qui fait 340 gigabits au total, il ne reste qu'à multiplier ça par trois. Des fibres optiques dopées à l'erbium, l'une des terres rares, sont utilisées pour amplifier instantanément ces 17 trains d'onde infrarouge, l'optique est plus rapide que les circuits électroniques... Ce genre de progrès permettra la mise en place d'une énorme capacité de transfert d'information.

Cela paraît moins stressant que vos histoires précédentes !

J'en ai encore une ! Vous savez que l'on peut de mieux en mieux mesurer les très faibles champs magnétiques grâce aux supraconducteurs, une invention qui n'avait pas été prédite, elle... Et bien, on envisage de pouvoir lire, par le moyen de la magnétoencéphalographie, l'activité du cerveau en direct et, pourquoi pas, de coupler les signaux ainsi obtenus à un ordinateur pour lui donner directement des instructions ! Nos visionnaires pensent que c'est quand même difficile, et en tout cas n'osent pas prédire le chemin inverse, c'est-à-dire le transfert des instructions d'un programme vers le cerveau... Dites vous bien que le plus intéressant, ce sont ces inventions que personne n'attend et qui, fatalement, vont être faites !
Radio Classique 71 10 Avril 1995


Simuler la route et les vagues


Nous avons souvent évoqué le monde virtuel que manipule la technologie de l'image aujourd'hui, on en parle souvent dans le contexte du spectacle, mais le virtuel peut être aussi quelque chose qui s'incarne dans des objets ou des dispositifs matériels.

Un objet réel intégré dans du virtuel, en somme ?

La technologie contemporaine utilise de plus en plus la simulation en amont de l'expérience réelle. Celle-ci en effet peut demander du temps, comme dans les cas où l'on s'intéresse à l'usure. Souvent, les ingénieurs ont besoin de connaître le comportement probable d'un produit avant même sa fabrication, la carcasse d'un pneu d'automobile par exemple. On optimise le coût de la mise au point en imaginant d'abord les structures sur écran et en calculant les propriétés et le comportement probable, c'est la CAO, la conception assistée par ordinateur.

Et, au delà de l'ordinateur ?

On peut utiliser, si le facteur d'échelle le permet, des modèles réduits, des maquettes. Dans des cas complexes et difficiles à analyser mathématiquement, on peut obtenir des informations par l'observation expérimentale. Par exemple, dans des bassins, on étudie le sillage des bateaux. Avec cette technique, on tire des informations d'un petit modèle réel de l'objet que l'on veut fabriquer. La puissance actuelle du calcul n'a pas tué cette méthode analogique.

Est-ce qu'il existe d'autres techniques ?

Oui, une sorte de combinaison du calcul et de l'essai, non pas sur un modèle, mais directement sur un produit en cours de mise au point. PSA, Renault, et l'INRETS, l'Institut National de Recherche sur les Transports et leur Sécurité, viennent de s'engager à exploiter ensemble un simulateur national baptisé SARA, Simulateur Avancé d'Etudes et de Recherches Automobiles. Sa mission est de tester le comportement des véhicules selon les styles de conduite automobile et les conditions extérieures. Le véhicule est réel, mais c'est la route et le pilotage du conducteur qui sont simulés. Pour étudier les vibrations engendrées par une mauvaise route bourrée de nids de poule, on prévoit une lourde table vibrante sur laquelle le véhicule sera juché à quelques mètres de hauteur et qui sera supportée par un ensemble de vérins dont la fonction est de simuler accélérations, freinages, dérapages, etc...

Comme ces attractions de foire dans lesquelles les spectateurs d'une vidéo automobile ou spatiale de choc sont ballottés dans tous les sens !

C'est en effet un appareil du même style, sauf que l'objet étudié est bourré de capteurs et que le traitement mathématique d'analyse des efforts subis par les matériaux et les pièces du véhicule, comme les pneus, est extrêmement complexe. L'appareil devrait être installé du côté de Palaiseau dans les deux ou trois ans à un coût estimé de 120 millions de francs.

Mais quelles sont les vagues qu'annoncent le titre de votre chronique aujourd'hui ?

Il s'agit d'une technique pour faire des vagues réelles. Vous savez que les piscines à vagues sont très appréciées. Là, on ne simule pas la route, mais les mouvements de la mer. Pour produire quelque chose qui fasse un peu illusion et qui puisse amuser les enfants, il faut une infrastructure mécanique assez lourde qui manipule de l'eau sous pression variable. Or, on vient de trouver quelque chose de beaucoup plus simple.

En quoi cela consiste-t-il ?

Un ingénieur belge, Joël Demarteau, a obtenu le Grand Prix de l'Innovation en Wallonie, pour l'invention d'une sorte de capsule flottante creuse, d'environ 1 mètre 50 de diamètre, équipée à l'intérieur d'un moteur électrique, qui déplace verticalement une masse par une bielle manivelle. Les mouvements de la masse entraînent par réaction une aspiration de l'eau qui monte autour de la boule. En profitant des résonances dans le bassin, on produit ainsi une agitation réglable à volonté : des vagues rapides ou lentes et d'une amplitude qui va de quelques centimètres à 1 mètre 50. Pour cela, il faut de l'informatique, mais le système consomme peu d'énergie, beaucoup moins que les procédés classiques. En plus, on peut décorer la boule esthétiquement et même en faire un élément d'une sculpture cinétique aquatique !

Radio Classique 72 11 Avril 1995


Un nouveau pigment rouge


Vous avez sûrement remarqué ces objets de plastique brillamment colorés qui font partie de notre culture quotidienne. Depuis le milieu du siècle dernier, la chimie a produit en abondance des colorants nouveaux, certains d'ailleurs copiés par la synthèse artificielle sur ceux qui étaient obtenus autrefois à partir de plantes, d'insectes ou de coquillages. Ces colorants servent à teindre les tissus ou à teinter les matériaux, mais quelquefois, pour des produits qui doivent tenir à haute température, en plein soleil, sous la pluie, le froid et la neige, il faut utiliser des matières colorantes plus stables que les molécules qui forment les merveilleux colorants organiques.

En effet, on sait que les couleurs peuvent passer au soleil.

Pour obtenir des couleurs opaques, inaltérables, et qui résistent aux conditions les plus difficiles, on utilise des pigments à base de sulfure de cadmium. Ils offrent des nuances vives, et il est facile de les disperser dans toutes sortes de matières plastiques, comme les polystyrènes et les polyvinyles, ou pour préparer des peintures, ou encore pour les laques au four des carrosseries automobiles. On peut aussi les employer pour colorer le verre ou pour des encres d'imprimerie. Le sulfure de cadmium lui-même est jaune d'or ; en préparant des sulfures mixtes avec d'autres métaux, on obtient d'autres nuances. Par exemple, le sulfoséléniure de cadmium donne un rouge qui peut aller de l'orangé au foncé.

Mais alors, pourquoi a-t-on besoin d'un nouveau pigment ?

Parce que le 1er Janvier 1996, l'utilisation des pigments à base de cadmium pour colorer les plastiques sera interdite par la législation européenne. Le cadmium est en effet un élément dangereux dont la présence sous une forme quelconque est indésirable dans l'environnement. Il fait partie du groupe des métaux lourds dont les traces accumulées sont susceptibles d'entraîner des dérèglements physiologiques, notamment chez l'homme au niveau des fonctions rénales. Sa présence en traces dans les rivières est nuisible pour la faune et la flore et c'est actuellement l'un des éléments les plus surveillés.

Par quoi peut-on le remplacer ?

Les colorants organiques tiennent mal à la chaleur et aux ultraviolets, ils ne conviennent pas bien à des usages extérieurs. Il faut donc trouver une autre substance minérale. Le molybdate de plomb, qui fait l'affaire, est lui-même un sel d'un métal lourd à éviter, le plomb. Alors, les chimistes de Rhône Poulenc proposent un dérivé des terres rares, un ensemble de 17 éléments qui ne semblent pas devoir présenter d'activité biologique dangereuse, leur chimie étant voisine de celle du calcium.

Cela paraît être des substances bien exotiques !

Pas vraiment, leurs minerais sont abondants. Comme elles ont toutes les mêmes propriétés chimiques, elles sont simplement difficiles à séparer, mais Rhône Poulenc est le leader mondial de cet art à l'échelle industrielle. De plus, certaines sont vraiment très abondantes. Le colorant rouge proposé est du sulfure de cérium, un composé de l'une des terres rares, le cérium, la plus répandue. Il s'agit d'un matériau semi conducteur dans lequel les électrons peuvent voyager à travers les liaisons chimiques, comme d'ailleurs dans les colorants organiques, et qui pour cette raison prend des colorations intenses, réglables en teinte en ajustant la composition ou en réalisant des sulfures mixtes avec d'autres terres rares de la famille, car chacune a un sulfure d'une coloration spécifique, jaune, vert, pourpre, orange, ...

Où en est le projet ?

Rhône-Poulenc vient d'obtenir de l'aide de l'Union Européenne, le projet a reçu le label Life qui encourage les recherches liées à l'environnement. La production est étudiée dans l'usine de Roches-de-Roussillon, spécialisée dans les composés du soufre. Les essais montrent que le colorant résiste à 350°C et qu'il a d'excellentes propriétés au niveau des possibilités de dispersion dans un polymère. Il a donc une chance d'atteindre la commercialisation prochainement. Les colorants à base de terres rares sont déjà utilisés dans l'industrie ; par exemple, pour colorer en jaune des céramiques, on emploie un silicate de zirconium qui contient 4 % d'un cousin très proche du cérium, le praséodyme. Nous pouvons donc espérer un monde coloré sans danger, grâce aux terres rares !
Radio Classique 73


Les Insectes et l'Amour


Vous savez que la passion amoureuse est un bien commun de la plupart des espèces vivantes, sinon, elles n'auraient pu se reproduire et évoluer. Pour beaucoup d'insectes, l'amour, ses rites, ses mécanismes sociaux, surtout au niveau des méthodes de séduction, reste encore bien mystérieux. C'est donc un sujet de recherche.

Voilà qui nous éloigne des innovations !

Pas vraiment ! Notre mouche du vinaigre, la célèbre Drosophila melanogaster, objet d'expériences scientifiques plus que d'autres, commence à livrer ses secrets amoureux. Une équipe internationale, qui comprenait un groupe français de l'Université Paris Sud à Orsay, les a étudiées en utilisant une technique qui exploite des gènes "sauteurs", capables de se déplacer le long d'un chromosome ou même de se positionner sur un autre. Moyennant quoi, ils ont modifié le comportement des mâles en altérant le développement d'une zone spécifique de leur cerveau.

Et qu'arrive-t-il ?

Et bien, figurez-vous que ces mâles là, sans perdre pour autant de l'intérêt pour les femelles, se mettent à courtiser d'autres mâles ! En fait, ce sont deux zones du système olfactif dont le fonctionnement est perturbé. On sait que les pulsions amoureuses des insectes dépendent de flux de molécules portées par l'air ambiant. Ces molécules sont des phéromones dont la présence affole l'animal et qu'il perçoit même de très loin, plusieurs kilomètres dans le cas des papillons. La mouche drosophile fait sa cour en faisant vibrer l'une de ses ailes pour moduler une chanson d'amour. Si elle se trompe de partenaire, c'est qu'elle ne peut plus percevoir un phéromone anti-aphrodisiaque que produit normalement le mâle pour éloigner ses copains, ou encore qu'elle succombe à un attracteur mâle, normalement destiné aux femelles, car la manipulation génétique lui a créé une sensibilité à cette molécule.

Votre histoire d'amour est très compliquée !

Cela semble être une belle histoire naturelle avec, éventuellement, des extensions sociales, mais en fait, il y a actuellement un fort courant de recherches dans ces domaines, car il devient urgent de se débarrasser des pesticides qui polluent l'environnement et qui conduisent à l'apparition d'espèces résistantes. Un moyen de limiter et de contrôler les populations de parasites ou de nuisibles est de connaître les mécanismes de leurs amours, la nature chimique des messages d'appel échangés, pour concevoir des pièges ou pour induire des comportements aberrants qui perturbent la reproduction de l'espèce.

A-t-on imaginé d'autres méthodes ?

Oui, dresser l'insecte contre l'insecte, élever des prédateurs spécifiques qui vont faire la besogne d'élimination. C'est le cas chez nous, par exemple l'été avec les guêpes qui détruisent les mouches domestiques. Un laboratoire de Floride élève des guêpes qui sont entraînées à attaquer spécifiquement une chenille parasite du maïs : elles se guident vers leur proie grâce à leur sensibilité à l'odeur d'un composé chimique contenu dans les déjections de la chenille ! D'autres guêpes volent au secours de plantes attaquées par un prédateur, une chenille par exemple, lorsqu'elles perçoivent le signal chimique de détresse émis par la plante. Le coton sauvage est dans ce domaine beaucoup plus efficace que les variétés cultivées, il émet un signal beaucoup plus fort.

On peut donc s'attendre à de nouveaux croisement génétiques.

Sans doute, mais aussi, on peut tenter de rendre les parasites malades, par exemple en les infectant avec des micro-organismes. L'un de ceux-ci, originaire d'Argentine, est essayé contre le vecteur de la fièvre jaune, le fameux moustique Aedes aegypti, la capacité de reproduction des femelles diminuerait de 98 %... Espérons que ces techniques parviendront aussi un jour à venir à bout de la malaria, une maladie qui fait des ravages dans le Tiers Monde, des milliers de morts humaines, en partie parce que, par souci écologique, on a arrêté bien trop tôt l'usage d'insecticides puissants comme le DDT...
Radio Classique 74


La mécanique intelligente


Vous avez certainement déjà vu ces machines compliquées que l'industrie utilise pour fabriquer des objets familiers. Elles transforment par exemple une matière plastique brute en bouteilles. Ces installations fonctionnent souvent à grande vitesse, il faut les contrôler pour prévenir un éventuel incident conduisant à un arrêt des installations.

Je suppose que l'on utilise pour cela un tas d'instruments.

En fait, c'est l'oeil humain qui est le mieux à même de percevoir les signes avant-coureurs d'un fonctionnement défectueux, mais lorsqu'une fabrication est entièrement automatisée, il est souhaitable que la machine sache s'ajuster elle-même à son usure et puisse corriger ses écarts de réglage.

Une machine intelligente, en somme !

Tout à fait, une machine qui analyse son propre comportement et ajuste en conséquence les conditions de sa production. Pour fabriquer un système de contrôle intégré, il faut utiliser des capteurs qui feront des mesures de paramètres caractéristiques : par exemple, la température des pièces, les fluctuations anormales de vitesse ou l'apparition de rugosités sur des surfaces. On a intérêt à utiliser le plus grand nombre de mesures possibles, mais il faut y associer un traitement mathématique d'interprétation pour composer une chaîne d'action qui relie les informations des capteurs, le diagnostic, et la mise en oeuvre des actuateurs qui exécutent les corrections qui s'imposent. Pour cela, on fait appel à des outils comme la logique floue, les réseaux neuronaux ou la théorie du chaos. Dans le futur, les machines de précision seront équipées d'un cerveau, sous la forme d'une puce électronique, pour se contrôler elles-mêmes.

Est-ce qu'il y a aussi des progrès instrumentaux à côté des recherches de type mathématique ?

Oui, et notamment pour tenter de déceler à temps les défauts potentiels dans une structure. Le Centre de recherche des industries de la mécanique à Senlis (le CETIM) utilise depuis longtemps l'émission acoustique pour rechercher d'éventuelles faiblesses en train d'apparaître dans de grandes structures métalliques comme les cuves de centrales nucléaires. Il s'agit d'écouter le bruit que font des fissures ou des dislocations qui se propagent ou se forment. La détection se fait dans le domaine des ultrasons et permet en somme d'écouter "vivre" le métal.

On utilise aussi des ultrasons pour faire de l'échographie ?

Au delà du médical, on peut profiter du pouvoir de pénétration des ultrasons dans la matière. Il est possible d'obtenir des images de l'intérieur d'une structure lorsqu'un changement dans les propriétés de propagation se manifeste, parce que l'onde sonore rencontre une zone de composition ou de structure différente. Une équipe d'Iowa State University à Ames dans l'Iowa a mis au point, grâce à un nouveau transmetteur d'ultrasons, une technique d'évaluation non-destructive qui permet de déceler la présence de fissures de 5 mm de long et de 2 mm de profondeur dans des structures de grande taille comme des réservoirs de gaz sous pression ou des blocs de béton. Ils positionnent un seul système émetteur/récepteur pour tester l'ensemble de la pièce à examiner et ils peuvent travailler avec beaucoup de matériaux différents, métaux, béton, caoutchouc ou composites. On peut aussi utiliser la méthode, baptisée GlobalView, pour le contrôle d'une production en ligne.

Est-ce qu'il y a d'autres progrès en vue pour les industries mécaniques ?

Les industries mécaniques n'échappent pas à la tendance actuelle qui est de fabriquer des objets de plus en plus miniaturisés. Mais le comportement des micromachines mécaniques n'est pas forcément déductible de celui des grosses. Lorsque l'on atteint le domaine des dimensions inter atomiques, on découvre des problèmes inédits, par exemple pour l'analyse des frottements, ce que l'on appelle la tribologie, au niveau de la lubrification des surfaces en mouvement l'une par rapport à l'autre. Un fluide lubrifiant dont l'épaisseur n'est que de quelques diamètres moléculaires peut brusquement se figer et d'autre part, des transferts d'atomes peuvent avoir lieu d'une surface à l'autre ! La mécanique doit affronter là des défis nouveaux !
Radio Classique 75

Les oxydes mixtes


Marion, peut-être que vous vous souvenez de vos cours de chimie et de la classification périodique des éléments ? Vous savez, c'est ce tableau un peu magique qui regroupe selon leurs propriétés chimiques les 92 éléments, de l'hydrogène à l'uranium, qui font notre monde matériel naturel, de la motte de terre au plus lointain caillou intergalactique.

Je crois me souvenir que c'est quand même un peu compliqué !

Parce qu'il y a beaucoup de noms étranges qui sont peu familiers. Mais, quand même, le fer, le calcium, l'oxygène, le chlore, etc, ... sont connus de tous. Si la chimie se fait avec les briques de base que sont les éléments, la majeure partie des usages vient des propriétés de leurs combinaisons selon des rapports arithmétiques simples.

Oui, les formules, c'est la grande difficulté de la chimie !

Les combinaisons binaires ou ternaires d'éléments conduisant à des sels, ou à des molécules, de formules simples, ont en général largement été explorées par la recherche. L'innovation aujourd'hui vient de véritables cocktails où l'on combine un nombre assez élevé d'éléments différents pour composer des architectures chimiques qui ont des propriétés tout à fait inattendues.

Pouvez-vous nous donner des exemples ?

Le plus spectaculaire a fait l'objet d'un Prix Nobel en 1987. C'est la découverte des supraconducteurs à haute température critique. Les meilleurs sont des oxydes mixtes combinant de l'oxygène bien sûr, et trois éléments : le baryum, le cuivre, et l'yttrium.

A quoi servent-ils pratiquement ?

On les utilise comme composants dans des dispositifs électriques, nous en avons déjà parlé. Mais, le rêve des découvreurs, faciliter le transport du courant électrique, est peut-être en train de commencer à se réaliser. Il faut pour cela que la densité du courant puisse être suffisante sans altérer les propriétés, et il faut aussi que le matériau puisse se mettre sous une forme commode comme des bobines de fil. Or, les oxydes mixtes sont des céramiques, pas des métaux malléables. Le développement industriel a longtemps tâtonné. Mais voila que le Laboratoire National de Los Alamos aux Etats-Unis (là où a été mise au point la bombe atomique pendant la guerre....) annonce ces jours-ci la mise au point de rubans flexibles capables de transporter, à la température de l'azote liquide, un million d'ampères par cm2, à comparer avec les 800 ampères que transportent notre fil de cuivre ordinaire.

Comment font-ils ?

Ils utilisent un support métallique malléable qui est un ruban de nickel. Ce ruban est recouvert d'une fine couche de zircone stabilisée, un oxyde mixte de zirconium et d'un peu d'yttrium, une céramique que l'on emploie d'ordinaire pour fabriquer en bijouterie des pierres artificielles qui ont l'éclat du diamant. On la dépose sur le souple ruban de nickel au moyen d'un faisceau d'ions qui vaporise sous vide la matière première brute. Un autre faisceau d'ions est utilisé pour recuire la couche et orienter les cristaux qui la forment. Ensuite, au moyen d'un faisceau laser pulsé, on dépose au dessus une fine couche de l'oxyde mixte supraconducteur. Les cristaux de celui ci s'alignent les uns par rapport aux autres selon le schéma imposé par les cristaux de zircone, cet alignement est essentiel pour assurer une forte densité de courant. Le ruban peut être plié et tordu dans tous les sens sans se fissurer.

Les oxydes mixtes sont-ils employés pour autre chose ?

Beaucoup sont utilisés dans l'industrie électrique, par exemple pour fabriquer les isolants des capacités. L'Université du Colorado vient de décrire une famille d'oxydes mixtes ferroélectriques à base des éléments bismuth, strontium, tantale, et niobium qui peut fournir une base nouvelle pour stocker de l'information dans des mémoires du type de celles qu'utilisent les ordinateurs. On exploite l'état de polarisation électrique du matériau sous forme de film mince d'environ 1000 Angströms d'épaisseur et ces capacités sont capables de supporter sans fatigue un très grand nombre de cycles d'utilisation. Ce type de composants devrait conduire à des outils informatiques qui gardent la mémoire de votre travail même si l'alimentation en courant du système est, intempestivement, coupée.
Radio Classique 76


Coup de Foudre


Je ne sais pas si vous avez peur des éclairs les beaux soirs d'orage ?

......

C'est souvent un grand spectacle son et lumière, et en même temps une orgie d'énergie. Depuis les années 1750, et le bonhomme Benjamin Franklin, on sait que la foudre est un arc électrique.

Comment se forme-t-il ?

Eh bien, des charges électriques négatives dans un nuage commencent à se déplacer vers le sol à une vitesse de l'ordre de 20 à 200 km/sec, elles creusent sur leur passage à travers les molécules d'azote et d'oxygène de l'air un canal ionisé, donc susceptible de conduire le courant électrique. Ce système avance par bonds et se rapproche du sol. L'existence d'un champ électrique intense produit toutes sortes d'effets d'effluves dont les fameux feux Saint Elme qui courent sur la lande pour effrayer encore plus les âmes sensibles. Une zone d'attraction à l'extrémité du canal descendant capture les aspérités qui émergent du sol, cimes d'arbres, rochers, ou paratonnerres et le contact s'établit, l'électricité accumulée s'écoule avec une intensité qui atteint en moyenne 200000 ampères.

Et un coup de foudre peut provoquer bien des dégâts !

Au sens propre comme au sens figuré du langage amoureux, encore que dans ce dernier cas, les conséquences ne sont pas forcément toujours désastreuses. On en reparlera peut-être un jour en abordant la question des phéromones, les molécules dont la présence dans l'air modifient le comportement des êtres vivants ... mais pour ce qui est de l'orage, il y a effectivement des conséquences nuisibles. En particulier les lignes électriques, dont les pylônes font saillie sur le paysage, sont des cibles classiques.

Et il en résulte des coupures de courant !

Que ce soient des baisses de tension ou des coupures franches, elles causent de plus en plus de problèmes, notamment à cause du développement de l'informatique et de l'automatisation dans les entreprises. Pour le réseau français, la foudre est responsable d'environ la moitié des quelques 20000 défauts perturbateurs qui affectent les lignes chaque année. Pour les réduire et protéger les ouvrages, EDF vient de concevoir un logiciel, SIMUFOUDRE, pour modéliser d'une manière raffinée et réaliste les effets de la foudre sur les lignes à haute tension et tester l'efficacité des systèmes de protection.

Quels sont-ils ?

La foudre peut tomber sur les câbles transportant le courant triphasé ou sur un pylône. Dans le premier cas, la surtension est très forte, de l'ordre de 4 millions de volts et il n'y a pas grand chose à faire. C'est la raison pour laquelle on double les lignes à haute tension de câbles de garde dont on espère que, comme un paratonnerre, ils vont encaisser le coup avant le conducteur. La capacité du pylône à écouler les charges dépend de la qualité de la prise de terre et de la pente de la montée en tension du front de l'onde, laquelle peut se chiffrer en dizaines de kiloampères par microsecondes, un phénomène donc très brutal !

Est-ce qu'il y a d'autres moyens ?

L'industrie électrotechnique, des sociétés comme "Phoenix Contact" ou "Rauchent", proposent de nouveaux parafoudres pour les réseaux de transport qui permettent de contrôler l'apparition soudaine de surtensions au moyen d'éclateurs qui déchargent le courant de foudre. Toutefois, ces protections sont bien insuffisantes contre une forme d'agression du type de la foudre, mais bien plus puissante ...

Qu'est ce qui peut être plus puissant que la foudre ?

Une invention humaine : la bombe atomique qui explose à haute altitude. Elle ne tue personne, mais on pense qu'elle provoque l'apparition d'une formidable onde électromagnétique captée par tous les conducteurs métalliques, lesquels véhiculent alors une énorme surtension qui détruit instantanément tout ce qui est électronique à l'échelle d'un continent. Ce phénomène, bien connu des militaires qui le désignent sous le nom d'ITEM, impulsion électromagnétique, oblige à protéger, on dit "durcir", l'électronique stratégique avec des dispositifs beaucoup plus performants que les parafoudres commerciaux. Et ceci d'autant plus qu'à côté du nucléaire, d'emploi quand même improbable, on commence à parler d'armes micro-ondes de forte puissance destinées à semer la pagaille dans la technologie adverse ...
Radio Classique 77


Un micro-ruban adhésif

"O temps, suspend ton bol, ô matière plastique,
D'où viens tu ? Qui es tu ? et Qu'est ce qui explique
Tes rares qualités ? De quoi donc es tu fait ?"

Marion, ce sont là les trois premiers vers du chant du styrène de Raymond Queneau, et le héros de notre histoire du jour étant composé en partie de styrène, je pense qu'il est bon d'évoquer d'abord ce souvenir littéraire.

Si vous commencez par les bons auteurs, je suppose que votre histoire est compliquée !

Pourtant, elle peut être expliquée par analogie avec un produit très courant, ce ruban adhésif transparent appelé "scotch". On sait qu'il permet de relier une surface à une autre, ou encore il sert à protéger quelque chose par recouvrement. Le film mince déposé sur des surfaces pour les protéger est une technique très ancienne, qui a notamment beaucoup d'exemples dans le travail des métaux. Plus généralement, il s'agit d'exploiter les propriétés d'une matière étalée sous une faible épaisseur sur une surface plus ou moins grande.

Et je suppose qu'il faut savoir comment déposer ce film mince.

Pour déposer des films minces, il y a beaucoup de méthodes, certaines font appel à des appareillages complexes, mais l'innovation dont je veux vous entretenir aujourd'hui fait appel à une technique de préparation d'une extrême simplicité. Au début du siècle, les savants américains Irving Langmuir et Katharine Blodgett ont inventé un moyen remarquable pour faire des films minces. En utilisant des molécules qui ont une extrémité hydrophile et l'autre hydrophobe, c'est-à-dire un bout qui aime l'eau et l'autre qui ne la supporte pas, on arrive à "pêcher" depuis la surface de l'eau sur une lame de verre des couches dont l'épaisseur est juste celle de la molécule. En recommençant l'opération plusieurs fois, on construit des architectures moléculaires complexes qui peuvent avoir des propriétés physiques très importantes pour la technologie et qui sont des sources d'innovations, notamment dans le domaine de l'optique.

Allez-vous nous en parler ?

Pas cette fois, je souhaite décrire l'invention récente de chimistes de l'Université d'Illinois à Champaign-Urbana, dirigés par Samuel Stupp. Ils ont réussi à fabriquer à partir d'une molécule à tête et queue différentes des films qui sont robustes et qui sont obtenus beaucoup plus rapidement et plus simplement encore que par la méthode de Langmuir-Blodgett. L'une des extrémités de cette molécule contient des groupes phénols qui se marient bien avec l'eau, et à l'autre bout, il y a une longue chaîne d'hydrocarbures, laquelle déteste l'eau. Mais les deux sont reliés par des blocs d'isoprène et de styrène, deux matières polymérisables.

Et c'est là que Monsieur Queneau intervient !

En effet, "........... notre polystyrène,
Polymère produit du plus simple styrène,
Polymérisation : ce mot, chacun le sait,
Désigne l'obtention d'un complexe élevé,
De poids moléculaire ..........
Les molécules donc s'accrochant et se liant ...."

Vous voyez, la chimie peut être source de poésie ! Dans notre affaire, ce qui est important, c'est que, déposées en solution sur une surface, ces molécules s'orientent elles-mêmes au séchage pour former une couche mince qui, dans tous les cas, a une surface hydrophobe alors que l'autre côté est hydrophile. On rend cette couche robuste en la polymérisant par chauffage. Jusqu'à 150 molécules peuvent s'empiler spontanément, tête à queue donnant une couche d'épaisseur variable, mais dont les deux côtés ont des propriétés différentes.

Quelles sont les applications ?

Ce genre de ruban peut servir à recouvrir l'intérieur d'une artère sanguine artificielle, un côté va adhérer au plastique, l'autre, hydrophile, va permettre un écoulement normal du sang. Une autre application envisagée est la protection des disques durs des ordinateurs. En effet, on pourrait déposer sur le revêtement magnétique du disque un film mince bien accroché dont la surface extérieure fonctionnerait comme un lubrifiant solide, pour éviter les accrocs potentiels dus au frottement de la tête magnétique de lecture à l'arrêt du disque. On peut aussi imaginer de coller des fibres de carbone à une matrice pour réaliser des composites, et même, pourquoi pas, tenter de conférer aux films des propriétés optiques ou électriques.
Radio Classique 78


Les sentiers de l'Internet


Vous avez sûrement entendu parler du réseau Internet qui permet aux chercheurs de communiquer entre eux et aux amateurs d'obtenir des informations de toute nature.

Je crois que c'est en effet la dernière mode d'être connecté !

Le micro-ordinateur combine un grand nombre de fonctions. Il traite des textes et des images, envoie des fax, etc..., et en plus, il permet de pénétrer sur le réseau de communication international, le système Internet. Il comporte 5 millions d'ordinateurs. Le nombre d'utilisateurs est difficile à cerner. 55 millions de personnes auraient la possibilité de participer, mais peut-être que seulement une quinzaine de millions le faisaient réellement fin 1994.

A quoi sert donc ce réseau ?

Au départ, c'était un moyen d'échanger rapidement des informations entre les laboratoires scientifiques. Le noyau du système a été conçu et financé par la National Science Foundation aux Etats-Unis, un peu l'équivalent de notre CNRS. Nos propres laboratoires se sont progressivement raccordés directement à ce système, il y a environ 5 ans. Mais depuis une trentaine de mois, la popularité du réseau explose, il véhicule aujourd'hui une masse d'activités dans lesquelles l'échange d'informations scientifiques est devenu relativement minoritaire. Alors, on y observe la présence de services commerciaux, on peut acheter et vendre, consulter par exemple le catalogue d'un libraire à Londres et passer des commandes. La grande affaire est bien sûr l'échange de courrier électronique, l'envoi de messages à des groupes de discussion, et la réception ou l'expédition de fichiers envoyés à un destinataire précis, ou offerts à qui veut bien les télédécharger à distance sur sa machine.

Pratiquement, comment l'utilise-t-on ?

Si je cherche quelles sont les nouveautés sur le plan de l'innovation technique par exemple, un sujet qui m'intéresse pour cette chronique, je vais me promener sur un forum qui possède une bibliothèque dans laquelle les institutions de recherche et les grands laboratoires, essentiellement américains pour le moment, envoient tous les jours des documents, textes de quelques pages qui sont des communiqués de leurs travaux les plus récents. A partir de ces informations qui viennent directement de la source, il est possible de construire un sujet pour un journal ou une émission de radio.

C'est donc une importante facilité de travail ?

C'est un véritable révolution, parce que vous trouvez ce que vous cherchez, mais aussi, la promenade sur les sentiers de l'Internet et le butinage des textes ou des images qui les ornent, vous font découvrir des choses auxquelles vous n'auriez pas songé ou encore, vous insèrent directement, à un coût très bas, dans un courant mondial de fournitures régulières d'informations sur un sujet qui vous intéresse. Le problème est que c'est un peu difficile au début de s'y retrouver. A cause de la popularité de ces promenades, on trouve de plus en plus de livres qui se proposent d'aider l'amateur débutant. Je vais vous en recommander un, qui est édité par CNRS Editions et rédigé par un collectif de 52 chercheurs et universitaires, tous spécialistes qui ont contribué à l'implantation des réseaux en France. Il s'appelle "l'Internet professionnel" et il est extrêmement utile pour tous ceux qui veulent faire de l'Internet un usage pratique, adapté à leurs besoins professionnels, au niveau individuel ou à celui de l'entreprise.
Radio Classique 79


De nouveaux aerogels


Pascale, savez-vous que la recherche s'intéresse énormément à cette sorte d'état intermédiaire entre le solide et le liquide qu'est le gel, une matière molle et malléable qui s'écoule d'une manière visqueuse, et dont la boue et l'argile peuvent fournir des exemples naturels ?

Qu'est ce que c'est exactement qu'un gel ?

Transparent et souple, il est obtenu en rassemblant par floculation de très fines particules d'une substance, toutes chargées électriquement d'une manière identique, et donc préalablement dispersées dans un solvant sous la forme d'un colloïde.

Et qu'est-ce qu'un aérogel ?

Dans un gel normal, les particules de la substance solide forment une sorte de réseau très lâche dans les trous duquel se trouvent des molécules d'eau. Cela explique l'état intermédiaire entre le liquide et le solide. Pour un aérogel, c'est la même chose, sauf que c'est de l'air qui remplit les trous et alvéoles. C'est comme ces mousses plastiques très légères qui peuvent avoir des volumes énormes et qui se portent pourtant sans difficultés. On a affaire à un solide qui peut même être rigide, mais qui ne pèse guère plus lourd que le volume d'air qu'il occupe ! L'intérêt d'un aérogel, c'est d'être en principe aussi transparent à la lumière.

Sont-ils faciles à fabriquer ?

Jusqu'à présent, pas tellement. Il faut d'abord créer au sein d'un liquide un réseau tridimensionnel de molécules toutes reliées entre elles par des ponts laissant de vastes espaces libres. Le problème est de chasser le solvant de ces trous tout en conservant une certaine rigidité à l'architecture des liaisons. La qualité du séchage est difficile à contrôler, car la fine grille du réseau solide peut s'effondrer sur elle-même. Pour éviter cela, on réalise souvent cette opération dans des conditions de hautes températures et de hautes pressions, dites conditions supercritiques, ce qui ne va pas sans risques techniques et sans dépenses financières.

Est-ce qu'il existe de nouvelles méthodes ?

Les Laboratoires Nationaux Sandia, qui relèvent du Ministère américain de l'Energie, et l'Université du Nouveau Mexique, annoncent la découverte d'un nouveau procédé qui permet d'obtenir des aérogels à la température et à la pression ordinaires. L'astuce est de s'arranger pour que les parois de l'éponge qui constitue le réseau tridimensionnel du solide soient chimiquement incapables d'adhérer les unes aux autres. Ainsi, la substance diminue de volume à mesure que le séchage progresse, mais lorsque celui-ci est terminé, le réseau se détend comme un ressort et les trous se remplissent d'air ! On arrive à fabriquer des céramiques sous cette forme qui contiennent 98,5 % d'air et dont la surface interne est immense.

Quelles sont les applications ?

En raison de leur grande porosité, on peut concevoir des applications en catalyse ou pour fabriquer des capteurs, mais ce sont avant tout de remarquables isolants thermiques : une épaisseur d'1 cm est équivalente à 10 cm de fibres de verre ! La technique de préparation permet de les déposer sous forme de films minces sur un autre matériau. Mais la grande application potentielle est liée à la possibilité d'obtenir une transparence optique d'une qualité suffisante, parce qu'alors on peut envisager de les employer comme isolants invisibles dans les vitrages, mais apparemment, il reste encore du travail à faire pour en arriver là !


Radio Classique 80


Un coup de chiffon qui vaut 5 milliards de dollars


Pascale, vous connaissez sans doute le geste de la ménagère qui essuie un meuble ou qui fait briller une surface métallique d'un frottement appuyé d'une peau de chamois ?

...

On imagine mal que ce geste banal puisse avoir des conséquences au niveau moléculaire. Pourtant, c'est ce que vient de constater une équipe de recherche d'IBM-Almaden à San José Californie, associée à des chercheurs de l'Université d'Etat de Pennsylvanie. Ils ont essayé de comprendre un truc, un "coup de main" bien connu des industriels, mais qui ne reposait apparemment sur aucune logique scientifique.

De quoi s'agit-il ?

Et bien, pour déposer avec succès des cristaux liquides sur un support comme une lame de verre ou de plastique, il est nécessaire de frotter d'abord celle-ci avec un tissu, du genre morceau de velours, sinon on a un résultat désastreux : les cristaux refusent de s'orienter et comme les propriétés optiques exploitées dépendent exclusivement du bon ordre des molécules, rien ne va. Les molécules des cristaux liquides s'alignent en effet sous un champ électrique, alors la réflectivité du dépôt est changée et cette propriété est largement utilisée pour des dispositifs optiques d'affichage comme les écrans plats des montres et des calculettes électroniques. De ce petit coup de chiffon obligatoire, dépend un marché de 5 milliards de dollars !

Quelle est l'explication de ce geste magique ?

Les industriels aimeraient bien se débarrasser de l'obligation du geste technique en question. Car pour les écrans plats, un très grand enjeu commercial aujourd'hui, on pourrait peut-être utiliser des films de cristaux liquides plus minces avec des réponses plus rapides et des contrastes d'images meilleurs. Pour comprendre, les chercheurs ont utilisé la méthode des rayons X rasants qui permet de connaître la structure des couches atomiques à la surface d'un matériau. C'est une technique qui est pratiquée en France, notamment à l'Institut d'Optique à l'Université Paris XI-Orsay.
Quels ont été les résultats ?

Les films minces examinés avaient des épaisseurs de 60 à 2000 angströms. Un angström vaut 10-10 mètres, et c'est une unité de mesure commode qui est de l'ordre de grandeur des distances interatomiques dans les cristaux. Les clichés de diffraction des rayons X ont été pris sur des couches déposées avant et après un simple essuyage du substrat avec un chiffon de velours, une pression très légère. Alors que le désordre des molécules déposées en surface est total avant, après essuyage, ces mêmes molécules sont rangées en ordre de bataille et d'autant plus rigoureusement que le film est plus mince !

Et ce résultat est inattendu ?

Oui, parce que l'on n'imaginait pas qu'une force aussi faible puisse être aussi efficace. Le phénomène a été découvert par le physicien français Charles Mauguin en 1911. L'explication trouvée démontre la très grande différence entre les propriétés d'une surface et celle du matériau brut. Bien qu'à la température ordinaire, on soit très loin des températures où les réseaux moléculaires de ces substrats plastiques présentent une certaine mobilité, il semble bien que des réarrangements rapides et faciles soient possibles pour les toutes premières couches de la surface, mais il reste encore des mystères... Incidemment, IBM, qui a deux laboratoires de recherche aux Etats-Unis, côte est et côte ouest, mais aussi un en Suisse à Zurich, un autre à Haïfa en Israël, et un autre à Tokyo au Japon, va en ouvrir un sixième très bientôt, à Pékin en Chine...
Radio Classique 81


Voir les choses avec des sons


Pascale, vous avez sûrement déjà dans votre carrière jeté des cailloux dans l'eau pour faire des ronds ? Vous avez pu observer la propagation d'une onde dont les crêtes successives sont venues mourir à vos pieds sur la rive. Vous avez, au moment de l'impact de votre caillou, créé un ébranlement mécanique soudain et brutal qui a perturbé la surface plate d'un milieu fluide et continu, l'eau, qui retourne à l'équilibre par oscillations périodiques successives.

...

Les ronds dans l'eau permettent de visualiser les déplacements de matière qui se font lorsqu'un milieu étendu déformable est soumis à une fluctuation soudaine de pression, c'est-à-dire qu'un choc oblige les molécules du fluide à se déplacer les unes par rapport aux autres. Lorsque nous parlons, nous provoquons des ébranlements dans l'air que notre oreille perçoit grâce à son tympan. Les ondes sonores sont des vibrations mécaniques de l'air, elles ne se transmettent donc pas dans le vide, contrairement à la lumière qui est aussi une onde, mais d'une nature différente qui ne demande pas un support matériel pour se propager.

Ce qui fait que nous voyons avec notre oeil et pas avec notre oreille !

Et bien, justement on peut "voir" avec des ondes acoustiques. Celles-ci se réfléchissent normalement sur un milieu condensé, solide ou liquide, mais aussi peuvent le pénétrer légèrement. Elles y diffusent et comme toutes les ondes, elles y subissent des réflexions sur des obstacles ou des changements de vitesse. Si l'on examine la propagation d'une onde depuis une source à travers un matériau en repérant les points d'arrivée avec des microphones, on peut avoir une idée de la structure interne du milieu. Cela se fait couramment pour tenter de connaître l'intérieur de la Terre.

A l'occasion des tremblements de terre, par exemple !

En effet ! A une échelle plus modeste, les ondes acoustiques peuvent être utilisées pour tester des matériaux. On sait construire des microscopes acoustiques qui permettent de "voir" à l'intérieur de matériaux opaques. Si par exemple ceux-ci contiennent des vides ou des défauts, la variation de vitesse du son à leur traversée permet de les mettre en évidence parce que c'est une source de contraste et donc quelque chose qui peut être exploité pour obtenir une image. Celle-ci ne peut être engendrée qu'à partir d'un signal dont les fluctuations se prêtent à une traduction en dégradés de lumière et d'ombre. On peut donc transformer en images les changements de propriété du son à la traversée de la matière, si on sait les repérer.

Il me semble que c'est bien comme cela que procède l'échographie médicale.

En effet, et parce que c'est une technique douce qui perturbe très peu le milieu examiné et qui est souple et facile d'emploi. Outre le médical, l'industrie utilise les techniques d'analyses sonores. En fait, on emploie surtout des ultrasons parce que la résolution est meilleure si la fréquence du signal est plus grande. A 500 mégahertz, un microscope acoustique peut repérer des détails de l'ordre du micron. Le Laboratoire d'analyse des interfaces et de nanophysique, unité associée CNRS et Université de Montpellier, et le Service de contrôle des matériaux irradiés de l'EDF, viennent de réaliser en site radioactif à la centrale de Chinon une expérience de contrôle par microscopie acoustique de matériaux de constitution du coeur de réacteurs nucléaires, notamment des aciers, examinés pour les éventuels défauts créés par le rayonnement, et des pastilles de dioxyde d'uranium dans lesquelles on a mesuré le taux de porosité. Cette technologie peut contribuer à l'indispensable contrôle du vieillissement des centrales nucléaires.
Radio Classique 82


Les fermes d'insectes


Pascale, vous savez que l'humanité a su trés tôt domestiquer les chevaux, les moutons, les bovins et aussi les chiens pour les garder. L'élevage est une trés vieille technologie toujours pratiquée et qui fait d'ailleurs l'objet d'innovations. Mais aujourd'hui je souhaite insister sur de nouvelles espèces d'animaux a élever.

Pour les insectes, nous avons déjà les abeilles

En effet, l'homme a su repérer ce que la Nature pouvait fournir d'agréable pour son alimentation. Mais il ne s'agit pas de fermes d'élevage de sauterelles destinées à être grillées, encore que l'on peut imaginer que cela existe peut-être au Mexique. Ni non plus de ces merveilleuses serres pleines de papillons qui enchantent les visiteurs comme celle que nous avons dans la Cité des Enfants à la Cité des Sciences et de l'Industrie. Non, il s'agit de bataillons d'insectes destinés à protéger nos cultures d'autres insectes, des auxiliaires mobilisés pour faire le travail que font aujourd'hui des produits chimiques qui peuvent être dangereux pour l'environnement.

Et qui donc s'attaquent aux prédateurs des cultures !

Oui, on élève en masse aux Etats Unis des millions de guêpes ou de lépidoptères. Mais le contrôle des populations de nuisibles ne se fait pas toujours sous la forme d'une guerre d'agression. Il y a des méthodes plus subtiles. L'une de celles-ci consiste à élever de grandes quantités de mâles d'une espèce nuisible, mais des mâles stériles ! On les relâche dans la nature au bon moment et au bon endroit et naturellement le renouvellement de la population en prend un coup...

Quelles sont les difficultés de ces élevages ?

Outre les difficultés intrinsèques dues à la fragilité des espèces, il faut tenir compte de la sécurité des personnes qui travaillent dans ces fermes. A cause notamment de la possibilité de réactions allergiques en raison des minuscules particules que sont les écailles, souvent brillamment colorées, des ailes des lépidoptères, ordre d'insectes auquel appartiennent les papillons, mais aussi les mites de nos placards. Ces écailles ont une dimension est de l'ordre de 0,5 microns. Il peut y avoir des milliers de ces particules dans l'air.

Comment les élimine-t-on ?

Un Laboratoire du Service de recherche du Ministère de l'Agriculture des Etats Unis vient d'inventer un système de filtration spécial pour ces écailles qui en élimine environ 95%. Il parait indispensable pour la technologie d'élevage industriel des lépidoptères. Ce même Service vient de passer un accord avec le CNRS français pour étudier en commun la possibilité de modifier génétiquement des populations d'insectes. Le partenaire est un Laboratoire de l'Université de Montpellier qui utilise un virus d'insecte pour transporter de nouveaux gènes alors que les américains manipulent de l'ADN mobile dans les embryons d'insectes. Ce sont des techniques de pointe dans un domaine où l'on ne connaît pas encore de méthodes vraiment efficaces pour implanter des gènes dans des insectes ou des invertébrés en général, à l'exception de cas d'école comme celui de la drosophile.

Dans quel but fait-on ces expériences ?

L'objectif principal est de trouver le moyen d'introduire des gènes nouveaux dans le génome de la femelle d'un moustique qui transporte un protozoaire qui provoque la malaria, de façon à empêcher le développement de ce protozoaire et par conséquent éviter qu'il soit transmis à l'homme par des piqûres. Dans le monde, 300 millions de personnes souffrent de la malaria et 2,7 millions meurent chaque année ...
Radio Classique 83


Des lasers dans l'espace


Pascale, dans la vie, nous avons besoin de communiquer à distance. On utilise pour cela depuis longtemps la simple lettre. Le support matériel de la communication est le papier que l'on fait voyager par la poste de l'émetteur au destinataire. Mais nous aimons bien aussi le téléphone, qui utilise des impulsions électriques qui circulent dans un fil métallique et qui permettent donc une liaison de poste fixe à poste fixe.

Mais il y a maintenant les téléphones portables et mobiles...

Oui, le support matériel est une onde radio qui voyage dans l'espace et peut donc être captée n'importe où, mais dans une zone limitée, on dit une cellule, autour du réémetteur. Ce sont aussi des ondes radio qui sont utilisées pour transmettre des conversations de poste fixe à poste fixe d'un continent à l'autre, mais il y a un relais, un satellite qui placé à 36000 km de haut sur une orbite géostationnaire équatoriale, reçoit l'appel et le rediffuse vers sa destination. En effet, de là haut, le regard embrasse une partie de la Terre. Le satellite est comme la Constellation d'Orion pour Prouhèze et Rodrigue dans le Soulier de Satin, il voit simultanément les téléphones des amants séparés par les immensités océanes et donc son intercession peut les réunir ....

Est-ce qu'il y a du nouveau dans ce domaine ?

Il y a des projets grandioses ! Motorola a imaginé le réseau Iridium, un ensemble de 66 satellites qui couvriront 2849 cellules à la surface de la Terre et qui devrait être opérationnel vers l'an 2000. Ces satellites communiqueront entre eux par faisceaux micro-ondes et se déplaceront rapidement sur des orbites basses et polaires. La France est engagée à travers Alcatel dans un projet similaire, Globalstar, qui comporte un peu moins de satellites, 48 ... Couplés au téléphone mobile, ces réseaux permettront effectivement de joindre n'importe qui n'importe où, mais il y a des difficultés dans la répartition des fréquences radio-électriques dont le spectre disponible commence à être bien occupé.

Espère-t-on venir à bout de ces problèmes ?

Une société californienne de San Diego, ThermoTrex, a proposé une technique de transmission d'informations différente. Le vecteur est cette fois un faisceau laser dans le domaine de l'infrarouge qui transmet des informations d'un grain à un autre d'un chapelet de satellites en orbite. Le système a l'avantage sur les ondes radio d'être très focalisé et donc il est difficile d'intercepter les communications, mais surtout, l'optique peut véhiculer infiniment plus d'unités d'informations que le domaine radio : un milliard de bits par seconde contre seulement 20 millions pour les meilleures liaisons radio satellites. Il s'agit donc de faire à travers l'espace ce que la fibre optique permet au sol en augmentant énormément la capacité des liaisons terrestres poste à poste par la substitution de la circulation du photon à celle de l'électron dans la matière du câble.

Est-ce réalisable ?

Le problème est la transmission entre le sol et les satellites. En effet, les nuages peuvent absorber les faisceaux lasers et l'utilisation d'ondes radio à la place de la liaison infrarouge revient à créer un goulot d'étranglement. Le problème général est de créer des canaux de circulation suffisamment gros et suffisamment bon marché pour écouler partout le trafic prévisible. Le système Internet qui permet d'échanger des textes, des sons et des images, n'occupe aujourd'hui qu'une faible fraction des liaisons disponibles, mais s'il se développe, s'il devient une composante culturelle et économique fondamentale de la planète, alors son usage peut saturer le réseau existant. Il faut donc anticiper, et prévoir les canalisations planétaires qui seront utilisées dans un futur, peut-être proche, Pascale !
Radio Classique 84


Du disque à l'épingle, du CD-Rom au HD-Rom


Pascale, vous savez que l'on réussit à faire tenir toute une encyclopédie qui occupe normalement un fort volume de papier sur un petit disque brillant, le Cd-Rom ("Compact Disc Read Only Memory", c'est-à-dire que l'on peut seulement lire l'information sans pouvoir la modifier).

En effet du son, on est passé au livre et même au livre d'art!

Le volume occupé par un texte ou par des images peut être excessivement réduit parce qu'une multitude de données peuvent être conservées sous une forme binaire, c'est-à-dire après avoir été transformées de telle façon que textes, images ou sons puissent être gravés sur un support matériel sous la forme d'une succession de taches blanches et noires ou de trous et de bosses ou de domaines magnétiques aimantés dans un sens ou dans un autre. Pour restituer textes, images ou sons, il faut naturellement disposer du code de la traduction et des machines qui peuvent lire le support, comme le lecteur laser de CD-rom musicaux aujourd'hui très courant.

Ces supports sont bien commodes, ils contiennent beaucoup de choses.

En effet, mais ils sont aussi fragiles, surtout si l'on envisage de conserver des informations durant un temps très long, quelques milliers d'années par exemple. Le matériau support peut ne pas être stable et se décomposer ou s'oxyder, ou encore l'enregistrement est sensible aux champs magnétiques, ce qui exige des précautions draconiennes pour la conservation. Si bien que les Institutions qui recueillent beaucoup de données, comme les Agences Spatiales, hésitent quelquefois devant les dépenses d'archivage.

Mais alors, que faire ?

Les Laboratoires de Los Alamos viennent de proposer une solution. Il s'agit de graver des informations, sous une forme qui n'est pas obligatoirement binaire, sur la surface d'une sorte d'épingle, petit barreau fait d'un matériau inaltérable comme un acier inoxydable ou de l'iridium. La technique de gravure utilise un micro faisceau d'ions très fin capable d'abraser la surface. L'opération est conduite sous ultravide et la dimension des caractères est de l'ordre d'environ 500 distances atomiques, soit environ 150 nanomètres. On peut, comme pour un CD-Rom, graver des creux mais aussi, pourquoi pas, directement des lettres. Cette technique est une application directe des méthodes de la nanotechnologie.

Peut-on mettre sur ce support beaucoup d'informations ?

Infiniment plus que sur le CD-Rom, déjà 180 fois plus ! On propose d'appeler ce nouveau type de support le HD-Rom pour "High Density Read Only Memory". On pourrait aller jusqu'à 80 millions de milliards de "bits", c'est-à-dire d'unités d'information, par centimètre carré, à comparer avec le milliard par cm2 que pourrait atteindre la densité du stockage sur disque magnétique.

Mais, comment va-t-on pouvoir lire ces gravures ?

C'est naturellement le problème, les inventeurs proposent de lire la surface des petites épingles d'environ deux centimètres et demi de long avec un microscope à force atomique, un instrument qui permet de palper les atomes à la surface d'un matériau, un peu comme les aveugles lisent les caractères Braille, et qui peut être entièrement automatisé. Cet instrument fonctionne dans l'air. L'avantage est que les instructions nécessaires à la lecture peuvent être écrites directement en langage ordinaire. On peut aussi graver des images et des graphiques. Peut-être que les bibliothèques du futur, Pascale, seront des collections de minuscules petits cylindres, le modèle réduit en somme des rouleaux de cuir des temps anciens ...

Radio Classique 85


UNE GROSSE TOILE D'ARAIGNEE QUI COUVRE LE MONDE


Pascale, vous frémissez sûrement à l'idée d'une toile d'araignée géante dont les multiples raccords et connexions emprisonneraient l'ensemble de la planète sous les ramifications de son filet ?

...

La toile en question existe, et ce n'est pas tout à fait une métaphore : elle représente des liens réels, physiques, par modems, câbles téléphoniques et liaisons satellites, entre quelques trois millions d'ordinateurs dispersés dans une centaine de pays, dont 1,2 millions en Europe, des très gros, des petits, ceux des grandes instituions comme ceux des amateurs éclairés, ceux des professeurs comme ceux des fanatiques de banlieue.

En quoi consiste-t-elle ?

On l'appelle le WWW pour World Wide Web. C'est une invention européenne qui a pris naissance au CERN à Genève, un laboratoire à cheval sur la frontière franco-suisse, spécialisé dans la physique des particules pour lequel il dispose d'installation géantes. Pour répondre aux besoins des chercheurs qui souhaitent échanger entre eux des informations, des publications, des images, des masses de chiffres, un réseau international d'échange électronique d'ordinateur à ordinateur via le téléphone a été mis en place depuis une dizaine d'années.

N'est ce pas ce que l'on appelle le réseau Internet ?

Oui, la naissance de ce réseau est expliquée dans un livre récent de Christian Huitema de l'INRIA (Institut National de Recherche en Informatique Appliquée), publié par les Editions Eyrolles et qui s'appelle "Et Dieu créa l'Internet". On y apprend que la clé qui a rendu possible l'échange d'informations d'ordinateur à ordinateur est un logiciel, le protocole TCP-IP, un protocole de contrôle de transmission dont l'emploi a débuté en France en juillet 1988.

Mais alors, et le WEB ?

Pour utiliser les différents outils mis au point par les informaticiens, il fallait quand même être un peu un mordu de l'informatique et connaître un minimum de langage convenu pour dialoguer avec des ordinateurs distants. L'invention du CERN permet au contraire à tout un chacun de naviguer d'un ordinateur à un autre simplement en manipulant le bouton de sa souris.

Comment est-on parvenu à ce miracle ?

Parce que l'on a su domestiquer une technique d'analyse documentaire qui s'appelle l'hypertexte, un système qui permet de lier électroniquement des documents dispersés, et de renvoyer par exemple à partir d'un mot à une source d'information spécifique pour ce mot. C'est un stagiaire du CERN qui a inventé en 1991 un système très simple qui permet de butiner à travers les documents et les bases de données contenus dans des ordinateurs très différents, qui peuvent être visités partout dans le monde grâce au protocole TCP-IP. Cette simplicité et cette robustesse ont déclenché un effet boule de neige, si bien que le système a été universellement adopté et que depuis quelques mois, il devient le support privilégié des échanges Internet.

Avec quelles conséquences ?

Une authentique révolution dans les modes de communication. De multiples institutions, et pas forcément savantes, peuvent maintenant se présenter sur le WEB pour attirer des clients : un journal qui a 90.000 lecteurs par jour sous la forme papier enregistre 95.000 appels par semaine pour son édition électronique. La Maison Blanche et le Congrès ont des serveurs importants qui assurent le contact direct avec les politiciens américains. De plus en plus d'entreprises culturelles et commerciales tentent l'aventure de présenter leurs produits sur le WEB, un système qui s'ouvre au marketing...
Radio Classique 86


Du parachute au coussin d'air


Pascale, il arrive fréquemment que des dispositifs mis au point pour des applications militaires finissent par produire quelque chose d'utilisable par les civils. Un exemple est offert par la mise au point par les Laboratoires nationaux Sandia aux Etats-Unis d'un nouvel airbag conçu d'après la technologie militaire du parachute.

Quels sont les avantages de ce nouveau produit ?

Il occupe plié un volume très petit, il peut tenir dans une poche de poitrine de chemise (je ne vois pas d'ailleurs quelles applications il pourrait avoir comme équipement à ce niveau vestimentaire, sauf peut être comme protection du coeur contre les risques de rapprochement brutaux dus aux coups de foudre amoureux, un phénomène fréquent l'été !). Déployé, il offre naturellement le même volume de protection que les airs bags actuels. L'usage de ce nouveau modèle peu encombrant permet d'envisager la multiplication des points du véhicule où sont installées des protections par coussin d'air gonflable en cas de choc. Par exemple, au niveau des passagers sur les sièges arrières, au niveau des portières latérales, etc...

Est-ce qu'alors la voiture n'est pas encore plus complexe ?

Je crois que la sécurité est un facteur qui mérite que l'on fasse des efforts pour l'améliorer. La question du poids et du volume du véhicule est aussi importante. Le nouveau coussin d'air économise 60% du volume qu'occupe l'ancien dans son compartiment, il pèse aussi 60% de moins. On gagne de l'espace au niveau du tableau de bord, plus besoin de supprimer le vide-poches.

Quel marché cela représente-t-il ?

On parle de 40 millions d'unités pour équiper les véhicules automobile produits par les constructeurs américains et européens, en partie à cause des règlements imposés par les pouvoirs publics. Aux Etats-Unis, les air-bags pour le conducteur et le passager avant seront obligatoires à partir de 1997. Si, au lieu d'être un accessoire en option, le système est installé en série en plusieurs points du véhicule, les techniques parachutistes passeront d'une étroite spécialité militaire à la satisfaction d'un besoin grand public.

Qu'ont-elles apporté ?

L'analyse par ordinateur de la répartition des forces sur les parachutes déployés à grande vitesse a permis de déterminer la forme la plus convenable à donner au découpage du tissu qui compose le coussin d'air pour lui permettre de résister aux efforts en cas d'accident automobile. Un point critique notamment est la solidité des coutures équatoriales du dispositif gonflable. Il faut déterminer soigneusement les caractéristiques physico-chimiques et mécaniques des matériaux textiles industriels employés. Donc, Pascale, nous allons bientôt disposer d'un parachute dans nos voitures et je ne doute guère que, dans un futur plus ou moins proche, les transferts de technologie d'une branche industrielle à une autre, du volant vers le rampant, vont nous permettre de disposer aussi de ... sièges éjectables... !!!
Radio Classique 87


La tartine beurrée


Pascale, vous avez sûrement remarqué que lorsqu'une tartine beurrée tombe de la table du petit déjeuner, c'est le côté beurré qui se trouve au contact du sol après la chute...

....

Cette loi expérimentale est connue en France sous le nom de "Loi de l'ennui maximum" (c'est un euphémisme pour une expression plus forte...) et dans les milieux anglo-saxons sous le nom plus savant, et plus neutre, de "Loi de Murphy". Les esprits logiques avancent que les chances pour que la tartine tombe à l'envers doivent être d'une sur deux, mais que l'on ne retient jamais que les mauvais coups alors que la réalité n'est pas si féroce ...

Cela semble en effet raisonnable ....

Un chercheur du nom de Robert Matthews, qui travaille à l'Université Aston près de Birmingham en Grande Bretagne, vient de publier un article très savant dans une revue de physique européenne sur le problème de la tartine beurrée. Ce travail a d'abord une base expérimentale : si l'on observe comment la tartine beurrée tombe à partir d'une position horizontale sur la table, on s'aperçoit qu'elle chute à cause de l'attraction universelle, régie par la Loi de la pesanteur, mais aussi que son mouvement spontané au cours de la chute est dû au basculement depuis le bord de la table et que c'est un mouvement de rotation lent, si lent que la tartine n'a pas le temps de faire un tour complet sur elle même, ce qui explique que logiquement, elle tombe sur le côté beurré plus souvent que sur l'autre.

Et votre mathématicien a mis tout cela en calcul !

Deux paramètres numériques interviennent : la forme et la dimension de la tartine et la hauteur de la table. Mais ces paramètres sont eux mêmes commandés par ce que nous estimons convenable à notre usage, comme la hauteur des tables, laquelle dépend évidemment de la taille moyenne des hommes. Un physicien de Harvard, William Press, a fait autrefois remarquer que si les hommes étaient beaucoup plus grands qu'ils ne le sont, ils risqueraient, en cas de chute accidentelle, de subir de sérieux dégâts au niveau des liaisons chimiques dans le crâne, en raison de l'importance de l'énergie cinétique engendrée par l'accélération de la pesanteur.

Les hommes ont donc une taille adaptée à la gravité sur cette planète !

En effet, on peut calculer la hauteur à ne pas dépasser, cela donne moins de 3 mètres et donc une hauteur maximum d'environ 1,50 mètres pour la table et alors ... la tartine n'a toujours pas le temps de tourner et elle s'écrase toujours sur le côté beurré...

On ne peut donc pas échapper à la Loi de Murphy !

Et non, d'autant plus que les constantes universelles qui rentrent dans le problème, à savoir l'accélération de la pesanteur, la force des liaisons chimiques, et le rayon moyen des atomes, se sont imposées au moment précis où l'Univers s'est fabriqué, c'est-à-dire dans le processus du Big Bang, et la Loi de Murphy est donc une conséquence fondamentale de la structure de l'Univers .... Mais, Pascale, en ce qui concerne la tartine, Robert Matthews donne quelques conseils pour réagir dans la situation d'urgence où elle commence à valser : le point essentiel est de l'empêcher de tourner sur elle-même, il vaut donc mieux l'envoyer d'un coup sec en vol plané à l'autre bout de la pièce, elle a alors des chances d'atterrir sur le côté pas beurré ! Na !
Radio Classique 88


Nettoyer les nappes phréatiques


Dans notre environnement industriel et agricole, il arrive que des nappes d'eau souterraines soient polluées. Cela est considéré comme une catastrophe irréversible, qui soulève beaucoup d'inquiétudes et impose des mesures de protection allant jusqu'à l'interdiction d'exploiter les sites pollués ou à la mise en oeuvre de coûteux procédés de nettoyage de l'eau par pompage et traitement à la surface. Mais voici qu'il apparaît des méthodes nouvelles.

En quoi consistent-elles ?

Elles sont d'une simplicité désarmante. Il s'agit d'une technologie qui ne comporte pas de pièces mécaniques en mouvement, qui n'a pas besoin d'électricité, ni d'aucune source d'énergie, qui ne demande aucun entretien, et qui peut faire le travail durant des dizaines d'années ...

Cela ressemble à un miracle impossible !

Et pourtant, le procédé est basé sur un phénomène assez simple observé il y a une dizaine d'années dans une Université canadienne par des étudiants préparant un banal diplôme. Ils étudiaient la corrosion de tuyaux en plastique et en métal par des eaux contenant des molécules chlorées, genre trichloroéthylène, une forme très commune de contaminants industriels dangereux dont la dispersion dans l'environnement est aujourd'hui fortement réglementée. Les composés organiques indésirables disparaissaient au contact du métal. Il s'agit d'une réaction chimique très classique : un métal comme le fer au contact d'une solution dégrade les composés chlorés par des réactions d'oxydo-réduction qui libèrent le chlore sous la forme d'ions chlorures inoffensifs.

Et comment passer de là aux nappes phréatiques ?

Sous réserve de la faisabilité en fonction des contraintes hydrologiques locales, il suffit d'enfouir dans le sol un mur poreux contenant du fer métallique, de la limaille par exemple mélangée avec du sable, de telle façon que le flot de la nappe s'écoule à travers ce mur de fer. De l'autre côté, les composés chlorés sont totalement éliminés.

Et, une installation de ce type existe ?

Oui, depuis décembre dernier à Sunnyvale en Californie, sur le site contaminé d'une ancienne usine de semi-conducteurs. Le mur de fer mesure 7 mètres de haut, 14m de long, 1,40m de large, et l'eau le traverse en quatre jours à la vitesse de 30cm par jour. Les recherches sur la chimie des métaux à la valence zéro appliquée à l'environnement se développent très vite, parce que ce type de mur en fer pur ou allié peut détruire d'autres espèces chimiques que les composés chlorés, en particulier les chromates, et immobiliser en son sein et retirer de la circulation des éléments radioactifs comme le technétium qui pollue les sols des installations nucléaires. C'est une affaire sérieuse car on estime aux Etats-Unis que le coût de la décontamination des sites industriels et militaires sensibles avec les technologies actuelles pourrait atteindre la somme faramineuse de 650 milliards de dollars !

La technique est utilisable seulement pour des sites particuliers ?

La grande affaire est évidemment la pollution agricole par les nitrates et les pesticides, D'après les derniers échos des Congrès scientifiques, il semble que les nitrates puissent aussi être dégradés par cette méthode, ainsi que des pesticides. Il y a peut-être quelques espoirs pour certains métaux lourds. Je ne sais pas si le mur peut être efficace avec les composés du plomb, mais je crois que l'on doit regretter deux décisions récentes. La Commission européenne a limité les teneurs en plomb de l'eau potable à 10 microgrammes par litre, c'est bien, mais en même temps, elle a exclu des contrôles l'eau qui circule dans les conduites en plomb des particuliers d'où vient essentiellement la pollution, probablement parce que changer toutes les conduites domestiques en plomb d'Europe reviendrait trop cher... Dans le même esprit économique, l'Australie, qui aime bien ces temps-ci nous faire la leçon sur les questions d'environnement, s'est opposée mordicus en Juin dernier à Paris à un accord au sein de l'OCDE, proposé par l'Europe et les Etats-Unis, pour limiter les teneurs en plomb dans l'essence, les peintures, et les soudures des boites de conserve et boites-boissons. L'Australie est le plus important producteur de plomb du monde et dans ce monde, le plomb est un risque sérieux braqué sur le cerveau de millions de jeunes enfants ...
Radio Classique 89 14 Septembre 1995


Le grand écran


La télévision, qui domine notre culture, n'est, au mieux, que de la taille d'un modeste tableau. En effet la dimension de l'image est limitée par les techniques de fabrication du tube cathodique, un objet lourd en verre et qui doit fonctionner sous vide.

Mais est ce que depuis quelque temps, on ne s'efforce pas de fabriquer des écrans plats ?

En effet, pour cela, on fait appel aux cristaux liquides. Sur un écran on en dispose des milliers qui laissent passer la lumière ou qui la bloquent selon qu'un potentiel électrique est appliqué ou pas. Avec un fonds de lumière blanche et des filtres rouge bleu vert régulièrement répartis on peut recomposer une image en couleurs selon les instructions envoyées à tout un ensemble de microtransistors qui fonctionnent comme des interrupteurs électroniques qui, pour chaque cristal, permettent d'établir ou pas le potentiel. L'épaisseur de ce système est de l'ordre de 4 millimètres.

Alors le problème est résolu !

Pas vraiment, en effet le point faible du système ce sont les interrupteurs. S'ils sont défectueux, cela se voit et le risque est si grand qu'il y a peu de chances d'avoir un écran de grandes dimensions sans défauts. Par contre on peut en faire pour les ordinateurs portables. Le japonais Sony et l'électronicien américain Tektronix ont présenté au mois de juillet un nouveau système basé sur la production d'une décharge électrique dans un micro-tube sous vide contenant un gaz sous basse pression, Cela produit un plasma qui s'accompagne de phénomènes d'ionisation qui fournissent l'équivalent d'une électrode négative collective pour l'ensemble des cristaux d'une ligne horizontale du téléviseur. Une seconde électrode distribue les charges positives aux cristaux qui doivent laisser passer la lumière. Le risque d'avoir des défauts est beaucoup moins grand avec ce système. L'écran est plus épais, environ 20cm, mais il peut atteindre une dimension diagonale de 127 cm.

Voila donc le point le plus avancé de la technologie de l'écran

Et bien non, on essaye de faire mieux ! Thomson a présenté à Berlin au début de ce mois son prototype d'écran plat. Il ne s'agit plus d'employer comme matériaux d'écrans des cristaux liquides mais de conserver les luminophores qui ont fait le succès de la télévision telle que nous l'a connaissons, c'est à dire des couleurs excitées par l'impact d'un faisceau d'électrons. Mais cette fois ce sont des radiations ultraviolettes qui sont utilisées comme source d'excitation. Elles sont produites également par un plasma lorsque des étincelles se produisent localement entre les fils métalliques d'une grille serrée, aux noeuds de laquelle sont disposés les trois luminophores.

Quelles sont les performances ?

Encore modestes. L'écran Thomson a 56 cm de diagonale et offre une image convenable s'il est vu de coté, ce qui n'est pas toujours le cas avec les cristaux liquides. Une bataille industrielle s'engage autour de la technologie plasma. La question est de savoir si elle se prête à la production de masse bon marché. Fujitsu, NEC, Matshushita travaillent la question. D'autres se méfient et souhaitent plutôt développer un curieux système qui fait appel à des micromiroirs en équilibre sur un transistor et qui peuvent ainsi réfléchir ou pas une source de lumière en fonction des fluctuations d'un signal électrique. C'est le choix du finlandais Nokia par exemple. D'autres encore, comme Motorola ou Raytheon, croient que l'on peut perfectionner le tube cathodique en le réduisant à une surface par une technique connue sous le nom d'émission de champ et qui permet de retrouver la bonne vieille méthode d'excitation par un flux d'électrons. Quoi qu'il en soit, celui qui réussira à "tuer" le tube cathodique et à produire à bon marché des sources d'images télévisées de grandes dimensions pour l'usage domestique et couplées aux autoroutes de l'information, induira certainement le début d'une ère de profonds changements dans les relations millénaires de l'homme avec l'image.


Radio Classique 90 21 Septembre 1995


Un super-ordinateur pour la simulation


Emmanuel, vous savez que l'on parle beaucoup ces temps-ci de la nécessité de remplacer les essais nucléaires par la simulation calculée des explosions. Les expériences de Mururoa sont l'objet de beaucoup de critiques et de disputes. Savoir s'il faut posséder des armes atomiques est une question morale, politique et stratégique, mais, sur le plan technique, les problèmes posés par la simulation restent considérables.

De quelle nature sont-ils ?

La qualité et surtout la fiabilité de la simulation dépendent de la puissance des ordinateurs employés. Or dans ce domaine, on est peut-être encore loin du compte. En effet, on a appris ce mois-ci que les américains, dont on ne peut nier le savoir-faire en matière d'armes atomiques, viennent de se donner les moyens d'aborder sérieusement la question de la simulation en décidant de construire le super ordinateur capable d'exécuter les calculs nécessaires. Ils envisagent un programme de développement qui devrait durer une dizaine d'années, temps qui parait nécessaire pour acquérir la maîtrise du calcul de haute performance.

De quel ordinateur s'agit-il ?

D'une machine massivement parallèle capable d'exécuter mille huit cent milliards d'opérations par seconde soit, dans le jargon des professionnels, 1,8 teraflops. Le record de vitesse actuel, établi en Décembre dernier, est de 281 milliards d'opérations par seconde, il a été obtenu en couplant deux puissantes machines massivement parallèles. En effet, en 1988, on a découvert que les temps de calcul nécessaires pour résoudre des problèmes techniques étaient divisés par mille en faisant travailler 1024 processeurs en parallèle.

Qui construit ce super ordinateur et avec quoi ?

Il s'agit d'une collaboration entre le Ministère américain de l'Energie, le DOE, les Laboratoires nationaux Sandia à Alburquerque au Nouveau Mexique, spécialisés dans l'armement nucléaire, et la société Intel de Santa Clara en Californie, le principal producteur mondial de puces électroniques. La machine sera construite avec des milliers de microprocesseurs P6, le successeur du fameux Pentium.

Dans quel délai de temps ?

Elle devrait être prête à fonctionner vers la fin de l'année 1996. Le DOE lance à partir de février 1996 un programme baptisé "Initiative de calcul stratégique accéléré" destiné à prévoir aussi les logiciels nécessaires. Il s'agit d'abord de réaliser des essais nucléaires virtuels, mais aussi de simuler divers types d'accidents qui peuvent arriver à des vecteurs d'armes, et de résoudre les questions posées par le vieillissement du stock de bombes existantes et de leurs composants. Il y a aussi des applications plus civiles, et d'abord les calculs moléculaires de la chimie quantique pour imaginer de nouvelles molécules d'intérêt médical, ainsi que l'étude d'autres systèmes complexes dont l'analyse exige de manipuler d'immenses masses de données. En climatologie et en géologie, par exemple avec l'identification des caractéristiques des gisements souterrains de gaz et de pétrole ou la simulation des conséquences potentielles d'une catastrophe naturelle. Justement, à ce propos, les Laboratoires Sandia ont étudié les conséquences de la rencontre de la Terre avec un astéroïde du type de celle qui s'est produite il y a 65 millions d'années et qui a entraîné la fin des derniers dinosaures et de bien d'autres espèces... Résultat : l'événement peut déclencher à une bonne distance de l'impact l'apparition d'immenses coulées de laves basaltiques brûlantes à la surface de la planète. Ce qui semble bien s'être produit du côté de l'Inde alors que le bolide s'est écrasé au Yucatan ....

Radio Classique 91 . 28 Septembre 1995


Matériaux intelligents


Emmanuel, il y a bien des choses que l'on aimerait moins inertes, par exemple il serait plaisant que les murs nous parlent ...

On imagine mal comment !

Et bien, supposez qu'une grande cheminée, ou un pot d'échappement de voiture, deviennent écarlates si par hasard une combustion mal réglée met l'environnement en danger, c'est une manière d'avertir tout le monde qu'un dispositif est défectueux, donc un mode de communication.

Et cela existe ?

Non, parce que ce ne serait pas nécessaire, il est plus efficace d'utiliser la détection du défaut pour corriger sa cause, par exemple pour modifier les réglages d'un carburateur. Les systèmes intelligents supposent la combinaison des matériaux d'une sonde, sensibles à un paramètre extérieur, et de ceux d'un actuateur, capables de mettre en route une action appropriée, reliés par un réseau qui transporte l'information. Le réflexe de mettre la main devant les yeux pour se protéger d'une lumière vive correspond à la mise en oeuvre d'une chaîne de ce genre.

S'agit-il donc d'imiter la nature ?

On n'en est pas encore à fabriquer des systèmes vivants artificiels, mais il existe déjà des robots mobiles qui ressemblent à des fourmis escaladant des obstacles. Le problème est de trouver des matériaux qui ont des réactions utilisables en présence d'une contrainte extérieure. Par exemple la contrainte thermique lorsque l'on arrive à inventer des tissus qui dégagent de la chaleur lorsque la température s'abaisse et qui en absorbent quand elle monte, une vraie climatisation par le vêtement ! Il est même question d'y déclencher aussi l'émission de molécules déodorantes si la production de sueur du porteur devient trop importante...

Là, je suppose que l'on utilise un nez artificiel !

Ce qui revient à inventer des sondes capables de détecter des molécules spécifiques. De très grand progrès ont été accomplis ces derniers temps par la mise au point à l'Université du Michigan de micro fibres optiques mille fois plus fines qu'un cheveu humain. On peut placer à l'extrémité de ces fibres une minigoutte d'un polymère contenant un indicateur fluorescent spécifique d'une molécule à doser, comme le glucose ou l'oxygène. En utilisant un faisceau laser véhiculé par la fibre on peut doser des substances à des teneurs incroyablement faibles, dans le domaine des zeptomoles soit 10-21 mole, et à l'intérieur d'une cellule biologique sans en perturber le fonctionnement. L'idéal serait d'arriver à détecter une molécule par une autre molécule.

Quels autres types de matériaux peuvent contribuer à des systèmes intelligents ?

Il y en a déjà des classiques comme les alliages à mémoire de formes à base de nickel et de titane et qui sont utilisés pour modéliser les muscles et imiter notamment la préhension de la main humaine. Les céramiques piézoélectriques se contractent et se dilatent très rapidement en fonction d'une tension appliquée. Elles ont déjà beaucoup d'usages. On cherche à les adapter à la lutte contre le bruit pour atténuer les vibrations des structures. D'autres matériaux changent de dimensions en fonction du champ magnétique appliqué et il y a des liquides dont la viscosité évolue considérablement avec le champ électrique ou magnétique. Les matériaux intelligents sont déjà une réalité et leur mise en oeuvre est en train de faire naître un art de l'ingénieur nouveau.


Radio Classique 92 5 Octobre 1995


Innovations pour le dentiste


Emmanuel, vous savez qu'il n'est pas toujours bien agréable de s'asseoir sur le fauteuil du dentiste ! Mais pendant qu'il opère, vous pouvez vous rendre compte que cette profession utilise des outils mécaniques assez sophistiqués, et souvent miniaturisés, sans compter l'ergonomie du siège.

Tout le domaine médical semble profiter des progrès de la technique.

En effet, et aujourd'hui, les capacités considérables des ordinateurs pour traiter images et données permettent d'inventer de nouvelles fonctions et de nouveaux outils dans la relation entre le patient et le praticien. La station de travail informatique sera bientôt intégrée au fauteuil du dentiste.

L'ordinateur est déjà utilisé pour la gestion des rendez-vous, des factures, et de la sécurité sociale, il me semble ?

Beaucoup de dentistes sont déjà habitués à manipuler l'ordinateur pour des tâches disons administratives, mais il s'agit maintenant de développer une assistance directe aux soins. Il est très facile de stocker dans la mémoire de l'ordinateur des cartes représentant l'état de la dentition du patient et aussi des images réelles. Chaque intervention peut être répertoriée, les images montrent l'état de la mâchoire avant et après l'intervention. La possibilité de numériser ces images permet en outre de les traiter et de montrer par exemple à quoi va ressembler une prothèse et quel genre de sourire on aura avec des dents neuves !.

Un bon argument de vente pour inciter le patient à s'engager dans les soins !

Il peut également voir en direct ce que fait son médecin : grâce à une camera vidéo miniature glissée dans sa bouche, il lui est possible de suivre sur un moniteur le travail effectué. Il peut donc apprécier dans l'instant la nature du problème, comprendre mieux les explications du praticien, et éventuellement, l'étendue des dégâts ! Le dentiste quant à lui pourra bientôt commander sa machinerie à la voix sans avoir besoin de manipuler des boutons grâce aux systèmes de commande vocale et de reconnaissance de la parole.

Ce qui passe encore par l'ordinateur. Mais, existe-t-il des techniques nouvelles non exclusivement informatiques ?

Les méthodes de traitement mécanique sont en train d'évoluer. La roulette, ses vibrations et son bruit alarmant pourront être remplacés, pour certains soins, par des techniques qui font appel à des jets d'air garnis de particules abrasives comme l'alumine, C'est un moyen de décapage et d'élimination de matière très doux et indolore. Pour les radios, à la méthode traditionnelle qui récupère l'image sur un film photographique qu'il faut développer en chambre noire, va se substituer l'emploi de détecteurs très sensibles aux Rayons X qui pourront être placés en bouche et qui fourniront directement sur un écran une image digitale.

Et du côté des techniques opératoires ?

On peut utiliser le laser pour travailler sur des tissus mous au niveau des nerfs et des vaisseaux sanguins. On emploie la même fibre optique que pour les télécommunications, mais il y a un problème. Si la pointe de la fibre touche la chair, elle se détériore à cause d'un effet de choc thermique et s'échauffe. C'est d'ailleurs dans ces conditions que l'on peut utiliser une fibre comme bistouri. Mais la lumière laser ne peut plus photocoaguler le sang, c'est-à-dire arrêter le saignement. Toutefois, on fabrique désormais des fibres optiques à partir d'un verre Corning dont l'expansion thermique est nulle. Leur pointe n'éclate pas si un contact accidentel s'établit. En conséquence, l'emploi du laser en chirurgie va pouvoir se développer.
Radio Classique 93 12 Octobre 1995


Un multiplexeur


Emmanuel, vous savez que les grandes entreprises sont souvent géographiquement dispersées, divisées entre un siège central et des sites répartis sur tout le territoire ou même à l'autre bout du monde, à l'étranger, à travers les différents continents. Pour l'efficacité du travail, il est évidemment nécessaire que des communications soient assurées entre le noyau central et les établissements distants. En plus, ceux-ci peuvent souhaiter communiquer entre eux.

Je crois qu'il y a maintenant beaucoup de moyens d'assurer ces communications.

On dispose effectivement du téléphone pour les conversations, du fax pour l'écrit, et pour les fichiers de données, on peut utiliser le courrier électronique, c'est-à-dire l'échange d'informations entre ordinateurs. Mais tous ces moyens là, en définitive, utilisent physiquement le même support matériel, c'est-à-dire de multiples liens téléphoniques.

Et s'il y a beaucoup d'acteurs à relier, la facture peut être considérable !

En effet. Une solution économique est proposée par une entreprise française, la SAT, société du groupe SAGEM, c'est le recours au multiplexage. La famille des multiplexeurs Telsat 8000 permet de mélanger sur une même ligne les différents flux d'informations quelle que soit leur nature. Les conversations correspondent à des échanges de sons et au niveau d'une entreprise sont traités par un standard téléphonique, ce que dans le jargon technique on appelle un PABX. La voix est transformée en signaux électriques analogiques qui voyagent dans le fil. Les données chiffrées sont transférées d'un ordinateur à un autre grâce à d'autres types d'interface et de commutateurs qui utilisent des protocoles de transmission et des logiciels qui s'appuient sur le langage numérique binaire. La voix peut également être digitalisée, c'est-à-dire traduite en chiffres, ce qui permet de la traiter, par exemple de supprimer les silences. Le multiplexeur assure le routage sur une même ligne de toutes ces informations, quelle que soit leur nature, téléphoniques ou informatiques.

C'est-à-dire rassemble dans une même utilisation des services qui, dans les entreprises, relèvent en général de directions différentes !

Oui, mais la direction financière appréciera l'économie, car il suffit de louer une seule ligne à forfait à France Telecom. Tout passe par cette ligne et il n'est plus nécessaire de payer les communications téléphoniques entre les sites sur le réseau public. Mieux, si l'on veut joindre un numéro extérieur lointain, on peut faire partir l'appel du site du réseau le plus proche et donc limiter la dépense.

Quels éléments nouveaux apporte ce Telsat 8000 ?

Jusqu'à présent, les multiplexeurs voix-données ne permettaient raisonnablement de relier à un centre qu'une dizaine de sites. Grâce à une fonction de commutation intégrée dans le multiplexeur, on réalise une importante économie, de l'ordre de 30%, dans le coût d'investissement des équipements. Notamment, on réduit considérablement le nombre de lignes téléphoniques louées nécessaires pour relier les sites. En conséquence, il devient possible d'échanger des informations entre un nombre de sites beaucoup plus élevé qui peut désormais atteindre la centaine. Au salon de Genève une démonstration vient d'être faite de l'utilisation du multiplexeur Telsat 8000 pour une visio-conférence. C'est donc, par la téléphonie privée, une amélioration considérable des moyens techniques de communication au sein de l'entreprise.
Radio Classique 94 19 Octobre 1995


Le CEA a cinquante ans !


Depuis hier, 18 Octobre, le CEA, le Commissariat à l'Energie Atomique, a 50 ans. Créé dans l'immédiat après-guerre dans l'émotion de la mise en oeuvre stratégique de la fission nucléaire, il est devenu avec le temps une puissance industrielle bien connue pour ses innovations. Une exposition à la Cité des Sciences et de l'Industrie est ouverte depuis le jeudi 19 octobre et présente d'une manière didactique les activités du CEA.

Je crois qu'elles reposent sur des connaissances scientifiques complexes.

Parce qu'il met en oeuvre des technologies de pointe, le CEA doit en effet s'appuyer sur des connaissances fondamentales. Plusieurs de ses laboratoires y sont exclusivement consacrés. Mais aussi, pour que les travaux entrepris soient compris du public, il faut tenter d'expliquer un certain nombre de notions de base qui sont souvent faussées par des croyances d'origine variées. C'est l'un des objectifs de l'exposition de fournir des clés de lecture.

Pouvez-vous donner un exemple ?

La radioactivité est un phénomène naturel qui est mal compris. On croit que c'est l'action un peu diabolique de l'homme qui la produit. Mais en fait, cette désintégration du noyau de certains atomes est courante. Le potassium, un élément très répandu, a un isotope radioactif. Naturellement, ce sont les atomes les plus lourds qui sont les plus instables et qui ont plus de chances de se casser spontanément, l'uranium par exemple. L'exposition donne une explication précise de ce qu'est la radioactivité, présente les divers types de rayonnements et la manière de s'en protéger.

Cela conduit aussi à fabriquer des armes !

La mise en oeuvre de la fission nucléaire pour produire une chaîne explosive a été l'objectif qui a conduit à la fabrication des bombes d'Hiroshima et de Nagasaki. On doit certainement regretter cette apocalypse. Depuis, on a appris à domestiquer la fission et on exploite la chaleur qu'elle dégage pour faire bouillir de l'eau et fabriquer de la vapeur sous pression pour faire tourner des générateurs d'électricité dans ce que l'on appelle une centrale nucléaire. On sait aussi obtenir encore plus d'énergie en fusionnant des noyaux, mais là, on n'a pas encore atteint le stade civil pratique...

Est-ce un objectif lointain ?

On y travaille beaucoup avec diverses méthodes mettant en jeu de puissants lasers ou des champs magnétiques, mais il y a encore beaucoup de chemin à faire parce que cela revient à mettre un tout petit morceau de soleil en bouteille ... D'ailleurs, les laboratoires d'astrophysique du CEA sont bien connus pour leurs excellents travaux dans le domaine de la physique stellaire puisque, finalement, ces charmants points lumineux sur nos têtes dans le beau ciel nocturne sont généralement de furieux réacteurs nucléaires ...

Mais le CEA a sans doute des objectifs plus immédiats ?

Le CEA travaille beaucoup sur les matériaux de pointe et son activité concerne de nombreux domaines, en particulier les technologies de l'information électronique grand public et de la micro informatique, notamment à travers le Laboratoire LETI à Grenoble. Les recherches portent sur la maniabilité des systèmes, leur autonomie, le développement d'interconnexions puissantes, la mise au point de relations conviviales avec les utilisateurs, l'intégration fonctionnelle, et le développement de dispositifs intelligents. Le travail sur l'instrumentation est très important et par exemple, dans le domaine médical, une association entre le CEA et General Electric Medical System Europe a permis de mettre au point un prototype de morphomètre permettant d'obtenir des clichés du corps humain en trois dimensions. On sait aussi que la radiothérapie, grâce aux fameux "rayons", sauve bien des vies chaque année...
Radio Classique 95 26 Octobre 1995


L'université virtuelle


Emmanuel, ma première intention aujourd'hui était de vous parler d'une innovation complexe dont j'ai trouvé la description dans un article de prospective de la revue américaine Science. Il expose une solution technique potentielle pour transformer des données transmises sous forme digitale en images. La puce de silicium, qui manipule des électrons, est encore là pour longtemps parce qu'elle fonctionne très bien. Pour l'associer à des images, on envisage d'utiliser des matériaux électro-optiques.

De quoi s'agit-il ?

On pense à des molécules organiques, déposées sous forme de films minces sur des composants électroniques, qui puissent produire des photons optiques pour afficher des informations. C'est ce que font déjà les cristaux liquides. Il faut que les molécules utilisées aient, lorsqu'elles sont convenablement ordonnées sur le support, des propriétés électriques intéressantes, comme la polarisation ferroélectrique, ou des propriétés optiques susceptibles d'être modulées par un champ électrique. Actuellement, on sait déjà convertir directement des données électroniques en informations optiques à la vitesse de 0,5 gigabits par seconde et on peut espérer atteindre 10 gigabits/seconde. De telles performances seront indispensables pour l'échange d'informations à grande vitesse sur les réseaux et ce sont des innovations de ce genre qui peuvent faire changer la nature des Universités ...

Par quel mécanisme ?

L'article qui précède celui dont je viens de parler soutient la thèse selon laquelle les innovations actuelles dans l'électronique annoncent le crépuscule des Universités. S'agissant des Etats-Unis, où elles sont anciennes, respectées, et où elles forment la colonne vertébrale du savoir et assurent la formation des élites, l'affirmation parait paradoxale ! L'auteur, Eli Noam, fait remarquer que depuis des millénaires, les jeunes gens qui veulent apprendre se rendent physiquement dans des lieux où le savoir est conservé dans des bibliothèques et où des maîtres prestigieux enseignent et assurent la transmission des connaissances. C'était vrai pour la Bibliothèque d'Alexandrie et c'est vrai pour Harvard.

Pourquoi cela devrait-il changer ?

D'abord, parce que le flux de production des connaissances devient incontrôlable ! La vitesse d'accroissement est exponentielle, elle croît de 4 à 8% par an. Le volume d'informations double en 10 ans. Un million d'articles de chimie ont été publiés de 1907 à 1937, mais il ne faut aujourd'hui que deux ans pour en publier autant ! Les bibliothèques ne peuvent plus absorber cette masse qui doit être condensée sur support numérique. Les Professeurs se réfugient dans des spécialités de recherche de plus en plus étroites où l'information peut encore être maîtrisée, essentiellement par l'échange de courrier électronique et l'interrogation à distance de banques de données.. Ils s'isolent de plus en plus les uns des autres, leurs vrais collègues sont dispersés sur toute la terre ... La communauté savante éclate ...

Mais, dans les Universités, on enseigne !

L'écart se creuse entre un enseignement de base généraliste et une recherche de plus en plus pointue, les mêmes personnes ne peuvent assurer les deux, d'où des difficultés pédagogiques qui font que, déjà, certains aux Etats-Unis recourent, pour assurer la formation des étudiants, aux serveurs vidéo électroniques interactifs et hypertextuels, aux collections de cassettes vidéo de conférenciers virtuels et talentueux, ou à la télévision câblée spécialisée. Si bien que finalement, les étudiants n'ont plus besoin d'être physiquement sur le campus ... Nous n'avons pas encore en France, pour désengorger nos premiers cycles, d'entreprises commerciales, d'enseignement universitaire délivrant des diplômes par examens électroniques à distance. Mais, méfions nous, le mortel couple infernal enseignement / recherche, lui, est bien là... Radio Classique 96 2 novembre 1995


Une résonance magnétique nucléaire brûlante

Emmanuel, on propose quelquefois aux élèves des classes de philosophie de disserter sur le rôle respectif de la science et de la technique, le plus souvent pour souligner la dépendance dans laquelle se trouverait la technique par rapport à la science. Elle serait comme la fille dégradée, impure, et intéressée, de recherches savantes conduites dans l'abnégation ...

Vous allez certainement me dire que tout cela est un cliché...

En effet. Depuis 20 ans, l'instrumentation scientifique s'est énormément développée essentiellement par les progrès de l'électronique, la maîtrise des techniques du vide, et l'informatisation qui permet d'obtenir, souvent "en direct", calculs et images. L'instrument est un outil indispensable au savant. C'est l'observation et la mesure au moyen de machines techniques sophistiquées qui apportent les idées nouvelles et rendent les découvertes possibles. On ne fait plus de science aujourd'hui seulement avec un crayon et du papier...

Il y a donc constamment des innovations dans l'instrumentation.

L'instrumentation utilise très souvent des sources de rayonnements électromagnétiques, ou des flux de particules, pour produire des interactions avec la matière, qui donnent des effets qui peuvent être détectés et qui apportent des informations sur la nature chimique, l'état physique, ou les événements qui se déroulent dans l'échantillon examiné. Si un phénomène se prête à des mesures de fréquence dans le domaine des ondes radio, pour lequel les techniques sont très développées, on dispose d'un outil extraordinairement sensible et précis.

Quel type de mesures peut-on faire ?

La résonance magnétique nucléaire utilise la très petite différence d'énergie, qui se situe justement dans le domaine d'énergie associé aux ondes radio, qui apparaît entre deux états du noyau de certains atomes lorsqu'ils sont placés sous un fort champ magnétique. Le noyau de l'hydrogène est dans ce cas et on fait ainsi des mesures de contraste capables de produire des images en établissant la carte de la résonance des hydrogènes de l'eau (H2O, n'est-ce-pas ...) dans la géographie du corps humain. Cette technique est utilisée en médecine pour faciliter le diagnostic. Les chimistes l'emploient pour faire des mesures très précises qui leur permettent de déterminer la conformation des molécules, c'est-à-dire l'arrangement dans l'espace des atomes qui les composent.

Et il y a des innovations dans ce domaine ?

Le Centre de Recherches sur la Physique des Hautes Températures du CNRS à Orléans vient d'inaugurer un équipement de résonance magnétique nucléaire original, unique au monde, acquis avec l'aide de la région Centre, et qui permet d'étudier des atomes de silicium, d'aluminium, d'oxygène, de plomb, etc ... dans des liquides fondus à des températures supérieures à 2000°C. Ces atomes se rencontrent dans beaucoup de matériaux réfractaires utilisés par l'industrie, dans des ciments, dans des verres, ou dans des bains fondus qui vont permettre de fabriquer des cristaux pour des applications de haute technologie comme les lasers solides ou des métaux comme l'aluminium. Ces milieux extrêmes sont encore mal connus en raison des difficultés rencontrées pour faire des mesures aux températures élevées. Pourtant, de cette recherche fondamentale dépend la qualité de plusieurs procédés industriels.

Comment les difficultés ont-elles été surmontées ?

L'échantillon à étudier est maintenu en lévitation aérodynamique sur un jet de gaz et il est fondu en absorbant le rayonnement fourni par deux lasers infrarouges. Des aimants construits avec des matériaux supraconducteurs permettent d'obtenir un champ magnétique allant jusqu'à 18,8 teslas. L'un des spectromètres RMN d'Orléans est un BRUKER DSX 400 qui peut travailler simultanément sur trois noyaux. A la réussite de ces acrobatiques expériences, qui ont déjà donné des résultats importants, présentés lors d'un Colloque à Orléans vendredi dernier, concourent donc quelques unes des avancées techniques les plus spectaculaires de ces dernières années ... Radio Classique 97 9 Novembre 1995


La science de la flaveur


Emmanuel, vous savez certainement apprécier un bon repas et le charme odorant d'un bouquet de fleurs. En tant que consommateurs, nous sommes attirés par un mets, ou par un parfum, dans la mesure où nos sens en éprouvent voluptueusement du plaisir, même s'il n'est pas toujours bien raisonnable, pour sa ligne par exemple, de profiter de l'aubaine ...

Allez-vous nous proposer des innovations dans ces domaines ?

Non, je crois que ce qui existe naturellement est déjà bien riche ! Le problème est plutôt d'être capable de le conserver, surtout avec les nouvelles techniques de cuisson, comme par exemple les micro-ondes. Il faut éviter de détruire les molécules associées à la flaveur.

Mais, qu'est ce donc que la flaveur ?

Dans son livre "l'Art des Parfums", un livre parfumé édité chez Hachette dans la collection "Questions de Science", Maurice Chastrette, Professeur de Chimie à l'Université de Lyon, définit la flaveur comme l'ensemble des perceptions associées à l'odeur, l'arôme, la saveur, la sensation de chaleur, etc... Bref, la flaveur est la somme des réactions physiologiques qui vis à vis d'un aliment se combinent pour provoquer une sensation agréable ou désagréable. On conçoit qu'elle puisse être un enjeu commercial.

Donc, il s'agit encore d'une question de chimie !

L'affaire est un peu plus compliquée. En effet, si le goût repose en fait sur quatre saveurs - sucré, salé, amer, acide -, l'odorat est sensible à une beaucoup plus grande variété d'excitants. L'arôme du café par exemple correspond à la combinaison de l'influence d'environ 900 molécules différentes ! Les parfumeurs simplifient beaucoup le problème en classant les odeurs en sept catégories générales. La flaveur d'un mets ordinaire met en jeu de 50 à 100 composés.

Comment contrôler cela ?

Un certain nombre de composés peuvent être identifiés, et même isolés, par des techniques comme la chromatographie en phase gazeuse. On peut les récupérer et les encapsuler dans de petites bombonnes de 30 à 40 microns de diamètre faites d'amidon et qui sont ensuite dispersées dans les plats cuisinés industriels destinés à être préparés au four à micro ondes. Elles sont protégées de la chaleur jusqu'au dernier moment lorsque la couche de graisse qui les entoure fond, les dissout, et disperse les molécules dans le plat. Votre tarte aux myrtilles, Emmanuel, sortie du four vous donne ainsi l'impression de consommer des myrtilles fraîches ...

Je suppose qu'il y a d'autres domaines de l'alimentation où des problèmes semblables se posent ?

En effet, les aliments diététiques dépourvus de matière grasse ont souvent un goût fade parce que beaucoup de flaveurs se dissolvent dans les graisses où elles s'équilibrent et elles s'affinent. Or, il semble qu'il soit très difficile de trouver un substituant chimique aux graisses qui soit efficace, c'est-à-dire qui puisse prendre en charge les flaveurs d'une manière qui soit satisfaisante pour le consommateur. Jusqu'à présent, la recherche a échoué dans ce domaine, malgré de nombreux essais, effectués notamment au Département d'étude de la Nutrition de l'Université du Minnesota par un chercheur du nom de Gary Reineccius, aussi collaborateur de Nestlé à Vevey. Comme les consommateurs semblent bouder aujourd'hui les produits "allégés", on comprend sur cet exemple combien il est important de s'appuyer sur la recherche et l'innovation pour créer un marché...

Radio Classique 98 16 Novembre 1995


Une nouvelle agriculture


Emmanuel, autrefois, on cultivait plutôt la terre pour se nourrir. Aujourd'hui, les rendements ont tellement augmenté qu'à la place des cultures vivrières, on exploite des plantes destinées à fournir un produit industriel, comme ce "carburant vert" pour les automobiles dont on parle en France ou comme les diverses plantes qui fournissent des matières premières pour le textile ou la chimie. Dans ce dernier cas, la pratique est ancienne puisque déjà au Moyen Age, on cultivait des plantes pour fabriquer des colorants. Dans le Languedoc, le pastel qui permet d'obtenir un colorant bleu, l'indigo, a fait un temps la fortune du pays de Cocagne, du nom des boules de pastel exportées dans le reste de l'Europe.

Aujourd'hui, les colorants sont plutôt synthétiques !

Beaucoup de substances qui nous sont utiles sont en effet fabriquées de manière synthétique, c'est-à-dire dans des cuves de réacteurs dans des halls d'usine. L'idée de faire faire ce type de travail par des plantes en plein champ, sous le soleil, est un peu un retour aux sources ...

Quelle serait la nature des produits obtenus ?

Au temps de la crise pétrolière, il y a 20 ans, on avait découvert des plantes de la famille des euphorbes, où même des arbres, qui pouvaient produire un carburant genre diesel. On avait envisagé d'en couvrir les déserts du sud-ouest américain et certaines zones du sertao du nord-est brésilien. Au prix actuel du baril, la chose n'est pas économique. Il faut donc se rabattre sur des produits plus rares, coûteux à fabriquer. Dans la même veine, on vient de proposer d'utiliser les graines d'un arbre originaire du sous-continent indien qui auraient, une fois écrasées, la capacité de stériliser l'eau de consommation en y éliminant bactéries et virus. Cette plante, qui fournit ainsi un antiseptique naturel pourrait, elle aussi, être cultivée dans des endroits ingrats dans des pays défavorisés qui ne peuvent se procurer des désinfectants.

Il s'agit donc d'un genre de plantes médicinales !

Si l'on veut. Mais c'est encore une médecine naturelle, on peut faire mieux, c'est-à-dire manipuler génétiquement des plantes pour leur faire fabriquer des substances qui sont des médicaments ou des produits importants pour la santé humaine comme des anti-corps spécifiques par exemple. On utilise aujourd'hui pour cela des bactéries dans des cuves de fermenteurs, mais les progrès du génie génétique montrent que le travail peut être fait par des plantes, comme le tabac, convenablement modifiées par l'insertion de gènes adéquats qui vont donner des instructions pour la synthèse de molécules spécifiques qu'il suffira d'extraire de la récolte. La multinationale Unilever a fait étudier le problème en Grande Bretagne. Le rendement serait de l'ordre de un gramme d'anticorps par mètre carré de culture. On imagine même des plantes aquatiques pour dépolluer les rivières !

Ces affaires passent-elles dans la pratique ?

Un Institut allemand vient de faire mieux. La méthode anglaise accumule les produit désirés dans la feuille et la tige, ce qui oblige à traiter les plantes très vite avant qu'elles ne se corrompent naturellement et l'anticorps avec. Les allemands ont réussi à placer les anticorps dans les graines du tabac où ils sont stockés en toute sécurité pour longtemps. Le point est important car la difficulté reste quand même de savoir comment on extrait à un coût raisonnable le produit chimique intéressant des parties végétales où on l'a produit... La graine peut permettre d'attendre que la recherche ait progressé ... Il suffisait pour cela d'accrocher les gènes modificateurs par un lien fort avec d'autres qui commandent le stockage des protéines dans les graines. Après le tabac, les chercheurs s'attaquent maintenant à une espèce bien de chez nous, les petits pois ....

Radio Classique 99 23 Novembre 1995


Une nouvelle industrie ?


Emmanuel, vous avez évidemment entendu parler de l'Internet, le dernier sujet de conversation à la mode ! Etre branché ou pas, voilà la question aujourd'hui ! Ce qui était initialement, en 1969, une mise en réseau des ordinateurs des chercheurs américains, baptisé Arpanet et conçu à l'initiative du Ministère de la Défense, est devenu, avec le temps, un moyen de communication mondial, dont disposent les Institutions comme les individus, surtout depuis la géniale invention du CERN, le Centre européen de recherche de Genève qui a lancé, vers 1989, le WWW, le World Wide Web, un système basé sur une logique de navigation hypertexte, qui a commencé à devenir très populaire en 1993, et qui, aujourd'hui, permet de relier très facilement un ordinateur à un autre.

Quel peut bien être l'intérêt industriel de l'Internet ?

L'une des premières raisons de la mise en réseau des ordinateurs des Universités et des Centres de Recherche a été l'échange d'informations, ce que l'on appelle le courrier électronique. Il permet non seulement d'envoyer des messages, des lettres en somme, mais aussi des textes étendus de plusieurs dizaines de pages qui passent rapidement d'un ordinateur à un autre, assurant ainsi une communication plus rapide, plus efficace et beaucoup moins chère que la poste et même que le fax. On peut directement travailler sur un texte envoyé de l'autre bout du monde. Le premier effet industriel potentiel est donc sur le courrier et, peut-être, avec la possibilité qui apparaît de transmettre la voix sous une forme digitale, sur les communications téléphoniques à grande distance ...

A condition d'être équipé en micro-ordinateurs !

Et aussi de disposer d'un raccordement bon marché au réseau téléphonique, ce qui outre l'appareil, un modem, suppose de pouvoir accéder aux services d'un fournisseur qui vous assure l'accès au monde entier pour le prix d'une communication locale et un abonnement d'un coût raisonnable. Ceci devient une activité commerciale que ne dédaignent pas les plus grands comme Microsoft ou IBM.

Quelle est l'ampleur de ce marché ?

Une récente étude montre qu'aux Etats Unis et au Canada, 24 millions de personnes ont accès à l'Internet chez eux ou au bureau. Chez nous, d'après ce qu'on entend, le nombre d'utilisateurs augmente rapidement. De plus en plus d'entreprises et d'Institutions françaises s'affichent sur le WEB, des cybercafés s'ouvrent, et des journaux publient chaque semaine des pages pour les amateurs. Il y a aussi un très grand nombre de revues mensuelles, certaines très spécialisées dans la technique informatique, d'autres qui font plus dans la cyberculture. 35% des foyers américains ont un micro-ordinateur, 13% un lecteur de CD-Rom, 6 à 8% sont connectés au réseau. On estime qu'ils seront 22% en l'an 2000. C'est donc un marché en forte croissance.

A part le courrier, qu'offre donc le réseau ?

L'accès bien sûr à des sources de documentation très variées sur les sujets les plus divers, mais aussi la possibilité de faire du commerce virtuel, d'acheter des produit sur catalogue informatique, ce qu'ont fait déjà 2 millions et demi de personnes. Aujourd'hui cela représente 1% des ventes au détail aux USA soit 500 millions de dollars. On devrait atteindre 7,2 milliards en l'an 2000. Il y a aussi un marché pour les opérations bancaires, une banque a été ouverte sur Internet le mois dernier, mais l'avenir dépend un peu des clés cryptographiques qui pourront être disponibles pour la sécurité des transactions, beaucoup sont encore sous secret militaire. Ce qui est peut-être le plus remarquable, c'est qu'une enquête récente, faite pour la société 3M, montre que 38% des jeunes américains de 13 à 17 ans des deux sexes (45% des garçons et 31% des filles) se sont déjà connectés au réseau, et plus pour y trouver des distractions que pour des besoins éducatifs. Une autre enquête montre que la présence d'un ordinateur à la maison fait très nettement baisser chez les jeunes le temps passé devant la télévision. Alors, Emmanuel, nouvelle industrie, nouvelle culture ?


Radio Classique 100 Jeudi 30 Novembre 1995


Produits naturels


Emmanuel, aujourd'hui, c'est notre centième "Innovations au quotidien", alors permettez-moi de revenir sur une histoire que j'ai déjà racontée sur cette antenne, celle du merveilleux matériau qu'est le fil de soie d'araignée dont on se sert pour faire des gilets pare-balles haut de gamme depuis le 17ème siècle...

A-t-on trouvé une nouvelle application ?

En effet, figurez-vous qu'aux dernières nouvelles, le fil d'araignée, qui n'est pas toxique et ne provoque pas d'allergies, est ce qu'il y a de mieux pour faire des points de suture à cause de ses éminentes qualités mécaniques, et, en plus, il est très stable dans le flux sanguin et inattaquable par les bactéries. On pourrait l'adapter à la fabrication d'implants, d'autant plus que, comme cette soie est hydrophobe, elle pourrait servir de base de stockage pour des médicaments libérés ensuite sur place à l'intérieur du corps d'une manière régulière et contrôlée ...

Est-ce tout pour les araignées ?

Non, on vient de montrer qu'elles partagent un ancêtre commun avec les crabes, les homards, et les mille-pattes. Il parait que tous ces arthropodes ont des gènes en commun, gènes qui sont néanmoins capables de diriger la fabrication de carapaces, de pattes ou d'antennes d'allures très différentes. Devant une telle diversité, on se demande à quoi pouvait bien ressembler l'ancêtre commun d'il y a des millions d'années ! Incidemment, il y a des crustacés qui sont capables de fabriquer des matériaux naturels d'une étonnante facture, car ils sont à la fois durs, très durs, et très souples. Il y en a un qui dispose d'une sorte de marteau avec lequel il cogne toute la journée en dépensant à chaque coup une énergie de l'ordre de grandeur de celle que produit l'impact d'une balle de petit calibre. Pourtant, son bel organe ne casse pas et ne parait même pas s'user....

Je suppose que les chercheurs en ont fait l'analyse...

Oui, il y a même longtemps : c'est un matériau composite formé de fibres de chitine, un plastique naturel constituant des carapaces d'insectes, et d'une charge minérale composée d'apatite et de calcite. Emmanuel, connaissez-vous l'histoire des vaches des Everglades ?

???

Ce qui m'y fait penser, c'est la nécessité d'analyses chimiques subtiles pour résoudre certains mystères. En l'occurrence, le problème des vaches des Everglades c'est que, bien qu'il y ait là-bas de grasses prairies avec une herbe drue, les pauvres animaux s'anémient à vue d'oeil, ils deviennent anorexiques...

Et quelle en est la raison ?

L'herbe manque totalement de sélénium de cuivre et de cobalt, éléments dont les traces sont indispensables pour soutenir la vie. Emmanuel, il ne suffit pas de disposer d'une nourriture abondante, il faut aussi que celle-ci apporte les éléments nutritifs indispensables. Or, la question se pose aujourd'hui d'une manière aiguë pour de nombreuses populations humaines.

Comment cela ?

L'agriculture moderne pour les besoins alimentaires a fabriqué des plantes riches en calories capables, comme le riz et les haricots, de pousser dans des sols pauvres en minéraux. L'envers de la médaille est qu'il y a aujourd'hui des carences importantes en sélénium, fer, iode ou zinc qui minent la santé des gens même s'ils ont de quoi se nourrir. D'après une récente conférence à Salt Lake City, cela concerne un tiers des enfants du monde et 40% des femmes menacées par l'anémie. La solution est de fabriquer des grains de maïs, par exemple, qui puissent stocker dans leurs enveloppes extérieures des minéraux. Il faut pour cela sélectionner les espèces de façon à multiplier les couches utiles. La fine couche extérieure, enrichie en minéraux, du riz notamment est détruite dans la préparation pour la consommation. Emmanuel, le renforcement en oligo-éléments, indispensables à la vie, de la matière alimentaire des produits récoltés est un objectif majeur de la recherche agricole.
Radio Classique 101 7 Décembre 1995


L'automobile du berceau à la tombe


Emmanuel, vous savez qu'au fil des décennies, les innovations technologiques nous ont créé de nouveaux organes. Nos machines fonctionnent comme des prothèses du corps et, par exemple, la voiture est une extension du pied, l'avion nous donne des ailes, etc... Ces prothèses, comme un organe biologique, ont un cycle vital : elles naissent dans le processus de fabrication, elles ont un temps d'usage, puis elles meurent, elles sont jetées ...

Ce qui pose un problème de déchets, donc d'environnement.

Exactement. Une conférence s'est tenue il y a quelques semaines à Vienne en Autriche pour débattre du cycle d'existence de nos machines, en particulier celles qui sont utilisées pour le transport, et notamment l'automobile. Surtout pour tenter de cerner les conditions qui peuvent conduire à un meilleur équilibre entre les objets manufacturés et l'environnement.

Avec l'augmentation du nombre des véhicules en circulation, il faut en effet tenter d'optimiser ce genre de relation.

D'autant plus qu'il semble bien qu'un effet de serre se dessine pour les prochaines décennies, la teneur en gaz carbonique de l'atmosphère augmente et les glaciers antarctiques fondent. A ce rythme, la température moyenne pourrait monter de 1 à 3,5°C vers l'an 2100, à moins que des éruptions volcaniques, comme celles du Pinatubo en 1992 et 1993, ne produisent au contraire un refroidissement ! C'est une question compliquée. Malgré tout, ce problème est pris en considération pour tenter d'optimiser l'impact environnemental de la production et de l'usage des automobiles. Par exemple, on pourrait consommer moins de carburant en fabriquant des voitures plus légères, ce qui est un moyen direct pour réduire l'émission de gaz à effet de serre. Mais l'envers de la médaille est que les matières plastiques utilisées pour construire ce type de véhicule sont très difficiles à recycler et doivent être mises en décharge ...

La question est donc complexe !

En effet, parce que si on améliore un facteur, on en détériore un autre. D'autant plus que dans une automobile, il y a environ 10.000 pièces qui chacune posent un problème différent avec des solutions contradictoires !

Comment progresser alors ?

Une société parisienne "Ecobilan" a présenté à Vienne une méthode scientifique pour établir un diagnostic qui prend en compte les facteurs économiques, techniques, et liés à l'environnement. Ils ont, par exemple, comparé les avantages respectifs de l'acier et de l'aluminium pour fabriquer, d'une part, le châssis des voitures et, d'autre part, la carrosserie, en tenant compte de tout le cycle depuis les matériaux de base, la chaîne de montage, l'exploitation, et la casse, en utilisant environ 200 critères pour l'environnement par rapport aux problèmes posés par l'effet de serre, les pluies acides, les déchets toxiques et la consommation d'énergie.

Quel a été le résultat ?

Et bien, il semble que pour le châssis, du point de vue écologique, l'aluminium soit préférable à l'acier, mais c'est le contraire pour la carrosserie. Il n'existe donc pas de matériau unique. BMW a mené une étude de même nature pour les portes de l'un de ses modèles et a conclu que de cinq matériaux différents examinés, la tôle d'aluminium était la meilleure solution si l'on combine les points de vue économique et écologique. L'évaluation est difficile, car dans le cas de l'aluminium, il faut tenir compte, par exemple, du traitement du minerai, la bauxite, et de la manière dont les lingots de métal sont obtenus. Comme cela se fait par électrolyse, il faut savoir si l'électricité vient du nucléaire ou du charbon, ce qui n'implique pas du tout les mêmes types de nuisance. Emmanuel, l'art du bilan total devient à la mode pour nos objets familiers et on découvre qu'ils sont de beaux exemples de systèmes complexes...
Radio Classique 102 Jeudi 14 décembre 1995


Des récompenses pour des innovations


Il y a un an, j'avais annoncé à ce micro l'existence d'un concours ouvert aux entreprises européennes pour des innovations dans le domaine des technologies de l'information. Ce concours était organisé, avec le soutien de la DG III Industrie de la Commission européenne, par Euro-CASE, un Conseil qui réunit les Académies européennes des sciences appliquées, dont notre CADAS, le Comité des Applications de l'Académie des Sciences.

Quel a été le résultat ?

Il s'agissait de récompenser une innovation riche en contenu technologique et avec un potentiel de développement évident. Elle devait se présenter sous la forme d'un prototype en état de fonctionner ou d'un produit mis sur le marché après le 1er Janvier 1994. 270 dossiers ont été proposés, 20 ont été sélectionnés, chacun a reçu 5000 écus et parmi ces 20, le Jury, réuni le 28 novembre à Bruxelles, a retenu trois lauréats qui recevront chacun 200.000 écus.

Qui sont-ils ?

La société Digicash d'Amsterdam en Hollande pour un logiciel, Ecash, qui permet d'effectuer en toute sécurité des règlements et des transferts d'argent sûrs et anonymes d'un ordinateur personnel à un autre ordinateur sur n'importe quel type de réseau, en particulier pour de petites sommes, comme c'est le cas pour beaucoup de transactions pour les services "on line". Ce système de manipulation d'argent virtuel est avantageux par rapport aux cartes de crédit. Un million de "cyberbucks" ont déjà été échangés pour des essais menés durant un an. Ce logiciel bénéficie de travaux de cryptographie effectués par des universitaires et, avec l'appui des banques, pourrait être utile aux 30 à 40 millions de personnes branchées sur Internet.

Quelle est la seconde société lauréate ?

Une société norvégienne, Vingmed Sound de Trondheim, qui est récompensée pour son nouveau système d'imagerie médicale par ultrasons caractérisé par une amélioration du dispositif d'acquisition de données sous forme numérique associé à un traitement par ordinateur. L'appareil est utilisé pour des diagnostics de cardiologie et la société, leader sur le marché européen, exporte 98% de sa production dans 50 pays.

Parlez nous de la troisième société.

Elle est française et grenobloise. La société Silmag a été fondée par des chercheurs, transfuges du Laboratoire du CEA le LETI, Laboratoire d'Electronique et de Technologie de l'Information, aidés par du capital risque. Depuis Mai 1995 ils fabriquent à la chaîne une nouvelle tête d'enregistrement pour disque dur magnétique. La conception de cette tête est entièrement nouvelle et repose sur des principes différents de ceux qui sont à la base des modèles existants, connus pour être fragiles. Elle utilise la technologie circuits intégrés pour la fabrication et se prête donc à l'automatisation. 100% de la production est exportée vers les Etats Unis ou vers l'Asie.

Avez-vous connaissance d'autres concours de ce type ?

Oui, le 9 décembre on a remis à Monaco les Prix du Concours européen d'inventions dont le thème cette année était la prévention des biens et des personnes. Le Grand Prix a été attribué à une équipe du Département recherche et développement de la société française Hutchinson, filiale du Groupe Total, et leader européen de la transformation du caoutchouc industriel, pour la création d'un gant virucide. La texture multicouches de ce gant incorpore sous une forme d'émulsion stable des produits efficaces contre les virus, les bactéries et les champignons parasitaires. Il assure une protection des personnes en cas de piqûre accidentelle par une aiguille contaminée. Il peut donc être utilisé par du personnel médical et aussi par les sapeurs-pompiers. Vous voyez, les Jury ont distingué ces dernières semaines de belles innovations, orientées vers des usages pratiques, et susceptibles de créer des marchés.

Radio Classique 103 21 Décembre 1995


Le bleu s'affiche


Il y a presque deux ans, j'avais annoncé à ce micro qu'une firme japonaise, Nichia Chemical Industries, d'Anan dans la Préfecture de Tokushima, venait de mettre au point un nouveau matériau susceptible de conduire à la fabrication de diodes semi-conductrices capables d'émettre de la lumière bleue. Il s'agissait de dispositifs fabriqués avec du nitrure d'indium et de gallium.

Quel est l'intérêt de ce type de recherche ?

On sait fabriquer facilement avec un matériau semi-conducteur classique, l'arséniure de gallium, des diodes qui émettent de la lumière dans l'infrarouge ou dans le rouge et même dans le jaune et le vert. Ce sont des composants très répandus, utilisés par exemple pour la signalisation ou pour les boutons de commande des instruments scientifiques et des appareils domestiques. Mais, contrairement à ce que pensent les artistes, la fabrication du bleu demande plus de ressources en énergie que celle du rouge ! En l'occurrence, il faut un écart plus grand entre les niveaux d'énergie dans les matériaux émetteurs pour obtenir du bleu que pour obtenir du rouge. Il n'est pas très facile de trouver des compositions chimiques et des structures cristallines qui permettent de produire et d'exploiter des écarts aussi grands. Et si on y arrive, les rendements sont souvent très faibles, l'émission est peu intense.

Le matériau japonais est donc un peu miracle !

En effet, on pouvait penser que c'était une réussite brillante mais peut-être loin du marché. D'abord parce que la fabrication restait à mettre au point sachant qu'il s'agit de nanotechnologies. Pour que la performance soit bonne, c'est-à-dire que l'émission soit intense et bien bleue, pas blanchâtre, il faut confiner le système dans "un puits quantique" qui est une couche mince de 2 nanomètres d'épaisseur. Dans ce puits, des électrons négatifs et des trous positifs se recombinent en émettant de la lumière. On utilise cette technique pour fabriquer des lasers infrarouges de haute performance à partir d'arséniure de gallium , mais il fallait la mettre au point pour le nitrure d'indium et de gallium.

A quel produit a-t-on abouti ?

L'intérêt des diodes, c'est qu'elles sont solides, qu'elles durent longtemps et qu'elles consomment beaucoup moins d'énergie que les systèmes lumineux traditionnels. On peut donc les employer pour des dispositifs d'affichage. La firme japonaise vient de présenter à un congrès à Boston des surfaces lumineuses bleues et vertes composées avec des panneaux de diodes. Elles sont de la taille des feux de signalisation aux carrefours qui sont plus brillantes que celles qui sont obtenues avec des ampoules ordinaires pour cette application urbaine.

Il est donc possible d'obtenir plusieurs couleurs ?

Les ingénieurs japonais ont obtenu une émission dans le vert en modifiant la teneur en indium de leur matériau. A la longueur d'onde d'émission de 450 nanomètres dans le bleu, l'émission lumineuse atteint l'intensité de 2,5 candelas et le rendement est de 9,5%. Dans le vert, à 530 nanomètres, le rendement diminue, mais comme l'oeil est plus sensible à cette longueur d'onde, le résultat est meilleur. Avec du bleu du vert et du rouge, on peut changer la technologie des enseignes lumineuses dans la rue, et pourquoi pas améliorer la décoration des arbres de Noël ! Peut-être qu'un jour, par la fabrication d'écrans plats, on arrivera avec ces matériaux nouveaux à "tuer" notre bon vieux tube cathodique en apportant la possibilité de jouir chez soi d'images animées de grandes dimensions, ce qui sera sûrement une révolution culturelle...
Radio Classique 104 4 Janvier 1996


Un bombardement utile


Vous savez qu'il y a des substances qui résistent très bien aux feux d'enfer. Elles ont une très grande valeur économique parce que dans notre vie moderne, nous utilisons des systèmes qui travaillent à des températures très élevées. Les ailettes des réacteurs de nos jets modernes en sont un exemple. C'est parce que l'on dispose de matériaux performants que notre culture de la vitesse a pu s'épanouir et que les continents se sont rapprochés.

Peut-on encore les améliorer ?

Les super alliages actuels à base de nickel supportent des températures de 1150°C, mais pas plus. Si on pouvait les remplacer par quelque chose qui tienne jusqu'à 2000°C, nos avions pourraient aller plus vite. Les matériaux qui résistent à ces températures extrêmes sont des céramiques, mais comme le verre, elles sont cassantes et bien sûr, on n'aimerait pas trop chausser, à défaut d'une pantoufle de vair, la botte de sept lieues qu'est le moteur d'avion, construit avec des composants qui auraient les propriétés mécaniques habituelles du verre ...

Je crois que vous dites souvent que la science et la technologie réalisent pratiquement toutes les merveilles promises par les contes de fées !

De fait, on sait rendre le verre résistant aux chocs par exemple pour faire des boucliers pare-balles ! La rupture dans ce genre de matériaux est due à la propagation de fissures et de fractures autour du point d'impact. Si l'on arrive à bloquer la progression de ces défauts, on peut obtenir un matériau résistant. Pour cela, il faut que la matière à la surface soit dans un état de compression. Dans le cas du verre, en fabriquant à chaud un sandwich avec une couche interne de composition différente dont la contraction au refroidissement est plus importante, on impose une tension aux couches extérieures et le composite résiste aux impacts.

Peut-on étendre cette technique à des matériaux de point de fusion plus élevé que le verre ?

Des chercheurs de l'Université Cornell aux Etats Unis essayent de fabriquer sur ce modèle des composites d'oxydes réfractaires, avec de l'alumine notamment qui tient jusqu'à 2000°C. Mais, des chercheurs français de l'Institut de Physique Nucléaire de Lyon explorent une autre voie. Pour créer des contraintes compressives à la surface d'un matériau, ils utilisent une technique qui exige de disposer d'un accélérateur de particules : l'implantation ionique.

Quel en est le principe ?

On bombarde la surface à traiter avec des faisceaux d'ions. En raison de leur énergie cinétique, ceux-ci, comme des projectiles, pénètrent dans le matériau et sont arrêtés tout au long de leur parcours, au plus quelques centaines de nanomètres, par les atomes des couches de surface. L'espèce chimique correspondant à l'ion utilisé est donc implantée dans la surface. Cela peut se traduire par la formation de composés chimiques ou encore, la perturbation provoquée dans l'arrangement régulier des atomes engendre des défauts susceptibles de conduire aux propriétés mécaniques recherchées. Des faisceaux d'azote et de bore sont principalement employés.

Quel est l'intérêt ?

On provoque des modifications utiles tout en conservant exactement les dimensions, le volume et les formes de l'échantillon et sans en élever la température. On traite ainsi, par exemple, des prothèses biomécaniques de la hanche ou du genou pour améliorer des propriétés de surface comme la dureté et la résistance à la corrosion ou au frottement. En collaboration avec la société Nitruvid de Fraysses dans la Loire, l'équipe de l'IPN de Lyon travaille sur des tiges de compresseur en carbure de tungstène de plus de 100 kg et de plus d'un mètre de longueur. Vous voyez, un accélérateur de particules peut aussi être un outil industriel, au moins pour des produits à forte valeur ajoutée !
Radio Classique 105 11 Janvier 1996


L'architecture atomique des molécules du vivant


Lorsque je cherche des sujets pour cette chronique, je parcours des magazines scientifiques ou techniques, hebdomadaires ou mensuels, français et étrangers, ou je scrute les communiqués publiés sur le réseau Internet. Et chaque fois, je suis frappé de la masse immense d'informations dont il est très difficile de rendre compte parce que les recherches exposées, ou les découvertes présentées, sont complexes et surtout très spécialisées.

Est-ce qu'il n'est pas quand même possible d'en parler ?

Non, l'obstacle à la compréhension du détail est très grand car il s'agit d'objets dont on ne peut saisir la nature qu'après de longues études. Les enjeux de certains de ces travaux sont difficiles à discerner. Pour d'autres, on peut cependant dégager une impression. C'est ce que je voudrais faire ce soir.

Pour des études importantes ?

Oui, on peut en être certain car les revues ne publient ces articles qu'après les avoir fait examiner par des spécialistes qui sont toujours des juges très sévères. La question est de savoir quel peut être le sens des résultats présentés pour les personnes extérieures à ce petit cercle de spécialistes et notamment le grand public. Ce que j'observe, par exemple, c'est la multiplication des articles qui donnent les structures détaillées de grosses molécules qui interviennent dans les processus fondamentaux du vivant.

De quel genre de molécules s'agit-il ?

Je vous donne deux exemples au hasard tirés de numéros récents de la célèbre revue britannique Nature. L'une des molécules est une protéine de la famille des chaperonines. C'est une espèce de soucoupe ou coupole avec une ouverture au sommet et un curieux axe de symétrie d'ordre sept. Elle joue un rôle dans les phénomènes de pliage et de changement de conformations d'autres protéines. L'autre travail, celui d'un Laboratoire français de Strasbourg, l'Institut de Génétique et de Biologie Moléculaire et Cellulaire, décrit un site récepteur pour les acides rétinoïques au sein d'une molécule compliquée liée à l'ADN. Le mécanisme moléculaire présenté est important pour comprendre des effets de morphogénèse durant le développement de l'embryon humain.

Qu'est ce qui vous frappe dans ces articles ?

A côté de l'obscurité du langage, on y trouve de très belles images en couleurs qui précisent la géographie des groupes d'atomes composant les molécules. Elles représentent les formes des assemblages moléculaires et élucident les mécanismes de leurs mouvements, accouplements, ruptures, retournements, flexions, étreintes. Elles montrent qu'il s'agit d'un monde dynamique dont toutes les parties sont mobiles. Les auteurs français font par exemple appel à l'image de la tapette à souris pour exprimer un mouvement brusque d'une partie de leur système moléculaire.

Quelles conclusions en tirez vous pour l'innovation ?

A travers ces articles d'apparence obscure pour le profane, un formidable processus est en marche. Les techniques actuelles d'établissement des structures qui font appel à une instrumentation très moderne, et à de puissants ordinateurs, sont en train, pièce par pièce, de démonter l'extraordinaire mécanique moléculaire du vivant. C'est un travail immense qui prendra encore des décennies, mais il est en route, presque à une cadence industrielle. Nous allons glaner en chemin de plus en plus d'informations utiles pour la médecine et la prévention. Avec comme conséquence économique et culturelle probable l'allongement de la vie humaine au cours du siècle à venir et la diminution des risques inhérents aux maladies. Une révolution comparable à celle qui a suivi l'action de Pasteur au début de notre siècle. Ce qui m'inquiète par contre, c'est l'immense effort qu'il faut faire pour introduire dans l'enseignement les notions de base indispensables pour que le citoyen puisse suivre et comprendre les enjeux de ces travaux ...
Radio Classique 106 18 Janvier 1996


Molécules de lumière


Vous savez que l'on demande aujourd'hui de plus en plus de choses à l'analyse. L'homme moderne, comme son ancêtre le païen crédule, est de plus en plus persuadé qu'il est environné de dangers, de poisons cachés et mystérieux que non plus la Nature mais bien plutôt l'industrie, dissimule dans l'environnement pour lui nuire.

Il y a quand même des nuisances bien réelles !

Sans aucun doute et c'est la raison pour laquelle la recherche prend au sérieux beaucoup de ces inquiétudes et s'efforce de mettre au point des dispositifs de détection et d'alarme dont la subtilité est construite sur de délicats échafaudages de causes et d'effets.

Par quels procédés ?

La clé de la pensée efficace, là, est l'interdisciplinarité. Il faut prendre des résultats connus dans des champs de recherche trés différents et s'efforcer de les combiner. Il y a ainsi dans l'innovation des technologies qui émergent par d'audacieux rapprochements. Celle des capteurs, spécifiques à tel paramètre physico-chimique ou à telle molécule, est un bon exemple. Physique chimie biologie sont sollicitées. Les applications potentielles couvrent les domaines de l'environnement, du contrôle industriel, et de l'analyse médicale en ligne.

Pouvez vous nous donner un exemple ?

La fibre optique est aujourd'hui un matériau industriel grâce à l'essor des télécommunications. Le laser, merveilleuse découverte de la physique d'il y a 30 ans, fournit de la lumière monochromatique et cohérente et c'est aujourd'hui un outil industriel facile à mettre en oeuvre sous la forme de diodes lasers. La chimie supramoléculaire d'un autre coté, dans laquelle s'est illustré notre Prix Nobel Jean Marie Lehn, sait fabriquer des molécules avec des formes : des bols, des couronnes, des entonnoirs, des chaines, dont les parties peuvent exercer des fonctions chimiques trés différentes comme attirer ou repousser l'eau. La chimie minérale, de son coté, a particulièrement étudié les propriétés physiques des terres rares ou lanthanides ...

Mais, n'est-ce point là votre spécialité professionnelle ?

En effet, je suis un spécialiste des propriétés optiques de ces éléments peu connus de la classification périodique qui ont tous les mêmes propriétés chimiques. Incidemment, la France avec Rhône Poulenc est le premier producteur mondial de terres rares pures. Grâce à la structure particulière des niveaux d'énergie associés aux ions de ces éléments, il est possible en les excitant avec une lumière ultra violette, un faisceau d'électrons, ou des rayons X, d'obtenir une luminescence caractéristique, quasiment monochromatique. Un bon exemple est le rouge de la télévision en couleurs.

Alors, comment compose-t-on le capteur ?

Et bien un laboratoire de l'Université d'Etat du Michigan étudie une molécule cyclique en forme d'anneau, la cyclodextrine. Une molécule de benzène peut être capturée à l'intérieur, c'est juste sa taille, la cage est spécifique. Mais, comment savoir si elle est là ? Pour cela, les chercheurs accrochent à l'extérieur de l'anneau une molécule chélatante capable de retenir en son sein un ion minéral en l'occurence les terres rares europium ou terbium. Si l'on éclaire ce système moléculaire avec une lumière bleue, la terre rare ne fournira son émission caractéristique que lorsque le benzène sera présent, car alors la molécule de benzène lui transfère l'énergie lumineuse qu'elle absorbe avec un trés bon rendement. La présence d'une molécule de benzène est ainsi révélée. Le signal optique peut être traité par des systèmes d'alerte par exemple. On peut construire une chaine, et avec la fibre optique déceler la présence de benzène trés loin, éventuellement là où l'homme ne peut pas aller. Toute une nouvelle ingénierie des capteurs est en train d'apparaitre par des combinaisons d'éléments variés de ce type.
Radio Classique 107 24 Janvier 1996


Le journal à l'écran


On peut désormais lire les informations parues dans les journaux parisiens du jour à Hong Kong ou à Buenos Aires. Deux des principaux, Le Monde et Libération, ont ouvert des sites WEB où l'on trouve les textes des articles et une image exacte de la première page qui peut être obtenue comme une photocopie à distance au moyen d'un logiciel de lecture d'Adobe Corporation nommé ACROBAT. Tout cela peut être télédéchargé dans votre ordinateur personnel, si bien que pouvez lire le journal parisien en vous couchant, ou au petit déjeuner, selon le point de la planète où vous vous trouvez ce jour-là

A Paris, il est plus agréable de l'acheter au kiosque ...

Le citoyen urbain est quelque peu privilégié, mais il est quand même limité à ce que la culture locale lui offre. La presse disponible sur Internet couvre le monde entier. C'est une nouvelle forme de distribution de l'information à domicile qui pose bien entendu des problèmes économiques. "Le Monde" a choisi depuis le mois dernier d'être présent sur le réseau privé américain CompuServe qui compte 3,8 millions d'abonnés. Ceux-ci disposent d'une sélection d'articles récents du journal et peuvent discuter avec la rédaction par l'intermédiaire d'un Forum. Apparemment, ils ne s'en privent pas. Pour 2,80 dollars ils peuvent obtenir le texte complet de n'importe quel article de la base de données des archives du quotidien du soir. Les abonnés de CompuServe payent un droit mensuel qui leur permet aussi d'accéder à l'Internet où sont les sites WEB du Monde et de Libération

Mais, comment paye-t-on cette presse électronique ?

La question du retour financier, pour le moment, parait obscure. Une société "Globe Online", qui regroupe éditeurs et fournisseurs de services, étudie un système de paiement et de promotion. Aujourd'hui, le moment, le consommateur paye l'abonnement à son fournisseur Internet et la communication téléphonique locale. Moyennant quoi il obtient facilement, sans payer plus, les huit pages de l'édition Internet quotidienne du New York Times, y compris les mots croisés et ... une publicité. Le système peut fonctionner comme une pub propre à montrer la qualité des journaux et de ce fait comme un support pour des annonceurs. Aux Etats-Unis, plus de 100 quotidiens peuvent être consultés de cette manière. Il y a aussi des hebdomadaires français et étrangers d'informations générales accessibles sur les réseaux privés.

Qu'est ce que cela change pour les journalistes ?

Le mode de consommation du journal peut être modifié, ce qui peut entraîner à terme des changements dans la manière dont un journal est conçu. Surtout, le caractère éphémère du support papier disparaît. On a jeté le journal, mais on retrouvera facilement la critique du film en consultant le site électronique parce qu'elles sont toutes regroupées dans la "bibliothèque" "cinéma". La mémoire est conservée, consultable à volonté. Cette immense masse d'informations que constituent les articles des journaux a permis de constituer une base de bases de données, LEXIS-NEXIS, une création de la société Reed Elsevier, dont l'accès est payant sur abonnement ou au coup par coup. Un exemple, parmi d'autres, d'entreprise sur le marché de l'information.

Et du côté de la production de l'information ?

L'AFP apparaît timidement sur le WEB. Bien sûr, il ne s'agit pas pour l'Agence nationale de brader ses services, mais plutôt d'utiliser les réseaux comme une vitrine, comme une structure d'appel et de séduction. Associated Press est sur CompuServe et Reuters, sur le célèbre site californien Yahoo. En ce qui concerne les innovations, beaucoup de producteurs primaires, laboratoires, universités, centres de recherche, comme notre CNRS, diffusent directement et gratuitement les informations pour la presse sur leurs propres sites.

Radio Classique 108 Jeudi 1er février 1996


Le miracle du diamant


La revue hebdomadaire de l'American Chemical Society, Chemical and Engineering News, raconte dans son numéro du 22 Janvier une histoire merveilleuse dans la droite ligne de la légende des aventures des pionniers modestes dont le travail acharné et l'esprit d'observation ont quelquefois révolutionné le monde des technologies. Ce conte de fées commence au coeur d'une petite entreprise de Dearborn dans le Michigan. Là, un ingénieur nommé Pravin Mistry aurait inventé une technique révolutionnaire et peu coûteuse pour déposer un film de diamant sur à peu près n'importe quoi.

Je croyais que le diamant était une pierre précieuse que l'on obtenait difficilement dans des mines lointaines !

C'est toujours le cas, bien sûr, du diamant de joaillerie que l'on taille pour faire des bijoux. Mais il existe aussi des diamants industriels que l'on fabrique artificiellement par des techniques hautes températures hautes pressions. Le diamant est le plus dur de tous les matériaux. Certains pensent qu'après l'âge du silicium, le prochain siècle sera le siècle du diamant. C'est notamment un remarquable composant potentiel pour des semi-conducteurs.

Alors, que s'est-il passé dans le Michigan ?

Par hasard, semble-t-il, notre ingénieur, à la suite d'une banale erreur de lecture de l'étiquette d'une bouteille de gaz comprimé, a utilisé du gaz carbonique au lieu de l'azote dans un procédé utilisant un laser pour le dépôt en phase vapeur d'une couche mince d'un réfractaire, le diborure de titane, sur la paroi d'un moule utilisé pour l'extrusion de tubes d'aluminium. Et au lieu de déposer ce matériau sur le support, il a recouvert celui-ci d'une couche de diamant !

Et d'où vient le diamant ?

De la décomposition du gaz carbonique. D'habitude, pour faire du diamant, on craque du méthane dilué dans de l'hydrogène sur un front chaud et sous vide. Dans le nouveau procédé, il n'y a pas de haute température, ni même de vide : le diamant s'étale sur la surface à recouvrir presque comme une peinture. Mais le pinceau est un peu particulier. Il est composé de trois lasers pulsés pilotés par ordinateur qui fournissent l'énergie instantanée nécessaire pour casser la molécule de gaz carbonique diluée dans un courant d'azote et induire la formation du diamant cristallisé sur la surface à recouvrir.

Quel est l'avantage ?

Le procédé est très économique. Il semble qu'il soit déjà appliqué dans l'usinage de blocs moteurs d'automobile en aluminium, pour améliorer le tranchant des outils de coupe en carbure de tungstène et en particulier pour réduire l'usage de lubrifiants toxiques. General Motors s'intéresse au procédé pour diminuer l'usure des tambours de frein, et Gillette pour améliorer la qualité de ses lames de rasoir. Le professeur Rustum Roy de l'Université d'Etat de Pennsylvanie, l'un des papes de la recherche sur les matériaux, proclame que c'est l'une des découvertes les plus remarquables de ces dernières décennies.

Pour quelles raisons ?

Avec cette technique, l'âge du diamant peut devenir vite une réalité. Mais les aspects fondamentaux, c'est-à-dire la physique et la chimie derrière le procédé, sont encore mal connus, pratiquement pas étudiés. Les grandes institutions américaines, comme le Pentagone, vont financer la recherche. Pour l'instant, les industriels prennent des brevets. Il y en a déjà 63. Si la chose se confirme, ce sera aussi l'exemple d'une innovation majeure apparue directement sur une chaîne de production et non pas dans un laboratoire de recherche. Un cas finalement assez rare ...
Radio Classique 109 8 Février 1996


Un disque compact holographique


Nous savons stocker des informations dans la matière sous une forme très condensée sur des supports de faible volume et de faible poids. Grâce à la conversion du son en suite de nombres, un disque audio compact nous permet d'écouter environ une heure et quart de musique. Le même support permet d'emmagasiner 300.000 pages de format A4 écrites à double interligne, un dossier impossible à transporter autrement.

L'innovation a fait merveille dans ce domaine !

On peut en effet se féliciter de l'élimination progressive du support papier. Mais il reste encore beaucoup de chemin à faire, notamment pour l'image, et en particulier pour l'image animée. Là, on est encore loin du compte. Et même pour la bureaucratie, le volume de paperasses et documents brassé par certaines administrations, ou dépôts d'archives, est tel, qu'on en arrive à utiliser des robots mécaniques qui classent, trient, et organisent la consultation des disques compacts.

Donc, il faut augmenter encore la capacité et la densité du stockage d'informations

En effet, un disque compact permet d'enregistrer 640 millions d'unités d'information, les "bits" du langage des spécialistes. Or, une seconde d'images animées numériques, brutes sans traitement, représente 270 millions de bits. Par une technique mathématique de compression de l'image, on arrive à faire descendre ce chiffre à un peu moins de 10 millions de bits par seconde. Le problème est que les lecteurs de CD-Rom actuels du commerce délivrent seulement 600.000 bits par seconde ...

Quelles sont les solutions envisagées ?

D'abord, porter la capacité de la technologie CD actuelle au niveau de la dizaine de milliards de bits, ce qui parait possible. Au delà, il faudra changer de principe de stockage. Des chercheurs de Thomson-CSF en France dans les années 70 ont montré la possibilité d'inscrire des informations dans un cristal de niobate de lithium dopé au fer en utilisant une technique holographique.

Qui consiste en quoi ?

On produit dans le cristal une interférence entre les deux branches d'un faisceau laser dédoublé dont l'une a passé à travers une image contenant les informations à mémoriser, par exemple, une grille avec des cases blanches et noires traduisant le résultat d'une numérisation de données. Les propriétés du matériau sont telles que l'information reste inscrite sous forme d'hologramme dans le volume du cristal à cause de variations locales dans l'indice de réfraction produites par les photons du laser, un phénomène connu sous le nom de photoréfraction. Le système enregistre des contrastes, ce qui est bien adapté à la numérisation, mais il conserve aussi bien une image noir et blanc, celle d'un texte par exemple, ou une photographie. La technique permet donc l'enregistrement analogique sous une forme compacte, ce qui peut être intéressant pour certaines applications dans lesquelles on n'a pas besoin de traiter l'image au moyen de la numérisation.

Quelles sont les performances ?

Encore modestes, environ 10.000 pages soit 100 million de bits. Mais l'apparition de nouveaux matériaux polymères organiques et composites minéraux, étudiés notamment à l'Institut d'Optique à Orsay, permet d'envisager la mise en oeuvre du procédé sur un support de même apparence que les disques compacts actuels. On pense arriver rapidement à une densité d'information 200 fois plus importante que celle qui est stockée sur les CD actuels. On arrive dans le domaine du millier de milliards de bits avec des temps d'accès de l'ordre du milliard de bits par seconde. La Société Holoplex en Californie propose déja un système de contrôle de sécurité par la lecture en ligne des empreintes digitales des visiteurs dont l'image est instantanément comparée avec celles qui sont stockées dans une mémoire holographique.



Radio Classique 110 Jeudi 15 Février 1996


Les nouveaux réseaux


La communication est une industrie qui est devenue l'un des moteurs de l'économie. Elle se fait de plus en plus sur de grandes distances, entre des acteurs multiples, quelquefois des cercles fermés, et elle manipule des contenus spécialisés quelquefois confidentiels. La belle époque des médias universels, journaux ou télévisions hertziennes, qui proposaient à une multitude de gens un produit fabriqué par une petite équipe est sans doute passée. Pour satisfaire les demandes individuelles, ou celles de petits groupes, au moins une partie des systèmes de communication doit changer de nature. Pour cela il faut combiner des infrastructures, des machines et de la matière grise.

De là, je suppose, ce concept de réseau qui pénètre chez les particuliers comme dans les entreprises

C'est déjà ce que fait le téléphone, mais nous avons besoin d'échanger aussi des textes, des images, des fichiers de données et nous pouvons souhaiter recevoir des images animées, peut être originaires en direct de l'autre moitié du monde. Pour cela il est nécessaire de disposer de canaux physiques à gros débits pour transporter rapidement les informations. J'ai fait souvent allusion dans cette chronique à l'effort d'innovation pour acheminer de plus en plus d'unités d'informations.

Oui, avec des chiffres qui donnent le tournis !

C'est malheureusement le seul moyen de quantifier les enjeux industriels et commerciaux ! A partir de ces technologies émergentes, on voit aujourd'hui se dessiner des stratégies industrielles. Ce sont les milieux de la recherche qui sont à l'origine de tout et qui poussent l'innovation parce que ce sont eux qui ont le plus de données à transmettre, qui ont besoin de grosses capacités de calcul, qui souhaitent échanger des informations en temps réel, et même conduire collectivement des expériences virtuelles. Les grands laboratoires américains concernés par un aspect ou un autre de la simulation des expériences nucléaires sont par exemple en réseau. Ils ont choisi de s'unir par une technologie fibre optique et un mode de transmission asynchrone, l'ATM.

Quelle est la caractéristique de ce mode ?

L'information à transmettre est découpée en paquets qui peuvent être véhiculés très très vite dans le réseau fibre optique. Il existe un autre protocole, connu sous le nom de TCP/IP, et qui est celui utilisé par le réseau Internet. Là, les paquets prennent individuellement n'importe quelle voie de communication pour arriver à destination, et quand tout est arrivé, l'information est affichée. Cela peut prendre du temps, surtout pour les images, et pour le moment c'est notoirement insuffisant pour transmettre de l'image animée en direct. Avec l'ATM au contraire les paquets prennent tous la même route, comme dans le cas d'une liaison téléphonique. Il faut donc s'assurer que le passage, réel ou virtuel, soit bien ouvert et libre. Les problèmes d'adressage, c'est à dire l'identification des récepteurs et des émetteurs, et d'aiguillage, sont très importants pour toutes ces techniques.

Est-ce qu'il y a une concurrence entre ces deux protocoles ?

On s'efforce aujourd'hui de les combiner. Le coût de l'ATM décroît rapidement et il y a de plus en plus d'interfaces pour les connections. Le futur réseau Renater II, prévu pour la fin de l'année, qui va relier des plates formes universitaires en France et des pôles de recherche industrielle va fonctionner sur la coexistence d'IP pour la périphérie et d'un coeur ATM. Le réseau ATM de Pacific Bell autour de la baie de San Francisco relie 15 grandes sociétés et laboratoires universitaires et l'un de ses problèmes est de tester la compatibilité avec la logique IP. Ces efforts, et ceux d'autres groupes, tendent à inventer un modèle universel de transport de l'information qui fournira partout la densité exigée pour les applications futures, au premier rang desquelles est l'éducation à distance.

Radio Classique 111 22 février 1996


Un satellite en longe


Aujourd'hui, 22 Février, dans une heure environ, si tout se passe bien, la navette Columbia doit quitter le pas de tir 39B du Centre Spatial Kennedy en Floride. Cette 75ème mission, qui doit durer un peu plus de 13 jours, a à son programme une curieuse expérience. Les sept astronautes dont trois européens, le suisse Claude Nicollier, déjà un vétéran de l'espace, et deux italiens Maurizio Cheli et Umberto Guidoni, emportent avec eux un satellite italien de un mètre et demi de diamètre destiné à être largué dans l'espace à partir de la navette mais qui doit rester relié à celle-ci par une longe, un câble métallique de 20,7 km de long.

Quel est l'intérêt de cette expérience ?

Elle a déjà été tentée en Juillet 1992 lors de la 46ème mission, mais le déploiement du satellite a été bloqué par un problème mécanique d'enroulement du câble dont on pense maintenant qu'il est maîtrisé. L'objectif est d'obtenir des mesures sur les courants électriques induits dans le câble par l'interaction avec les ions de l'ionosphère de la Terre que le satellite parcourt à la vitesse de 8 km/sec.

Dans quel but ?

Tout simplement de tester le principe d'un générateur d'électricité qui puisse être utilisé comme source d'énergie autonome dans l'espace. Avec le dispositif proposé, l'énergie mécanique du déplacement de la navette est pour une faible partie convertie en électricité car, comme dans un générateur terrestre, le câble conducteur se déplace dans un champ magnétique, celui de la Terre. Les charges accumulées sur la surface conductrice du satellite peuvent créer une différence de potentiel de l'ordre de 5000 volts entre les deux extrémités du câble et le courant peut circuler vers la navette où il retourne à l'ionosphère par l'intermédiaire d'un canon à électrons.

Il s'agit donc d'innovations pour l'espace

Oui, la technique de la longe outre son intérêt pour les études fondamentales sur la structure électrique et magnétique du plasma de l'ionosphère, laisse espérer des applications importantes. Par exemple elle pourrait permettre des essais sur des maquettes d'avion dans des zones difficilement accessibles à l'expérimentation dynamique comme les altitudes comprises entre 100 et 150 km. C'est peut être aussi un moyen de créer une gravité artificielle pour des vols de longue durée interplanétaires. Sur un plan plus immédiatement pratique ce fil est aussi la plus longue antenne jamais déployée en orbite : il peut servir à transmettre des signaux radioélectriques de très très basse fréquence vers la terre. Ces ondes, contrairement aux ondes radio ordinaires, ont la capacité de voyager dans l'eau et par conséquent peuvent servir de moyens de communication avec des sous-marins en plongée.

Est-ce qu'il y a d'autres innovations spatiales ?

Aujourd'hui 22 février est également lancé depuis la base Vandenburg en Californie un satellite baptisé Polar qui va se placer sur une orbite polaire. Son objectif est aussi d'étudier les phénomènes électriques et magnétiques autour de la Terre dans les zones polaires où ils sont les plus intenses et dont les signes sont les aurores boréales et les orages magnétiques. Le soleil crache de temps en temps vers la Terre des flux de particules, notamment de protons, qui sont canalisés vers les pôles par le champ magnétique terrestre. L'Agence spatiale européenne doit de son côté lancer le 6 mai depuis Kourou à partir d'une fusée Ariane V un ensemble de quatre satellites voguant à 120000 km de la Terre sur une orbite polaire. Ils sont destinés à étudier ce flux de particules que l'on appelle le vent solaire. Ce bombardement est très dangereux pour les hommes et il est imprudent d'effectuer des vols habités en orbites polaires. D'ailleurs, beaucoup pensent que la technologie de l'espace est affaire de robots commandés d'en bas plutôt que d'équipages et de vols habités...
Radio Classique 112 Jeudi 29 Février 1996


L'oeil du laser


L'innovation ne réussit pas à tous les coups ! Le satellite en longe dont nous avons parlé la semaine dernière s'est échappé dans l'espace ! Le câble a cassé ! Les chercheurs italiens auront-ils le courage de recommencer une troisième fois ? Peut-être, car le concept est bon. Les erreurs et les échecs sont inhérents à la mise au point des techniques !

Allez-vous nous parler aujourd'hui d'une autre expérience acrobatique ?

Oui, il s'agit de l'exploitation des interactions rayonnement-matière. Celles-ci sont à la base du principe de très nombreux instruments scientifiques et aussi du fonctionnement d'objets très familiers. La pellicule photographique ou l'écran de télévision en sont des exemples. L'écran transforme l'information portée par des électrons en information portée par des photons, la lumière, que notre oeil peut voir. Cette transformation se produit grâce au phénomène de fluorescence, émission de lumière par un matériau soumis à une excitation. qui le contraint à absorber de l'énergie. L'émission lumineuse dépend de la nature des liaisons chimiques dans le matériau. L'analyse du rayonnement émis permet donc de déterminer la nature chimique du matériau.

Je peux donc savoir de quoi est fait mon écran de télévision ?

Absolument, il suffit d'examiner la lumière de l'écran avec un spectroscope. Le processus par lequel une molécule est excitée est complexe car quelquefois, l'émission se produit à une longueur d'onde plus courte que celle du rayonnement excitateur, donc, ce qui parait paradoxal, à une énergie plus élevée. Ce phénomène s'explique par l'absorption simultanée de plusieurs photons.

Comment peut-on l'exploiter pratiquement ?

Aujourd'hui, on sait fabriquer des lasers puissants et peu encombrants dans une grande gamme de longueurs d'onde et particulièrement dans le proche infrarouge, entre 700 et 900 nanomètres. Et on sait émettre le rayonnement laser sous la forme d'impulsions très brèves, de l'ordre de 10-13 secondes. Alors, si l'on focalise les trains d'impulsions du faisceau laser à travers un microscope sur une préparation biologique, on pourra, dans l'intervalle entre les tirs lasers, mesurer la nature et l'évolution de la fluorescence des substances qui se trouvent au point d'impact du faisceau et de cette manière identifier leur nature chimique. Avec un dispositif de balayage, on peut obtenir des images en trois dimensions qui donnent la répartition, dans une cellule vivante par exemple, d'un composé chimique particulier.

Cette expérience a été réalisée ?

Oui, récemmau niveau moléculaire à certains composants des cellules et en profitant de ces phénomènes complexes d'absorption de plusieurs photons infrarouges simultanément par certaines molécules comme l'amino-acide tryptophane, on peut établir une cartographie de la répartition de substances qui jouent un rôle fondamental dans l'économie ent par un laboratoire de l'Université Cornell aux Etats-Unis. Avec des marqueurs fluorescents qui s'attachent biologique d'une cellule et observer les évolutions en direct notamment pour des protéines importantes et des neurotransmetteurs comme la sérotonine.

C'est donc un nouvel outil pour l'analyse biologique ?

Cette microscopie laser non-linéaire donne la possibilité d'observer et de détecter de très nombreuses molécules dans la topologie locale de cellules vivantes saines ou malades. Seule l'expérience peut permettre de comprendre le fonctionnement de ce monde cellulaire. Nous avons encore ici un exemple de la manière dont la recherche fondamentale dépend étroitement des technologies qu'elle peut exploiter. La distinction entre science et technologie est seulement un sujet de dissertation pour philosophes rétros. Dans la réalité, il est impossible d'établir une hiérarchie, l'une nourrit l'autre.
Radio Classique 113 Jeudi 7 Mars 1996


L'ordinateur moléculaire


Il y a quelque chose de remarquablement constant dans les modèles scientifiques utilisés par les chercheurs à travers les âges. Ils s'inspirent en général de la technologie domestique qu'ils ont sous les yeux et dont le fonctionnement leur semble une évidence susceptible d'être généralisée. Ainsi, au 17ème siècle, les cartésiens ont inventé l'étrange théorie des animaux-machines en transférant au vivant le fonctionnement des systèmes mécaniques, créations de l'habilité humaine, qu'ils voyaient tous les jours avec leurs roues leurs poulies et leurs ressorts. Ils ont aussi utilisé l'image des tamis et des éponges pour construire une biologie.

Cela est-il possible aujourd'hui ?

Peut-être bien. L'ordinateur, admirable invention humaine, est couramment considéré comme une prothèse de notre cerveau. Il fascine. On joue même aux échecs avec lui. Par analogie on en arrive à croire qu'il y a peut être sous nos cranes de gros amas de microprocesseurs, l'homme ayant tendance à penser que ses propres inventions sont souvent une rédécouverte des subtilités de la Nature. Ce qui signifie en gros que l'on prête à celle ci une intelligence assez semblable à la nôtre. On parle d'ailleurs d'ordinateurs neuronaux, mais en l'occurence, c'est plutôt une image topologique. Par contre, il est tout à fait évident que nous n'avons dans la cervelle ni silicium, ni arséniure de gallium. Si ordinateur cérébral il y a , ou il fonctionne sur des principes tout à fait différents de ceux de nos puces, ou alors, il y a effectivement une analogie et les opérations de base de l'algèbre de Boole sont portées par des ensembles de molécules biologiques qui font des fonctions semblables à celles des diodes et des transistors. Mais quelles peuvent bien être ces molécules?

Avez vous un début de réponse ?

La biochimie du cerveau est encore trop mal connue pour que l'on puisse avoir une idée précise. Par contre, on vient de découvrir un système chimique qui peut être qualifié de biologique et qui éxécute la fonction d'une diode, c'est à dire qu'il conduit le courant électrique dans un seul sens de la structure moléculaire.

Qui a découvert ce système ?

Des chercheurs japonais du Centre de Recherche de Mitsubishi travaillant avec des fonds du fameux MITI. Ils ont réalisé une sorte de collage entre une vitamine, la flavine, et une protéine portant un noyau cytochrome c'est à dire avec un atome de fer au centre d'un anneau porphyrine, ce que l'on appelle un hème, et qui est trés proche de la structure de l'hémoglobine composant du sang et cousin de la chlorophylle des feuilles de nos arbres.

Comment fonctionne-t-il ?

On dépose le composite moléculaire sur un film d'or. Le cytochrome est coté or, la flavine au dessus. Si l'on approche de cette préparation la pointe de l'aiguille d'un microscope à effet tunnel, une pointe dont l'extrémité est formée d'un seul atome, on s'apercoit qu'au contact un courant passe si le potentiel de la pointe est négatif et pas du tout s'il est positif. C'est le principe de la diode. Deux diodes dos à dos font un transistor.

Quelles sont les perspectives de cette découverte ?

La taille du dispositif est de 2,5 nanomètres, c'est 10000 fois plus petit que nos systèmes actuels les plus miniaturisés. On peut donc imaginer stocker encore plus de données. Mais pour le moment, la découverte n'a, évidemment, pas vraiment d'applications pratiques immédiates. C'est le principe qui est intéressant, car il pointe vers une direction de recherche qui pourrait bien créer les technologies du 21ème siècle et peut être, pourquoi pas, apporter quelques lueurs sur les mécanismes biochimiques naturels qui supportent physiquement la gymnastique de notre intelligence.
Radio Classique 114 Jeudi 14 Mars 1996


Dix ans déja !


Depuis hier la Cité des Sciences et de l'Industrie a dix ans ! Elle s'est installée dans le paysage urbain parisien d'une manière ferme, elle y est un symbole de l'importance de la contribution des chercheurs des ingénieurs et des industriels à la vie de la Nation; mais sa mission de base : faire passer la science et l'industrie dans la culture commune, les faire accepter comme des composantes ordinaires de la civilisation au même titre que l'art, la littérature, la musique, le théâtre, ou la danse, est une tâche de longue haleine.

Pourquoi cela ?

Parce que pour être comprises les questions scientifiques ou techniques ont besoin d'un minimum d'apprentissage du langage, sinon on ne voit pas à quoi se rapporte le discours ou comment fonctionnent les machines. Les enquêtes montrent que, de fait, seulement 5% de la population peut être considérée comme ayant la capacité de pénétrer le sens du discours scientifique. Le poète portugais Fernando Pessoa a écrit que "le binôme de Newton est aussi beau que la Venus de Milo mais qu'il n'y a que peu de gens qui s'en rendent compte".

Cela n'exige-t-il pas un effort ?

En effet, il faut dans les sciences une certaine agilité mentale, consentir à faire des exercices avec les risques d'erreurs et les impatiences devant les obstacles à surmonter avant d'arriver à la satisfaction d'avoir compris un sujet. C'est évidemment ce que l'école s'efforce de faire expérimenter à ses élèves, et c'est vrai pour les sciences comme pour la grammaire ou l'histoire. Mais la science à l'école est exploitée comme un outil quantitatif de sélection des élèves plutôt que pour sa contribution à une culture générale.

Comment la Cité se place-t-elle dans ce contexte ?

La Cité fait partie du dispositif d'éducation scientifique informelle qui s'efforce de contribuer à la diffusion des connaissances par une présentation concrète des questions scientifiques et industrielles. Plus spécifiquement, la Cité n'est pas un musée de collections comme le Muséum, elle n'est pas non plus un lieu très proche des programmes éducatifs avec des expériences fondamentales comme le Palais de la Découverte, elle est un endroit où la science et l'industrie ensembles montrent ce qu'elles font pour la société, aujourd'hui ou pour le futur proche, et où le citoyen va trouver des réponses aux questions sur de grands problèmes comme l'environnement ou l'énergie.

Mais, vous recevez beaucoup d'enfants ?

Il existe pour les enfants une pratique muséologique qui consiste à les familiariser avec des principes de bases, optiques ou mécaniques par exemple, au moyen d'expériences interactives ludiques qu'ils peuvent exécuter. La Cité a beaucoup inventé dans ce domaine qu'elle a récemment étendu à la technologie. Elle a des liaisons étroites avec l'Education Nationale par le biais des Classes Villette.

La science et la technologie sont-elles mieux comprises aujourd'hui ?

La science et la technologie sont appréciées et soutenues par une large majorité quand le citoyen se sent concerné dans son emploi ou dans sa santé ou par l'avenir de ses enfants. Par contre, elles servent aussi à alimenter l'imaginaire romanesque contemporain, et à exciter l'émotion, parce qu'elles se prêtent à des récits, quelquefois dramatiques, qui ont souvent des savants comme héros mais qui peuvent aussi être présentés par les médias sur le mode du merveilleux. La science fournit un support fondamental fréquent aux expressions culturelles les plus avancées, populaires ou sophistiquées, notamment à l'imagerie, et bien sûr, l'industrie alimente en machines notre vie quotidienne. Toute société vit avec des mythes, les nôtres aujourd'hui, bien que souvent copiés des anciens, ont une coloration liée aux progrès des sciences et des techniques, de l'innovation au quotidien donc ....
Radio Classique 115 21 Mars 1996


Un modèle pour la simulation de l'économie


Grâce aux possibilités de calcul de l'ordinateur la simulation s'est installée dans la pratique des chercheurs comme une étape intermédiaire nécessaire entre la théorie et l'expérience. Jusqu'au point où, dans certaines disciplines, les résultats de l'expérience ne sont acceptés que s'ils sont aussi simulés par un calcul. La simulation est considérée comme un moyen rationnel d'aborder un problème lorsque l'expérience est impossible, chère, ou qu'elle a des conséquences inacceptables au point de vue social ou politique.

Mais, est-ce toujours une approche bien fiable ?

Cela dépend du niveau de connaissance des processus en jeu dans les lois physiques qui commandent les phénomènes mais aussi de l'estimation des valeurs des paramètres numériques qui interviennent comme données dans ces problèmes. Lorsque le nombre de variables est faible, il est plus facile d'obtenir un résultat fiable, par exemple lorsque l'on peut se livrer à la simple extrapolation linéaire d'une tendance. Mais, très souvent, il s'agit de systèmes complexes avec un très grand nombre de variables. L'ordinateur se débrouille très bien avec ces systèmes, mais les effets globaux sont très difficiles à déterminer si on veut les rapporter aux fluctuations d'un nombre réduit de grandeurs du genre de celles que les chercheurs peuvent manipuler ou mesurer. La prévision météorologique est l'exemple classique.

Et alors que se passe-t-il pour les problèmes économiques ?

Les pouvoirs publics, les financiers, les industriels, aimeraient bien disposer d'un outil fiable de prévisions économiques, mais la question est évidemment encore plus complexe que celle de la météo. Pourtant les Laboratoires Nationaux Sandia, un puissant organisme de recherche fédéral aux Etats Unis, viennent d'annoncer qu'ils mettent au point, avec l'aide d'un prix Nobel d'économie, Lawrence Klein, le prototype d'un modèle économique, baptisé "Aspen", utilisant les superordinateurs les plus puissants du monde, ceux là mêmes qui sont chargés de simuler les explosions nucléaires.

Sur quelles bases est construit le modèle ?

Il s'agit de combiner les variables classiques des modèles macroéconomiques, taux d'intérêt, taux de changes, impôts, accords commerciaux internationaux, etc... avec une masse de données micro-économiques tenant compte du comportement individuel des gens de leur manière de dépenser, d'économiser, de répartir leurs achats et de faire tourner leur maison. La puissance des ordinateurs permet aujourd'hui de traiter des myriades de décisions individuelles. L'idée est de modéliser l'économie comme un système écologique réglé par des mécanismes adaptatifs sanctionnant succès, erreurs, et échecs. On prend donc en compte l'évolution des agents, et leurs réactions, en fonction des connaissances qu'ils accumulent au cours de leurs échanges. On rentre dans la machine des banques, le marché de l'immobilier et celui des actions, plusieurs secteurs industriels, etc ... Tout cela interréagit avec les particuliers dans le cadre des lois du marché. La simulation se construit sur les probabilités des prises de décision à tous les échelons et aussi sur la manière dont elles évoluent en fonction des conditions, et avec le temps, à mesure que les individus et les groupes acquièrent de l'expérience. Cela semble une tentative assez réaliste de représenter l'activité réelle. Ce programme est disponible à distance à Sandia pour tester des scénarios économiques. Il se présente un peu comme un jeu vidéo. Il n'est pas dit toutefois s'il a aussi la capacité d'intégrer les décisions irrationnelles ou les pulsions subites des agents économiques ... ou politiques ...
Radio Classique 116 Jeudi 4 Avril 1996


Une grande innovation, dix ans après ...


Nous fêtons cette année un anniversaire scientifique : les 10 ans de la découverte des supraconducteurs à haute température critique en 1986 dans un laboratoire d'IBM à Zürich par Müller et Bednorz. Je ne crois pas qu'il soit survenu auparavant dans l'histoire sociale de la science un événement semblable à celui là, car il a secoué et excité comme un électrochoc une très grosse fraction de la communauté des physiciens et des chimistes.

Pourquoi cela ?

Parce que la découverte violait un interdit. Les théoriciens pensaient que le phénomène de la supraconductivité, c'est à dire la propriété qu'ont certains matériaux de conduire le courant électrique sans résistance, ne pourrait être observée au dessus de la température de 25 degrés Kelvin, une échelle de température pour laquelle le 0°C de notre échelle ordinaire se place à la valeur 273. Or les chercheurs d'IBM ont trouvé un matériau qui était supraconducteur en dessous de la température de 35K.

Il me semble que c'est encore bien froid !

En effet, mais la substance était non pas un métal comme la plupart des autres supraconducteurs connus à cette époque, mais un oxyde mixte contenant du cuivre du lanthane et du baryum. Une nouvelle classe de matériaux mal connus et peu testés pour leurs propriétés à basse température. De fait, très vite on a trouvé de nouvelles combinaisons qui ont porté la température critique à 93K puis à 125; le record actuel, qui date de 1993, étant de 164 K. Tous ces oxydes contiennent du cuivre et un cocktail variable d'autres éléments, comme l'yttrium, le mercure, ou le thallium.

Quelles ont été les conséquences pratiques de cette découverte ?

L'excitation passionnée des chercheurs a été d'une si grande ampleur parce que dès Mars 1987 on avait trouvé des oxydes qui conduisaient le courant sans résistance dans des bains d'azote liquide à la température de 77K. Or, l'azote liquide est un produit industriel courant. Le problème était de fabriquer des conducteurs, des fils ou des bandes, avec des substances qui, contrairement aux métaux, n'ont pas de propriétés mécaniques convenables pour ce genre de mise en forme dont la réalisation s'imposait pour permettre des applications.

Le problème a-t-il été résolu ?

Dans cette affaire il est intéressant d'observer comment l'on passe d'une découverte fondamentale à un produit commercial. On voit que la mise au point prend du temps, le développement est une étape qui coûte cher et qui est difficile, mais depuis 1995, il existe des fils flexibles, composés à partir de l'oxyde dénommé YBaCuO, qui conduisent 1 million d'ampères par cm2, et ce mois-ci on a testé au Texas un câble souterrain de 50 mètres fabriqué à partir d'un ruban de 6 km de long sur une machine industrielle. Cette réalisation est due à l'association du fabriquant de câbles européen Pirelli avec des sociétés et des Instituts de recherche américains.

A part le transport du courant, il y a d'autres applications ?

Les autres propriétés des supraconducteurs commencent à être exploitées notamment pour des mesures très fines de faibles champs magnétiques, avec des applications médicales. Sous forme de couches minces, ces matériaux serviront, avant la fin de cette année, de filtres pour les signaux micro-ondes dans les stations relais du téléphone cellulaire. Si de plus en plus de sociétés industrielles s'intéressent à ces technologies émergentes, les physiciens de leur coté, 10 ans après, n'ont toujours pas de théorie convenable pour expliquer le phénomène ...

Radio Classique 117 Jeudi 11 Avril 1996


Prévoir le temps au quotidien


La pluie et le beau temps font des sujets de conversation bien classiques et quotidiens. A la radio et à la télévision les grenouilles météo marchent très fort à l'audimat. Mais la météo va au delà du show business, elle est aussi une affaire scientifique et économique. La prévision a une valeur marchande par exemple pour faire des économies d'énergie sur un chauffage ou, par un routage astucieux, sur le fuel d'un cargo qui traverse le Pacifique, et surtout pour avertir de conditions météorologiques dangereuses pour les biens, les personnes et les moyens de transport. La Météo des Etats Unis a réussi par exemple à prédire trente six heures à l'avance le grand blizzard qui a affecté la côte est le 7 Janvier 1996.

En général, on peut prédire combien de temps à l'avance ?

C'est toute la difficulté du problème. Prévoir le temps, c'est résoudre un ensemble complexe d'équations mathématiques. Il faut découper l'atmosphère de la planète en boites élémentaires. Obtenir, en temps réel, des informations sur l'état des choses dans ces boites, et à partir de là, au moyen d'un modèle dynamique traité par un ordinateur essayer de prévoir l'évolution des vents, des températures, des précipitations, etc... En gros, il faut réunir trois conditions : obtenir des données expérimentales fiables, précises, et nombreuses, disposer d'un ordinateur très puissant et faire confiance à un modèle mathématique efficace de simulation numérique. Il s'agit d'une véritable entreprise industrielle dont les maîtres d'oeuvre sont, en général, les pouvoirs publics.

Et je suppose que dans ce domaine il y a des innovations ?

De nombreuses stations de surface ont été installées, il y a des satellites d'observation, des capteurs sur les avions, des systèmes radar à effet Doppler qui permettent de savoir quelle est la quantité de pluie qui tombe sur une région donnée durant un temps donné, etc.... La partie expérimentale, la collecte des données, s'est beaucoup améliorée. Elles sont transmises instantanément à tous les services météos grâce aux réseaux modernes de communication. Si bien que les organismes nationaux disposant de données locales à l'échelle de la vingtaine de kilomètres peuvent maintenant prédire le temps avec une probabilité de 80% pour une période qui atteint cinq jours.

Qui fait ce travail ?

En France le Service Central d'Exploitation de la Météorologie installé sur la Météopole de Toulouse est un important noeud du système de télécommunication de l'Organisation Météorologique Mondiale. Il traite les données reçues dans ses supercalculateurs Cray avec le modèle Arpège de simulation numérique de l'atmosphère exploité par Météo France depuis Décembre 1993. Mais il existe aussi en Angleterre, à Reading, un Centre Européen pour les Prévisions Météorologiques à Moyen Terme dont l'ambition est d'arriver à établir des prévisions dix jours à l'avance. Pour cela il faut pouvoir traiter le problème à l'échelle de la planète car le temps à venir peut être influencé par des phénomènes géographiquement éloignés.

Comment procède-t-on ?

On découpe l'atmosphère en cellules d'environ 60 km de coté réparties sur 31 niveaux sur une hauteur de 30 kms. On doit tenir compte du chauffage du sol par le soleil et des turbulences de l'atmosphère, très difficiles à modéliser surtout dans les zones montagneuses. Le modèle prédit le vent, la température et l'humidité pour 4 154 868 points de l'atmosphère et 134 028 endroits à la surface terrestre. Pour les conditions initiales il faut évidemment s'appuyer sur des observations. Le Centre européen fait ce travail depuis Septembre 1991 avec des ordinateurs Cray, mais ce mois ci, il va multiplier sa puissance de calcul par cinq grâce à l'acquisition d'un super ordinateur Fujitsu ...et, pour 1998, par 25.
Radio Classique 118 18 Avril 1996


Télémédecine


Jeudi dernier, 11 Avril, un groupe de médecins réunis à l'Université Georgetown à Washington, une Université jésuite, a effectué une démonstration de pratiques endoscopiques en gastro-entérologie pour des collègues rassemblés dans une autre Université jésuite en Amérique du Sud, à Bogota en Colombie. La transmission de ces images médicales en direct a été possible grâce au satellite de technologies de communications avancées de la NASA lancé en 1993.

On peut donc faire de l'enseignement médical à distance ?

Si l'on dispose des outils de communication autorisant la transmission d'images animées de bonne qualité dans les deux sens, on peut effectivement réaliser un face à face à distance entre démonstrateurs et auditeurs. L'imagerie médicale s'est beaucoup développée et une image prise quelque part peut être analysée par un spécialiste à l'autre bout du monde. L'armée américaine dispose d'un lien de ce genre pour ses soldats en Bosnie de façon à pouvoir interpréter des images radiologiques.

A part l'enseignement et le diagnostic, à quoi peuvent servir ces liens ?

La miniaturisation des caméras, la fibre optique, et l'adaptation des instruments à la micromanipulation transforment, dans certains cas, l'art chirurgical. Si bien qu'il suffit désormais de pratiquer dans le corps du patient une incision de l'ordre de grandeur d'une pièce de dix centimes pour y glisser le matériel et accéder à certains organes, comme la vésicule biliaire. On contrôle l'opération par la vision agrandie de la zone à traiter sur l'écran d'un téléviseur. Et naturellement, rien n'interdit d'expédier l'image à distance et de bénéficier des conseils d'un praticien expérimenté situé très loin, éventuellement sur un autre continent.

Et cela se fait ?

On cite le cas d'une opération de ce genre à Hawaii assistée par un spécialiste à New York. Celui ci traçait sur l'écran au moyen d'un dispositif électronique le parcours à suivre pour guider l'action de ses collègues sur place.

Quels sont les problèmes que rencontre ce type de télémédecine ?

Curieusement, ils ne sont pas principalement techniques, ils sont légaux, car ce genre de pratique n'est pas encore prévue dans la jungle du droit. En fonction des lois locales on peut se demander si un praticien étranger a le droit d'intervenir à distance (incidemment la question se pose d'un Etat américain à un autre ...). Il y a aussi la question de l'assurance et de la responsabilité du médecin en cas de problèmes, des droits du patient sur son image, et plus prosaïquement celle de la sécurité sociale pour le remboursement des frais !

Que se passe-t-il en France ?

Il y a beaucoup d'initiatives. La région Midi-Pyrénées a été choisie comme région pilote des autoroutes de l'information pour la télémédecine autour de l'oeuvre de Louis Lareng, inventeur des SAMU, au Centre Hospitalier Universitaire de Toulouse qui a déjà organisé des conférences de télémédecine avec l'Hôpital de Nouméa en Nouvelle Calédonie. Le réseau régional de santé va relier les hôpitaux de Toulouse, Rodez Cahors, Lourdes et Foix-Pamiers. Un réseau santé a été mis en place par France Télécom autour de Chinon et relie une soixantaine de médecins généralistes et spécialistes et des laboratoires d'analyse médicale. A Paris, l'Unité Télécom et Télémédecine, boulevard du Montparnasse, reproduit un véritable hôpital virtuel avec un centre de ressources documentaires. A Grenoble, le CHU a un projet de serveur régional d'imagerie intégré dans un réseau de communication haut débit. Il existe également des banques de données médicales accessibles par Internet, notamment au CHU de Rouen. Mais le problème est l'obstacle culturel que constitue le très faible taux, à peine 5%, d'informatisation des médecins en France ...
Radio Classique 119 Jeudi 25 Avril 1996


Eliminer l'amiante


La nécessité d'éliminer de notre environnement un certain nombre de substances indésirables pose des problèmes industriels qui exigent des solutions astucieuses, économiques et sûres, et surtout qui ne soient pas pires que le problème à résoudre. L'amiante est un cas particulièrement difficile.

Pourquoi cela ?

Parce que c'est une substance naturelle très stable chimiquement, qui se présente sous cinq formes cristallines différentes mais toutes caractérisées par des fibres longues, fines et cassantes. Sous des contraintes thermiques ou mécaniques, il se réduit en poudre. Les fibres peuvent être 1200 fois plus fines qu'un cheveu, elles sont entraînées par l'air et se logent dans les poumons où elles peuvent, après un temps très long, former le point d'ancrage d'une tumeur, un risque qui est sérieusement aggravé par l'usage du tabac. Il faut donc absolument éviter de respirer de la poussière d'amiante.

Et pourtant, c'est une substance très utilisée !

Elle l'a été car ses propriétés sont remarquables, inerte vis à vis de la plupart des agents chimiques, donc résistant à la corrosion, excellent isolant thermique et acoustique, incombustible puisque c'est une pierre, Les Romains déjà en faisaient, parait-il, des nappes de table qu'ils nettoyaient en les passant dans le feu. L'amiante a été utilisé dans le bâtiment de 1920 à 1978, mais son emploi avait été interdit en Angleterre dès 1935. On l'utilise encore dans les tambours de frein des automobiles, et naturellement, il en reste un peu partout sous forme de composants de murs de plafonds ou de planchers ou sous forme de textiles réfractaires.

Que faire avec ces résidus ?

Ce n'est pas très simple. Dans les années 1970, on produisait par an environ 5 millions de tonnes d'amiante ! Pour détruire un tel minéral, si on ne veut pas le mettre simplement en décharge, il faut utiliser les grands moyens. On peut tenter la voie humide en le dissolvant dans l'acide fluorhydrique concentré qui n'est pas lui même un produit très sympathique, ou la voie ignée en recourant à une technique haute-température qui le décompose, mais il faut au moins atteindre 1450°C, ce qui demande de l'énergie. On obtient un verre inoffensif, mais sans valeur.

Alors, que peut-on tenter ?

Une équipe de recherche allemande de l'Université de Cologne propose de décomposer chimiquement les fibres en injectant la poudre dans les fours à ciment dont la température est de l'ordre de 1450°C. Les résidus minéraux de la décomposition sont tout à fait convenables comme composants du ciment. Ils disent que cela peut aller jusqu'à 30% de la masse de matière utilisée pour faire le ciment.

Le procédé est-il sûr ?

Il est évident qu'il faut s'entourer des plus extrêmes précautions pour broyer la fibre en poudre et s'assurer que de la poussière ne s'échappe pas du four. Ce qui n'est pas forcément facile à mettre en oeuvre. Mais aussi, la manière dont les fours à ciment sont utilisés comme dépotoirs pour traiter toutes sortes de déchets commence à faire problème. Aux Etats-Unis, une campagne d'opinion a été lancée pour obliger les fabricants à faire la distinction entre les ciments produits avec des déchets et ceux qui correspondent aux fabrications traditionnelles. On reproche aux premiers de risquer de contenir, par exemple des métaux lourds. Enrober les fibres dans du béton n'est pas une meilleure idée à long terme si on veut utiliser le béton pour une construction. Le problème avec les fibres minérales pourrait devenir encore plus aigu, car on soupçonne maintenant aussi les fibres de verre, la laine de verre, et les fibres céramiques comme le carbure de silicium, d'être également susceptibles de provoquer des cancers ...
Radio Classique 120 2 Mai 1996


Bombardement ionique


Le traitement des surfaces de beaucoup de matériaux est une nécessité. Mêmes les plus robustes et les plus résistants peuvent se corroder par les surfaces et peu à peu se transformer et s'effriter. L'air et des fluides comme l'eau ou le sang peuvent ainsi, avec le temps, attaquer la matière, s'y infiltrer et la détruire. C'est la raison pour laquelle on utilise autant de revêtements comme les peintures, les vernis, les dépôts minces de films plastiques ou d'agents chimiquement inertes.

Et je suppose qu'il y a beaucoup d'innovations dans ce domaine

Oui, parce qu'en raison de la multiplication des techniques d'analyse physiques et chimiques la science des surfaces a considérablement progressé et on commence à bien connaître la structure des toutes premières couches d'atomes sur une surface et à comprendre les accidents géographiques dont cette croûte est le théâtre. On a aussi appris à la modifier, à la manipuler en somme, pour améliorer les propriétés dans le sens désiré par l'utilisateur.

Alors, quels sont les derniers développements ?

Il s'agit de retombées des efforts techniques engagés autour du projet de "Guerre des Etoiles" et aussi des tentatives de réaliser la fusion nucléaire par divers procédés. Dans le catalogue de ceux ci on trouve la manipulation de faisceaux pulsés d'ions légers positifs et très énergétiques. Lorsqu'ils frappent une cible, l'énergie qu'ils transportent est absorbée par les couches atomiques de surface, celles-ci peuvent fondre mais les atomes se réorganisent, car la vitesse de refroidissement est très grande, de l'ordre du milliard de degrés par seconde. L'impact produit donc un traitement de surface qui est une sorte de super hypertrempe.

Quel en est l'avantage ?

Le même que celui que produit la trempe d'un acier par exemple, le métal est plus dur, plus résistant. Le phénomène a été observé pour la première fois par un laboratoire russe en Sibérie vers 1990 avec des impulsions de durée très courte dans le domaine des 100 nanosecondes. La technique peut être employée sur des matériaux très variés, y compris, ce qui n'est pas habituel, sur des matières plastiques comme celles qui sont employées pour les hublots des avions : on les rend résistants aux rayures; ou encore, on peut améliorer des collages de téflon ou de polyéthylène avec de l'epoxy. Ce procédé ne doit pas être confondu avec l'implantation ionique dont nous avons déjà parlé à ce micro et qui consiste, elle, à apporter à la surface de nouveaux éléments chimiques.

Quels sont les principaux domaines concernés ?

Essentiellement l'industrie des outils et des moules, l'aviation, l'automobile, et, dans le domaine de la médecine, les prothèses de hanches artificielles qu'il faut changer au bout de 10 ans avec beaucoup d'inconvénients pour le patient. Avec ce traitement elles pourraient atteindre une durée de vie de 20 à 30 ans grâce à un meilleur poli, et une surface plus dure et mieux résistante à la corrosion.

Mais est ce que la machine à employer n'est pas très coûteuse ?

Une société, Quantum Manufacturing Technology, vient d'être créée à Albuquerque soutenue par du capital risque représenté sur le NASDAQ américain et par les Laboratoires Nationaux Sandia. Les machines capables de produire des faisceaux d'ions pulsés à la fréquence de 100 coups par seconde ont été grandement améliorées ces dernières années par une manipulation adroite des champs magnétiques nécessaires et par l'utilisation de plasmas confinés comme sources d'ions. Il reste à savoir si on peut mettre sur le marché un appareil d'un coût raisonnable et peu encombrant pour exploiter un remarquable phénomène physique dont les applications industrielles potentielles sont évidentes et nombreuses.
Radio Classique 121 9 Mai 1996


La fibre de carbone creuse


La compétition sportive, qui exige des performances sans cesse meilleures, est un bon banc d'essai pour les matériaux nouveaux. Elle en fait en même temps la publicité. Ainsi la fibre de carbone est bien connue pour ses utilisations nautiques comme les mats des bateaux ou les châssis d'automobiles de course comme par exemple la 195 Jordan équipée du moteur V12 Peugeot. Elle combine légèreté et résistance si bien que la voiture en question avec son pilote ne pèse que 600 kg.

Qu'y-a-t-il donc de merveilleux dans ces fibres ?

Déjà en 1900 Edison avait utilisé un filament de carbone pour ses lampes. Le carbone est un élément beaucoup plus léger que les métaux qui forment la base des aciers par exemple. A l'abri de l'air, il est mécaniquement stable jusqu'à des températures élevées. L'une de ses variétés, le graphite, est particulièrement résistant à la déformation parallèlement à l'un des plans de sa structure, par contre, il est plutôt fragile dans la direction perpendiculaire. Mais, comme une feuille que l'on roule, on est arrivé à fabriquer des fibres parallèles à la bonne direction. Elles confèrent alors aux substances auxquelles on les combine, un plastique par exemple, une résistance considérable.

Comment les fabrique-t-on ?

La technique a été mise au point dans les années 60. La qualité de la fibre dépend beaucoup du produit de départ. Le meilleur précurseur est une fibre de polyacrilonitrile que l'on étire d'abord dans l'eau chaude avant de la chauffer à l'air puis de graphitiser le charbon obtenu en atmosphère inerte à des températures maximum comprises entre 1100 et 3000° C selon la qualité que l'on cherche à obtenir et en fonction de l'usage. En fait on fabrique des paquets de quelques milliers de fibres à la fois sur une longueur qui peut atteindre 2 km. Mais il faut souvent ensuite leur faire subir un traitement de surface par voie humide pour améliorer la cohésion latérale.

Il s'agit donc d'une préparation longue et compliquée

C'est ce qui explique que l'usage est limité aux applications de haute technologie et aux produits pour lesquels le rapport poids/performances est essentiel. Elles sont utilisées dans l'aviation, l'automobile et pour les accessoires sportifs comme les skis, les clubs de golf et les raquettes de tennis. La production plafonne à environ 15000 tonnes par an. La situation changerait si les applications s'étendaient aux travaux publics. Mais il y a d'autres fibres compétitives sur le marché comme le kevlar de la famille des aramides mis au point difficilement par DuPont depuis 1970, à un prix de développement estimé à 1 milliard de dollars, mais dont la production dépasse maintenant 40000 tonnes par an.

Que se passe-t-il donc de nouveau dans ce domaine ?

Un laboratoire anglais lié au Ministère de la Défense de ce pays annonce la mise au point de fibres de carbone creuses qui seraient 30% plus résistantes sous charge que les fibres pleines. La solidité latérale est aussi améliorée. Leur mise en oeuvre pourrait réduire le poids des avions militaires de 10%. Les japonais ont déjà obtenu, il y a deux ans, des fibres de carbone creuses. Ils les produisent en calcinant le bois d'un cyprès japonais. L'âme de la fibre est alors simplement l'ancien canal nutritif du bois. D'autres laboratoires décrivent la fabrication de fibres creuses en diamant ou en carbone vitreux. Ce qui est peut être le plus important dans ces nouvelles fibres, c'est la présence de ce vide central que l'on peut éventuellement remplir de quelque chose, comme une colle qui durcirait à l'air et qui permettrait donc de réparer la fibre en cas de rupture. Les fibres de carbone sont déjà employées comme filtres, comme catalyseurs de réactions chimiques, ou comme absorbeurs de gaz, notamment des oxydes de soufre et d'azote. Ces curieux nouveaux supports vont sûrement exciter l'imagination des chimistes.
Radio Classique 122 23 Mai 1996


Le diamant arrive ...


Quelques uns pensent que le diamant, pierre précieuse qui fait rêver depuis toujours, sera le matériau du XXIème siècle. Nous avons plusieurs fois évoqué ici ses étonnantes propriétés physiques et la multiplication des techniques industrielles qui permettent de l'obtenir à un coût relativement modeste sous forme de micro-cristaux ou de couches minces. Or, voici que sur la route du siècle futur un pas décisif vient d'être franchi pour la conquête par le diamant de nouveaux domaines techniques.

De quoi s'agit-il ?

D'une propriété physique trés curieuse que le diamant est presque le seul matériau à posséder. Le cristal taillé selon certains plans peut en effet, sous vide à froid, émettre des électrons. D'ordinaire dans les tubes cathodiques par exemple ou dans les vieilles lampes radio, les électrons sont émis par un filament métallique chauffé. Dans le cas du diamant l'émission peut être spontanée, il permet donc de fabriquer des cathodes froides.

Comment procède-t-on ?

Le diamant est normalement un isolant, pour qu'il puisse émettre des électrons il faut le rendre conducteur par dopage. Il faut rechercher des conditions telles que l'émission puisse être déclenchée par une faible tension électrique et que le flux d'électrons émis ait une densité importante. C'est ce problème qui vient de recevoir un début de solution par l'incorporation d'atomes d'azote dans la structure du diamant. Une équipe anglo-japonaise vient d'annoncer dans le numéro du 9 Mai de la revue britannique "Nature" la mise au point de cathodes froides de diamant dopé avec 0,2% d'azote, préparées par une technique de dépot chimique en phase vapeur. Dans ces procédés des molécules organiques sont décomposées brutalement au contact d'un filament de tungstène trés chaud, 2300°C, et les débris, en l'occurence pour le diamant des atomes de carbone, sont recueillis sur une cible et forment là une couche du produit désiré. L'astuce semble être l'emploi de l'urée comme source d'azote dans un mélange d'acétone et d'hydrogène à basse pression.

Et quelles sont les performances ?

Le diamant dopé obtenu forme des cathodes froides dont l'émission électronique peut être déclenchée par une pile de 1,5 volt et qui peuvent délivrer un courant d 'électrons d'une intensité de 10-6 ampères par cm2 sur une distance de 3 microns sous vide. Ce qui est en jeu c'est la possibilité d'utiliser ces cathodes pour fabriquer des composants microélectroniques sous vide. Ces sources miniatures peuvent fournir des éléments de circuits intégrés éxécutant des fonctions électroniques mais aussi les électrons émis peuvent être utilisés pour exciter des luminophores comme sur les écrans de nos téléviseurs et permettre de composer des dispositifs d'affichage.

Avec quelles conséquences ?

On peut penser qu'une nouvelle technologie est en train d'apparaitre, elle aussi candidate à la course au meurtre du tube cathodique pour la réalisation de grands écrans plats, course dans laquelle la plupart des grandes sociétés fabriquant des téléviseurs sont engagées. Les techniques de gravure par photolithographie, qui permettent de fabriquer de minuscules composants électroniques, peuvent conduire à des panneaux d'affichage plats, composés d'assemblages de points correspondants à la cathode froide associée à son luminophore. D'autant plus que ces procédés progressent car on emploie des sources de lumière d'une longueur d'onde de plus en plus courte. Alors que les "puces" actuelles ont une largeur minimale d'environ 0,3 microns, avec l'ultraviolet lointain ou les rayons X on atteint 0,1 microns (un millième de l'épaisseur d'un cheveu ...). Le service de physique de l'état condensé du CEA à Saclay et le Laboratoire de microélectronique et microstructures du CNRS développent des techniques de ce genre pour graver des plots magnétiques dans une couche de matériau ferromagnétique, un procédé qui pourrait permettre de fabriquer un jour des cassettes vidéo qui puissent stocker 40 heures de programmes, peut-être enregistrées sur un écran géant plat composé de micropastilles de diamant dopé !



Radio Classique 123 30 Mai 1996


Les cristaux liquides domptés


Nous vivons dans un monde dans lequel l'image est de plus en plus importante, elle devient notre compagnon permanent. Elle peut nous suivre dans nos déplacements. Il existe des télévisions miniatures et aussi des ordinateurs portables qui peuvent afficher des textes, des images et, s'ils sont branchés par l'intermédiaire d'un modem à un réseau, toute la variété de l'offre nouvelle des sites Internet. La technologie de tous ces systèmes mobiles repose sur la possibilité de fabriquer des écrans.

Qu'est-ce qui caractérise cette technologie ?

Pour les écrans des systèmes portables, la technologie des cristaux liquides domine le marché parce qu'elle permet de faire des écrans petits et lumineux, consommant peu d'énergie.

Quel en est le principe ?

On utilise des molécules organiques qui ressemblent à de petits bâtonnets et qui ont la propriété lorsqu'elles sont orientées parallèlement les unes aux autres de changer d'orientation collectivement lorsque qu'un champ électrique est appliqué. Le système est alors transparent ou pas pour une lumière polarisée dont la couleur peut être contrôlée par des filtres. On arrive à réaliser de petites mosaïques de ces dispositifs avec des électrodes transparentes et des couches minces de cristaux liquides d'une épaisseur d'environ 5 microns. La distribution des informations sur l'ensemble des éléments de la mosaïque, les pixels, permet de produire une image. Un exemple classique est l'affichage noir et blanc des montres digitales.

Une technique assez répandue effectivement !

Il y a un détail incroyable dans la préparation de ces écrans. Deux fines lames de film plastique faites d'un polymère d'une épaisseur d'environ 100 nanomètres servent de supports pour maintenir en place la couche de cristaux liquides. Or, pour orienter convenablement les molécules de ces cristaux, il faut utiliser un truc : frotter ces supports de plastique avec un tissu de velours, une méthode inventée en 1925 et qui est aujourd'hui très sophistiquée dans sa mise en oeuvre, mais qui est un tour de main plutôt qu'un savoir scientifiquement maîtrisé ! Le procédé a en outre l'inconvénient de générer des poussières et des charges électriques qui nuisent à la qualité des raccords électroniques. C'est très paradoxal pour une industrie qui utilise des salles blanches très propres, et c'est l'une des raisons pour lesquelles on n'arrive pas à faire des écrans à cristaux liquides de grandes dimensions car la probabilité d'avoir des défauts est trop grande.

Alors qu'y-a-t-il de nouveau ?

Les chercheurs d'une société suisse filiale de Hoffmann-La Roche, Rolic de Bâle, viennent d'annoncer qu'ils ont réussi à orienter convenablement des molécules de cristaux liquides à partir d'un support recouvert d'un produit chimique qui peut être traité par de la lumière ultraviolette polarisée. Celle-ci produit des ruptures et des polymérisations dans la substance au contact des molécules du cristal liquide et celles ci sont suffisamment sensibles à cet environnement pour s'orienter docilement dans les directions imposées par le traitement optique. On peut donc ainsi, pixel par pixel avec des procédés photolithographiques contrôler l'alignement et l'orientation des cristaux liquides. Ce changement fondamental d'un détail bloquant dans le processus d'élaboration ouvre des perspectives et peut engendrer l'apparition de nouveaux systèmes optiques. La conséquence directe est que ces écrans plats dont l'image n'est vraiment bonne qui si on les regarde bien en face se prêtent maintenant avec ce nouveau procédé à une vision latérale acceptable. L'inconvénient c'est que l'on pourra bientôt loucher sur le portable de son voisin d'avion ou de train !
Radio Classique 124 6 Juin 1996


L'âge du gène


Un article de la revue américaine "Science" nous a appris il y a trois semaines que des chercheurs canadiens avaient réussi à prolonger la vie d'un petit ver Caenorhabditis elegans d'une manière très spectaculaire, puisqu'au lieu de vivre 10 jours, l'innocente bestiole peut désormais passer deux mois sur la Terre ! Le ver en question est le modèle conventionnel utilisé par les biologistes pour l'étude du vivant.

Que s'est-il passé ?

Une modification génétique. On savait que des mutants pouvaient vivre plus longtemps surtout après avoir été exposés à des rayons ultraviolets ou à des produits chimiques. Ce qui est nouveau c'est que la position des mutations nécessaires dans le génome, très bien connu, du ver ont été identifiées. Sans que l'on comprenne pour autant comment ces facteurs commandent la durée de la vie. On peut cependant observer que les vers qui en bénéficient se déplacent avec mollesse et semblent en tout ralentis, c'est à dire atteignent l'âge adulte plus tard tout en ayant une meilleure résistance à des causes de stress comme l'élévation de la température.

Quelles conclusions en tirer ?

D'abord que les vers en question ne sont pas bien adaptés à la rude compétition de la vie sauvage, ils vivent longtemps, mais dans un bocal ! Ensuite, il y a des études sur l'homme qui portent presque sur le même sujet. Mais à l'envers. En avril une société de biotechnologie de Seattle, Darwin Molecular Corporation, a annoncé avoir identifié le gène du syndrome de Werner, c'est à dire du vieillissement prématuré qui peut affecter certaines personnes. Dans ce cas le gène code pour la fabrication d'une enzyme dont la fonction est de détordre et de séparer les deux brins de la double hélice de l'ADN. Il semble donc que ce soit le traitement de l'information portée par l'ADN qui soit défectueux dans le cas de ce syndrome.

Comment obtient-on ces informations ?

Par un effort de type industriel portant sur la cartographie du génome puis sur le séquencage de la zone repérée ce qui conduit à l'identification de plusieurs centaines de milliers de paires de bases dans la structure de l'ADN. L'ADN qui compose nos 24 chromosomes contient environ 3 milliards de paires de base de ce genre codant pour environ 80000 gènes. Déchiffrer tout cela est l'objectif du Projet Génome Humain qui pourrait coûter environ 3 milliards de dollars répartis sur 15 ans. De nouvelle stratégies pour arriver plus vite au terme de cet immense chantier sont proposées.

Qu'est-ce qui évolue dans ce domaine ?

Le génome d'organismes simples commence à être très bien connu. Des chromosomes artificiels de bactéries peuvent être préparés qui enferment chacun, comme un hôte, une petite séquence du génome humain, lequel peut être ainsi découpé en environ 300000 segments. Les chromosomes peuvent être identifiés et être reproduits par clonage. Ils contiennent une sorte de bibliothèque de textes représentant des pages déchirées du génome humain dont le déchiffrement morceau par morceau et la mise bout à bout grâce aux fragments communs peut conduire à une lecture du génome à grande échelle. Les laboratoires peuvent travailler chacun sur des parties plus ou moins volumineuses du problème avec les méthodes qui leur conviennent et les résultats mis immédiatement à la disposition des autres chercheurs sur le WEB du réseau Internet. La technologie aujourd'hui révolutionne la biologie, les progrès sont très rapides. De plus en plus de sociétés se montent pour exploiter de nouveaux procédés. C'est l'un des objectifs du Nouveau Marché lancé il y a quelques mois en France dans l'esprit du Nasdaq américain, de fournir des moyens financiers aux entrepreneurs qui se lancent dans l'innovation, notamment dans le domaine des sciences de la vie.

Radio Classique 125 13 Juin 1996


La chimie combinatoire


Mettre au point un médicament, c'est d'abord découvrir une molécule efficace. Le hasard et les usages traditionnels peuvent aider. C'est la raison pour laquelle les chasseurs de molécules inventorient la pharmacopée des médecins-sorciers des villages africains ou asiatiques.

Est-ce qu'il existe des méthodes moins aventureuses ?

Il est très facile d'évaluer avec des techniques automatiques le potentiel d'activité d'une molécule pour une thérapie, et ceci quelle que soit son origine, plantes, animaux, biotechnologies, ou synthèses chimiques. Mais pour que ce criblage ait une chance de conduire à des produits actifs, il faut disposer d'un grand nombre de molécules appartenant à des familles chimiques suffisamment variées et de structures diversifiées. C'est la possibilité qu'offrent aujourd'hui les techniques de synthèse combinatoire qui se développent d'une manière explosive. Elles permettent de fabriquer plusieurs milliers de produits chimiques différents simultanément.

Comment fait-on ?

La synthèse organique peut se faire assez facilement dans des solutions. On fait réagir deux produits qui en forment un troisième. Si on veut fabriquer beaucoup de variantes, c'est long parce qu'il faut aussi séparer les substances intéressantes des réactifs en excès. Au début des années 90 quelques pionniers ont eu l'idée de faire de la synthèse organique non pas en solution mais sur les surfaces de petites billes de polystyrène d'un diamètre compris entre 50 et 100 microns auxquelles l'une des substances de départ est attachée par une liaison chimique. Le produit cherché reste lui aussi lié aux billes et il suffit de séparer celles-ci pour l'isoler.

Quel est l'avantage ?

On procède selon un plan combinatoire logique. Le paquet des billes qui ont fait l'objet d'une première réaction est divisé en plusieurs lots. Chacun de ces lots réagi à son tour avec des produits chimiques différents. On mélange ensuite les lots pour rediviser de nouveau le paquet pour une nouvelle étape de réaction avec encore d'autres produits chimiques, après on remélange, etc... On aboutit à fabriquer un paquet dont chaque bille enferme une molécule de synthèse différente. On étale les billes sur un support et un test biologique permet par exemple de savoir si l'une d'elle reconnaît un anticorps. On isole alors le produit chimique qu'elle contient. La technique a été appliquée avec beaucoup de succès à des enchaînements d'acides aminés que l'on appelle des peptides.

Quels sont les résultats ?

Les collections de molécules ainsi fabriquées, généralement des variantes construites autour d'un squelette moléculaire de base commun, s'appellent des "bibliothèques"; c'est un peu comme les échantillothèques des sociétés pharmaceutiques. On a pu obtenir d'un coup, par exemple, 15625 tripeptides. L'un d'entre eux avait une activité pharmacologique intéressante. Les techniques aujourd'hui se multiplient, on arrive même à se passer des billes et à conduire les opérations en solution. Beaucoup de laboratoires s'intéressent à ces méthodes, par exemple notre Institut Pasteur de Lille. De petites sociétés se constituent pour exploiter ces procédés.. Le nombre de familles chimiques étudiées augmente. Il existe des bibliothèques de petites molécules organiques capables de passer facilement dans le sang comme celles de la famille des benzodiazépines à laquelle appartient le valium. Des chercheurs américains viennent d'annoncer la préparation d'une bibliothèque de 1500 sucres, molécules très importantes pour leur fonction de récepteurs à la surface des cellules et dont la synthèse est difficile. Des composés ont été découverts par ces méthodes qui sont testés pour leur efficacité pour des maladies nerveuses, l'artériosclérose, et l'obésité. La chimie, science créative, dispose d'un nouvel et puissant outil !

Radio Classique 126 20 Juin 1996


Le frottement


Il est extrêmement rare qu'un article scientifique contemporain fasse référence à des travaux parus il y a plus d'un siècle. C'est pourtant ce que fait un article publié dans la revue américaine Science il y a un mois, le 24 Mai 1996. Les auteurs, deux chercheurs de Harvard, la prestigieuse Université du Massachusetts, mentionnent dans leur bibliographie un mémoire lu le 19 Décembre 1699 devant l'Académie Royale des Sciences à Paris.

Quel est donc ce problème qui traverse trois siècles ?

En 1699 ce mémoire, dont l'auteur est un savant nommé Amontons, a posé les bases de la tribologie, c'est à dire de la science des frottements. Il traite de "la résistance causée dans les machines par les frottements des parties qui les composent". Et il estime que la dépense d'énergie nécessaire pour vaincre ces frottements correspond au moins au tiers de celle qu'il faut employer pour se servir de la machine, soulignant par là l'importance économique du problème.

Et quelle est la contribution des chercheurs contemporains ?

Le frottement de deux surfaces solides l'une sur l'autre est très complexe, même si un lubrifiant intervient. Pour comprendre ce qui se passe il faut avoir une bonne définition de l'état des surfaces, de leur rugosité, de la nature des espèces chimiques adsorbées, etc..., ce qui est déjà dans les préoccupations d'Amontons. Jusqu'à présent, les descriptions étaient macroscopiques et les premiers principes, au niveau atomique et moléculaire, des phénomènes de friction et d'adhésion difficiles à saisir. Les chercheurs de Harvard ont conduit une étude expérimentale du frottement de deux surfaces l'une sur l'autre au niveau atomique.

Par quelle méthode ?

Ils ont utilisé un microscope à force atomique pour déplacer des nanocristaux d'oxyde de molybdène sur la surface d'un monocristal de disulfure de molybdène, un important lubrifiant solide industriel. Un microscope à force atomique utilise une aiguille métallique dont la pointe est constituée d'un seul atome et dont les mouvements sont contrôlés avec une très grande précision par des quartzs piézoélectriques. Ils ont ainsi pu mesurer les forces nécessaires pour déplacer le cristal selon les directions des plans atomiques. Les résultats montrent des différences considérables entre les directions, c'est à dire une forte anisotropie. Le déplacement est très aisé si les rangées d'atomes de molybdène de l'oxyde peuvent glisser entre les rangées que forment ceux du disulfure, un peu comme à travers les dents d'un peigne. Dans cette direction privilégiée la résistance au frottement est 20 fois plus faible que pour le lubrifiant disulfure brut.

Quelles sont les conséquences possibles ?

Au cours de ces expériences les chercheurs ont pu manipuler leurs cristaux comme des pièces mécaniques et réaliser des assemblages qui sont l'équivalent d'une serrure, ou d'un dispositif logique, à l'échelle nanométrique soit une taille globale d'environ 50 nanomètres pour un loquet engagé reversiblement dans une encoche. Le résultat indique aussi que l'on peut certainement améliorer encore beaucoup le frottement en alignant correctement les rangées atomiques sur les surfaces qui se frottent. Ces questions de frottement, souvent associé à des effets d'usure, sont critiques pour beaucoup de problèmes industriels et mettent en jeu chaque année des milliards de dollars. Une nouvelle technologie apparaît, la nanotribologie. On pense qu'elle permettra d'améliorer le fonctionnement de systèmes dont la qualité dépend beaucoup de la maîtrise du frottement, comme les disques durs des ordinateurs et les dispositifs microélectromécaniques utilisés par exemple dans les accéléromètres des air-bags de nos voitures. Monsieur Amontons serait sûrement content de voir, après 300 ans, la question du frottement mieux comprise !
Radio Classique 127 27 Juin 1996


L'olympisme et la science


Les Jeux d'Atlanta vont avoir lieu du 19 Juillet au 4 Août 1996. C'est un grand événement médiatique et sportif où va s'illustrer cet esprit de compétition qui domine notre vie culturelle et économique. On peut dire beaucoup de choses là dessus sur le plan philosophique, mais ce grand spectacle a aussi des composantes scientifiques.

De quelle nature ?

Il y a d'abord des paramètres dans la compétition qui relèvent de la physique de base et qui sont commandés par des facteurs locaux. Comme l'été américain est chaud et humide, on peut s'attendre à ce que les objets lancés, disques ou javelots, aillent plus loin que d'habitude simplement parce que l'air humide est moins dense que l'air sec et offre moins de résistance aux appareils volants. Pour la même raison, les sauteurs devraient sauter plus loin. Il y a donc des records en vue. Par contre, les coureurs de fond vont souffrir parce que cet air humide contient légèrement moins d'oxygène que le sec et ne permet pas aussi à la sueur de s'évaporer ...

Je suppose que l'on va battre des records ?

Sans doute, mais sûrement pas celui de la vitesse sous l'eau pour un être vivant détenu par le thon avec des pointes de 110 km/h. Le nageur de vitesse dépasse à peine 7 km/h. Par contre, il faut s'attendre à ce que des records tombent en matière de communication. IBM s'est assuré l'exclusivité des moyens informatiques sur le site d'Atlanta et y installe 4 grands systèmes S/390, une centaine de serveurs de la gamme AS/400, 7000 ordinateurs personnels, et 250 réseaux informatiques Token-ring. Il s'agit d'une des plus grosses opérations de communication jamais montées : les résultats devraient parvenir à la presse mondiale en moins de 3/10ème de seconde !

On peut s'attendre en effet à une couverture médiatique importante !

Je ne sais pas si Radio Classique communiquera les résultats entre deux notes de musique, mais 9500 radios, 11.500 télévisions, 15.000 journalistes, diffuseront des informations sur les performances et les aventures des 10.000 athlètes et 5.500 entraîneurs et officiels. Il y a encore d'autres chiffres qui peuvent donner le tournis. Parmi ceux-ci, le nombre de visites journalières qu'IBM attend sur le site Internet qu'il vient d'installer soit environ 3 millions de connexions.

N'est ce pas impressionnant?

Peut être plus dans la mesure où cela marque une évolution dans notre culture. Le cyberespace a pris une importance économique et culturelle qu'il n'avait pas il y a quatre ans. Les installations d'Atlanta, le stade par exemple, et la cérémonie d'ouverture ont été modélisés en 3D avant d'être réalisées. Pour que tout se passe bien la sécurité doit être assurée et les techniques nouvelles d'analyse d'images ont été exploitées. Les 80 sites olympiques sont équipés de lecteurs d'empreintes digitales qui doublent les badges conventionnels et permettent de s'assurer de l'identité des 150000 personnes accréditées sur les lieux.

Tout sera donc parfait ?

Il reste un problème : l'éventualité du dopage. La détection est souvent difficile, mais les moyens de lutte se perfectionnent, là aussi grâce aux progrès des sciences. Le Service Central d'Analyse du CNRS propose de détecter les substances dopantes, comme la testostérone une hormone sexuelle, par l'analyse de la proportion de l'isotope 13 du carbone dans les extraits des urines. Le rapport entre le carbone 13 et le carbone normal, le 12, dépend du processus de fabrication des hormones. Pour la testostérone naturelle chez l'homme le précurseur est le cholestérol, le rapport sera différent de celui du produit artificiel qui est préparé à partir de substances végétales. Si le rapport spécifique pour l'hormone récupérée dans les urines n'est pas le même que celui du cholestérol de l'athlète, alors il y a soupçon de fraude. La science et la technologie peuvent être très présentes sur tous les fronts du combat olympique !
Radio Classique 128 5 Septembre 1996


Science et Technologie


On a souvent l'impression qu' "innovation" signifie plus ou moins "gadget". C'est la petite chose en plus qui va améliorer un appareil. Souvent on obtient des effets de ce genre en accumulant les fonctions et par exemple en insérant des possibilités qui sont utiles au spécialiste mais qui apportent peu au profane. Par exemple les analyseurs de spectres sonores sur les chaînes haute fidélité. Ces cadrans où s'affichent des informations mobiles donnent à l'engin un petit air scientifique et technique qui est comme le garant de sa perfection ..., cela correspond plutôt à une stratégie de design.

Alors qu'est ce que l'innovation ?

Il y a plusieurs types d'innovations qui entraînent des changements dans les pratiques industrielles et les habitudes sociales. Il y a l'innovation qui frappe tout d'un coup le marché et le bouleverse, par exemple le remplacement du disque vinyl par le disque laser. Une technique devient obsolète et la nouvelle entraîne le changement des habitudes du consommateur et l'apparition d'une nouvelle gamme de produits d'équipement pour profiter de la technologie nouvelle, laquelle doit évidemment avoir un avantage considérable sur l'ancienne. Les innovations dans les programmes informatiques tentent souvent de parvenir à ce stade, c'est à dire tuer leurs prédécesseurs et les remplacer.

Existe-t-il des innovations moins brutales ?

Il y a des innovations progressives, lentes et laborieuses, qui améliorent une technologie. A terme elles peuvent avoir de fortes conséquences industrielles. Par exemple, il a fallu 10 ans de travail de recherche pour que, peu à peu, la luminosité des écrans de télévision augmente jusqu'à permettre la vision claire en plein jour. Les fabricants qui n'ont pas su réaliser ces progrès ont disparu du marché par le simple effet de la concurrence car, peu à peu, les gens ont trouvé "normal" d'avoir un écran de télévision très lumineux et les plus jeunes n'ont jamais connu ceux pour lesquels il fallait fermer les rideaux ... De même, les moteurs des voitures automobiles consomment de moins en moins.

Il y a donc des appareils qui s'améliorent par petits à-coups

Pour la même technique il y a cependant des ruptures : la radio à lampes a été éliminée par le transistor qui a permis la miniaturisation, le portable. Aujourd'hui, on cherche à se débarrasser du poste de télévision actuel pour faire quelque chose de plus grand et de plus léger, mais le tube cathodique tient toujours car il est plus lumineux que ses concurrents.

Quel est le moteur des innovations ?

C'est incontestablement la recherche. Pour essayer de deviner ce que seront les innovations de demain, il faut observer les tendances de la recherche. Aujourd'hui, elle travaille sur des matériaux organiques, voire biologiques, qui pourraient assumer les fonctions exercées dans notre technologie par des substances minérales comme le silicium. Elle cherche à exploiter des phénomènes fondamentaux dans des volumes de plus en plus petits, par exemple on a réussi ces dernières semaines à faire passer à la température ordinaire un seul électron à travers une molécule organique. On arrive à fabriquer des films très minces, ou des nanotubes composés d'un squelette d'atomes de carbone, et on voit bien que ces composants potentiels pourraient entraîner une révolution technique s'ils arrivaient à supplanter le silicium, ou les luminophores minéraux des écrans, comme support des fonctions électroniques. Finalement ces tendances correspondent à une tentative de se rapprocher de la merveilleuse économie de moyens des assemblages de molécules qui font le support des fonctions biologiques ... Il s'agit donc de s'inspirer de la vie pour fabriquer de l'artificiel ...

Radio Classique 129 12 Septembre 1996


Trois terres rares pour trois dimensions


Les lanthanides, ces éléments représentés un peu à part dans les tableaux qui illustrent la classification périodique, appartiennent au groupe des terres rares, qui est une grande spécialité de la recherche et de l'industrie française. Déjà présents sur les écrans de nos postes de télévision, ils viennent encore d'être associés à un procédé nouveau de fabrication d'images.

Je crois que ces éléments sont d'ailleurs votre spécialité professionnelle ...

En effet, et la nouvelle application résulte directement de travaux de recherche fondamentaux français des années 1970. Elle combine une découverte faite par François Auzel au CNET à Bagneux et la mise au point, à peu près à la même époque, d'un matériau nouveau par un Laboratoire universitaire de Rennes. Auzel avait démontré la possibilité d'exciter la luminescence visible, rouge ou verte, d'un ion lanthanide, en l'occurrence l'erbium, par excitation infrarouge due à l'absorption simultanée de deux photons infrarouge de longueurs d'ondes différentes par le même ion. Le laboratoire de Rennes avait mis au point la préparation de verres fluorés transparents dans l'infra rouge. Ce sont d'excellents matériaux pour fabriquer des fibres optiques pour les communications à grande distance. En plus, c'est dans les matériaux fluorés que le rendement de l'effet Auzel est le plus élevé.

Alors, quel est le nouveau procédé ?

Des chercheurs de l'Université de Stanford en Californie ont eu l'idée de fabriquer un cube d'environ 1 cm. de coté construit avec des verres fluorés contenant trois terres rares, le thulium, l'erbium, et le praséodyme, susceptibles d'émettre respectivement de la lumière bleue, de la lumière verte et de la lumière rouge par une double excitation spécifique dans l'infrarouge. Il est très facile aujourd'hui d'utiliser pour cela des diodes lasers puissantes qui émettent dans l'infra rouge aux bonnes fréquences et avec assez d'énergie pour que le rendement lumineux soit bon.

Quel type d'image obtient-on ?

Au moyen de miroirs les lasers peuvent viser un point quelconque du volume du cube. On conçoit qu'avec une commande électronique associée on peut générer dans le volume du cube une image tridimensionnelle en couleurs. Pour le moment, les gens de Stanford se bornent à représenter dans leur cube des figures correspondant à des courbes mathématiques classiques que l'ordinateur qui commande l'évolution des miroirs génère aisément.

Quel est son avantage ?

Le système fournit une véritable vision en trois dimensions. Il n'y a pas besoin de tromper l'oeil avec une image qui est en fait en deux dimensions comme le font beaucoup de systèmes actuels qui exigent que l'observateur porte des lunettes spéciales. Des procédés vraiment 3D comme l'holographie ont une basse résolution et ne permettent pas la projection d'images animées. Les procédés qui génèrent des images dynamiques 3D sur écran par divers procédés graphiques imposent un point de vue au spectateur et l'image calculée oblige à porter un casque encombrant. Le cube offre l'avantage d'un champ de vision plus large, on peut tourner autour de l'image et le spectateur peut accommoder sur un plan au sein du volume, et déplacer son point de vue. La technique permet aussi de modifier rapidement la présentation et offre donc une possibilité d'interactivité entre l'image et le spectateur. Les gens de Stanford pensent qu'il est possible de fabriquer des cubes d'environ 30 cm. d'arête. C'est une dimension déjà impressionnante qui pourrait trouver des applications dans l'imagerie médicale.
Radio Classique 130 19 Septembre 1996


Un laser en plastique


Depuis un siècle, la recherche et la technologie ont inventé et mis sur le marché des lumières nouvelles, bien différentes de celle de la chandelle d'autrefois ou même de la lumière des ampoules électriques qui nous est si familière. Beaucoup de ces lumières nouvelles, qui n'existent pas du tout dans la nature, sont monochromatiques ou composées d'un bouquet d'émissions monochromatiques, c'est à dire dont la longueur d'onde est bien définie. Un bon exemple est celui des enseignes lumineuses, ce que l'on appelle familièrement les tubes "néon", qui brillent le soir dans nos villes avec toute la variété de leurs vives couleurs. Mais avec le laser on a fait mieux encore.

Qu'est-ce que le laser ?

Le laser est un dispositif optique qui produit de la lumière monochromatique et cohérente. La lumière est une onde. Dans une source ordinaire les diverses ondes qui partent de chaque point du dispositif émetteur, même si elles ont la même longueur d'onde, ne sont pas en phase : creux et bosses ne coïncident pas. Dans un laser les émissions se font à partir d'atomes ou de molécules excitées. Grâce à un dispositif optique particulier que l'on appelle une cavité, elles sont rigoureusement en phase. Le faisceau émis est directionnel et peut transporter beaucoup d'énergie. Un laser se compose essentiellement d'un matériau solide liquide ou gazeux contenant un système physico-chimique, susceptible de donner lieu à ce mode d'émission spontanée cohérente, couplé à un dispositif d'excitation qui peut être par exemple un flash qui émet une lumière blanche intense en peu de temps.

Alors, qu'il-y-a-t-il de nouveau dans ce domaine ?

Les matériaux utilisés pour obtenir l'effet laser sont souvent des verres ou des cristaux de haute qualité, ou des semi-conducteurs minéraux à base d'arséniure de gallium par exemple. On peut aussi employer des liquides contenant de fortes concentrations de colorants organiques ou des gaz comme le gaz carbonique. Et voila qu'à une réunion scientifique consacrée le mois dernier aux métaux synthétiques, c'est à dire aux polymères conducteurs de l'électricité, trois groupes de recherches différents, deux américains et un britannique, annoncent avoir obtenu un effet laser dans un polymère organique semi-conducteur. Et ce qui est plus remarquable encore c'est que l'effet a été observé dans un film mince de ces matériaux.

En quoi est-ce un progrès ?

Le plastique est un matériau versatile et bon marché. Si l'on peut produire un effet laser en son sein, ce nouveau mode d'interaction rayonnement-matière peut être la composante d'innovations pratiques inattendues. En particulier il pourrait offrir la possibilité de produire de la lumière laser d'une très grande variété de couleurs avec un seul dispositif alors qu'aujourd'hui les systèmes sont spécifiques autour d'une nuance de couleur donnée. Il en faut donc plusieurs pour couvrir l'ensemble du spectre visible. On peut aussi imaginer que les films fonctionneront comme guides de lumière.

Pratiquement quelle est la nature du plastique ?

Il s'agit de poly-phenylenevinylene, un polymère luminescent bien connu dont un film est pris en sandwich entre deux réflecteurs de façon à former la cavité laser traditionnelle. Le système moléculaire émettant dans le visible est excité par un laser ultraviolet. Il serait infiniment préférable d'utiliser une technique de pompage qui soit simplement une injection d'électrons, permettant la transformation d'un signal électrique en un signal optique. Mais pour ces matériaux tout neufs, il semble que les densités de courant qu'il faut employer soient trop élevées pour être réalistes. Certainement des progrès considérables peuvent être réalisés dans cette direction. Le plastique aborde la conquête d'un nouveau domaine dans le champ des hautes technologies.
Radio Classique 131 26 Septembre 1996


Une course de vitesse


Alors que le super ordinateur est sur le point de devenir une réalité dans les laboratoires américains liés au Département de la Défense, on dresse déjà des plans pour calculer encore plus vite. La machine qui est en train de naître après cinq ans d'efforts doit faire 1012 opérations par seconde, ce que l'on appelle des "teraflops". Or, voici que des projets de recherche s'engagent pour atteindre 1015 opérations par seconde, c'est à dire une machine "peraflops".

Quelle est l'utilité de ces machines ?

Il s'agit essentiellement de faire des simulations vraiment réalistes, ce qui n'est pas encore le cas par exemple pour les explosions nucléaires. Ou de comprendre les interactions entre les différentes composantes, climatiques, humaines, végétales, etc, ..., de l'écosystème terrestre et aussi de traiter ensemble et simultanément les composantes de problèmes industriels complexes qui sont actuellement simulées séparément.

Comment y parvenir ?

Il y a un problème de support matériel pour le calcul, ce que l'on appelle le "hardware". Pour faire des opérations à la vitesse de la picoseconde, c'est à dire 10-12 secondes, ce qui parait accessible, il faut que la taille du système ne dépasse pas 3 millimètres étant donné le temps qu'il faut au support du signal, électron ou lumière, pour traverser matériellement la structure. Donc l'ordinateur doit être très petit, mais avec les technologies au silicium actuelles, on peut calculer qu'une machine petaflops va générer une énorme quantité de chaleur, jusqu'à peut-être quelques centaines de megawatts, soit autant qu'une petite centrale thermique.

Que faire alors ?

On peut d'abord exploiter mieux les technologies actuelles en plaçant sur la même structure de base de silicium, la puce, à la fois la mémoire et jusqu'à 64 processeurs pour traiter les données. Cela suppose d'avoir des puces d'une qualité suffisante pour permettre cette miniaturisation. Un pas dans cette direction vient d'être franchi par des chercheurs de l'Université Cornell qui ont réussi à fabriquer par une technique haute température des puces carrées de 10 microns de coté dont la surface est absolument plate, c'est à dire ne contient pas de marches ni de défauts à l'échelle atomique. L'autre solution c'est de changer radicalement de support matériel pour incarner les fonctions de l'algèbre de Boole qui commande la manipulation des ordres en langage binaire.

Sur quels principes ?

On peut utiliser ce que l'on appelle un SQUID, c'est un anneau fendu fait en matériau supraconducteur. Il peut retenir un quantum de flux magnétique et donc fournir une base matérielle pour représenter des zéros ou des uns. Une très faible quantité d'énergie suffit pour le faire passer très rapidement d'un état dans un autre, environ 200 fois plus vite que la meilleure technologie silicium prévisible pour les 10 ans à venir. L'inconvénient est que cela ne fonctionne qu'à la température de l'hélium liquide. Une autre possibilité, vient juste d'apparaître. Des chercheurs de l'Université Purdue, dans l'Indiana, annoncent la fabrication de super réseaux bi-dimensionnels faits de petits amas d'atomes d'or. Or les électrons passent dans ces structures un à un d'un amas à l'autre par effet tunnel. Ce processus évite l'accumulation de chaleur due aux flux de courants dans les systèmes conducteurs. Ces réseaux ont l'immense avantage de pouvoir être fabriqués à la température ordinaire, il n'y a pas besoin de recourir à l'ultra vide et aux hautes températures. Les amas sont des cristaux parfaits d'or contenant quelques milliers d'atomes et d'une dimension d'à peu prés 4 nanomètres qui, dans un ordre géométrique parfait, sont écartés les uns des autres d'environ 2 nanométres par des molécules organiques soufrées qui assurent la rigidité de l'ensemble. Une nouvelle base potentielle pour une nouvelle électronique donc. Mais, au fait, comment résoudre à l'échelle humaine la question du traitement et du stockage des myriades d'informations engendrées à toute vitesse par les supercalculateurs ?
Radio Classique 132 Jeudi 3 Octobre 1996


La papaye, la moutarde et la grenouille


Aujourd'hui se tient à Hilo dans l'île d'Hawaii une réunion de l'association des planteurs de papayes, un fruit tropical qui est une importante production locale. Or, cette production, dont le chiffre d'affaires est de l'ordre de 45 millions de dollars, est sinistrée. La papaye est en effet victime d'un virus qui s'attaque non seulement aux fruits mais encore aux arbres. Que faire ? Ce sont justement des éléments de réponse que vont écouter les cultivateurs hawaïens. Le ministère américain de l'agriculture vient en effet d'autoriser la commercialisation d'une variété de papaye préparée par manipulation génétique et qui est résistante au virus.

Comment est-elle obtenue ?

C'est assez curieux, les chercheurs ont isolé du virus un gène qui code pour la protéine de l'enveloppe virale. Or, en injectant ce gène dans le génome de la papaye, il s'exprime sous la forme d'une résistance ... au virus lui même ! Cela ressemble beaucoup à une sorte de vaccination qui pourrait être testée aussi sur d'autres couples fruits-virus. Il faut maintenant modifier le peuplement de papayers de l'archipel. Heureusement, le papayer pousse et produit en un an. Il faut aussi que les institutions publiques chargées de l'Environnement et de l'Alimentation donnent un avis favorable. Un argument fort est que les gens mangent depuis longtemps sans inconvénients des fruits infectés par le virus donc contenant le gène transféré.

Avons nous d'autres exemples de fruits ou légumes ainsi transformés ?

L'année dernière une courge modifiée pour résister à un virus a été commercialisée. Le problème de la protection des plantes économiquement importantes contre les agressions extérieures est sérieux à une époque où l'on se soucie de diminuer les quantités et le nombre de pesticides utilisés. Pour mieux comprendre les plantes, une action internationale est en cours pour déchiffrer complètement le génome d'une variété de moutarde, Arabidopsis thaliana. Il se trouve que cette espèce a apparemment le génome à la fois le plus petit et le plus dense en gènes de toutes les plantes à fleurs. Le séquençage de son ADN est donc un objectif prioritaire. On espère obtenir ainsi des informations de base à partir du déchiffrement d'une plante qui possède les propriétés fondamentales de toutes les plantes.

Quel genre d'informations ?

Un catalogue des gènes impliqués dans la succession des événements au cours du cycle vital végétal de base : graines, fleurs, fruits. C'est une clef utile pour inventer de nouvelles variétés par les méthodes des biotechnologies. Mais, c'est un travail de longue durée qui pourra s'étaler sur une dizaine d'années. Beaucoup d'entreprises de ce genre sont en cours.

Mais alors, la grenouille ?

On parle souvent de techniques "high-tech" mais en matière de génie transgénique la célèbre Harvard Medical School vient d'inventer une technologie "low-tech" pour fabriquer des centaines de grenouilles transgéniques. Il s'agit d'une bestiole africaine assez laide Xenopus laevis qui a la propriété d'avoir des oeufs d'une taille considérable, de l'ordre de un millimètre ce qui permet toutes sortes de manipulations. Dans le cas présent on y injecte une mixture contenant des noyaux cellulaires de sperme dans l'ADN desquels ont été insérées, par une méthode très simple, des séquences d'ADN étrangères. On peut traiter 500 oeufs à la fois et 20% donnent des embryons qui expriment l'ADN inséré dans toutes leurs cellules et sur lesquels on peut analyser l'effet des modifications. Ainsi cette grenouille pourrait avantageusement, et à bon marché, remplacer les souris actuellement utilisées pour déchiffrer les mystères de l'embryogénèse !

Radio Classique 133 9 Octobre 1996

Un hologramme pour la médecine


A l'occasion des 13èmes Rencontres Internationales de l'Audiovisuel Scientifique, organisées la semaine dernière par le CNRS Images médias, a été présenté en avant première un film de Rodolphe Gombergh intitulé "premier domicile connu", associé d'ailleurs à une exposition de photographies et d'hologrammes au Centre Georges Pompidou. Ce film montre en détails les neuf mois de l'enfant dans le ventre de sa mère, ses gestes, ses expressions, ses mouvements, ses habitudes, sa vie organique. Ces images ont pu être obtenues grâce aux nouvelles techniques associées à l'échographie.

Quelles sont-elles ?

Les images échographiques sont obtenues à partir du contraste engendré par les différences de réflexion d'un faisceau d'ultrasons aux limites entre les différents types de tissus biologiques. Les ultra sons pénètrent un peu la matière et permettent donc d'avoir des images de l'intérieur du corps. Mais aujourd'hui, on peut profiter de l'effet Doppler pour obtenir des images saisissantes des parties en mouvement. En effet, on peut analyser la légère différence de fréquence de l'écho selon que la surface réfléchissante avance ou recule. Le résultat est que les mouvements du bébé sont parfaitement visibles et que la vie intra-utérine est ainsi révélée. Le film est très émouvant et surprenant.

Est-ce qu'il y a d'autres progrès ?

Oui, il est désormais possible de transformer les images médicales en hologrammes, c'est à dire d'obtenir une vision tridimensionnelle des organes examinés. Les examens les plus courants sont effectués au moyen de scanners qui utilisent pour recueillir des informations sur l'intérieur du corps, soit la tomographie par rayons X, soit l'imagerie par résonance magnétique. Ces techniques fournissent des séquences d'images qui correspondent à une succession de coupes planes à travers le corps du patient. Un ordinateur peut traiter cette collection d'images en deux dimensions et reconstituer une vision en volume. Mais il y a un problème. Pour restituer l'impression de profondeur, il faut en effet se rabattre sur des techniques artistiques telles que l'ombrage et la perspective. Cela peut être délicat, relativement incertain, et cher.

Alors, comment exploite-t-on l'holographie ?

Pour obtenir l'hologramme d'un objet on divise un rayon laser en deux faisceaux. Le front d'onde de l'un se réfléchit sur l'objet et vient interférer avec l'autre au niveau d'un récepteur qui est un film photographique. Les interférences produites sont enregistrées par le film, elles contiennent des informations sur les différentes parties de l'objet et sur leurs positions dans l'espace. Le film impressionné est l'hologramme proprement dit. Pour obtenir une image virtuelle en trois dimensions de l'objet on éclaire le film avec un faisceau laser identique à celui qui a servi à préparer l'hologramme.

Mais, on ne peut pas observer l'intérieur du corps avec un laser !

Une société californienne, Voxel, a eu l'idée de fabriquer avec un laser un hologramme de chaque image de scanner prise comme objet. Les images sont décalées les unes les autres en profondeur exactement selon la position des coupes à travers le corps et les hologrammes sont enregistrés sur le même film photographique. On peut accumuler ainsi jusqu'à 200 coupes. Pour reconstituer l'image il faut en principe utiliser un autre laser mais comme c'est compliqué pour les praticiens, Voxel a mis au point une chambre qui, grâce à un dispositif très astucieux, restitue à partir du film une brillante image en trois dimensions avec de la lumière blanche. Il y a quinze jours, un congrès médical à Montréal a permis de présenter plusieurs applications notamment pour la préparation par simulation des opérations chirurgicales de tumeurs au cerveau. Les chirurgiens disposent avec l'image holographique d'un modèle parfait du patient sur lequel ils peuvent mettre au point leur intervention.
Radio Classique 134 17 Octobre 1996


La carte de la science


La science s'exprime essentiellement sous la forme écrite. Les chercheurs publient leurs résultats le plus souvent en langue anglaise et tentent de le faire d'abord dans des revues prestigieuses. Mais il faut passer pour cela la sévère barrière des "referees", collègues qui jugent la valeur de l'article et qui recommandent à l'éditeur de le publier ou pas.

Qu'est-ce qu'un article scientifique ?

C'est une construction rationnelle qui mélange un texte difficile bardé de vocabulaire spécialisé, des images qui sont souvent des graphiques et des courbes, des formules, des symboles, des tableaux et des chiffres. Un article scientifique ne peut en général être compris que par un petit nombre de spécialistes. Mais il comporte toujours à la fin un petit appendice, qui donne la bibliographie du sujet traité. C'est la liste numérotée des articles déjà publiés auxquels le ou les auteurs font référence dans le corps de leur travail pour appuyer leur démonstration ou pour critiquer des résultats antérieurs. Or, cette composante obligatoire de toute publication est un enjeu commercial et stratégique.

Comment cela ?

En 1958 à Philadelphie un chercheur, Eugene Garfield, s'est lancé dans une curieuse entreprise : relever toutes les citations dont font l'objet les articles publiés dans les revues scientifiques. Ce qui revient à traiter informatiquement les bibliographies de chaque article et à établir des corrélations qui permettent de savoir combien de fois et dans quelles revues un auteur a été cité. Le "Science Citation Index" était né. Il a été perçu immédiatement comme un instrument d'évaluation quantitatif de la communauté scientifique aussi bien au niveau des individus qu'à celui des laboratoires qu'à celui des nations. Les auteurs les plus fréquemment cités par leurs pairs sont en principe les meilleurs. C'est aussi un élément de jugement de la qualité des revues scientifiques elles mêmes puisque celles dont les articles sont le plus fréquemment cités sont celles dont l'impact est le plus grand et qui sont les plus lues. Donc pour faire connaître ses travaux un chercheur doit tenter d'y publier.

Où en est cette entreprise ?

Garfield avait compris qu'il y avait un marché de l'information scientifique en raison de l'explosion exponentielle du nombre de publications et du nombre de chercheurs. Il faut des méthodes pour s'y retrouver. Son entreprise, l'Institute for Scientific Information, propose un grand nombre d'outils d'évaluation et des aides à la recherche rapide de l'information comme des publications reproduisant les sommaires des revues scientifiques avant leur apparition dans les bibliothèques. En ce moment, ils essaient de construire une bibliothèque électronique permettant la consultation à distance des textes intégraux des articles de 1350 revues scientifiques du domaine des sciences de la vie. Ils sont poussés dans cette direction parce que maintenant des éditeurs offrent directement des publications en ligne sur le réseau Internet et que cette industrie du texte scientifique est en pleine évolution, le lourd rapport papier, dont la diffusion est lente, paraissant de plus en plus obsolète.

Que fait-on encore avec les bibliographies ?

La société de Garfield s'est associée avec les laboratoires Sandia pour traiter les bibliographies de 3 millions d'articles publiés dans les 18 dernières années au moyen d'un ordinateur puissant. L'objectif est d'établir une carte montrant par l'analyse des citations les corrélations entre des domaines scientifiques différents, par exemple la biologie et la physique. Il s'agit de repérer les domaines en émergence, et d'observer leur évolution à mesure que des références nouvelles modifient l'apparence de la carte. Celle-ci est donc un instrument qui permet d'avoir une vision globale et quantitative des tendances, utile pour la prospective. Il parait qu'un outil semblable a été utilisé par les espions américains pour observer l'évolution de la recherche dans les pays étrangers, notamment autour des technologies nucléaires. Cette carte peut être visitée comme un paysage vu d'avion grâce aux techniques de l'imagerie de la réalité virtuelle et peut même être survolée au niveau du détail, c'est à dire du nom des revues et des auteurs. Il y a cependant un problème qui a été sous-estimé, mais que les chercheurs français connaissent bien. Les bibliographies intègrent quelque vices sociologiques. On a souvent tendance à citer plutôt ses copains d'une part, mais aussi d'autre part, on constate que beaucoup d'auteurs anglo-saxons ont tendance à ignorer les travaux de leurs collègues d'autres cultures, en particulier les européens non-anglophones, bien que ceux ci s'acharnent à publier en anglais ...

Radio Classique 135 24 Octobre 1996


Les piles à combustible s'améliorent


Il y a deux décennies, la recherche avait fondé de grands espoirs sur une technologie nouvelle pour produire de l'électricité : les piles à combustible. Alors qu'un accumulateur est un système chimique qui permet de stocker de l'énergie électrique pour la consommer plus tard, la pile à combustible convertit directement l'énergie chimique en électricité en oxydant un combustible. Celui ci peut être de l'hydrogène brûlé en présence d'oxygène ce qui laisse comme déchet de l'eau, une matière par essence non polluante. Au cours de l'opération on produit directement de l'électricité et de la chaleur. A la place de l'hydrogène, on peut utiliser de l'hydrazine, de l'ammoniac, ou de l'alcool méthylique.

Ces piles sont-elles employées ?

Oui, elles ont des applications dans les véhicules spatiaux et il y a des prototypes de générateurs industriels, des mini centrales. Mais naturellement cette technologie connaîtrait un développement foudroyant si elle pouvait être utilisée aussi pour des véhicules terrestres propulsés par des moteurs électriques dont l'énergie serait fournie par des carburants propres. Or, il y a des problèmes. Pour l'hydrogène comme carburant, il faut pouvoir disposer d'un réservoir garanti sur le plan de la sécurité, ce gaz pouvant provoquer des explosions. Le container idéal existe, il peut être fabriqué sous une forme tout solide avec des alliages de nickel et de lanthane qui absorbent d'énormes quantités de gaz. Mais il s'agit de métaux lourds et le poids de ce réservoir est prohibitif, il conduirait à limiter la vitesse des véhicules.

Est-ce la seule difficulté ?

Non, l'un des inconvénients est que les meilleures piles fonctionnent à haute température, c'est à dire vers 1000° centigrades, avec des matériaux qui sont chers à mettre en oeuvre. C'est là que des chercheurs d'une Université proche de Chicago viennent d'accomplir un pas important. Ils ont annoncé lors d'une conférence scientifique à Philadelphie le Vendredi 18 Octobre qu'ils avaient réussi à réduire la température de fonctionnement des piles d'abord à 750°C, puis, récemment, à 600°C. L'abaissement de température permet d'améliorer la densité d'énergie électrique par centimètre carré de surface. Elle atteint 0,48 watts à 650°C. Le seuil de rentabilité industriel, qui est de 0,25 watts/cm2, est dépassé pour la première fois pour des températures aussi basses. Et surtout il n'est plus nécessaire d'utiliser des procédés compliqués pour convertir des carburants potentiels comme le méthane et le méthanol en hydrogène. L'oxydation est directe et il n'y a plus d'empoisonnement du système par le carbone provenant du cracking de ces combustibles à cause des températures trop hautes.

Quels sont les matériaux qui ont permis cette percée ?

Les piles sont des systèmes tout solide. L'électricité est engendrée par les mouvements des ions au sein d'oxydes réfractaires préparés sous des formes céramiques. Il s'agit de couches d'oxyde de zirconium dopé à l'yttrium combinées à des couches d'oxyde de cérium. Par rapport aux systèmes conventionnels cette nouvelle combinaison de matériaux accélère les réactions chimiques et améliore la conductivité électrique. Tous ces éléments sont parfaitement non polluants, ils ne sont pas du tout un problème pour l'environnement contrairement au plomb des batteries traditionnelles et leur durée de vie est très grande, ils ne s'usent pas, et ne se consomment pas dans le procédé. Les éléments des piles peuvent être préparés en déposant les oxydes en couches minces par des procédés de vaporisation sous vide qui sont bien connus dans l'industrie de l'électronique. Ce qui se prête à la fois à la miniaturisation et à la grande série. Peut être qu'un jour, après tout, nos voitures fonctionneront au méthanol, un carburant qui peut être produit par des techniques agricoles, sans aucun risque de pollution, et en plus avec un moteur électrique silencieux ...

Radio Classique 136 31 Octobre 1996


Une nouvelle technique d'exploration de la matière


La matière que nos doigts touchent, contrairement à l'impression que nous donnent nos sens, est toujours composée de points pesants séparés par du vide. Ces points pesants, les atomes, sont si petits qu'ils sont évidemment imperceptibles. Pourtant, en utilisant des rayonnements d'une énergie suffisante pour que leur longueur d'onde soit de l'ordre de grandeur des distances entre les atomes, on arrive à imager les structures intimes de la matière. On le fait avec des faisceaux de Rayons X et avec des faisceaux d'électrons.

Que montrent ces images ?

Elle révèlent en général la régularité géométrique impressionnante de la disposition des atomes dans l'espace. Pour les molécules biologiques, comme les protéines, cette régularité est beaucoup moins stricte et une molécule un peu grosse peut, au contraire, donner une image de désordre embrouillé au milieu d'une grande exubérance de formes. Les chercheurs aiment à s'appuyer sur ces formes pour prédire et comprendre les réactions chimiques par exemple au moyen du fameux modèle clé-serrure qui exprime les possibilités d'accouplement de molécules différentes. Mais il y a une difficulté.

De quelle nature ?

On a construit des sources de Rayons X très puissantes pour obtenir plus facilement des images de grosses molécules. L'un de ces outils est l'European Synchrotron Research Facility, l'ESRF, à Grenoble. On y fait tourner des électrons dans un synchrotron pour qu'ils émettent un puissant rayonnement électromagnétique, dont des Rayons X. Mais si l'instrument est puissant il ne donne, par les diverses techniques de diffraction X, qu'une image figée des structures. On ne voit pas encore assez bien les molécules se transformer en direct en fonction du temps, comme sur un film qui se déroulerait. Pour cela il faut pouvoir exploiter une série d'instantanés obtenus chacun dans un temps très court, un temps qui doit être inférieur à une centaine de femtosecondes, une femtoseconde vaut 10-15 secondes. En effet les réactions chimiques, les transitions de phase et les modifications atomiques au niveau des surfaces se font dans cette échelle de temps.

Alors, que faire ?

Dans un récent numéro de la revue Science un groupe de chercheurs de Berkeley annonce l'obtention de faisceaux de rayons X pulsés en bouffées d'une durée d'environ 300 femtosecondes et assez intenses pour permettre d'obtenir des diffractions. Leur longueur d'onde est de l'ordre de 0,4 angströms. Ces faisceaux très directionnels sont émis au niveau de la zone de collision entre un très fin faisceau d'électrons projetés à une vitesse relativiste et un faisceau laser infra rouge d'une longueur d'onde de 800 nanomètres, haché en impulsions très courtes, d'une durée d'une cinquantaine de femtosecondes, associées à une énergie de 2 terawatts (c'est à dire 2x1012 watts). Les deux faisceaux, électrons et photons, sont perpendiculaires et l'émission des Rayons X résulte de la diffusion Thomson au choc.

Quel est l'avantage de ce système ?

Essentiellement, il est beaucoup plus compact qu'un synchrotron ! Par ailleurs beaucoup de recherches sont entreprises pour inventer des sources intenses de rayons X. Pour cela, on peut braquer des lasers puissants sur des cibles solides liquides ou gazeuses. Dans ces chocs apocalyptiques, des plasmas sont produits qui émettent des rayons X. On espère par exemple pouvoir obtenir des images de haute résolution par microscopie X par transmission sur des tissus biologiques. Les rayons X d'une trentaine d'angströms de longueur d'onde produits par l'impact d'un laser sur une cible de plomb permettent d'observer uniquement le carbone de l'échantillon et de se débarrasser de l'absorption gênante de l'eau qui fait la grande masse de ces tissus. Ce sont les prémisses d'une nouvelle technique d'imagerie.
Radio Classique 137 7 Novembre 1996


De la vie artificielle à la société artificielle


On a longtemps évoqué l'intelligence artificielle, maintenant on utilise de plus en plus fréquemment l'expression "vie artificielle" et on entend aussi parler de "matériaux intelligents". Les systèmes qui apparaissent comportent en gros trois parties, un capteur qui recueille des informations quantitatives sur son environnement, un organe de contrôle central qui traite le signal provenant du capteur, analyse les données, et suggère une décision. Cet organe est très souvent un ordinateur qui transmet à une troisième composante formée d'actuateurs les ordres à exécuter. On a donc une trilogie du type sens physiologiques, système nerveux central, muscles, qui caractérise le vivant biologique.

Comment peut-on matériellement réaliser ces machines ?

En utilisant des matériaux qui permettent de transformer une variable comme la température ou la pression en un signal électrique ou magnétique. Par exemple, les matériaux piézoélectriques comme l'oxyde mixte de plomb, de zirconium, et de titane, le PZT, transforment une contrainte mécanique en tension électrique et inversement. Ils peuvent fonctionner comme capteurs ou comme actuateurs. Ils permettent de déplacer avec une grande précision la pointe d'une aiguille très fine formée d'un seul atome de tungstène et on peut dans un microscope à effet de force palper par ce moyen des surfaces à l'échelle atomique. C'est en quelque sorte une extension de notre sens du toucher.

Que peut-on faire avec cela ?

On peut exploiter le signal produit par cette possibilité de chatouiller les atomes pour induire les déplacements d'un actuateur quarante fois plus sensible aux fluctuations de contrainte que les PZT, un alliage de terbium de dysprosium et de fer connu sous le nom commercial de Terfenol D et qui transforme une petite variation de champ magnétique en dilatation ou contraction, en raison d'un effet de magnétostriction particulièrement spectaculaire. Le résultat est que muni d'un gant équipé de ces actuateurs, et de lunettes de vision virtuelle, le manipulateur peut observer la préparation microscopique et en même temps sentir sur ses doigts les pressions que la pointe de tungstène exerce sur une nanostructure. Par exemple, on a pu plier par ce moyen des nanotubes de carbone ou éprouver la résistance mécanique de virus. Demain on arrivera peut être à découper chirurgicalement l'ADN pour accélérer l'analyse des génomes.

Va-t-on plus loin ?

L'idée de base de la vie artificielle c'est de copier les principes fondamentaux des mécanismes biologiques. Il y a beaucoup d'applications potentielles dans la chimie, les robots, l'instrumentation, ou la médecine. On souhaite notamment fabriquer des systèmes qui aient la faculté de se reproduire eux-mêmes. Mais les réservoirs de penseurs que sont les think tanks des Etats Unis comme la Brookings Institution ou le Santa Fe Institute commencent à examiner la possibilité d'étudier des sociétés artificielles, modèles informatiques dans lesquels on entasse des "agents" qui expriment des désirs et nouent des contacts entre eux pour le plaisir du sexe, le commerce, ou les échanges culturels. Ils sont capables aussi de se reproduire, de se faire la guerre, de se transmettre des maladies, ou des héritages. Dans un modèle baptisé Sugarscape ces agents vivent dans un "paysage" qui leur procure des ressources renouvelables, du "sucre", qu'elles aiment consommer, ce qui produit aussi quelque pollution. Bref, il s'agit de simuler la somme de la variété des comportements des individus dans nos sociétés et le premier résultat de cette modélisation est de montrer que, contrairement à ce que prédisent les économistes classiques, le "marché" n'arrive jamais à un équilibre. Il en reste même loin et il parait que s'il en est ainsi, le modèle ultra libéral s'effondre et que la maintenance de la cohésion sociale devient un problème majeur ...
Radio Classique 138 14 Novembre 1996


La peur du risque


Mon collègue Richard Piani, le Délégué aux Affaires Industrielles de la Cité des Sciences et de l'Industrie raconte l'histoire étymologique suivante. Le mot risque apparaît brusquement dans le vocabulaire européen en 1557. Il est pratiquement le même dans toutes les langues. Son apparition subite est due à la naissance d'un instrument financier que les banquiers lombards ont été contraints d'inventer pour échapper à une excommunication dont ils étaient menacés par le Pape Paul II à cause de leurs pratiques de taux usuraires atteignant quelques centaines de pour cents ...

Pour des sommes prêtées à qui ?

Et bien c'est l'époque à laquelle se développent les voyages maritimes d'exploration et de commerce vers l'Orient et vers l'Amérique. Les sommes sont prêtées à des navigateurs dont on ne sait s'ils reviendront vivants et avec des marchandises de leurs voyages. Alors, pour respecter les injonctions du Pape fixant des taux d'intérêts raisonnables, les banquiers demandent à leur clients de payer une prime de "risque". Ce mot vient d'un terme de navigation toscan qui traduit le danger potentiel pour un navire de doubler un cap rocheux, la mer pouvant être alors parsemée de récifs, mot dont l'origine vient du mot grec rhiza qui signifie racine.

A l'époque effectivement, on prenait le risque d'affronter un monde inconnu ...

Un monde qui devait effectivement réserver à ses découvreurs beaucoup de surprises. Mais, c'était un temps où les dangers étaient si courants et si variés que l'on ne songeait guère à les classer et à les évaluer. Pourtant, on voit qu'on les intégrait déjà dans les stratégies commerciales. Aujourd'hui dans notre société, on accepte facilement certains risques : le risque monétaire des jeux de bourse par exemple ou le risque associé à la circulation automobile ou à la pratique de certains sports, comme l'escalade. Mais en général le public trouve inacceptable le risque associé à des opérations industrielles, aux problèmes liés à l'environnement ou à la santé publique. Il y a une demande pour un risque zéro.

Est-ce possible ?

On ne peut pas fabriquer d'eau rigoureusement pure, d'ailleurs elle serait imbuvable. Il y a toujours quelque chose dans cette eau et on le trouvera d'autant plus que les méthodes de l'analyse chimique sont plus performantes. Le danger que présente une présence étrangère et indésirable dans une substance comme l'air et l'eau doit être apprécié en fonction de sa concentration, de la dose comme l'on dit. Par exemple, pour les faibles radioactivités, il est absurde de proposer des normes qui soient inférieures à la radioactivité naturelle des roches de certaines régions comme l'Auvergne ou la Bretagne. Pourtant, on voit des législateurs qui sont tentés de le faire dans l'idée que l'on doit le plus possible s'approcher de zéro.

Il y a beaucoup de réactions émotionnelles derrière ces questions de normes

En effet, il y a des peurs qui peuvent quelquefois tourner à la panique. Peurs qui ont été engendrées par des affaires spectaculaires très médiatisées dans lesquelles par exemple des produits chimiques ont été accusés de nuire gravement à la santé. Ce qui est effectivement le cas mais pas toujours dans les proportions que l'on suppose. La fameuse dioxine par exemple est un produit très désagréable mais qui, jusqu'à présent, n'a pas pu vraiment être associée à une mortalité, alors que dans le cas de l'automobile ou de l'escalade la liste des victimes est très très longue... Dans le sentiment du risque, l'imaginaire joue un très grand rôle. L'Association Française pour l'Avancement des Sciences, l'AFAS, l'une des plus vieilles sociétés savantes françaises puisqu'elle a été fondée par Claude Bernard en 1872, qui est hébergée par la Cité des Sciences et de l'Industrie, organise au Palais de la Découverte les 22, 23, et 24 Novembre, son 114ème Congrès annuel sur le thème des peurs et des espoirs au seuil du troisième millénaire. A cette occasion seront présentés et débattus un certain nombre de problèmes de l'Homme face à la Nature, face à la science et à la technologie et face à son destin où il sera beaucoup parlé de divers risques. On peut obtenir des renseignements en téléphonant au 01 40 05 82 01.
Radio Classique 139 22 Novembre 1996


La mystérieuse lumière des bulles


Etudier la physique la plus étrange du moment ne coûte pas vraiment cher, à peu près 10000 francs pour l'équipement complet ! Le phénomène a été observé pour la première fois en Allemagne dans les années 20, à une époque où les chimistes se sont amusés à utiliser des sonars pour exciter les réactions chimiques. Les sonars sont des générateurs d'ultrasons employés durant la première guerre mondiale pour mesurer les profondeurs sous marines en repérant le retour des trains d'onde ultrasonores réfléchis sur le fond. Aujourd'hui on utilise largement les ultrasons pour l'imagerie médicale par échographie.

De quel phénomène s'agit-il ?

Notre phénomène étrange est l'émission de lumière par des bulles d'air dans l'eau soumises à un champ ultrasonore d'une puissance de l'ordre de 110 décibels. On appelle cela la sonoluminescence. On place des sources d'ultrasons au dessus et en dessous d'un récipient contenant de l'eau préalablement dégazée. On y injecte une bulle d'air, et en réglant la puissance sonore on arrive à faire tenir cette bulle unique en équilibre au milieu du liquide. Elle peut y rester des heures ou des jours.

Et que se passe-t-il ?

Une onde ultrasonore se propage dans un milieu continu comme l'air ou l'eau en faisant alterner localement, à une fréquence régulière, des moments de compression et des moments d'expansion. La bulle perçoit ces changements mécaniques. Dans la phase d'expansion, elle se dilate, elle atteint un diamètre d'une centaine de microns. Comme la quantité de gaz à l'intérieur reste constante, c'est comme si on faisait le vide dans la bulle. Puis, arrive la compression. La bulle diminue de volume, elle se réduit à un minuscule espace d'un diamètre voisin de la fraction de micron. Les molécules du gaz de la bulle sont très rapidement serrées les unes sur les autres comme dans un puissant étau. Au sommet de cette phase de compression une lumière est émise au sein de la bulle. Puis le cycle recommence, entretenu par les creux et les bosses de l'onde ultrasonore.

Et qu'il y a t-il de surprenant ?

Il faut donner quelques chiffres. L'émission lumineuse est très brève, elle dure une cinquantaine de picosecondes (10-12 seconde), elle se produit à des intervalles de 35 microsecondes (10-6 seconde) rigoureusement réguliers à quelques picosecondes près. Pour observer cela il faut quand même utiliser des détecteurs optiques assez sophistiqués et très rapides. Le plus curieux est la composition spectrale de la lumière émise, elle est très riche en radiations ultraviolettes et elle est analogue à celle qu'émet un plasma porté à une température de 100000 degrés, ce qui se rencontre, communément, mais dans les étoiles ...

Je commence à comprendre qu'il y a un mystère ...

En effet, comment comprendre que des températures aussi élevées puissent être mesurées dans une simple bulle soumise aux allers-retours de la pression ultrasonore ? C'est un casse tête pour les théoriciens qui multiplient les hypothèses. Pour corser la chimie de l'affaire, on sait qu'il faut absolument des traces d'un gaz rare, néon, argon, ou hélium dans le gaz de la bulle. Au début de Décembre un congrès sur le sujet va se tenir à Honolulu. Mais le plus curieux, c'est que le phénomène parait bien proche d'atteindre expérimentalement les conditions de température et de pression nécessaires pour cette fusion laser contrôlée que l'on s'efforce de réaliser à grands frais. Là aussi on essaye, par l'impact de puissants faisceaux laser, de comprimer dans un tout petit volume un mélange gazeux de deutérium et de tritium à des températures et à des pressions très élevées ... Cette histoire, dont Hollywood est en train de faire un film appelé "Chain Reaction", ressemble un peu à l'affaire de la fusion froide, mais avec la différence que le phénomène est très facile à reproduire et à contrôler ...


Radio Classique 140 28 Novembre 1996


L'Argus hyperspectral


Vous avez certainement vu des photographies aériennes en fausses couleurs où la végétation apparaît en rouge, les zones construites en bleu, etc... Ces jolies cartes postales résultent du traitement des images obtenues en observant le sol avec des détecteurs sensibles à la lumière infrarouge. Les colorations arbitraires correspondent à des niveaux différents de réflexion ou d'absorption de infrarouge solaire liés à la composition chimique des surfaces.

Pourquoi cela ?

Les radiations électromagnétiques diminuent de longueurs d'onde, et augmentent en énergie, des ondes radios aux rayons gamma en passant par l'infra rouge, la lumière visible, l'ultra violet et les rayons X. Ce rayonnement électromagnétique interfère avec la matière. Les atomes et les molécules qui composent celle-ci peuvent, sans perdre leur identité chimique, occuper des états énergétiques différents, que l'on appelle états excités. La matière absorbe les rayonnements électromagnétiques dont la longueur d'onde correspond à l'énergie des états excités possibles. Par exemple la chlorophylle, la molécule qui forme le pigment des feuilles des arbres a un état excité dans le rouge, elle absorbe donc uniquement cette couleur dans le spectre de la lumière solaire et par conséquent réfléchit le reste, c'est à dire le vert. Or la succession des états excités dans l'échelle des énergies forme une séquence caractéristique de la nature chimique des atomes et des molécules. L'observation expérimentale de cette séquence permet une analyse chimique, c'est la spectrographie.

Comment est-elle mise en oeuvre ?

La spectrographie dans infrarouge est particulièrement efficace pour faire des analyses chimiques. Elle repère les états excités correspondant aux vibrations des atomes dans les cristaux ou les molécules. C'est une technique qui est couramment utilisée dans les laboratoires. On peut l'adapter à l'observation du sol en mesurant la réflexion dans des domaines étroits du spectre. Cela permet d'identifier des composés spécifiques, de distinguer des cultures par exemple ou des peuplements forestiers, de déterminer le moment où il faut procéder aux récoltes, ou de contrôler des pollutions. On examine la surface terrestre à partir de satellites. L'intérêt économique et politique de ces observations est évident. Dans un proche futur, une vingtaine de lancements sont prévus.

Quelles sont les caractéristiques de ces engins spatiaux ?

Ils embarquent tous des détecteurs multispectraux voire hyperspectraux. Les satellites français SPOTS 4, 5A et 5B qui seront lancés en principe en 1997, 1999 et 2004 disposeront de quatre canaux spectraux différents et atteindront une résolution de 20 à 10 mètres. L'instrument ASTER, qui sera embarqué sur EOS-AM1, satellite lancé en 1998 dans le cadre du projet d'observation de la Terre de la NASA, auquel collaborent américains, japonais, français, et australiens fera des mesures dans 14 bandes spectrales différentes. Lancé au début de 1997, Lewis, un représentant de la nouvelle génération de petits satellites légers, moins de 300kg, en matériaux composites, disposera dans le domaine de longueur d'onde compris entre 400 (le bleu) et 2500 nanomètres (dans l'infra rouge) de 384 canaux spatiaux. Il pourra, d'une altitude de 523 km, se livrer à des observations géologiques en déterminant la nature des roches survolées. Mais la même technique peut être appliquée sur terre ! Une société de Bois Colombes, SOPRA (Société de Production et de Recherches Appliquées), associée à l'Institut Français du Pétrole et à des laboratoires du CNRS vient de mettre au point un spectrophotomètre qui permet d'analyser, millimètre par millimètre, en continu, la composition de carottes de forage. On obtient par cette méthode une identification rapide, non-destructive, et automatisée, des textures sédimentaires et des minéraux, notamment des argiles, présents dans l'échantillon. Argus aux cent canaux spectraux peut donc inspecter l'intérieur de la terre, comme sa surface ...
Radio Classique 141 5 Décembre 1996


Un silicium lumineux


On aime bien condenser l'histoire de l'humanité dans des âges symboliques. Il y a eu l'âge de la pierre taillée, celui de la pierre polie, celui du bronze, et celui du fer. Depuis une quarantaine d'années nous sommes dans l'âge du silicium. Cet élément merveilleux très répandu sous forme de combinaisons chimiques à la surface de la terre dans les roches les plus diverses, notamment les minéraux silicatés des argiles, et dont l'oxyde forme le sable ou le cristal de roche, le quartz, est à l'état élémentaire une substance intermédiaire entre un métal conducteur de l'électricité et un isolant, c'est un semi-conducteur.

Qu'est ce qui le rend si précieux ?

Le silicium est difficile à fabriquer à l'état monocristallin. C'est une grande conquête de la technologie de réussir à l'obtenir à l'état ultrapur grâce en particulier à la maîtrise industrielle des techniques du vide poussé. Ces cristaux peuvent être découpés en plaquettes qui sont les fameuses puces sur lesquelles repose notre électronique. Les propriétés semiconductrices du silicium peuvent être localement contrôlées par des dopages avec des traces d'autres éléments, ce qui permet d'assembler des systèmes qui ont des fonctions spécifiques comme le transistor. La microélectronique repose sur la capacité de fabriquer des circuits intégrés combinant des fonctions variées dans des volumes très petits.

Ce qui constitue une base pour les innovations !

Le silicium a un défaut. Contrairement à d'autres semiconducteurs il n'émet pas de lumière sous une sollicitation électrique. Or, pour exploiter les informations électroniques on a souvent besoin de les afficher, de les représenter sous une forme optique avec une vitesse adaptée à la rapidité des processus électroniques. Une équipe de recherche de l'Université de Rochester dans l'Etat de New York a réussi à fabriquer un dispositif émetteur de lumière à base de silicium qui peut être intégré sur les puces à coté des autres fonctions.

Comment font-ils ?

Le matériau émetteur est du silicium oxydé, une substance très poreuse mais qui peut être formée dans une puce exactement comme les zones dopées qui composent les différentes couches d'un transistor. Sous une tension appliquée de 2 volts avec un courant de 2 milliampères par cm2, on obtient 1 milliwatt par cm2 d'une lumière orange. Ces émetteurs d'une dimension de quelques microns peuvent être aisément incorporés dans un microcircuit électronique. Ils permettent d'y intégrer un composant opto-électronique.

Quel est l'avantage ?

C'est de pouvoir être associé directement à la technologie électronique courante. Le composant silicium n'est pas aussi performant pour produire de la lumière que les semiconducteurs dit III-V dont le meilleur exemple est l'arséniure de gallium largement répandu aujourd'hui sous forme de diodes émettrices de lumière qui envahissent en masse, on en fabrique plus de 30 milliards par an, et de plus en plus, la technologie quotidienne puisqu'il est question par exemple d'en faire des feux indicateurs de stop pour les voitures. Mais ils ne sont pas très facile à intégrer aux puces électroniques.

Que peut-on faire grâce à l'intégration ?

On peut imaginer que l'une des applications potentielles serait de permettre une meilleure communication entre des processeurs notamment dans les ordinateurs qui font des calculs massivement parallèles. Ces machines ont du mal à travailler en temps réel parce que les échanges de données et d'informations ne sont pas assez rapides entre les processeurs. Des applications comme le traitement d'images exigent le temps réel, comme c'est le cas pour les images haute résolution obtenues par des satellites. Le LETI, un laboratoire filiale du CEA à Grenoble, étudie par exemple un mode de communication optique entre les processeurs de son ordinateur parallèle Symphonie, basé sur des interconnexions optiques à base de diodes lasers, ce qui exige la mise au point de microlentilles hybridées avec des photorécepteurs silicium. Mais l'émission lumineuse du silicium lui même pourrait simplifier les dispositifs et être à la hauteur de la rapidité du traitement électronique de l'information...
Radio Classique 142 12 Décembre 1996


Toucher les atomes


Les lunettes astronomiques et les microscopes, apparus au XVIIème siècle, sont des extensions du sens de la vue vers le très grand et vers le très petit. La panoplie de ces prothèses s'est considérablement élargie avec le temps. On sait que la résolution est d'autant meilleure que la longueur d'onde du faisceau sonde utilisé pour l'observation est plus petite. Du coté de la lumière, c'est à dire des rayonnements électromagnétiques, pour voir les atomes il faut utiliser des longueurs d'onde dans le domaine des rayons X. Mais, il est difficile de fabriquer des optiques pour les rayons X. Le microscope à rayons X n'est pas encore au point, bien qu'on y travaille. Par contre, la longueur d'onde associée aux faisceaux d'électrons a une valeur convenable, bien inférieure aux distances interatomiques, et comme il est très facile de manier des faisceaux d'électrons sous vide avec des lentilles électromagnétiques, on sait "voir" des atomes, au moins des rangées d'atomes dans les cristaux, avec les bons microscopes électroniques actuels. Mais, maintenant on peut aussi "toucher" les atomes !

Comment fait-on ?

La possibilité de "toucher" les atomes est née de la mise au point industrielle de matériaux piézoélectriques qui permettent d'approcher une pointe d'une surface et de la déplacer avec une très grande précision mécanique. Toutes sortes de phénomènes physiques, comme le passage d'un courant électrique, peuvent être exploités pour détecter le contact de la pointe avec la matière et établir la topographie de la surface examinée. Si la pointe est suffisamment fine pour être de l'ordre de grandeur des distances interatomiques, elle peut permettre de repérer les zones de résistance que forment les atomes par rapport aux vides des espaces interatomiques. La distribution géographique des espèces atomiques et moléculaires sur une surface peut être ainsi établie. Ces techniques sont désormais très employées dans la recherche fondamentale.

De quoi sont faites les pointes ?

Jusqu'à présent il s'agissait surtout de pointes métalliques plus ou moins pyramidales souvent faites avec un fil de silicium. En fait elles étaient plutôt grossières. Or voici que l'on s'est aperçu récemment que l'on pouvait employer comme pointes des nanotubes de carbone. Cette nouvelle variété de carbone est en fait un plan atomique de graphite roulé qui a une extraordinaire résistance mécanique. Son diamètre est très petit, de l'ordre de 5 nanomètres et le tube est fermé à son extrémité par une molécule de fullérène, cet assemblage très symétrique d'atomes de carbone dont les découvreurs ont reçu le Prix Nobel de Chimie 1996. Comme le tube est aussi très souple, il plie sans casser et il peut même être descendu dans des crevasses du matériau pour en explorer le fond.

Cette technique a-t-elle des applications industrielles ?

On sait que par ces moyens on peut poser ou déplacer des atomes ou des molécules sur une surface avec la pointe, et même les assembler, mais on ne voit pas un processus industriel procéder atome par atome ! Pourtant, si on utilise non pas un seul "doigt" pour toucher mais un grand nombre, on peut couvrir une surface raisonnable et effectuer en chaque point un travail éventuellement différent. Il faut évidemment contrôler le déplacement des pointes individuellement et cela peut demander pour chacune le concours de 300 transistors ! Mais on peut imaginer qu'une forêt massivement parallèle de pointes, quelques milliers, puisse travailler à construire une nanostructure comportant des éléments gravés d'une taille de 50 nanomètres, ou moins, sur une surface d'intérêt industriel de l'ordre de 1 cm2. Déjà, l'Université Cornell dispose d'un système avec 144 pointes. Pour progresser, les éléments mécaniques doivent être miniaturisés. L'enjeu est une éventuelle concurrence avec les méthodes lithographiques qui permettent actuellement de préparer massivement des microstructures dans l'industrie électronique, mais avec des éléments gravés plus gros, d'une taille supérieure à 250 nanomètres. Small is beautiful !
Radio Classique 143 19 Décembre 1996


Analyser la pollution


J'ai passé quelques jours à Bangkok en Thaïlande où se tenait une exposition technologique française. Ce qui frappe dans cette vaste mégalopole, c'est l'ampleur des difficultés de la circulation automobile, la congestion des artères, et la forte pollution de l'air. Rien d'étonnant qu'un certain nombre de stands de l'exposition française aient été consacrés aux problèmes de l'environnement.

Dans quelles perspectives ?

Lorsque la pollution est presque entièrement due à la circulation automobile, l'un des moyens de la combattre est un réglage rationnel des moteurs. A cet effet, la Société SAGEM SOURIAU Systèmes présentait sa machine Optima 4040 qui analyse les gaz d'échappements en indiquant leur teneur en oxyde de carbone, gaz carbonique, hydrocarbures, et oxygène. Ces quatre gaz sont analysés simultanément. Un dispositif complémentaire permet de mesurer l'opacité des fumées émises par les moteurs diesel.

Et pour l'air ambiant ?

L'analyse de l'air ambiant nécessite l'usage de capteurs, et quelquefois de capteurs sensibles à des traces. Il faut mener les analyses en continu et il faut se garder des interférences c'est à dire des difficultés que peuvent amener pour l'analyse d'un gaz particulier la présence d'autres composants chimiques ou de poussières dans un milieu naturel urbain qui est toujours complexe. Pour que les analyses soient spécifiques, il faut utiliser une variété de méthodes. L'imagination physique et chimique fait merveille dans ce domaine.

Que propose-t-on ?

La société SERES d'Aix en Provence, une société dont 30% de l'activité est investie dans la recherche présente toute une gamme d'analyseurs spécifiques en continu pour le contrôle de la qualité de l'air. Cette "Série 2000" utilise la même électronique de base construite autour d'un microprocesseur pour traiter numériquement le signal fourni par une sonde spécifique aux gaz à analyser. Les divers oxydes d'azote peuvent être mesurés en continu grâce à un petit laboratoire de chimie et la détection par un photomultiplicateur d'un signal optique de chimiluminescence. L'ozone est analysé par la mesure de l'absorption de lumière ultraviolette, l'oxyde de carbone par celle de son absorption de la lumière infra rouge. Le dioxyde de soufre par la mesure de l'intensité de l'émission lumineuse de sa fluorescence sous excitation ultraviolette. Les hydrocarbures par ionisation de flamme. Ces instruments utilisent d'astucieux dispositifs optiques pour profiter de la spécificité des propriétés physiques associées à ces molécules dans les divers domaines du spectre électromagnétique. Ces analyseurs peuvent être aussi utilisés pour contrôler divers points des cheminées d'usine.

Il n'y a pas que l'air, il y a aussi l'eau

La SERES propose aussi un grand nombre d'outils pour l'analyse de l'eau dans des conditions industrielles. Ils équipent d'ailleurs 5000 pétroliers pour le contrôle des rejets en mer, ce qui fait 40% du marché mondial. Là encore ils utilisent des techniques optiques ou électrochimiques pour effectuer les multiples contrôles que les lois imposent (il y en a 62 au total au niveau de la communauté européenne par exemple). Il faut dire que l'eau pure ne peut être définie que comme celle qui est conforme aux normes établies par le Journal Officiel, décret 89-3 du 3 janvier 1989 complété depuis par plusieurs arrêtés d'application ... Ces textes décrivent rigoureusement les opérations à mener avant d'affirmer qu'une eau est pure et propre à la consommation humaine. La très puissante industrie française de l'eau était naturellement bien représentée à Bangkok à travers les leaders : Lyonnaise des Eaux, Degrémont, qui ont des filiales en Thaïlande, la Compagnie Générale des Eaux, et bien d'autres.
Radio Classique 144 26 Décembre 1996


Un coup de bleu sur l'avenir


J'ai déjà plusieurs fois mentionné le nouveau matériau miracle de l'électronique, basé sur le nitrure de gallium. Alors que le très classique arséniure de gallium est utilisé pour la production en série de diodes lasers qui émettent dans l'infrarouge, et qui équipent quelques uns de nos instruments domestiques, les nouvelles compositions permettent de fabriquer des diodes lasers qui émettent dans le bleu. Une émission de lumière bleue par un semi conducteur est difficile à obtenir parce que le bleu se situe plus haut dans l'échelle des énergies que les autres couleurs.

Quel est l'avantage ?

C'est une diode laser d'une longueur d'onde infrarouge de 780 nanomètres qui permet de lire le code numérique gravé sur la surface des disques compacts, les CD, qui stockent des informations sonores notamment la musique que diffuse Radio Classique. Si la longueur d'onde de la lumière du laser est plus courte, la surface de la tache lumineuse qui explore la surface du disque peut être beaucoup plus petite. Par conséquent, la gravure matérielle des creux et des bosses qui traduisent le signal numérique peut être d'une densité plus grande avec des entailles plus petites. En fait, diminuer de moitié la longueur d'onde permet de multiplier le nombre d'informations par quatre. Or, la longueur d'onde de la lumière bleue est plus courte.

La technologie est-elle en train d'évoluer ?

Sans doute. Les sociétés japonaises Toshiba et Matsushita s'apprêtent à proposer un nouveau vidéo disque d'une capacité proche de 5 gigabites soit environ 12 fois celle d'un CD ordinaire. Une partie de l'amélioration de la quantité de données stockées vient de l'utilisation pour la lecture du disque d'une diode laser qui émet dans le rouge à 635 nanomètres à la place de la diode laser infrarouge classique. Avec un laser bleu la capacité d'un disque pourrait atteindre 15 gigabites. Une telle augmentation serait très importante pour accroître l'efficacité des CD-rom qui souvent aujourd'hui ne permettent pas de couvrir convenablement un sujet, par exemple en matière d'éducation.

Où en est-on ?

Le mois dernier les chercheurs d'une société japonaise, Nichia, ont annoncé la réalisation d'une diode laser émettant en continu dans le bleu à 411 nanomètres. Il s'agit d'un matériau qui est un nitrure d'indium et de gallium préparé sous la forme de puits quantiques c'est à dire un collage de couches très minces de quelques plans atomiques. L'affaire n'est pas du tout optimisée, un point crucial est la durée de vie du système. Pour le moment cela ne dépasse pas une trentaine d'heures, car le matériau s'échauffe trop, mais Nichia estime que dans deux ans sa belle diode bleue sera au point.

Y-a-t-il des concurrents ?

Oui, Sony étudie un autre matériau semi conducteur à grand gap, le séléniure de zinc. On obtient une émission laser continue dans le jaune vers 515 nanomètres. Il n'a pas encore atteint les 10000 heures de stabilité nécessaire pour prétendre équiper des appareils commerciaux et il est assez fragile. Le nitrure semble plus robuste. Il fonctionne déjà bien comme émetteur de lumière bleue ordinaire non laser. L'Institut Fraunhofer de Freiburg en Allemagne l'utilise pour produire de la lumière blanche. L'émission bleue de la diode induit les luminescences rouge et verte d'autres matériaux, des luminophores organiques noyés dans du plastique. L'ensemble combiné fait du blanc. On peut donc désormais obtenir n'importe quelle couleur pour ces sources de lumière basées sur l'excitation électrique de semi conducteurs, essentiellement utilisables pour l'affichage et la signalisation, mais qui peuvent fonctionner en continu 10 ans sans consommer beaucoup d'énergie. Siemens pense mettre sur le marché l'année prochaine ces nouvelles lampes baptisées LUCOLED. Voila comment le bleu éclaire notre avenir de toutes les couleurs !
Radio Classique 145 2 Janvier 1997


La puce génétique


Aujourd'hui, le génie génétique, autrefois curiosité de laboratoire, est une activité industrielle pratiquée par des entreprises de pointe cotées sur le marché NASDAQ américain, celui des technologies à risque. L'une de ces entreprises, Affymetrix, de Santa Clara en Californie, fait beaucoup parler d'elle en ce moment à la suite de l'invention d'un dispositif d'analyse des séquences des nucléotides dans l'ADN particulièrement rapide et facile à mettre en oeuvre.

Quel est l'intérêt de ce procédé ?

L'ADN est un immense fil moléculaire torsadé en forme de double hélice qui se caractérise par la succession dans un ordre varié de quatre nucléotides, l'adénine, la thymine, la guanine, et la cytosine, une sorte d'alphabet de quatre lettres, A, T, G, C, qui permet d'écrire de longues séquences que l'on appelle le code génétique. Les instructions réparties sur cette chaîne commandent en effet la synthèse des protéines indispensables à l'entretien des cellules dans l'ensemble du monde vivant. Les protéines sont formées par la combinaison de 20 acides aminés, chacun de ces acides étant spécifiquement codé par un ou plusieurs triplets de trois lettres. Le problème est de pouvoir lire ces successions en particulier pour repérer les mutations éventuelles, les anomalies, c'est à dire le remplacement des bonnes lettres par d'autres. C'est la question du séquençage du génome, une affaire formidable et qui dépend beaucoup des technologies qui peuvent être mises en oeuvre pour analyser la composition de ces molécules géantes.

En quoi consiste la méthode ?

On sait fabriquer des arrangements quelconques des quatre nucléotides enchaînés l'un à l'autre et qui forment comme l'un des brins d'une ADN artificielle. Ces oligonucléotides, des séquences d'une vingtaine de lettres, peuvent être fixés par paquets sur une très petite surface. Affymetrix utilise une technique semblable à celles qui sont employées dans l'industrie électronique pour fabriquer des puces. Sur une petite surface de silice de 1,28 cm par 1,28 cm, ils parviennent à entasser 409600 synthèses différentes, chacune d'entre elles étant cantonnée sur un site de 20 microns par 20 microns qui retient environ 1 million de copies d'une séquence spécifique. Pour réaliser ces synthèses une technique analogue à celle des masques lithographiques de l'industrie électronique est employée, l'addition successive des différents nucléotides à la chaîne étant catalysée par une radiation lumineuse spécifique. La distance entre les sites est de l'ordre d'une centaine d'angströms, il s'agit donc bien de nanotechnologie appliquée au génie génétique.

Comment emploie-t-on ces puces ?

Les séquences génétiques insérées sur la puce dépendent naturellement de ce que l'on veut analyser. Si l'on recherche des mutations dans une séquence connue, on reproduit sur la puce la séquence et ses variantes potentielles. Ensuite on l'imprègne avec un mélange de matériel génétique normal et de celui que l'on cherche à contrôler après avoir pris soin de leur attacher respectivement des marqueurs luminescents de couleur différente, par exemple du rouge et du vert. Les brins d'ADN analogues du témoin et de la cible à analyser se fixent sur le même site avec la même probabilité grâce à un mécanisme de reconnaissance moléculaire puisque les paires de nucléotides liées à la puce et celles de l'échantillon s'accouplent spécifiquement. Il en résulte que la luminescence est jaune traduisant l'équilibre entre le rouge et le vert. Mais s'il y a une différence, une dominante de rouge ou de vert apparaît. Une analyse fine spectrographique par balayage la met en évidence, et l'ordinateur, en fonction de la position géographique sur la puce de l'anomalie, détermine immédiatement quelle est la différence dans la séquence des lettres. Avec cette technique, 50 échantillons de l'ADN des mitochondries peuvent être examinés par jour au lieu de 2 par les méthodes conventionnelles. L'obtention d'une séquence génétique complète demande 12 minutes. Pour développer les techniques autour de sa GeneChip, qui peut avoir beaucoup d'applications différentes, Affymetrix a conclu des alliances. Notamment avec la filiale américaine de la société française bioMérieux qui souhaite développer des tests pour l'identification des bactéries et l'analyse des mécanismes de résistance aux antibiotiques.
Radio Classique 146 9 Janvier 1997


Les aventures du gaz carbonique


Le gaz carbonique, le dioxyde de carbone, CO2, est l'un des produits chimiques les plus simples. Il n'est pas toxique, contrairement à son cousin l'oxyde de carbone qui, lui, est un poison mortel. Chimiquement, il est relativement peu réactif. Il est pourtant au coeur d'une vaste controverse politique et sociale. En effet il est le résidu final de la combustion des matières organiques, notamment les carburants fossiles. Or, sa teneur dans l'atmosphère augmente avec les progrès de la consommation industrielle et on l'accuse de contribuer à un effet de serre qui menacerait la planète d'un réchauffement.

Une affaire qui provoque, en effet, beaucoup de débats ...

Le gaz carbonique n'est pas le seul gaz à effet de serre mais tout un mouvement est engagé pour suggérer aux Etats d'introduire des réglementations pour réduire les émissions dans l'atmosphère. Cela ne se passe pas bien d'ailleurs parce qu'une conférence de 140 Etats réunis à Genève le mois dernier sous l'égide des Nations Unies pour négocier le calendrier de la réduction a échoué. Les Etats-Unis notamment ne veulent pas de mesures contraignantes avant l'horizon 2010, alors que beaucoup de petits Etats qui sont aussi des îles demandent, pour cette date, 20% de réduction car ils ont peur d'être victime de la montée du niveau des mers.

Quelles sont les raisons de la querelle ?

La crainte de contraintes économiques insupportables lorsque les sources d'énergie sont essentiellement charbonnières, mais aussi l'incertitude scientifique sur le danger réel couru par la planète. Il y a beaucoup de controverses sur le cycle du carbone. Le rôle des organismes marins notamment dans l'élimination du gaz carbonique de l'atmosphère est mal connu. On a même évoqué des projets assez fantastiques, par exemple pour retirer le gaz carbonique de l'atmosphère, favoriser la photosynthèse du phytoplancton en arrosant la mer en surface par des solutions fertilisantes de fer ferreux.

Arroser la mer !

Le projet a plus ou moins été abandonné, mais une expédition est partie au mois d'Octobre pour mesurer dans l'océan autour du continent Antarctique les teneurs en fer qui commandent la croissance du phytoplancton à partir du gaz carbonique. Si les plantes savent utiliser le gaz carbonique pour faire la synthèse des molécules dont elles ont besoin, les chimistes commencent aussi à y arriver. Récemment, à partir d'une molécule complexe construite autour de silicium, d'azote et de germanium, des chimistes de Chicago ont obtenu directement avec du gaz carbonique à la température ordinaire des isocyanates et des carbodiimides. Les isocyanates sont la base de plusieurs polymères importants comme les polyuréthannes, les carbodiimides jouent un rôle dans la synthèse peptidique. Quasiment pour la première fois, le gaz carbonique ne se comporte pas comme un produit chimique inerte.

Est-ce qu'il y a d'autres nouveautés ?

Oui, le gaz carbonique peut facilement être utilisé dans l'état supercritique à des températures et à des pressions modérées inférieures à 100°C et à 300 bars. Toutefois, ce n'est pas, dans cet état intermédiaire entre un liquide et un gaz, un très bon solvant et ses applications sont limitées. L'une d'entre elles est l'extraction de la caféine des grains de café. A part pour quelques petites molécules, le fluide est à peu près aussi inerte que le Téflon ! Mais une équipe de chimistes américains et italiens a trouvé des composés, des polymères acrylates fluorés, qui aiment se dissoudre dans le gaz carbonique supercritique. Ils peuvent servir comme agents de surface pour entraîner dans le fluide sous forme de micelles enrobées des plastiques du genre polystyrène. Du coup, on se prend à rêver, et à imaginer que le gaz carbonique puisse un jour remplacer la multitude de solvants dangereux pour l'environnement que nous utilisons pour un grand nombre d'usages, notamment le nettoyage. Peut être qu'un jour le gaz carbonique supercritique servira, grâce à des agents de surface, à nettoyer nos costumes !
Radio Classique 147 16 Janvier 1997


Une pince à molécules


On sait attraper une seule molécule avec une pointe métallique, ou avec un nanotube de carbone, mais on ne sait le faire que sur des surfaces. Naturellement, les surfaces ont une grande importance pour la réactivité chimique, mais la majorité des réactions, surtout celles qui ont un intérêt biologique, se passent dans des liquides, quelquefois assez concentrés comme le sang. Or, il semble qu'il soit possible de manoeuvrer une molécule déterminée au sein d'un liquide.

Comment cela ?

Un chercheur bruxellois, Denis Wirtz, qui travaille maintenant pour l'Université Johns Hopkins à Baltimore, a conçu un système qui permet de promener une molécule à volonté dans un liquide, y compris éventuellement dans une canalisation corporelle comme une veine, pour l'amener là où elle peut être utile, par exemple comme médicament.

Sur quels principes ?

On sait fabriquer de minuscules billes d'oxyde magnétique de fer. Elles ont un diamètre de l'ordre du centième de micron, et naturellement elles suivent les sollicitations d'un champ magnétique qui permet de les déplacer. Wirtz a construit un système qui fait appel pour produire des champs magnétiques directionnels à la circulation d'un courant électrique dans trois boucles de fil de cuivre orthogonales les unes aux autres. Reliées à un joy-stick elles permettent de moduler les courants de telle façon que la bille peut être déplacée dans les trois directions de l'espace au sein d'un liquide.

Et, que faire pour la molécule ?

Les billes peuvent être recouvertes en surface d'une couche de la protéine biotine. Celle-ci a la propriété de se lier automatiquement à l'extrémité d'une molécule d'ADN. Et donc le brin d'ADN est muni d'un appendice magnétique qui permet de le déplacer et de l'amener là où l'on veut qu'il aille. Cette possibilité est intéressante pour comprendre comment les molécules réagissent entre elles au sein d'un liquide. D'ordinaire cela se passe au hasard des rencontres, dans la frénétique agitation moléculaire. Les changements de formes au moment des contacts ont sans doute une grande importance et il faudrait pouvoir les provoquer et regarder ce qui se passe.

Mais, tout cela est très petit, comment peut-on observer ce micro-monde ?

On sait depuis longtemps attacher aussi aux molécules d'ADN des marqueurs fluorescents. En fait, pour chacune des quatre terminaisons de nucléotides possibles, adénine, thymine, guanine et cytosine, on dispose d'un marqueur d'une couleur spécifique, respectivement rouge, jaune, vert, et bleu. Il existe pour observer ces molécules marquées un outil merveilleux, c'est le microscope confocal, instrument fabriqué notamment en Europe par les firmes allemandes Leica et Zeiss. Dans ce type de microscope, on ne peut obtenir une image que pour les structures qui sont rigoureusement au foyer du dispositif optique. Dans un microscope optique ordinaire la lumière traverse l'échantillon et le contraste correspond à une somme complexe de contributions, d'où une perte de résolution. Le dispositif confocal utilise, dans les zones de convergence des faisceaux optiques, deux trous d'épingle qui sélectionnent rigoureusement une zone très mince dans l'épaisseur de l'échantillon. Grâce à la source de lumière intense que constitue un laser on peut balayer point par point la surface et observer en profondeur par tranches. Cette technique de scanner fournit des images tridimensionnelles d'une excellente résolution, de l'ordre du vingtième de micron. Pour une molécule qui comme l'ADN du phage lambda mesure 17 microns d'un bout à l'autre, la définition est excellente. L'usage du laser permet d'exciter la fluorescence et donc de repérer les objets biologiques marqués. Wirtz a ainsi obtenu des images de molécules d'ADN en mouvement qu'il a pu enregistrer avec une camera. La dynamique moléculaire devient ainsi une science, non plus théorique, mais expérimentale ... et elle sera sans doute aussi la source de superbes images scientifiques animées pour nous faire rêver avec un autre genre de microcosmos ...

Radio Classique 148 23 Janvier 1997


L'explosion des réseaux


Les statistiques montrent que le nombre d'ordinateurs connectés entre eux sur la planète est en augmentation constante. Il existe des mesures précises de la densité du trafic sur Internet. Le protocole TCP/IP reconnaît chaque machine par une adresse formée d'un numéro de 32 bits en quatre octets. Pratiquement, ces chiffres sont transformés en groupes de lettres qui permettent d'identifier plus ou moins la localisation géographique du serveur et la nature de l'activité de l'Institution qui l'héberge. Parmi elles, le nom logique (hostname) permet de reconnaître des domaines. Avec trois lettres, ils signalent l'activité (com., org., edu., etc...) généralement des organismes américains, ou, avec deux lettres, la nationalité (fr., uk., de., etc...). Les domaines sont organisés en sous-domaines qui permettent de préciser les adresses. Les noms qui leur sont affectés sont accordés par des organismes nationaux et internationaux qui en tiennent une comptabilité.

Quels sont -ils ?

Le domaine fr. (serveurs français) est géré par le NIC France, c'est à dire par l'INRIA (Institut National de Recherche en Informatique et Automatisme) en collaboration avec un organisme central européen (RIPE, Réseaux IP Européens) et le consortium américain INTERNIC (géré en coopération par la National Science Foundation, AT&T, et Network Solutions). Ce sont ces organismes qui attribuent les noms de domaines. Le nombre de sous-domaines en France au 31 décembre 1996 était de 6.099 avec 236.874 machines connectées. Il y a en tout en Europe 151.509 sous-domaines et 3.674.257 machines. La progression en nombre de machines, en moyenne, est de l'ordre de +3 à +6% par mois. Dans le monde il y avait, il y a quelques mois, environ 13 millions de machines connectées et environ 500000 domaines.

Quelle est la part de la France ?

Le parc français de machines représente 8% du parc européen (Allemagne 21%; Grande Bretagne 20%, Finlande 10%, Pays Bas 8%, Suède 8%, le reste inférieur à 5%). La France ne représente que 5% du nombre de domaines (Grande Bretagne 29%, Allemagne 20%, Suède 8%, Pays Bas 8%, Italie 6%, Suisse 5%). Le nombre de machines par domaine est le plus élevé en France (45). Cependant, le critère de comparaison le plus net est la répartition par pays du nombre de machines connectées par milliers d'habitants. La Finlande est en tête en Europe avec plus de 60 machines pour 1000 habitants. Elle précède les autres pays nordiques. La France est en queue de peloton avec moins de 5 machines pour 1000 habitants. Seules l'Italie et l'Espagne font un peu moins.

La France progresse-t-elle ?

D'après le Commissariat Général au Plan le nombre d'abonnés à l'Internet en France est de 490000 dont 370000 professionnels et 120000 particuliers. 14,4% des foyers utilisent un micro-ordinateur contre 4% en 1990. 3% des foyers aurait l'intention de s'équiper prochainement. La France est clairement un pays dans lequel le développement potentiel de l'usage des réseaux est considérable. Pour atténuer les risques d'encombrement du système téléphonique et pallier à la lenteur des transmissions, des solutions alternatives sont étudiées, par exemple l'utilisation des réseaux cablés déja installés de la télévision. Mais surtout, on essaye de mettre en oeuvre les réseaux large bande du futur, qui transmettront aussi de l'image animée, et qui permettront d'exploiter complètement le formidable potentiel que représente l'existence de données et d'archives, papier, images, et sons, numérisées, et les possibilités de la navigation hypertexte dans les documents. Ces informations ont une valeur économique mais aussi culturelle. Elles constituent un fonds encyclopédique dans lequel on peut puiser, variante moderne du goût permanent de l'Humanité pour les outils qui renferment potentiellement la totalité du savoir comme le montre l'exposition qui inaugure l'ouverture de la Grande Bibliothèque de France à Tolbiac.

Radio Classique 149 30 Janvier 1997


L'innovation bactérienne


Il y a des phénomènes naturels dont l'ampleur fait rêver les industriels. Le méthane, le plus simple des hydrocarbures, dont la molécule est composée d'un atome de carbone et de quatre atomes d'hydrogène, est produit sur la Terre par un grand nombre de réactions biochimiques. C'est aussi un gaz à effet de serre susceptible, s'il encombre l'atmosphère, de conduire à un réchauffement de la planète. Or, il se trouve que le méthane produit par des bactéries nichées dans les sédiments au fond des mers et des lacs est oxydé, transformé en alcool méthylique, c'est à dire en méthanol, dès que les bulles de ce gaz remontantes dans l'eau rencontrent un peu d'oxygène dissous.

Par quel mécanisme ?

C'est aussi une bactérie qui fait le travail. Heureusement, car le méthane produit annuellement dans ces conditions est de l'ordre du milliard de tonnes. Une bactérie méthanotrophique présente dans l'eau permet d'oxyder 95% du méthane en favorisant l'insertion dans la molécule d'un atome d'oxygène. Or, nous ne savons pas le faire par des procédés chimiques en laboratoire. En effet, le méthane est un combustible qui en présence d'air brûle pour donner de l'eau et du gaz carbonique. Le transformer directement en méthanol est intéressant, car celui-ci est un carburant liquide utilisable dans les moteurs et éventuellement le point de départ d'une chimie qui peut conduire à beaucoup de composés différents, un peu comme le pétrole.

Alors, comment fait la bactérie ?

Des chimistes de l'Université du Minnesota viennent d'analyser les six étapes de la transformation catalysées par des enzymes contenues dans la bactérie. Des atomes de fer sont au coeur des structures de ces composés. Le fer est aussi au centre de la molécule qui assure le transport de l'oxygène dans notre sang, l'hémoglobine. En utilisant des techniques expérimentales qui permettent d'explorer les états énergétiques du noyau atomique d'un atome de fer, comme l'analyse fine de la forme des bandes d'absorption des rayons X ou la mesure de l'absorption de rayons gamma, on peut déterminer l'environnement chimique de cet atome de fer. On a trouvé que l'enzyme la plus active était centrée sur un couple de deux atomes de fer liés chacun à un atome d'oxygène. Les deux couples étant dans une disposition tête-bêche qui forme une sorte de parallélogramme semblable à un as de carreau. Cela est trés différent des transporteurs d'oxygène ordinaires, comme les hèmes de notre sang, et en plus le fer est à la valence quatre, un état plutôt rare.

Quelle est l'importance de cette découverte ?

Une nouvelle classe de catalyseurs se dessine. Ils ont potentiellement un intérêt industriel en raison des énormes réserves de méthane dont dispose la planète, notamment au fonds des mers sous forme d'hydrates de méthane. Ces gisements renferment la moitié du carbone fossile de la Terre. Cette source d'énergie ne peut donc que prendre de l'importance. Mais aussi, il est possible que ce type de structure soit à l'oeuvre dans des enzymes qui permettent beaucoup d'autres réactions, en particulier pour les premières étapes de la synthèse de l'ADN. Il se dégage de cette découverte une vision nouvelle de la chimie de l'oxygène activé en biologie. Cette histoire fournit un exemple de la prodigieuse réserve d'innovations que recèle le monde bactérien. Les bactéries ne sont pas seulement à la surface : on peut en trouver sous la Terre jusqu'à des profondeurs de l'ordre de trois kilomètres. Quelques milliers de familles différentes ont été identifiées, non seulement dans les roches sédimentaires mais aussi dans les basaltes et les granits. Parmi elles des espèces autotrophes, c'est à dire capable d'extraire le carbone dont elles ont besoin des roches et leur énergie de réactions chimiques purement minérales. La vaste panoplie de ces microorganismes pourrait permettre la synthèse de nouveaux médicaments et de nouveaux produits chimiques.
Radio Classique 150 6 février 1997


La manne énergétique au fond des mers


Il y a deux ans, j'avais évoqué à ce micro la prodigieuse réserve d'énergie que constituent les abondants gisements naturels d'un complexe qui se forme à basse température et à haute pression entre l'eau et les hydrocarbures, comme le méthane. Naturellement des expéditions scientifiques ont été conduites pour apprécier quantitativement l'importance de ces gisements.

Que font-elles ?

Un navire océanographique des Etats Unis a effectué des forages dans une zone de l'Atlantique située au large de Charleston c'est à dire en face des Carolines. Dans cette zone, les spécialistes de l'analyse des profils sismiques savent qu'un contraste est observé qui mime les variations topographiques du fond de la mer, mais qui est situé plus bas, à une profondeur constante, au sein des sédiments qui se sont déposés, à l'échelle des temps géologiques, sur le sol marin. C'est à travers la couche responsable de cette variation dans la vitesse du son que les chercheurs ont foré. Ils ont réussi à remonter des échantillons à la surface au moyen d'un appareil qui conserve le prélèvement dans ses conditions originelles de température et de pression.

Quels ont été les résultats ?

Les hydrates de méthane ne sont stables qu'à basse température et à haute pression, soit moins de +7° C et plus de 50 bars. En raison du gradient géothermique, la température monte lorsque l'on s'enfonce sous la terre, on passe d'une zone où les hydrates peuvent être stables à une zone où c'est le gaz qui est stable. C'est à cette transition que correspond le profil sismique observé qui est donc bien un signe de la présence de ces dépôts de gaz hydratés. Le forage a été conduit à 2775 mètres sous la surface de la mer jusqu'à une profondeur d'environ 700 mètres. La concentration du méthane dans le sédiment est considérable à la profondeur de 450 mètres lorsque l'on passe de l'hydrate au gaz.

Les quantités observées justifient-elles les espoirs ?

Le gaz obtenu à partir des échantillons recueillis est bien du méthane à 98,5%. Il est présent sous forme d'hydrate, mais aussi, plus bas, sous forme de gaz libre dans les pores du sédiment. On peut estimer que les 26000km2 de cette zone de l'Atlantique recèlent en tout 35 milliards de tonnes de carbone. Pour avoir une idée de ce que cette masse représente, les auteurs de l'article paru le 30 Janvier dans le journal britannique Nature disent que c'est une quantité suffisante pour alimenter les Etats Unis pendant 105 ans au rythme actuel de leur consommation de gaz naturel. Il semble donc que l'importance du méthane fossile sur la terre sous cette forme soit confirmée. Comme les zones à hydrates sont très répandues, on parle de réserves qui atteindraient de 2000 à 11000 milliards de tonnes de carbone, voire beaucoup plus.

Peut-on les exploiter ?

A priori, ce n'est pas très facile. Il s'agit d'un gisement peu concentré, situé à grande profondeur sous la mer, réparti sur de grandes surfaces et avec des risques d'explosion si l'on décompresse les hydrates. La tentative d'exploitation de dépôts terrestres de ce genre en Sibérie n'a, semble-t-il, pas très bien réussi. Mais il s'agit d'une énorme réserve de carbone fossile pour laquelle des technologies nouvelles peuvent apparaître dans le futur. Incidemment, ces dépôts, dont on découvre pour ainsi dire l'importance géologique, posent des questions fondamentales nouvelles. Car, en effet, qu'arrive-t-il si le niveau des mers s'abaisse et que la température monte ? Et bien, à moins que les bactéries dont nous parlions la semaine dernière n'interviennent en masse, le méthane provenant de la décomposition des hydrates peut atteindre la surface, se libérer dans l'atmosphère et induire un gigantesque effet de serre. On se demande maintenant si les changements climatiques enregistrés au cours des diverses ères géologiques ont des rapports avec des fluctuations potentielles de la quantité d'hydrates de méthane au fond des eaux. Leur décomposition soudaine fournit un mécanisme pour injecter soudain du carbone en grandes quantités dans l'eau et dans l'air. Avant d'être une ressource industrielle, les hydrates de méthane sont peut être un partenaire traditionnel des jeux climatiques de la planète ...
Radio Classique 151 13 Février 1997


L'explosion créatrice


Les substances qui imprègnent l'extrémité des allumettes sont susceptibles de donner lieu à de violentes réactions chimiques avec flammes en présence de l'oxygène de l'air. Mais le petit bâtonnet ne s'enflamme pas spontanément dans nos poches parce que la réaction ne peut démarrer que si elle est initiée par une élévation de température. C'est ce que produit le geste de racler d'un coup sec la substance sur un grattoir, l'énergie mécanique dépensée au frottement suffit pour élever localement la température du dépôt et faire démarrer la réaction.

C'est comme la mèche avec la poudre à canon en somme

Tout à fait, une substance peut être potentiellement instable mais elle ne se décompose que lorsqu'un apport d'énergie extérieure lui est fourni. La matière solide d'un explosif disparaît en gaz et en fumées soudainement libérés en une fraction de seconde. Mais il existe des réactions violentes entre solides qui donnent d'autres solides. Et, elles peuvent être des méthodes d'obtention rapides et efficaces de produits intéressants. Quelques unes d'entre elles ressemblent à ces expériences de chimie que l'on exécutait autrefois dans les salles de classes et qui se font avec des flammes, de la lumière, de la fumée, et beaucoup de bruit.

Et, par exemple ?

Depuis 1895 on connaît la réaction de l'aluminium métal avec l'oxyde de fer qui donne du fer métal et de l'alumine. Elle est toujours utilisée pour souder les rails de chemins de fer. Depuis les années 1970, on a préparé par ces méthodes de synthèse par réaction auto-entretenue environ 200 produits chimiques. Des borures, des carbures, des intermétalliques, des nitrures, des oxydes, et des siliciures. Ce qui caractérise ces matériaux c'est d'être d'excellents réfractaires qui tiennent chimiquement et mécaniquement à de hautes températures et qui sont aussi très durs, très résistants à l'usure, ce qui est important pour des pièces mécaniques par exemple dans l'industrie aéronautique.

De quelle nature ?

Au laboratoire des matériaux de surface et produits céramiques de l'Ecole Nationale Supérieure de Céramique industrielle de Limoges, le Professeur Jean-Pierre Bonnet étudie par exemple la synthèse de carbure de silicium à partir d'un mélange de silicium métal et de graphite, la réaction démarre spontanément au dessus de 1200°C. Ils préparent aussi des composites siliciure de molybdène / alumine à partir d'un mélange ternaire d'oxyde de molybdène, de silicium métal et d'aluminium métal. La température atteinte spontanément lors de la réaction dépasse largement la température de fusion des matériaux obtenus qui est de l'ordre de 2000°C. Par cette méthode on les fabrique en quelques minutes et sans avoir à utiliser des fours coûteux en énergie et en matériel.

Est-ce là une nouvelle tendance de la chimie préparative ?

Oui, la chimie d'aujourd'hui dans le domaine minéral s'intéresse à de nouvelles méthodes qui font souvent usage de force brute. Par exemple, l'existence de matériaux très durs et de techniques de broyage particulièrement énergiques permet la préparation de produits chimiques en poudres très fines, dont des métaux. Par des effets purement mécaniques on peut obtenir des alliages, c'est la mécanochimie. Ces poudres, mélangées dans les proportions souhaitées, peuvent être injectées dans un moule, fait de sable par exemple, et chauffées et comprimées sous de hautes pressions de l'ordre de 600 mégapascals. Le produit obtenu ne fond pas mais il peut être suffisamment compacté pour avoir une porosité nulle. La substance à traiter peut être aussi soumise à des champs électriques ou encore à des faisceaux microondes, à des ultrasons, ou à des ondes de choc explosives. Et toujours le chimiste espère à travers ces conditions extrêmes, imposées quelques instants aux produits qu'il travaille, obtenir de meilleurs matériaux pour moins de dépense d'énergie.

Radio Classique 152 20 Février 1997


Une lentille pour les Rayons X


La découverte des Rayons X a été annoncée par Röntgen le 28 Décembre 1895. L'observation de l'existence d'un rayonnement qui traversait la plupart des matériaux était extrêmement curieuse et permettait d'obtenir des images par un jeu d'ombres portées dont Röntgen remarque qu'il a un charme particulier. Par exemple, puisque les rayons X impressionnent une plaque photographique, on peut observer le profil d'objets métalliques cachés dans une boite en bois ou, mieux, on voit apparaître l'ombre des os de la main.

Mais, pourquoi cela ?

On sait aujourd'hui que les rayons X sont un rayonnement électromagnétique comme la lumière visible l'infra rouge ou l'ultraviolet, mais que c'est un rayonnement de très courte longueur d'onde qui transporte beaucoup d'énergie. Ce rayonnement peut être intercepté par les atomes lourds qui contiennent beaucoup d'électrons. D'où le contraste, source de l'image : les parties molles de la chair, faites d'atomes légers, carbone, hydrogène, oxygène, et azote laissent passer le rayonnement, mais les os, composés de calcium et de phosphore atomes plus lourds, l'arrêtent et font donc ombre.

Quelle est l'importance économique des Rayons X ?

C'est la première méthode connue pour voir à l'intérieur du corps, c'est donc la première technique d'imagerie médicale. Elle fonctionne encore par contact, sans possibilité d'agrandissement. Elle s'est beaucoup améliorée, car pour diminuer la dose de radiation X supportée par le patient, on utilise des écrans renforçateurs qui transforment par luminescence les rayons X en lumière verte ou bleue après passage à travers le corps du patient. Les pellicules photographiques industrielles étant plus rapides pour l'exposition dans cette gamme de couleurs, on diminue le temps de pose. Mais on emploie de plus en plus des détecteurs de rayonnement basés sur des principes de physique du solide qui, arrangés en damiers, permettent d'obtenir des images directement numérisables et traitables par un ordinateur. On propose par exemple aujourd'hui des écrans de 40 cm par 40 cm qui contiennent 10 millions de pixels, c'est à dire d'unités de détection.

Il y a d'autres usages ?

La grande révolution apportée dans la science par les Rayons X, c'est la mise en évidence expérimentale de la structure atomique de la matière. Puisque les rayons X ont une longueur d'onde de l'ordre de grandeur des distances entre les atomes, l'arrangement géométriquement ordonné de ceux-ci dans les cristaux induit une diffraction du rayonnement X dont l'analyse mathématique permet de déduire la structure du cristal et la nature chimique des atomes qui le compose. Cette technique est si importante que l'on a construit de puissantes sources de rayonnement X en exploitant l'émission d'un courant d'électrons contraints de circuler à grande vitesse dans un synchrotron. Le centre européen de Grenoble, l'ESRF, met à la disposition des chercheurs et des industriels de plus en plus de faisceaux intenses de Rayons X.

Est-ce qu'il y a de nouvelles perspectives ?

Oui. Röntgen dans son mémoire original fait remarquer que les Rayons X ne sont pas réfractés par la matière. La réfraction, c'est la déviation des rayons lumineux au passage d'un milieu transparent dans un autre, d'où l'apparence brisée d'un bâton dans l'eau. Elle est due aux différences dans la vitesse de la lumière d'un matériau à l'autre. Or, cela dépend de la longueur d'onde ce que démontre très bien l'existence de l'arc en ciel. Pour les longueurs d'onde courtes il n'y a presque pas de différence d'un milieu transparent à un autre. Et donc pour les Rayons X, jusqu'à présent, on ne pouvait pas concevoir des instruments optiques capables de donner des images agrandies, comme des microscopes, parce que l'on ne savait pas fabriquer des lentilles. Mais les ingénieurs de l'ESRF à Grenoble viennent d'en inventer une en profitant de la très petite différence de vitesse des Rayons X entre l'air et l'aluminium métal. En faisant passer un faisceau X à travers une série de 30 trous de 0,3mm de diamètre creusés en ligne, et très rapprochés, dans un bloc d'aluminium, ils ont réussi à obtenir une tache focale d'une taille de 8 microns à une distance de 1,8 mètres. Un pas décisif est franchi, car l'obtention d'une lentille est une condition nécessaire au développement d'une véritable optique des Rayons X.
Radio Classique 153 27 Février 1997


Les bibliothèques du futur seront numériques ...


A la page 22 de son édition du 21 Février l'International Herald Tribune a publié un petit article qui fait état d'un nouveau projet de la Bibliothèque du Congrès à Washington. Il s'agit de faire profiter l'ensemble des citoyens de la masse d'archives concernant l'histoire des Etats Unis qui existent sous une forme matérielle qui n'est pas le livre. Ce sont des journaux, des films, des lettres, des photographies, des tracts, voire des menus de restaurant ...

Comment peut-on faire ?

La Bibliothèque a besoin de 60 millions de dollars pour numériser ces 5 millions de documents pour l'an 2000. Déja 300 000 sont accessibles. Comme la numérisation permet d'inclure facilement des éléments d'indexation et de description du contenu, elle a l'avantage immense de permettre un accès par mots-clés à ces documents disparates, comme aux séquences filmées et sonores. Elle autorise donc la recherche automatique de l'information et son obtention instantanée.

Que fait-on en Europe ?

La DG XIII de la Commission Européenne a récemment publié une étude sur les bibliothèques publiques et la société de l'information. Elle recommande l'automatisation des bibliothèques et l'accés électronique à des fonds multimedia, ce qui implique évidemment la mise en oeuvre d'une politique de numérisation massive de documents plutôt que la constitution de collections localisées. Elle déplore le considérable retard actuel dans l'utilisation des technologies modernes de l'information par les 40000 bibliothèques publiques d'Europe, avec quelques exceptions bien sûr. La Bibliothèque Nationale de France est engagée elle aussi dans un grand chantier de numérisation d'images, de textes, d'affiches, de plans, etc ... En particulier, un millier d'enluminures du Département des Manuscrits et des pages de livres anciens sont déja accessibles en ligne. Ces trésors seront d'autant plus aisément disponibles que se mettra en place une politique d'investissement dans des réseaux grand public à large bande passante.


Mais, que va devenir le papier ?

Il est clair que le papier est un support commode qui n'est pas prêt de disparaitre ! Les bibliothècaires soucieux de la conservation savent que souvent le papier produit après 1850 dans des conditions acides se décompose avec le temps. Les livres dégradés sont soignés au Centre Joël Le Theule de Sablé sur Sarthe. Cinq millions de pages par an sont microfilmées et les volumes sont ensuite traités en masse par paquets de 100 ou 200 dans un autoclave sous vide pour neutraliser les acides. Ensuite, on peut protéger les pages fragiles par thermocollage d'un voile de polymère et entretenir les reliures en cuir par des cires fongicides.

Et, pour les journaux ?

C'est le Centre André François Poncet de Provins qui s'en charge. Là aussi il faut désacidifier pour éviter l'autodestruction. La BNF envisage de sauvegarder 300000 documents par an. Il faut aussi stocker dans de bonnes conditions.

Et quelles sont les innovations ?

Elles concernent le papier et le stockage. Il serait souhaitable d'utiliser le plus possible pour l'édition le papier permanent fabriqué exclusivement à partir de pâtes chimiques en milieu neutre ou alcalin. Produire du papier permanent ne représente pas vraiment un surcoût par rapport à la production ordinaire. Il est utilisé pour environ la moitié du papier consommé en France pour l'édition. Il se heurte à la concurrence du papier recyclé qui, lui, n'est pas chimiquement stable ... D'autre part, des efforts sont faits pour mettre en oeuvre de nouveaux matériaux pour les boites de stockage et les pochettes d'archivage. Par exemple, le polypropylène alvéolaire en feuilles ou le Microchamber fait de papier à base de pâtes chimiques de résineux et d'absorbants spécifiques combinés à une réserve alcaline. Ces matériaux sont en cours d'évaluation par le Laboratoire de Recherche de la Bibliothèque Nationale.
Radio Classique 154 6 Mars 1997


L'écossaise et la caussenarde


On parle beaucoup ces temps-ci d'une mignonne moutonne écossaise de la race Finn Dorset qui est le portrait craché de l'une de ses semblables pour la bonne raison qu'elle est son clone. Dolly a été produite à partir du noyau d'une cellule arrachée à la mamelle d'une brebis enceinte âgée de six ans. Les chercheurs écossais ont réussi à transformer ce noyau, qui contient toute l'information génétique, en état embryonnaire, après transplantation dans un oeuf évidé et implantation dans une brebis porteuse de race différente, une écossaise à tête noire. Une opération plus facile avec les moutons qu'avec d'autres espèces comme la souris, parce que chez le mouton, l'état embryonnaire ne s'affirme qu'après la formation d'une dizaine de cellules. Les différences entre les mammifères sur ce point sont grandes et il n'est donc pas certain que la méthode puisse être étendue à d'autres espèces.

Que peut-on attendre de cette affaire qui soulève beaucoup d'émotion ?

Il s'agit d'une expérience dont la réussite est due en partie à des astuces techniques empiriques. Souvent les découvertes précèdent les arguments théoriques qui arrivent un peu comme les carabiniers. Sur le plan fondamental, les spécialistes ont l'air de penser que ce type d'étude peut apporter des renseignements sur la vitalité du génome en fonction de l'âge de son porteur ou que, peut-être, on pourrait songer à utiliser des noyaux de cellules permanentes comme les neurones. Sur le plan plus pratique, comme la méthode semble avoir de bonnes chances de marcher avec le mouton, on pourrait songer à engendrer des clones de moutons qui ont des propriétés particulières, ou dont la race est menacée de disparition.

Lesquelles par exemple ?

Au Salon de l'Agriculture qui vient de se terminer à Paris, le Parc naturel régional des Grands Causses a présenté quelques races rustiques ovines oubliées qu'ils s'efforcent de réintroduire au pays. Une trentaine d'éleveurs tentent de sauvegarder trois races : la Caussenarde des garrigues, la Raïole, et la Rouge du Roussillon. La population de chacune de ces races tourne autour du millier de brebis, alors qu'il y a 700 000 brebis Lacaune aux environs de Roquefort. Chacune a ses caractéristiques physiques propres et est adaptée aux rudes terrains des Causses et de l'Aigoual et à leur végétation. La Rouge est une espèce qui vient d'Asie via l'Afrique et que l'on appelle d'ailleurs "la barbarine". Naturellement un point essentiel du programme génétique de cet effort de conservation est la maîtrise d'un vivier de béliers suffisamment fourni, cela évite d'avoir recours à des méthodes de reproduction risquées et acrobatiques !

Comment sauvegarder la bio-diversité ?

La bio-diversité dépend d'un grand nombre de facteurs en particulier du climat et de ses fluctuations, mais aussi de la co-évolution des espèces. Beaucoup sont liées les unes aux autres, et parfois à travers des distances immenses. La fertilisation de certaines plantes peut dépendre du passage annuel d'oiseaux migrateurs par exemple. Il est très fréquent que des fleurs et des insectes soient associés. En échange de nourriture une espèce assure la reproduction d'une autre. Les hommes et les animaux domestiques aussi co-évoluent. La progression de la connaissance est une forme d'évolution. Elle nous incite à provoquer l'évolution des espèces animales et végétales qui nous sont associées. Le savoir accumulé par les éleveurs permet de modifier la répartition des races dans les espèces domestiques animales par la sélection, d'éloigner les prédateurs, de réduire les nuisances, sources de maladie, de changer les modes d'alimentation. De cette action nous tirons notre nourriture et des bénéfices économiques. Ce système complexe d'association de l'homme avec l'animal et le végétal évolue vite, très vite, peut être n'est ce pas sans risques pour les uns comme pour les autres ...
Radio Classique 155 13 mars 1997


La coquille d'oeuf


La semaine dernière dans l'espace Condorcet de la Cité des Sciences et de l'Industrie a eu lieu le 10ème salon international des oeufs décorés. On a pu voir un grand nombre d'oeufs naturels, ou en bois, ou en pierre, ou même en mosaïque de fragments reconstitués, peints, sculptés, couverts d'ornements, ainsi qu'une exposition de coquetiers. L'oeuf est donc une surface, une matière, avec laquelle les artistes peuvent s'exprimer, une vieille tradition populaire d'ailleurs. Naturellement, si cet événement se produit avant Pâques, c'est que cette fête est associée aux oeufs, oeufs que l'on offre en cadeau et en chocolat aux enfants avec de beaux rubans autour.

Toute une symbolique traditionnelle !

L'oeuf est en effet un symbole important partagé par de nombreuses cultures à la surface de la Terre, pour des raisons anthropologiques évidentes : son rapport avec la gestation. Ainsi le mythe de l'Oeuf Cosmique expose la naissance du Monde dans un oeuf magique et sacré. A cause de la météo à la télévision tous les soirs la Terre elle-même nous apparaît comme un fragile oeuf bleu suspendu dans l'espace. Mais si l'oeuf est un mythe et un aliment, sa coquille est aussi un matériau comme le montre le travail des artistes spécialisés.

Un peu fragile quand même !

Un oeuf vidé est finalement moins fragile qu'un oeuf plein, la coquille est alors plus élastique et supporte mieux les chocs. La coquille représente 9 à 12% du poids total de l'oeuf. C'est la première ligne de défense contre les attaques bactériennes. Elle est composée à 94% de carbonate de calcium mais aussi de petites quantités de carbonate de magnésium, de phosphate de calcium et de protéines. De 7000 à 17000 minuscules trous sont distribués sur la surface de l'oeuf, et principalement au gros bout, pour permettre les échanges gazeux d'air, de gaz carbonique et de vapeur d'eau. La résistance de la coquille dépend de la nourriture de la poule. En particulier, il faut que celle-ci contienne du calcium, du phosphore, du manganèse, et de la vitamine D.

Mais, à part la décoration, à quoi peut bien servir la coquille d'oeuf ?

L'art évidemment est une application noble, mais on en recherche d'autres. Le problème a une certaine importance économique. Si la coquille des oeufs que nous consommons passe dans la masse des détritus domestiques, il y a des industries qui produisent des coquilles en grandes quantités, par exemple les éleveurs de poussins. Sur une production totale annuelle en France d'à peu près 15 milliards d'oeufs, environ 10% sont couvés pour produire des poulets, soit pour la consommation, soit pour renouveler les générations de productrices d'oeufs.

Que fait-on des coquilles ?

Les coquilles sont brisées par le poussin mais aussi environ un quart de la production est cassée par les industriels qui produisent des produits à base d'oeuf sous forme de liquide, de poudre, de surgelé, etc ... Or, on compte à peu près 23 kg de déchets humides de coquilles pour 1000 oeufs. Cette matière contient du calcium, de l'azote, du phosphore, elle peut donc être récupérée comme compost après centrifugation, en particulier pour les productions agricoles dites biologiques. Mais il reste que la coquille est un déchet encombrant, coûteux à éliminer et chargé de nuisances à cause des odeurs résultant d'une mise en décharge. Puisqu'elle est riche en calcium, on a proposé de l'introduire comme composante dans les aliments pour animaux, et bien sûr d'abord pour les poulets de batterie, à partir d'un recyclage des coquilles avec du soja. Mais la question est peut-être délicate aujourd'hui à cause des problèmes de désinfection. Ainsi donc cet objet simple, la coquille d'oeuf, est d'un coté une surface et un volume pour l'artiste, de l'autre une source de nuisances industrielles qui attend des innovations ...
Radio Classique 156 20 Mars 1997


Made in space


Il existe un matériau considéré comme l'un des miracles que le XXIème siècle offrira à la consommation des ménages. C'est l'aérogel, une sorte d'éponge de silice, une collection de trous séparés par des parois minces, dont la densité n'est que trois fois celle de l'air. Si bien qu'un volume d'aérogel équivalent à celui d'un homme ne pèse qu'une livre ! Malgré cela, ce matériau possède une excellente résistance mécanique et, surtout, c'est un remarquable isolant thermique : il faut superposer 15 épaisseurs équivalentes de verre à vitre pour avoir la même isolation.

On peut donc en faire des fenêtres ?

Oui et non, car il y a un problème : ce matériau n'est pas vraiment transparent, il a l'aspect d'un brouillard bleuté comme un écran de fumée. L'axe principal de la recherche est donc de tenter de le rendre transparent. Pour cela la NASA a offert l'année dernière une place sur une fusée qui a fait un petit tour dans l'espace à des expériences de synthèse d'aérogels pour étudier l'influence de l'absence de pesanteur sur la taille des pores. Ces quelques minutes en microgravité ont été encourageantes et de nouveaux essais, plus longs, seront faits en Janvier 1998 à bord de la navette spatiale Discovery.

Mais, on ne peut pas envisager de fabriquer dans l'espace un matériau grand public !

Bien sûr, il s'agit de trouver quelles sont les raisons fondamentales qui font que l'interaction entre la lumière et cette matière donne cette apparence de brouillard bleu. Beaucoup d'expériences sont faites dans l'espace pour démêler des problèmes de synthèse complexes. Il s'agit le plus souvent de fabriquer des cristaux de qualité. L'exemple dominant est celui des protéines. Il faut obtenir des cristaux d'une taille de 0,3 à 1 mm pour pouvoir établir la structure des protéines par diffraction des rayons X à l'aide souvent d'installations qui exploitent le rayonnement synchrotron. Naturellement, connaître la structure des protéines est un enjeu fondamental pour l'industrie pharmaceutique.

Mais, pourquoi l'espace ?

Parce que pour la cristallisation en réseau bien ordonné de ces grosses molécules on s'affranchit dans l'espace des effets gravitationnels perturbateurs que sont la sédimentation et la convection. On provoque en effet les cristallisations en éliminant peu à peu, par transfert en phase vapeur, de l'eau de solutions aqueuses du produit à obtenir. On essaye aussi de fabriquer des cristaux de matériaux pour l'électronique ou l'opto-électronique, par exemple des détecteurs infra rouges, surtout pour apprendre à contrôler les processus de croissance, ou pour diminuer la contamination par des impuretés puisque l'on peut faire dans l'espace des réactions chimiques sans avoir besoin d'un récipient.

Mais, ne peut-on faire ces études sur Terre ?

L'espace permet d'isoler des paramètres dont la manipulation est impossible sur Terre. Il y a aussi des recherches originales qui sont conduites dans des laboratoires terrestres. Des chercheurs de l'Université Purdue dans l'Indiana, en collaboration avec la société 3M, viennent de réussir à faire atterrir en douceur, non pas une navette spatiale sur le sol, mais des ions complexes sur une surface. En restant dans la métaphore aérienne ou spatiale, on peut dire que, d'habitude, la collision entre des ions et des surfaces se rapproche plus d'un bombardement : il y a des dégâts pour le projectile comme pour la surface visée. Déposer délicatement une espèce moléculaire et éventuellement la récupérer après est une nouveauté. Les chercheurs ont utilisé comme amortisseur une couche monomoléculaire d'un polymère très hydrophobe contenant du soufre et du fluor déposée à la surface d'or polycristallin. Les ions déposés sont des assemblages moléculaires volumineux contenant du carbone, de l'hydrogène, de l'azote, du soufre et du silicium. Cette nouvelle manipulation réussie d'espèces moléculaires à l'échelle nanométrique pourrait montrer la voie vers de nouvelles techniques de stockages d'informations sous de très petits volumes et avec de grandes densités.
Radio Classique 157 27 Mars 1997


Fabriquer avec des microondes


La fabrication des céramiques est un art extrêmement ancien, un art du feu puisqu'il faut chauffer pour obtenir la transformation d'une forme en matière molle et malléable en un objet dur et solide, mais quelquefois fragile. Le grand concurrent culturel et industriel des céramiques est aussi le produit historique des arts du feu puisqu'il s'agit des métaux. La grande différence est que les métaux, à l'exception de l'or, se corrodent avec le temps alors que les céramiques sont souvent stables vis à vis des agents chimiques les plus divers et supportent plus facilement des conditions extrêmes, de température par exemple.

Quels sont leurs usages dans la technologie contemporaine ?

Les céramiques sont employées dans des dispositifs mécaniques qui sont le siège de hautes températures dans des conditions chimiques agressives. Pour le revêtement intérieur des réacteurs jet, pour des pièces de moteurs, pour des tuyères, pour des outils de coupe et dans l'industrie spatiale et nucléaire, partout où l'on a besoin d'une grande dureté, d'une résistance à la fracture et à l'usure dans des conditions de travail difficiles.

Quels sont les procédés de fabrication ?

Les céramiques employées pour ces usages de haute technologie sont des matériaux à trés haut point de fusion. On ne peut pas vraiment les mettre en forme par fusion puis coulée du liquide comme on le fait pour les métaux. Il faut partir de poudres broyées qui sont ensuite agglomérées, frittées, par chauffage. Ce sont des techniques souvent difficiles et spécifiques, peu adaptées à la fabrication de grandes pièces et qui exigent des fours puissants. Les innovations se rencontrent donc dans les moyens de chauffage utilisés.

Quelles sont donc les nouveautés ?

Une collaboration entre le Laboratoire National américain d'Oak Ridge et une filiale de Saint Gobain-Norton a abouti à la fabrication de pièces industrielles faites d'un réfractaire haut de gamme, le nitrure de silicium, par une technique basée sur le chauffage par microondes. Ce procédé domestique bien connu utilise pour chauffer un produit la dissipation de l'énergie absorbée par la rotation de liaisons chimiques, rotation induite par l'absorption d'ondes électromagnétiques du domaine des fréquences radio. Pour les aliments, les rotations de la molécule d'eau sont excitées avec des ondes d'environ 3 gigahertz de fréquence. Mais pour les céramiques, on utilise une onde de fréquence plus basse, autour de 50 mégahertz, qui pénètre bien les matériaux. Dans ces conditions, une poudre de silicium contenue dans une préforme réagit avec un courant d'azote vers 1200-1400°C. Quand le nitrure est formé, on chauffe la pièce, toujours avec les microondes, jusqu'à 1800°C, ce qui la rend trés dense. On peut appliquer cette technique aussi à l'alumine, à la zircone, au carbure de tungstène, au carbure de bore, etc... La méthode est efficace et les résultats supérieurs à ceux obtenus avec des fours conventionnels parce que le matériau est chauffé au coeur de son volume et que le temps de préparation est beaucoup plus court qu'avec un four conventionnel. Le champ électrique utilisé peut d'ailleurs être adapté à la forme de l'objet à fabriquer, ce qui augmente l'efficacité du traitement et permet de préparer des pièces plus grosses.

Quel genre de pièces obtient-t-on ?

Des soupapes ont été fabriquées qui sont destinées aux moteurs des énormes engins utilisés par l'industrie minière dans les conditions climatiques difficiles qui sont celles du Pérou et du Chili. Les ruptures des soupapes métalliques sont fréquentes et sont provoquées par la corrosion due au soufre présent dans le carburant diesel. Quatre soupapes viennent de passer le test des 2000 heures d'utilisation, ce qui montre qu'elles peuvent être considérées comme fiables. La soupape céramique doit pouvoir concurrencer pour ces usages particuliers les soupapes en aciers spéciaux bien que son prix soit encore élevé. La guerre métal-céramique n'est surement pas finie, on en verra d'autres épisodes !
Radio Classique 158 3 Avril 1997


Un piano au mécanisme harmonique


Les auditeurs de Radio Classique connaissent bien le piano ! Cet instrument est aussi un objet technique complexe et comme tel susceptible d'être amélioré. Le premier piano, le pianoforte, a été fabriqué entre 1709 et 1711 par un fabricant padouan de clavecins Bartolomeo Cristofori. Ces instruments comportent des cordes tendues sur un cadre et leur ancêtre est la harpe. Pour le pianoforte, les cordes étaient frappées par un marteau en cuir de daim plutôt que pincées et un mécanisme d'échappement permettait au marteau de ne pas s'attarder sur la corde.

Quelle est l'avantage du piano ?

Les marteaux frappent les cordes à une vitesse variable voisine de quelques mètres par seconde que le pianiste contrôle, ce qui lui permet de varier l'expression. Mais il y a derrière cette possibilité un intéressant problème de physique des matériaux. En effet, les marteaux modernes ont des têtes de bois recouvertes de plusieurs couches de feutre de laine comprimé. Ce matériau a été inventé en 1826 par un parisien, Henri Pape. Il faut contrôler soigneusement les couches de feutre de telle façon qu'il y ait un gradient et que la dureté croisse de la surface vers l'intérieur. Ce paramètre est trés important et il faut l'ajuster pour obtenir un son convenable. Un marteau dur qui frappe une corde produit des vibrations plus riches en harmoniques, c'est à dire en fréquences multiples de la fréquence fondamentale de la corde, qu'un marteau plus mou. Et dans un piano, plus la corde est frappée fort; plus le son produit contient d'harmoniques et parait donc plus brillant et plus riche.

Pourquoi cela ?

Et bien parce que le rapport entre la force appliquée et la compression du feutre à l'impact suit une loi non-linéaire. La dureté augmente exponentiellement avec la force appliquée. Le résultat sonore dépend donc du doigté de l'instrumentiste. C'est toute la subtilité du piano. Le son produit dépend de la dynamique du jeu. Liszt par exemple frappait trés fort, jusqu'à casser les instruments ! De plus, l'étendue des possibilités harmoniques change beaucoup avec les notes jouées. Les notes graves ont de 50 à 60 harmoniques, les notes moyennes 20 à 30, et les aigües, à peine 10. Ceci est d'ailleurs vrai pour tous les instruments de musique. Cette particularité, et les propriétés spécifiques du piano font qu'il est difficile de fabriquer par ordinateur de la musique synthétique numérique crédible pour imiter le jeu d'un pianiste.

Mais, il n'y a pas que les marteaux dans un piano ?

En presque 300 ans le piano a fait beaucoup de progrés en particulier dans la subtilité des mécanismes permettant un jeu plus rapide comme ceux inventés par Erard à Paris dans les années 1808 à 1821. La recherche de l'amplitude sonore a conduit à introduire des étouffoirs pour arrêter rapidement les puissantes vibrations des cordes après que la note ait été jouée. La pédale forte, inventée par un accordeur aveugle, Claude Montel en 1853, dont l'enfoncement relache l'action de l'ensemble des étouffoirs et permet de faire sonner l'instrument pourobtenir un effet sostenuto. Mais il y a une contradiction, si l'on veut faire vibrer librement l'ensemble des 200 cordes, les notes de la partition se diluent, se chevauchent, l'articulation du jeu peut se perdre.

Que faire alors ?

Les cordes qui ne sont pas jouées peuvent néanmoins vibrer aussi par un effet de résonance, par sympathie comme on dit. Ces vibrations additionnelles peuvent contribuer à l'atmosphère musicale, la sonorité y gagne. Des instruments comme le luth peuvent ainsi avoir des cordes à vide. Un jeune inventeur soutenu par l'ANVAR, Denis de la Rochefordière, vient en collaboration avec le Conservatoire National de Musique de Paris, et après 10 ans de recherche, de présenter au public lors d'un concert donné il y a une dizaine de jours, une nouvelle amélioration technique du piano. Il s'agit d'un système mécanique actionné par une quatrième pédale qui assigne un étouffoir particulier à la corde jouée et seulement à celle là. Les autres peuvent alors vibrer harmoniquement et enrichir le timbre du piano en superposant les plans sonores. C'est peut être une révolution pour la facture du piano. L'instrument sera bientôt en démonstration à Musicora.

Radio Classique 159 10 Avril 1997


L'effet cocktail party


J'étais l'autre jour, un matin, dans un nouveau jardin public parisien situé près d'une voie rapide. Les oiseaux chantaient mais leurs mélodies étaient recouvertes par le grondement continu du trafic routier. De même dans une forêt à l'aube aux heures ou le choeur ailé s'en donne à plein gosiers on peut se demander comment les uns et les autres s'y retrouvent dans ce qui parait être une cacophonie.

Les hommes aussi font du bruit !

Justement et on sait que dans une réunion bruyante on peut tout d'un coup distinguer parmi toutes les autres une voix amie, c'est l'effet cocktail party. Le cerveau est capable d'isoler une source unique parmi la multitude de celles qui contribuent au bruit ambiant. Ce problème de neurophysiologie est étudié depuis des années. Pour les oiseaux, c'est pareil, ils distinguent parmi d'autres le chant de leur propre espèce et, selon une étude récente, ils ont aussi une oreille absolue, c'est à dire qu'ils identifient la hauteur des notes, et c'est par là, plus que par la mélodie, qu'ils isolent leurs congénères du paquet des chanteurs.

Quelle est la nature du problème ?

Mathématiquement il s'agit d'un mélange de signaux acoustiques qui sont émis dans le temps par des sources différentes d'une manière plus ou moins périodique, des sons plus ou moins organisés en langage qui émergent d'un bruit composé d'un fond continu erratique (bruits de verres, de pas etc...). Une machine enregistre la somme globale de ces spectres acoustiques et il est pratiquement impossible techniquement de découvrir et d'isoler dans ce fatras les sources sonores locales porteuses d'un signal cohérent, c'est à dire d'un message. Or, le couplage entre le système auditif et le système nerveux central est capable de cette performance, au moins chez l'homme, les oiseaux, et les grenouilles. Et les ingénieurs seraient bien contents de disposer d'un algorithme qui puisse faire la même chose ...

Dans quel but ?

L'analyse du langage et de la manière dont il est perçu peut faciliter la communication homme-machine en rendant moins sensible aux perturbations sonores accidentelles la technique de commande vocale basée sur la reconnaissance spectrale du langage de l'utilisateur. On peut aussi réaliser des synthèses vocales plus réalistes. L'information auditive est par nature monocanale et linéaire, mais on peut tenter d'aider un utilisateur à mieux se retrouver dans un système où il doit suivre plusieurs signaux sonores simultanés transportant de l'information et à lui permettre de focaliser son attention sur l'un des discours tout en ayant la possibilité de s'intéresser subitement à un autre, de zapper en somme à travers la large bande passante d'un hypermedia audio.

Et, il y a des pistes pratiques ?

Il y a eu plus d'études du coté de la technique que du coté de la physiologie. Les mathématiciens ont en effet fourni des outils qui permettent d'analyser des signaux complexes. Les théories du chaos, de la logique floue, les ondelettes, et les réseaux neuronaux sont des méthodes de traitement du signal qui deviennent industrielles, en particulier pour extraire du sens d'un bruit. Les physiciens utilisent la transformation en séries de Fourier pour maitriser un signal périodique complexe. Il s'agit d'une fonction mathématique qui fait intervenir des sommes de fonctions sinusoïdales. Plus récente la décomposition en ondelettes, autres fonctions mathématiques, est efficace pour les problèmes non linéaires et pour écarter le bruit de fond. Mais là, l'image est plus concernée que le son car ces techniques mathématiques sont essentielles pour compresser les images et réduire ainsi le nombre d'informations numériques à transmettre à distance. Ces développements sont trés importants pour assurer l'émergence des nouveaux réseaux à large bande passante qui nous permettront bientôt de recevoir de l'image animée, du son et du texte numérisé. Ainsi, le curieux effet "cocktail party" est un élément technique analogique de la mise au point de ce nouveau média ...
Radio Classique 160 17 Avril 1997


Le paradoxe français


Il y a longtemps que les épidémiologistes ont observé un phénomène curieux. On meurt proportionnellement moins en France de problèmes cardiaques qu'ailleurs : en Russie, ou aux Etats Unis. Mais aussi, on meurt du coeur deux fois moins dans la région de Toulouse que dans celle de Lille. Ces différences géographiques semblent devoir s'expliquer par les habitudes alimentaires. Parmi elles, un consensus semble s'établir sur la corrélation négative entre la consommation de vin rouge et le risque d'accidents cardiaques.

Donc il est bon de boire du vin rouge !

Avec modération évidemment ! C'est la découverte de cette corrélation rapportée par un article de la revue médicale Lancet en Mai 1979 qui a lancé l'expression "the french paradox" qui fait enrager nos amis américains car il leur semble que la vertu alimentaire n'est pas récompensée. Les français qui mangent gras et beaucoup, mais en arrosant le repas de quelques verres de vin, paraissent relativement épargnés par les dangers de l'arthérosclérose.

Mais, pourquoi ?

La question est en fait complexe. Les parois internes des artères de gros et moyen calibre peuvent être le siège d'un dépot qui augmente avec l'âge et qui est composé de l'imbrication d'un assez grand nombre de composés chimiques. C'est une accumulation locale de lipides, en particulier de cholestérol, de glucides complexes, de sang, de produits sanguins, de tissus fibreux et de dépots calcaires. Un élément essentiel de la formation de ces corps est l'oxydation de lipoprotéines du sang qui initie la chaine qui conduit aux dépots indésirables. La plaque d'athérome peut se fissurer et les parties arrachées à la surface peuvent conduire à des accidents brutaux comme les thromboses. La stabilité mécanique de la plaque a donc aussi une certaine importance.

Et quel rapport avec l'alimentation ?

Les éléments protecteurs dans l'alimentation agissent au niveau de ces facteurs fondamentaux. La nourriture apporte notamment des anti-oxydants, généralement des vitamines qui vont éliminer les radicaux libres, espèces chimiques qui peuvent être de puissants oxydants. Parmi ces vitamines, la plus connue est l'alpha-tocophérol, la vitamine E, qui a été consacrée aux Etats Unis comme l'une des substances les plus efficaces de l'année 1996 dans la lutte contre les maladies cardiaques. Cette vitamine se trouve dans certaines huiles et "the french paradox" est maintenant soupçonné d'être lié en partie à la consommation d'huile d'olive dans le sud du pays, mais aussi à celle plus générale de l'huile de tournesol qui contient sept fois plus de vitamine E que l'huile de soja consommée en Amérique. Ceci est renforcé par l'observation du trés faible niveau de mortalité cardiaque en Crète ce qui a eu pour effet de promouvoir le "régime crétois", riche en sources de vitamine E, dont l'efficacité a été démontrée par un article du Lancet de Juin 1994.

Mais alors, le vin ?

Figurez-vous que le vin rouge contient aussi des tannins. Ceux ci appartiennent à une grande classe de produits chimiques, les flavonoides qui sont des polyphénols d'une trés grande variété, puisqu'on en compte à peu près 4000 dans la nature, et qui sont présents dans de nombreux aliments. Or, ces substances fonctionnent comme des enzymes qui ont également des propriétés anti-oxydantes. Les plantes les fabriquent d'ailleurs pour se défendre contre les parasites et les champignons et ils sont la source des belles couleurs de nombreuses fleurs. Ils peuvent donc diminuer la concentration des sources d'oxydation des graisses comme le font les vitamines E, et C, et mais aussi la B sous forme d'acide folique, un produit trés simple contenu dans de nombreux légumes comme les épinards. Une étude toute récente montre que le simple jus de raisin a de bonnes qualités protectrices lui aussi, mais selon d'autres sources, les tannins ne seraient vraiment efficaces qu'en présence d'alcool, ce qui revient à donner la formule médicale ... du vin de Bordeaux ...











PAGE 6


PAGE 5